Funcionários de gigantes da IA alertam sobre perigos da tecnologia em carta aberta (05/06/2024)

Fonte: CenárioMT

O Chrome está espionando seu histórico de navegação?
Créditos: Hal / Walt Disney

Um grupo de funcionários e ex-funcionários de empresas de inteligência artificial (IA) de ponta publicou um manifesto pedindo mais proteção para denunciar riscos à segurança pública e ao bem-estar social. Entenda hoje, 05/06/2024.

No manifesto, os funcionários argumentam que as empresas de IA possuem informações substanciais não públicas sobre os riscos de seus sistemas, mas têm poucas obrigações de compartilhá-las com governos ou a sociedade civil. Eles também expressam preocupação com o fato de que acordos de confidencialidade os impedem de falar sobre esses riscos publicamente e que as proteções comuns para denunciantes são insuficientes.

Inteligência artificial fora de controle?

Funcionários de gigantes da anteligência artificial alertam sobre perigos da tecnologia em carta aberta (05/06/2024)
Créditos: Google Gemini

Especialistas em inteligência artificial (IA) de empresas como OpenAI e DeepMind soaram o alarme em uma carta aberta, expondo perigos da tecnologia e criticando a falta de transparência das empresas do ramo.

[-CONTINUA APÓS A PUBLICIDADE-]

A carta, intitulada “O Direito de Alertar Sobre Inteligência Artificial Avançada”, critica a forma como as empresas lidam com a IA, principalmente em relação à transparência. Segundo os autores, as empresas só compartilham informações com seus funcionários, deixando governos, entidades e a sociedade no escuro.

Falta de controle e riscos à vista pedem medidas urgentes:

Funcionários de gigantes da anteligência artificial alertam sobre perigos da tecnologia em carta aberta (05/06/2024)
Créditos: Google DeepMind

Os especialistas argumentam que as empresas de IA têm incentivos financeiros para evitar a supervisão e que estruturas internas de governança não são suficientes para conter os riscos.

Para combater o problema, o grupo propõe quatro princípios que as empresas de IA devem seguir:

  • Sem mordaça: Proibição de acordos que silenciem críticas de funcionários.
  • Canal de denúncias seguro: Criação de um processo confiável e anônimo para alertas sobre riscos.
  • Cultura de crítica aberta: Incentivo à cultura de feedback e questionamentos.
  • Transparência radical: Permissão aos funcionários de relatar riscos à população, inclusive com compartilhamento de informações confidenciais como último recurso.

Um futuro incerto:

A carta expõe preocupações com o futuro da IA e o papel das empresas no desenvolvimento dessa tecnologia. Resta saber se as empresas atenderão ao chamado e tomarão medidas para garantir a segurança e a responsabilidade no uso da IA.

Segue a tradução da carta:

Somos funcionários atuais e antigos de empresas de fronteira em Inteligência Artificial (IA) e acreditamos no potencial da tecnologia IA para fornecer benefícios sem precedentes à humanidade.

Também compreendemos os graves riscos impostos por essas tecnologias. Esses riscos vão desde a maior consolidação das desigualdades existentes, até a manipulação e desinformação, à perda de controle de sistemas autônomos de IA podendo resultar em extinção humana.

As próprias empresas de IA reconheceram esses riscos [1, 2, 3], assim como governos em todo o mundo [4, 5, 6] e outros especialistas em IA [7, 8, 9]. (pontos condensados abaixo)

Esperamos que esses riscos possam ser adequadamente mitigados com orientação suficiente da comunidade científica, formuladores de políticas e o público. No entanto, as empresas de IA têm fortes incentivos financeiros para evitar supervisão efetiva, e não acreditamos que estruturas sob medida de governança corporativa sejam suficientes para mudar isso.

As empresas de IA possuem informações substanciais não públicas sobre as capacidades e limitações de seus sistemas, a adequação de suas medidas de proteção e os níveis de risco de diferentes tipos de danos.

No entanto, atualmente elas têm apenas obrigações fracas de compartilhar algumas dessas informações com governos e nenhuma com a sociedade civil. Não achamos que todas elas possam ser confiáveis para compartilhá-las voluntariamente.

Desde que não haja supervisão governamental efetiva dessas corporações, os funcionários atuais e antigos estão entre as poucas pessoas que podem responsabilizá-las perante o público.

No entanto, amplos acordos de confidencialidade nos impedem de expressar nossas preocupações, exceto para as próprias empresas que podem estar falhando em lidar com esses problemas. Proteções comuns para denunciantes são insuficientes porque se concentram em atividades ilegais, enquanto muitos dos riscos que nos preocupam ainda não são regulamentados.

Alguns de nós tememos razoavelmente várias formas de retaliação, dado o histórico de tais casos em todo o setor. Não somos os primeiros a encontrar ou falar sobre esses problemas. Portanto, pedimos às empresas de IA avançadas que se comprometam com estes princípios:

Que a empresa não celebre ou aplique nenhum acordo que proíba “difamação” ou crítica da empresa por questões relacionadas a riscos, nem tome represálias por críticas relacionadas a riscos, dificultando qualquer benefício econômico adquirido;

Que a empresa facilite um processo verificávelmente anônimo para que funcionários atuais e antigos levantem preocupações relacionadas a riscos ao conselho da empresa, aos reguladores e a uma organização independente apropriada com experiência relevante;

Que a empresa apoie uma cultura de crítica aberta e permita que seus funcionários atuais e antigos levantem preocupações relacionadas a riscos sobre suas tecnologias ao público, ao conselho da empresa, aos reguladores ou a uma organização independente apropriada com experiência relevante, desde que segredos comerciais e outros interesses de propriedade intelectual estejam protegidos adequadamente;

Que a empresa não tome represálias contra funcionários atuais e antigos que compartilhem publicamente informações confidenciais relacionadas a riscos após a falha de outros processos.

Aceitamos que qualquer esforço para relatar preocupações relacionadas a riscos deva evitar a liberação desnecessária de informações confidenciais. Portanto, uma vez que exista um processo adequado para levantar preocupações anonimamente ao conselho da empresa, aos reguladores e a uma organização independente apropriada com experiência relevante, aceitamos que as preocupações sejam inicialmente levantadas por meio desse processo.

No entanto, desde que tal processo não exista, os funcionários atuais e antigos devem manter sua liberdade de relatar suas preocupações ao público.

Assinado por:

Jacob Hilton, Ex-funcionário da OpenAI;

Daniel Kokotajlo, Ex-funcionário da OpenAI;

Ramana Kumar, Ex-funcionário da Google DeepMind;

Neel Nanda, Atual funcionário da Google DeepMind, Ex-funcionário da Anthropic;

William Saunders, Ex-funcionário da OpenAI;

Carroll Wainwright, Ex-funcionário da OpenAI;

Daniel Ziegler, Ex-funcionário da OpenAI;

Anônimo, Atual funcionário da OpenAI;

Anônimo, Atual funcionário da OpenAI;

Anônimo, Atual funcionário da OpenAI;

Anônimo, Atual funcionário da OpenAI;

Anônimo, Ex-funcionário da OpenAI;

Anônimo, Ex-funcionário da OpenAI;

Eis um resumo sobre os pontos citados como [1, 2, 3…]:

  • Empresas de IA: OpenAI, Anthropic e Google DeepMind reconhecem o potencial de “acidentes drásticos”, “desalinhamento” com objetivos humanos, e até mesmo ameaças existenciais representadas por uma IA superinteligente.

  • Governos: Tanto os EUA quanto o Reino Unido enfatizam os riscos de fraude, discriminação, desinformação, perda de empregos, concentração de poder e ameaças à segurança nacional.

  • Declaração de Bletchley (29 países): Representantes de nações expressam preocupação com o potencial de “danos graves, até mesmo catastróficos” em áreas como cibersegurança e biotecnologia.

  • Organizações sem fins lucrativos: Especialistas alertam para os perigos de vieses algorítmicos, desinformação, erosão da democracia e deslocamento de trabalhadores. O risco de extinção causado pela IA é comparado a ameaças globais como pandemias e guerra nuclear.

Este manifesto é um passo importante para iniciar uma conversa crucial sobre o futuro da IA.

Riscos da inteligência artificial: Uma análise abrangente

Funcionários de gigantes da anteligência artificial alertam sobre perigos da tecnologia em carta aberta (05/06/2024)
Créditos: ChatGPT

A inteligência artificial (IA) se tornou uma ferramenta poderosa com o potencial de transformar diversos aspectos da nossa sociedade. No entanto, ao lado dos benefícios promissores, surgem preocupações significativas sobre os riscos que essa tecnologia pode trazer. É crucial ter um entendimento abrangente desses riscos para que possamos desenvolver e utilizar a IA de forma responsável e ética.

1. Riscos à Segurança e ao Bem-Estar:

  • Armas Autônomas: A criação de armas autônomas que operam sem controle humano levanta sérias preocupações éticas e de segurança. A possibilidade de tais armas serem usadas acidentalmente ou intencionalmente de forma prejudicial representa um risco grave à vida humana e à estabilidade global.
  • Vigilância e Controle: O uso da IA em sistemas de vigilância e monitoramento pode levar à invasão da privacidade e à repressão de liberdades civis. A coleta e análise massiva de dados pessoais podem ser usadas para manipular comportamentos e controlar populações.
  • Desigualdade e Discriminação: Algoritmos de IA podem perpetuar e amplificar vieses existentes na sociedade, levando à discriminação contra grupos minoritários em áreas como emprego, acesso à moradia e crédito.

2. Riscos Econômicos e Sociais:

  • Perda de Empregos: A automação impulsionada pela IA pode levar à perda significativa de empregos em diversos setores, causando desemprego em massa e instabilidade social. É crucial desenvolver políticas para mitigar esses impactos e garantir a requalificação e reinserção dos trabalhadores afetados.
  • Desigualdade Econômica: A IA pode exacerbar a desigualdade econômica, concentrando riqueza e poder nas mãos de um pequeno número de indivíduos e empresas. É necessário garantir que os benefícios da IA sejam distribuídos de forma justa e equitativa.
  • Manipulação de Mercados: O uso de IA em mercados financeiros pode levar à manipulação de preços, fraudes e instabilidade econômica. É necessário desenvolver mecanismos de regulamentação e supervisão para garantir a transparência e a justiça nos mercados.

3. Riscos Existenciais:

  • Superinteligência: Alguns especialistas alertam para o risco de criar uma inteligência artificial superinteligente que supere a capacidade intelectual humana e possa representar uma ameaça à nossa existência. É crucial estabelecer salvaguardas e protocolos para garantir que a IA permaneça sob controle humano.
  • Impacto Ambiental: O desenvolvimento e uso da IA podem ter um impacto ambiental significativo, consumindo grandes quantidades de energia e gerando resíduos eletrônicos. É necessário desenvolver tecnologias de IA ambientalmente sustentáveis e minimizar seu impacto no planeta.

Os riscos da IA são complexos e multifacetados, exigindo uma análise profunda e um debate público abrangente. É fundamental abordar esses riscos de forma proativa e desenvolver medidas de mitigação adequadas para garantir que a IA seja utilizada de forma segura, ética e responsável, promovendo o bem-estar da humanidade e protegendo os valores democráticos e os direitos humanos.