Toda a turbulência dentro da OpenAI, Google DeepMind e Anthropic contra a IA

Toda a turbulência dentro da OpenAI, Google DeepMind e Anthropic contra a IA

A evolução da inteligência artificial apresenta “sérios riscos”. Antigos, mas também atuais, funcionários da OpenAI, Google DeepMind e Anthropic dizem isso em uma carta aberta, também apoiada pelos padrinhos da IA. Todos os detalhes

Um novo apelo alerta para os “graves riscos” da evolução da inteligência artificial (IA). Desta vez é uma carta aberta de um grupo de ex-, mas também atuais, funcionários das principais empresas de IA: OpenAI, Google DeepMind e Anthropic.

Em particular, 13 signatários, alguns dos quais queriam permanecer anónimos, denunciam as empresas de IA pela falta de supervisão e transparência e pedem também maiores proteções para os denunciantes, ou seja, aqueles que denunciam ou denunciam atividades ilícitas.

QUE RISCOS (INCLUINDO A EXTINÇÃO HUMANA) A IA COLOCA

No seu apelo, os especialistas reconhecem o potencial da inteligência artificial para gerar “benefícios sem precedentes para a humanidade”, mas também dizem estar conscientes dos “graves riscos que estas tecnologias representam”.

“Estes – lemos na carta – vão desde o fortalecimento das desigualdades existentes, à manipulação e desinformação, até à perda de controlo de sistemas autónomos de IA que podem levar à extinção humana. As próprias empresas de IA reconheceram estes riscos, tal como os governos de todo o mundo e outros especialistas em IA.”

A possibilidade de a IA levar à extinção de seres humanos já tinha sido relatada no final de 2023 no documento de um grupo de investigadores das universidades de Oxford e Berkeley, que envolveu 2.778 especialistas do setor tecnológico num estudo para comprovar a compreensão o impacto da IA ​​na sociedade. Quase metade deles disse que havia 5% de chance de que a IA se tornasse tão incontrolável que causaria a extinção humana.

AS ACUSAÇÕES CONTRA EMPRESAS DE IA

Funcionários atuais e antigos da OpenAI, Google DeepMind e Antrópico esperam que estes riscos possam ser adequadamente mitigados com orientação suficiente da comunidade científica, dos decisores políticos e do público. No entanto, acreditam que “as empresas de IA têm fortes incentivos financeiros para evitar uma supervisão eficaz” e não acreditam que estruturas de governação corporativa personalizadas “sejam suficientes para mudar esta situação”.

As grandes empresas de IA, de facto, segundo a carta, “possuem informações substanciais não públicas sobre as capacidades e limitações dos seus sistemas, a adequação das suas medidas de protecção e os níveis de risco de diferentes tipos de danos”, mas “actualmente eles têm apenas uma fraca obrigação de partilhar algumas destas informações com os governos e nenhuma com a sociedade civil.”

Por esta razão, os especialistas acreditam que não se pode confiar que todos compartilhem voluntariamente tais informações.

DENUNCIANTE REFÉM

É por isso que, conforme afirma a carta, as poucas pessoas que podem informar a empresa são os actuais e antigos funcionários que, no entanto, devem submeter-se a extensos acordos de confidencialidade que os impedem de expressar as suas preocupações, excepto com as próprias empresas, que no entanto, pode não querer abordar essas questões.

Neste sentido, pedem, portanto, maior proteção aos denunciantes, que têm motivos para temer “várias formas de retaliação”.

Por exemplo, Daniel Kokotajlo, um dos sete autores da carta, é um pesquisador quedeixou a OpenAI no mês passado “depois de perder a confiança de que ela se comportaria de maneira responsável”. No entanto, optar por não respeitar o acordo de confidencialidade para criticar abertamente a empresa custou-lhe o seu capital, como afirmou no seu site .

RESPOSTA DA OPENAI

A OpenAI, relata o Guardian , defendeu as suas práticas em comunicado, afirmando que dispõe de meios como uma linha telefónica para reportar problemas dentro da empresa e que não lança novas tecnologias até que haja garantias adequadas. O Google, no entanto, ainda não respondeu a um pedido de comentário.

No entanto, na semana passada, a Vox informou que a OpenAI fez com que os funcionários que saíssem da empresa assinassem documentos extremamente restritivos de não divulgação e não opt-out ou corressem o risco de perder todas as suas ações adquiridas. Sam Altman mais tarde se desculpou após a notícia, dizendo que mudaria seus procedimentos de indenização.

TEMPO ALEATÓRIO?

O Guardian então observa que a carta veio depois que dois funcionários proeminentes da OpenAI, o cofundador Ilya Sutskever e o principal pesquisador de segurança Jan Leike , renunciaram à empresa no mês passado. Leike disse depois de deixar o cargo que a OpenAI abandonou sua cultura de segurança em favor de “produtos brilhantes”.

A carta também afirma que as empresas não têm obrigação de ser transparentes sobre as suas operações, segundo o jornal britânico, ecoando algumas das declarações de Leike e recebeu a aprovação dos “padrinhos” da IA ​​– Yoshua Bengio e Geoffrey Hinton – e do cientista da computação Stuart Russell. , que contribuíram para a investigação instrumental que levou à criação da IA ​​moderna e que se tornaram alguns dos seus maiores críticos .


Esta é uma tradução automática de uma publicação publicada em Start Magazine na URL https://www.startmag.it/innovazione/ex-attuali-dipendenti-di-openai-google-deepmind-e-anthropic-contro-rischi-intelligenza-artificiale/ em Thu, 06 Jun 2024 04:49:41 +0000.