Inteligência artificial sob escrutínio: privacidade, preconceito e o impulso para a descentralização

Inteligência artificial sob escrutínio: privacidade, preconceito e o impulso para a descentralização

A inteligência artificial (IA) é uma tecnologia poderosa e transformadora, mas ainda representa uma enorme ameaça de perturbar a civilização humana se for tratada incorretamente. ChatGPT, o pioneiro Large Language Model (LLM), conta com uma base de usuários de aproximadamente 180 milhões de usuários mensais. Isto sinaliza que as ferramentas generativas de IA se tornaram aplicações quotidianas, com pessoas de todas as esferas da vida a utilizar a tecnologia para melhorar a sua produtividade ou criatividade.

Mas no meio desta forte adopção reside o perigo: o que acontece quando actores desonestos decidem abusar da IA ​​generativa para promover as suas próprias agendas? Já existem preocupações de que alguns intervenientes estejam a utilizar IA generativa para interferir nas eleições, enganando os eleitores com falsificações profundas e outros conteúdos gerados por IA.

De acordo com um boletim federal recente das agências de segurança dos EUA, a inteligência artificial generativa é uma das ameaças nas próximas eleições presidenciais marcadas para Novembro de 2024.

“Vários atores de ameaças provavelmente tentarão usar inteligência artificial generativa (IA), ou seja, mídia aumentada, para influenciar e semear discórdia durante o ciclo eleitoral de 2024 nos EUA, e as ferramentas de IA poderiam ser potencialmente usadas para aumentar os esforços para interromper as eleições, ”O relatório observou. boletim.

Bem, esta é apenas a ponta do iceberg. A armadilha mais significativa dos LLMs e de outras ferramentas generativas de IA são as empresas por trás dessas inovações. Um olhar mais atento aos desenvolvimentos em curso na indústria destaca uma situação em que as grandes tecnologias estão a posicionar-se para continuar a controlar as massas.

ChatGPT investigado por violações de privacidade

No ano passado, a empresa controladora do ChatGPT, OpenAI, foi examinada por vários reguladores em todo o mundo, incluindo a Comissão Federal de Comércio dos EUA (FTC). A FTC solicitou à OpenAI que fornecesse informações detalhadas sobre suas práticas de segurança e privacidade de dados. Enquanto isso, na Itália, os reguladores bloquearam o ChatGPT devido a preocupações com a privacidade, uma medida que levou outros reguladores da UE a colocar o ChatGPT no centro das atenções.

O que é mais preocupante, no entanto, são as críticas recentes de figuras proeminentes como o denunciante da NSA, Edward Snowden, que alertou contra o ChatGPT após a nomeação pela OpenAI de um ex-diretor da NSA para o conselho de administração da empresa. Elon Musk também veio a público, criticando uma potencial colaboração entre a OpenAI e a Apple, que ele acredita que levará a uma violação do direito à privacidade.

Google Twins acusados ​​de preconceito racial

O Gemini LLM do Google é outro caso ilustrativo do preconceito ao qual a IA generativa pode sujeitar os consumidores, consciente ou inconscientemente. Esta ferramenta de IA recebeu muitas reações negativas por gerar imagens que sugeriam algum grau de preconceito racial. Os usuários reclamaram que o Gemini não conseguiu gerar imagens de pessoas brancas retratando certos eventos históricos.

Em vez disso, este AI LLM foi tendencioso a gerar imagens de pessoas de cor, mesmo quando estavam claramente fora do contexto. Um bom exemplo é quando um usuário pediu ao Gemini para gerar imagens dos pais fundadores da América; Imagens de mulheres negras geradas por IA. Além disso, o Google alertou recentemente os usuários do Gemini para não compartilharem nenhuma informação confidencial com o LLM, já que anotadores humanos leem e rotulam regularmente as comunicações para melhorar o modelo.

Recurso de recall da Microsoft apelidado de ‘spyware’

A versão mais recente do Windows da Microsoft também foi atacada por um recurso de seu novo assistente de IA, o Copilot. O recurso “Recall” foi projetado para registrar a atividade da tela, permitindo aos usuários reproduzir facilmente um evento específico ou revisitar certas atividades, semelhante às operações da memória fotográfica.

Isso não agradou muitos críticos que compararam o Recall ao spyware. Vários usuários no Twitter (anteriormente extraem informações.

Os desenvolvimentos da IA ​​podem ser democratizados?

Embora a democratização das inovações em IA possa estar muito distante, dada a influência e o acesso a dados treináveis ​​que as empresas pioneiras (grandes tecnologias) têm atualmente, é possível descentralizar as inovações em IA.

Uma forma de conseguir isto é integrar a tecnologia blockchain, que é fundamentalmente concebida para funcionar democraticamente, para que nenhuma autoridade ou ponto de falha possa comprometer a rede.

Por exemplo, no blockchain Qubic de camada 1, alimentado por IA, o ecossistema é alimentado por uma moeda utilitária descentralizada chamada $QUBIC. Esta moeda nativa foi projetada como uma “unidade de energia” que essencialmente alimenta operações de contratos inteligentes e outros serviços dentro da plataforma Qubic. Ao contrário dos desenvolvimentos centralizados de IA, qualquer pessoa pode contribuir para as operações da Qubic comprando em bolsas como gate.io ou participando do ecossistema de mineração Useful Proof-of-Work (PoW) da Qubic.

Outra forma de introduzir a democracia na IA é através da autorregulação. Da forma como está, a maioria dos reguladores em todo o mundo está tentando se atualizar, tornando muito difícil regular a indústria de IA. Contudo, se os intervenientes neste sector aceitassem alguma forma de auto-regulação, tudo ficaria mais harmonizado.

Na verdade, no ano passado, sete empresas, incluindo OpenAI, Microsoft, Google, Meta, Amazon, Anthropic e Inflection, concordaram num documento auto-regulador para garantir confiança, privacidade e segurança. Um passo na direção certa, mas o que acontece quando todos estes intervenientes conspiram para violar a privacidade dos consumidores ou promover preconceitos políticos e sociais? Este é o alerta sobre a autorregulação.

Conclusão

Conforme destacado neste artigo, a centralização da inteligência artificial representa um risco para os princípios fundamentais da sociedade atual. Por um lado, poderia ser utilizada para se infiltrar no tecido moral, enquanto, por outro, a inteligência artificial representa uma ameaça à própria democracia política.

A beleza, porém, é que, tal como a Internet, ainda temos a oportunidade de integrar a moderação nos desenvolvimentos da IA. Mais importante ainda, temos tecnologias avançadas, como a blockchain, que poderiam servir como um alicerce para inaugurar um futuro transparente e imparcial que pode realmente beneficiar a sociedade.