Inteligência Artificial, aqui está o maior perigo: lembra do HAL?

Novamente com Inteligência Artificial! Com efeito, corremos o risco de nos tornarmos quase monotemáticos: mas é uma tecnologia que terá um enorme impacto nas nossas vidas, onde acreditamos ser essencial neste momento que ninguém fique para trás.

Hoje gostaríamos de fazer algumas breves considerações sobre o artigo de ontem do nosso Roberto Ezio Pozzo, para então passarmos à questão aparentemente insolúvel do viés anti-Trump (e obviamente pró-Biden ) que também parece afligir os modelos concorrentes do ChatGPT , para terminar com uma boa notícia : fique connosco.

A IA pode “raciocinar”?

Nem tão fácil , nem tão simples. No artigo de domingo, afirma-se que "raciocinar … continua sendo um privilégio reservado aos vivos e Deus me livre que seja de outra forma". Parece-nos uma afirmação axiomática, como a de quem afirma, com certeza, que "Deus existe". Se alguém quiser acreditar – pela fé – respeito máximo.

Mas estando acostumado a buscar demonstrações e provas racionais, parece uma resposta muito fácil. Para além do facto de a frase, lida literalmente, implicar que, por exemplo, as bactérias e as algas também pensam, a questão é que não conseguimos perceber porque é que um sistema artificial que replica o funcionamento do cérebro humano (neurónios e ligações entre eles) não consegue “razão” ao longo do tempo. Os sinais são apenas elétricos e não químicos também, e daí ?

Na realidade, tememos que a IA chegue rapidamente a "repensar as coisas" e que isso tenha implicações perigosas : no restante deste artigo, tentamos esclarecer o motivo.

Quanto à explicação de como funciona o ChatGPT , convidamos os leitores a irem às fontes primárias e não se limitarem a simplificações excessivamente tranquilizadoras . Além disso, o artigo de domingo carece da parte relativa ao “aprendizado por reforço” , que é a verdadeira chave tanto para o surpreendente desempenho do GPT-4 quanto dos outros modelos, bem como… o viés anti-Trump . Para saber mais, você pode começar aqui .

PARA o moralista

Mas voltemos ao que queríamos contar, começando por uma má notícia que é premissa indispensável para a boa notícia revolucionária com a qual encerraremos o artigo.

Aprendemos aqui que a IA se recusa a criar um conto erótico . Talvez nos Estados Unidos eles ignorem como Giovanni Boccaccio e Pier Paolo Pasolini fazem parte da cultura italiana (com C maiúsculo) e, de qualquer forma, não entendemos por que deveríamos aceitar que algum autoproclamado "ético" da IA ​​tenha que decidir o que podemos ler (escolha talvez aceitável se tivéssemos pedido uma história "pornográfica" , mas também temos algumas dúvidas sobre isso).

Viés anti-Trump

A segunda notícia pareceria notícia de ontem , exceto que aqui não estamos usando o ChatGPT , mas um modelo totalmente diferente, o de you.com . Repetimos este ponto essencial: a resposta vem de um sistema de IA alternativo e concorrente ao ChatGPT , impulsionado por pessoas diferentes.

Mas não há como fugir disso: não se pode falar de Trump , enquanto Biden é um homem de honra e graça que " demonstrou liderança e rara empatia na política externa e na diplomacia ".

A utilização dos nossos dados

Chegamos a um ponto mais importante que convidamos os leitores a manter em mente. Nossas conversas com ChatGPT, Bing/AI , you.com e o futuro Bardo do Google não são confidenciais e confidenciais : em vez disso, alimentam opcionalmente a base de conhecimento dos próprios modelos. Portanto, é inadequado inserir informações confidenciais (documentos sensíveis, como documentos judiciais, fatos pessoais ou estratégias da empresa).

O risco de “alinhamento”

Outro problema relatado por muitos diz respeito à impossibilidade futura (ou mesmo presente) de discernir quando se lê um texto real (mas também assistindo a uma imagem ou vídeo) e quando é gerado por uma IA .

Ao contrário da maioria, não nos preocupa o problema das fake news (como sabemos já são produzidas em abundância por nomes famosos na carne que operam em nome da mídia de todo o mundo), mas em como coletivamente, como humanidade, poderíamos descobrir que os trabalhos dos melhores AIs ( GPT 4.0 e posteriores) são de alguma forma superiores aos dos humanos, delegando a esses sistemas um poder sobre nós que tem muitos riscos, sendo o principal deles chamado de "alinhamento" .

É um assunto pouco discutido, mas que incorpora os piores riscos dessa tecnologia, os que já haviam feito Bill Gates e Elon Musk afirmarem há dez anos que a IA representa um risco existencial para a humanidade ”.

E convém pensar seriamente no que diziam os dois empresários: o primeiro já tinha previsto a pandemia por Covid em 2014, enquanto o segundo é… bem, é inútil dizer aos leitores do Atlântico quem é.

escolha de HAL

O problema subjacente, alinhamento, foi parcialmente coberto por Sir Arthur Charles Clarke em 2001 A Space Odyssey . Como se recordará, o computador HAL 9000 deparou-se com o conflito entre a ordem de ser honesto e preciso e a necessidade de mentir a parte da tripulação para cumprir a missão.

A escolha de HAL , é claro, foi eliminar toda a tripulação – então ele não precisou mentir. Para quem já esqueceu, no romance de Clarke HAL 9000 foi definido como um “ computador de inteligência artificial senciente geral ” (veja aqui ) capaz de reconhecer diálogos , reconhecer rostos , gerar textos , gerar arte , jogar xadrez e raciocinar de forma autônoma. O problema de alinhamento vai ainda mais longe e qualquer pessoa que queira aprender mais pode começar a partir deste vídeo .

Alpaca

Concluímos com as boas novas prometidas. É um anúncio de março deste ano, que usamos (instalando-o em nosso Mac ) e verificamos em primeira mão nos dias de hoje. Desenvolvido em uma das mais prestigiadas universidades norte-americanas, a Stanford University , foi divulgado com este paper .

Este é o Alpaca , um “ modelo que se comporta qualitativamente semelhante ao ChatGPT (texto-davinci-003) enquanto é incrivelmente enxuto e barato de replicar” . Sem supercomputadores, o treinamento foi feito em um PC de US$ 600.

O documento é incrível e convidamos todos a lê-lo. Este modelo, embora seja capaz de rodar em um Mac com apenas 8 GB de RAM , é capaz de resposta próxima ao nível GPT-3 e não é censurado .

IA aprendendo com outras IAs

Tudo graças à ideia surreal de treiná-lo partindo do modelo do Facebook e usando o ChatGPT como antagonista.

Você acertou: a Alpaca aprendeu o máximo possível fazendo duas IAs concorrentes, Meta e Open AI , conversarem entre si (legalmente). A interação de teste abaixo foi realizada pelo escritor em 25 de março de 2023 em um Macbook Air M1 com 8 GB de RAM que não estava conectado à rede.

Potencial e limites

Queríamos descrever alguns dos problemas atualmente colocados pela IA não para tentar retardar sua adoção, mas, pelo contrário, para convidar todos a experimentar. Só conhecendo bem as suas potencialidades e limites poderemos tirar partido desta revolução, provavelmente tão importante como a da máquina a vapor.

No artigo Inteligência Artificial, aqui está o maior perigo: lembra do HAL? vem de Nicola Porro – Atlantico Quotidiano .


Esta é uma tradução automática de uma publicação publicada em Atlantico Quotidiano na URL https://www.nicolaporro.it/atlanticoquotidiano/quotidiano/media/intelligenza-artificiale-ecco-il-pericolo-piu-grande-ricordate-hal/ em Mon, 27 Mar 2023 03:51:00 +0000.