Declínio do desempenho do chatbot: desafios de dados ameaçam o futuro da IA ​​generativa

Declínio do desempenho do chatbot: desafios de dados ameaçam o futuro da IA ​​generativa

Os chatbots modernos estão constantemente aprendendo e seu comportamento está sempre mudando. Mas seu desempenho pode diminuir, bem como melhorar.

Estudos recentes minam a suposição de que aprender sempre significa melhorar. Isso tem implicações para o futuro do ChatGPT e seus pares. Para garantir que os chatbots permaneçam funcionais, os desenvolvedores de inteligência artificial (IA) devem enfrentar os desafios emergentes de dados.

ChatGPT fica mais burro com o tempo

Um estudo publicado recentemente mostrou que os chatbots podem se tornar menos capazes de realizar determinadas tarefas ao longo do tempo.

Para chegar a essa conclusão, os pesquisadores compararam os resultados dos Large Language Models (LLM) GPT-3.5 e GPT-4 em março e junho de 2023. Em apenas três meses, eles observaram mudanças significativas nos modelos subjacentes ao ChatGPT.

Por exemplo, em março, o GPT-4 conseguiu identificar números primos com 97,6% de precisão. Em junho, sua precisão havia caído para apenas 2,4%.

ChatGPT GPT-4 GPT-3.5 Degradação de desempenho
Respostas GPT-4 (esquerda) e GPT-3.5 (direita) para a mesma pergunta em março e junho (fonte: arXiv )

O experimento também avaliou a rapidez com que os modelos foram capazes de responder a perguntas delicadas, o quão bem eles poderiam gerar código e sua capacidade de raciocínio visual. Entre todas as habilidades testadas, a equipe observou instâncias de qualidade de saída de IA se deteriorando com o tempo.

O desafio dos dados de treinamento em tempo real

O Machine Learning (ML) é baseado em um processo de treinamento pelo qual os modelos de IA podem emular a inteligência humana processando grandes quantidades de informações.

Por exemplo, os LLMs que alimentam os chatbots modernos foram desenvolvidos devido à disponibilidade de enormes repositórios online. Isso inclui conjuntos de dados compilados de artigos da Wikipedia, que permitem que os chatbots aprendam digerindo o maior corpo de conhecimento humano já criado.

Mas agora, os gostos do ChatGPT foram lançados na natureza. E os desenvolvedores têm muito menos controle sobre seus dados de treinamento em constante mudança.

O problema é que tais modelos também podem "aprender" a dar respostas erradas. Se a qualidade de seus dados de treinamento se deteriorar, seus resultados também. Isso representa um desafio para chatbots dinâmicos que são alimentados com uma dieta constante de conteúdo baixado da web.

O envenenamento de dados pode levar à degradação do desempenho do chatbot

Como eles tendem a confiar no conteúdo extraído da web, os chatbots são especialmente propensos a um tipo de manipulação conhecido como envenenamento de dados.

Isso é exatamente o que aconteceu com o bot do Twitter Tay da Microsoft em 2016. Menos de 24 horas após seu lançamento, o predecessor do ChatGPT começou a postar tweets inflamatórios e ofensivos. Os desenvolvedores da Microsoft rapidamente colocaram isso em espera e voltaram para a prancheta.

Acontece que os trolls online têm enviado spam ao bot desde o início, manipulando sua capacidade de aprender com as interações com o público. Depois de ser bombardeado com insultos por um exército de 4channers, não é de admirar que Tay tenha começado a repetir sua retórica odiosa.

Como Tay, os chatbots contemporâneos são produtos de seu ambiente e são vulneráveis ​​a ataques semelhantes. Até a Wikipedia, que tem sido tão importante no desenvolvimento do LLM, pode ser usada para envenenar dados de treinamento de ML.

No entanto, dados intencionalmente corrompidos não são a única fonte de desinformação com a qual os desenvolvedores de chatbots precisam ter cuidado.

Colapso do modelo: uma bomba-relógio para os chatbots?

À medida que as ferramentas de IA crescem em popularidade, o conteúdo gerado por IA está proliferando. Mas o que acontece com os LLMs treinados em conjuntos de dados baixados da Web se uma porcentagem crescente desse conteúdo for criada por aprendizado de máquina?

Umainvestigação recente sobre os efeitos da recursão em modelos de ML explorou exatamente essa questão. E a resposta que ele encontrou tem implicações importantes para o futuro da IA ​​generativa.

Os pesquisadores descobriram que, quando materiais gerados por IA são usados ​​como dados de treinamento, os modelos de ML começam a esquecer as coisas que aprenderam anteriormente.

Cunhando o termo "colapso de modelo", eles observaram que diferentes famílias de IA tendem a degenerar quando expostas a conteúdo criado artificialmente.

A equipe criou um ciclo de feedback entre um modelo de ML gerador de imagens e sua saída em um experimento.

Após observação, eles descobriram que, após cada iteração, o modelo ampliava seus erros e começava a esquecer os dados gerados por humanos com os quais começou. Após 20 ciclos, a saída dificilmente se assemelhava ao conjunto de dados original.

Aprendizado de máquina recursivo gera colapso do modelo
Saída de um modelo de ML gerando imagens (Fonte:arXiv

Os pesquisadores observaram a mesma tendência de escalar quando jogaram um cenário semelhante com um LLM. E a cada iteração, erros como frases repetidas e fala quebrada ocorriam com mais frequência.

A partir disso, o estudo especula que as futuras gerações do ChatGPT podem estar em risco de colapso do modelo. À medida que a IA gera cada vez mais conteúdo online, o desempenho dos chatbots e outros modelos generativos de aprendizado de máquina pode diminuir.

Conteúdo confiável necessário para evitar a degradação do desempenho do chatbot

No futuro, fontes de conteúdo confiáveis ​​se tornarão cada vez mais importantes para proteção contra os efeitos degenerativos de dados de baixa qualidade. E as empresas que controlam o acesso ao conteúdo necessário para treinar modelos de ML possuem as chaves para mais inovação.

Afinal, não é coincidência que gigantes da tecnologia com milhões de usuários sejam alguns dos maiores nomes da IA.

Somente na última semana, a Meta revelou a versão mais recente de seu LLM Llama 2, o Google lançou novos recursos para o Bard e circulam relatos de que a Apple também está se preparando para entrar na briga.

Seja causado por envenenamento de dados, sinais iniciais de colapso do modelo ou algum outro fator, os desenvolvedores do chatbot não podem ignorar a ameaça de degradação do desempenho.

O post Chatbot Performance Decline: Data Challenges Threaten the Future of Generative AI apareceu pela primeira vez no BeInCrypto .