A OpenAI está treinando um novo sistema de IA para suceder ao GPT-4 enquanto a empresa busca uma reinicialização de reputação. O modelo será precedido por um comitê de segurança liderado pelo CEO Sam Altman e três outros diretores.
Leia também: ChatGPT ainda espalha falsidades, diz regulador de dados da UE
A empresa sediada em São Francisco está sob pressão para demonstrar o seu compromisso com a segurança. Jan Leike e Gretchen Krueger, pesquisadores de risco recentemente demitidos, expuseram a cultura de segurança supostamente fraca da OpenAI no X, antigo Twitter.
OpenAI molda o 'modelo da próxima fronteira'
Em uma postagem de blog publicada na terça-feira, a empresa disse :
“A OpenAI começou recentemente a treinar seu próximo modelo de fronteira e esperamos que os sistemas resultantes nos levem ao próximo nível de capacidade em nossa jornada para a inteligência artificial geral (AGI).”
A OpenAI não disse quando o sucessor do GPT-4 será lançado ou o que poderá fazer. A empresa, avaliada em 80 mil milhões de dólares, deu o primeiro passo com o seu popular chatbot de IA, ChatGPT , numa altura em que favoritos como o Google estavam em segundo plano na avaliação do risco reputacional.
Embora a OpenAI esteja na vanguarda da corrida da inteligência artificial generativa, fortemente contestada pela Anthropic, Google , Microsoft e outros, a empresa nem sempre resistiu ao escrutínio ético.
Em uma postagem anunciando sua demissão da OpenAI no X, Leike revelou que “nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação a produtos brilhantes”.
Krueger escreveu que a empresa deve “fazer mais para melhorar aspectos-chave como a tomada de decisões, a responsabilização, a transparência, a aplicação de políticas e o cuidado com que utilizamos a nossa tecnologia”.
Na semana passada, uma força-tarefa da União Europeia criticou o ChatGPT , relatando que o ChatGPT, o principal produto da empresa, está aquém de seus padrões de precisão.
Empresa considera segurança de IA como principal ponto de venda
Enquanto isso, a recente atualização da OpenAI para seu modelo GPT-4 imediatamente gerou uma briga de alto nível, com a atriz Scarlett Johannson acusando a empresa de uso não autorizado de sua voz.
Leia também: OpenAI elimina entrada do ChatGPT após polêmica sobre Scarlett Johansson
Agora, a empresa está assumindo uma liderança acelerada em lavanderias, ao apregoar a segurança como um ponto de venda de seu próximo programa de IA. A organização também deseja ser vista pelos reguladores como uma empresa que desenvolve inteligência artificial responsável. Em sua postagem no blog, OpenAI adicionou:
“Embora estejamos orgulhosos de construir e lançar modelos líderes do setor tanto em capacidade quanto em segurança, acolhemos com satisfação discussões robustas neste momento importante.”
O novo comitê de segurança e proteção será liderado pelos diretores Altman, Bret Taylor (presidente), Adam D'Angelo e Nicole Seligman. O chefe de prontidão, chefe de sistemas de segurança, chefe de ciência de alinhamento, chefe de segurança e cientista-chefe também farão parte do comitê.
A OpenAI disse que nos próximos três meses o comitê “avaliará e desenvolverá processos e salvaguardas” e se reportará a três diretores adicionais.
A empresa dissolveu sua equipe de segurança no início deste mês, após a saída do líder da equipe e cofundador da OpenAI, Ilya Sutskever.
Reportagem criptopolitana de Jeffrey Gogo