NIST relata vulnerabilidades de IA: ataques cibernéticos representam ameaças não resolvidas

No cenário tecnológico em constante mudança, a promessa da inteligência artificial (IA) vai ao encontro de uma preocupação crescente: a vulnerabilidade dos sistemas de IA a ataques cibernéticos. Recentemente, o Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio dos EUA divulgou um relatório sobre “Inteligência Artificial Confiável e Responsável”, lançando luz sobre os desafios persistentes na defesa de sistemas de IA contra atores mal-intencionados. O relatório identifica quatro tipos de ataques cibernéticos que podem manipular o comportamento dos sistemas de IA, instando a comunidade a projetar defesas mais robustas.

As ameaças do aprendizado de máquina adversário

O relatório do NIST investiga as complexidades do aprendizado de máquina adversário, classificando possíveis invasores em três tipos distintos: hackers de caixa branca, hackers de sandbox e hackers de caixa cinza. Os hackers de caixa branca têm conhecimento completo dos sistemas de IA, os hackers de sandbox têm acesso mínimo e os hackers de caixa cinza possuem informações parciais sobre um sistema de IA, mas não têm acesso aos seus dados de treinamento. Apesar dos diferentes graus de compreensão, todos os três representam sérias ameaças à integridade dos sistemas de IA.

A fraude no mundo digital está aumentando, conforme destacado por Gerhard Oosthuizen, CTO da Entersekt. A tecnologia que inicialmente prometia vitórias apresenta agora desafios maiores face à crescente sofisticação das atividades fraudulentas. O relatório do NIST destaca riscos crescentes à medida que a inteligência artificial se torna mais integrada na nossa economia conectada.

O relatório destaca dois grandes ataques adversários de aprendizado de máquina: envenenamento e abuso. O envenenamento do sistema de IA envolve a injeção de dados corrompidos durante a fase de treinamento, levando ao mau funcionamento dos sistemas. O NIST cita um exemplo em que um invasor injeta linguagem inadequada em registros de conversas, fazendo com que um chatbot adote essas instâncias como linguagem comum nas interações com o cliente.

Por outro lado, os ataques de abuso envolvem a inserção de informações incorretas em uma fonte legítima que o sistema de IA absorve. Esses ataques visam redefinir o uso pretendido do sistema de IA, fornecendo informações incorretas. Alina Oprea, coautora do relatório do NIST e professora da Northeastern University, destaca a simplicidade desses ataques, que exigem conhecimento e capacidades adversárias mínimas.

Ataques cibernéticos revelados – Explorando a complexidade da defesa de IA

Ataques de privacidade e ataques de evasão acrescentam camadas adicionais de complexidade à defesa de IA. Os ataques à privacidade tentam coletar informações confidenciais sobre a IA ou seus dados de treinamento, usando perguntas legítimas para decodificar o modelo. Os ataques de evasão, que ocorrem após a implantação, tentam alterar as respostas do sistema de IA às entradas tradicionais. Isto inclui alterações enganosas nos sinais de trânsito, que colocam em risco os veículos autônomos.

O desafio geral reside na dificuldade de fazer com que os modelos de IA desaprendem os comportamentos ensinados, mesmo quando estes se revelam prejudiciais ou prejudiciais. À medida que a inteligência artificial se torna mais enraizada nas nossas vidas quotidianas, o relatório alerta para a necessidade crescente de abordar estas vulnerabilidades para evitar falhas catastróficas.

À medida que o espectro dos ataques cibernéticos paira sobre o avanço da inteligência artificial, o relatório do NIST chama a atenção para os desafios não resolvidos na proteção dos sistemas de IA. O apelo à comunidade para melhores defesas destaca a urgência de abordar estas vulnerabilidades. Será que a comunidade de IA conseguirá conceber coletivamente medidas infalíveis para se proteger contra ameaças cibernéticas em constante evolução ou estamos condenados a navegar no labirinto cada vez maior de ataques adversários de aprendizado de máquina? O futuro da defesa baseada em IA depende da nossa capacidade de inovar e de estarmos um passo à frente daqueles que procuram explorar as suas vulnerabilidades.