Os modelos de IA podem ser arriscados se deixados por elementos desonestos

O Departamento de Comércio sob a administração Biden pretende lançar uma nova iniciativa de conformidade para limitar ainda mais a exportação de modelos de IA de código aberto ou fechado. A iniciativa representa um esforço para salvaguardar os interesses dos EUA e a tecnologia de inteligência artificial da Rússia e da China e complementará as medidas tomadas nos últimos dois anos para bloquear o acesso chinês aos mais recentes chips de computador avançados.

O esforço dos EUA é colocar barreiras de proteção mais rígidas em torno do software central dos grandes modelos de linguagem que alimentam aplicativos como o ChatGPT, informou a Reuters, citando três fontes familiarizadas com o assunto. Embora o meio de comunicação afirme que os investigadores do sector privado e do governo estão preocupados com a possibilidade de os adversários dos EUA utilizarem a tecnologia para ataques cibernéticos agressivos e desenvolverem armas biológicas, a embaixada chinesa opôs-se a esta medida e descreveu-a como intimidação económica unilateral. coerção.

Deepfakes são uma arma letal de desinformação

As ameaças que os Estados Unidos temem são muitas e podem ser exploradas por intervenientes não estatais apoiados pelo Estado. Deepfakes podem ser usados ​​como uma arma eficaz de propaganda, pois envolvem vídeos realistas, mas falsos, criados por ferramentas de inteligência artificial.

Esses tipos de vídeos já estão surgindo nas redes sociais. Embora esse tipo de conteúdo multimídia já exista há alguns anos, desenvolvido com software de animação e renderização, as ferramentas generativas de IA tornaram sua produção fácil para qualquer pessoa, e atores desonestos podem explorá-lo mais facilmente do que nunca para manipular a opinião pública sobre questões delicadas. , especialmente durante as campanhas eleitorais.

Plataformas de redes sociais como YouTube, Facebook e Twitter já tomaram medidas para reduzir os deepfakes, mas as táticas para desenvolvê-los e publicá-los também estão mudando à medida que a tecnologia se desenvolve. Atualmente, ferramentas de empresas como Microsoft e OpenAI podem ser usadas para criar conteúdo para espalhar desinformação.

Uma preocupação muito maior é que os modelos de IA possam vazar informações para o desenvolvimento de armas biológicas, de acordo com pesquisadores da Rand Corporation e da Gryphon Scientific, e as agências de inteligência dos EUA, especialistas acadêmicos e think tanks estão preocupados com a possibilidade de a inteligência artificial cair nas mãos de criminosos. elementos.

O estudo Gryphon identificou como os LLMs podem produzir conhecimentos especializados e de doutoramento que podem ajudar no desenvolvimento de vírus com capacidades pandémicas, e isto pode ser utilizado por intervenientes não estatais como armas biológicas.

Ataques cibernéticos amplificados com modelos de inteligência artificial

O Departamento de Segurança Interna também manifestou preocupação com o facto de os ataques cibernéticos contra infra-estruturas críticas, como ferrovias e oleodutos, poderem ser realizados com a inteligência artificial desenvolvendo novas ferramentas que serão capazes de lançar ataques cibernéticos em maior escala, mais complexos e mais rapidamente.

A agência disse ainda que a China está a desenvolver software de inteligência artificial que pode ser usado para ataques de malware e também está a trabalhar em tecnologias de inteligência artificial que podem potencialmente sabotar as defesas cibernéticas do país.

Funções e entidades que compõem o ecossistema do Partido Comunista Chinês. Fonte: Microsoft .

Em fevereiro, a Microsoft divulgou um relatório observando que havia identificado grupos cibernéticos envolvidos em atividades de hacking que estão refinando suas campanhas de hacking usando LLM e que têm afiliações com a inteligência militar da Rússia, dos governos norte-coreano e chinês. e a Guarda Revolucionária do Irão.

A empresa anunciou a proibição de grupos cibernéticos financiados pelo Estado usarem seus produtos e serviços de inteligência artificial. Na quarta-feira, um grupo de estadistas propôs um projeto de lei que ajudará o governo Biden a impor controles de exportação em modelos de inteligência artificial para evitar a sua exposição a potenciais adversários.

Especialistas no assunto disseram que Washington está tentando evitar regulamentações autoritárias que poderiam sufocar a inovação, ao mesmo tempo que tenta promover a inovação juntamente com possíveis soluções para os riscos associados à inteligência artificial. Salientaram também que a aplicação de regulamentos rigorosos, regulando estritamente o progresso da inteligência artificial, criará um vazio para os concorrentes estrangeiros e terá um impacto negativo nos sectores das infra-estruturas, da segurança nacional e da descoberta de medicamentos.