Governador da Califórnia, Gavin Newsom, veta projeto de lei de segurança de IA

O governador da Califórnia, Gavin Newsom, vetou um polêmico projeto de lei de inteligência artificial (IA), dizendo que ele sufocará a inovação e não protegerá o público de preocupações “reais” sobre a tecnologia. Os defensores do projeto observam que ele teria criado algumas das primeiras regulamentações do país sobre modelos de IA em grande escala e aberto a porta para leis nacionais de segurança de IA.

Em 30 de setembro, Newsom rejeitou o SB 1047, também conhecido como Lei de Inovação Segura e Protegida para Modelos de Inteligência Artificial de Fronteira, após receber forte oposição do Vale do Silício. O projeto de lei recomendava testes de segurança obrigatórios para modelos de IA e outras salvaguardas, que os gigantes da tecnologia temiam que prejudicassem a inovação.

Newsom argumentou que o projeto de lei se concentra demais na regulamentação das principais empresas de IA existentes , ao mesmo tempo que não protege o público dos riscos “reais” representados pela nova tecnologia.

Ele disse:

Em vez disso, o projeto de lei aplica padrões rigorosos até mesmo às funções mais básicas, desde que um grande sistema as implemente. Não acredito que esta seja a melhor abordagem para proteger o público das ameaças reais representadas pela tecnologia.

-Gavin Newsom

Senador critica veto e o considera um retrocesso para a segurança pública

O senador democrata Scott Weiner, autor do projeto de lei, descreveu a rejeição como um revés para todos os que acreditam na supervisão de grandes corporações que tomam decisões cruciais que afetam a segurança pública, o bem-estar e o futuro do planeta.

O SB 1047 exigiria que os desenvolvedores, incluindo grandes players como OpenAI, Meta e Google, implementassem um “interruptor de interrupção” para seus modelos de IA e desenvolvessem planos para mitigar riscos extremos. Além disso, o projeto de lei teria permitido ao procurador-geral do estado processar os desenvolvedores de IA nos casos em que seus modelos representassem ameaças contínuas, como a aquisição de redes de IA.

Este projeto de lei visava especificamente sistemas cujo desenvolvimento custava mais de US$ 100 milhões e exigiam muito poder de processamento. Nenhum modelo atual de IA atingiu esse limite, mas alguns especialistas dizem que isso poderá mudar no próximo ano.

Newsom apóia regulamentações de IA baseadas na ciência em meio à controvérsia sobre a lei de segurança

Newsom disse que consultou os principais especialistas em segurança de IA para ajudar a Califórnia a criar regulamentações eficazes que priorizem uma análise científica dos riscos potenciais do desenvolvimento de IA. Ele enfatizou que a sua administração continuará a pressionar por protocolos de segurança robustos, insistindo que os reguladores não precisam esperar por um grande desastre para agir.

Apesar do veto ao SB 1047, Newsom destacou que seu governo assinou mais de 18 projetos de lei relacionados à regulamentação da IA ​​no último mês.

Antes da decisão de Newsom, o projeto era impopular entre políticos, consultores e grandes empresas de tecnologia. A presidente da Câmara, Nancy Pelosi, e empresas como a OpenAI disseram que isso prejudicaria significativamente o progresso da inteligência artificial.

O chefe de política de IA do Abundance Institute, Neil Chilson, alertou que, embora o projeto de lei vise principalmente modelos que custam mais de US$ 100 milhões, seu escopo poderia facilmente ser ampliado para reprimir desenvolvedores ainda menores.

No entanto, algumas pessoas estão abertas à conta. O bilionário Elon Musk, que está construindo seu próprio modelo de inteligência artificial chamado “Grok”, é um dos poucos pesos pesados ​​da tecnologia que apoia a medida e leis mais amplas de IA. Em uma postagem de 26 de agosto em