A proposta de lei da Califórnia que exige que desenvolvedores de IA implementem protocolos de segurança para prevenir "danos críticos" à humanidade causou alvoroço na comunidade tecnológica do Vale do Silício.

O “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act” da Califórnia, também conhecido como SB 1047, exigiria que desenvolvedores de IA implementassem protocolos de segurança para evitar eventos como vítimas em massa ou grandes ciberataques.

A proposta foi feita por legisladores democratas da Califórnia em fevereiro.

Os regulamentos propostos também exigem um botão de “parada de emergência” para modelos de IA, auditorias anuais de terceiros das práticas de segurança de IA, a criação de uma nova Divisão de Modelos de Fronteira (FMD) para supervisionar a conformidade e impor pesadas penalidades por violações.

Captura de tela do SB 1047. Fonte: California Legislature
No entanto, houve oposição no Congresso, com o congressista dos EUA Ro Khanna divulgando uma declaração contra o SB 1047 em 13 de agosto, expressando preocupação de que “a lei, como está atualmente redigida, seria ineficaz, punitiva para empreendedores individuais e pequenas empresas, e prejudicaria o espírito de inovação da Califórnia.”
Khanna, que representa o Vale do Silício, reconheceu a necessidade de legislação de IA “para proteger trabalhadores e enfrentar riscos potenciais, incluindo desinformação, deepfakes e aumento da disparidade de riqueza.”
A lei também foi criticada pelo Vale do Silício, com empresas de capital de risco, como Andreessen Horowitz (a16z), argumentando que ela sobrecarregaria startups e sufocaria a inovação.
Em 2 de agosto, o diretor jurídico da a16z, Jaikumar Ramaswamy, enviou uma carta ao senador Scott Wiener, um dos criadores da lei, afirmando que ela “sobrecarregaria startups devido a seus limiares arbitrários e instáveis.”
Também houve resistência de pesquisadores importantes da indústria, como Fei-Fei Li e Andrew Ng, que acreditam que a medida prejudicaria o ecossistema de IA e o desenvolvimento de código aberto.
Em 6 de agosto, a cientista da computação Li disse à Fortune:
“Se for transformada em lei, a SB-1047 prejudicará nosso ecossistema de IA emergente, especialmente as partes que já estão em desvantagem em relação aos gigantes da tecnologia de hoje: o setor público, a academia e as ‘pequenas tecnologias.’”
Enquanto isso, empresas de Big Tech afirmam que regular excessivamente a IA restringiria a liberdade de expressão e poderia empurrar a inovação tecnológica para fora da Califórnia.
O cientista-chefe de IA da Meta, Yann LeCun, afirmou que a legislação prejudicaria os esforços de pesquisa, afirmando em uma postagem no X em junho que “regular a P&D teria consequências apocalípticas para o ecossistema de IA.”
A lei foi aprovada no Senado com apoio bipartidário em maio e agora segue para a Assembleia, onde deve ser aprovada até 31 de agosto.