Os modelos de inteligência artificial estão avançando em um ritmo notável. Grandes desenvolvedores estão fazendo progressos significativos em melhorar a capacidade desses modelos de compreender consultas complexas e fornecer respostas mais perspicazes e bem fundamentadas.

Isso foi destacado em um anúncio feito pela OpenAI em 12 de setembro, criadora do amplamente conhecido modelo ChatGPT, sobre seu novo modelo “Strawberry”.

Este desenvolvimento, também conhecido como a série de modelos OpenAI o1, permitirá que as pessoas pensem mais sobre os problemas antes de responder, “muito parecido com o que uma pessoa faria”.

Os modelos também serão capazes de “refinar seu processo de pensamento, experimentar diferentes estratégias e reconhecer seus erros”, de acordo com o desenvolvedor.

Embora a IA certamente não esteja dominando o mundo, nem esse seja o objetivo daqueles que desenvolvem a tecnologia, o rápido avanço da tecnologia tem preocupado legisladores sobre a capacidade de controlar esses modelos se eles saírem de controle e implementar medidas de segurança durante as etapas de desenvolvimento.

Projetos de lei em pauta

Na última semana, os legisladores da Califórnia continuaram a aprovar projetos de lei relacionados à IA que afetam residentes e desenvolvedores na Califórnia.

Isso inclui o Projeto de Lei da Assembleia 1836, que proíbe réplicas de personalidades falecidas geradas por IA sem consentimento prévio, para proteger os direitos e a imagem dos artistas.

No entanto, um dos principais projetos de lei contestados entre os insiders da indústria é o Projeto de Lei do Senado (SB)-1047, também conhecido como “Lei de Inovação Segura e Protegida para Modelos de Inteligência Artificial de Fronteira”.

Se aprovado, o projeto impactará principalmente grandes desenvolvedores de IA — como OpenAI, Google e Microsoft — que têm os recursos para desenvolver modelos de IA que exigem mais de 10^26 operações inteiras ou de ponto flutuante (FLOPs) e custam mais de US$ 100 milhões.

Os desenvolvedores serão obrigados a treinar e ajustar os modelos para implementar os recursos de segurança descritos no projeto de lei. Isso inclui capacidades de desligamento do modelo de IA, criação e manutenção de um protocolo de segurança por escrito, realização de auditorias anuais por terceiros e envio de declarações de conformidade e relatórios de incidentes ao procurador-geral da Califórnia.

O projeto está enfrentando resistência de desenvolvedores de todos os tamanhos na indústria, que afirmam que isso sufoca a inovação. O Cointelegraph conversou com Dina Blikshteyn, sócia do escritório de advocacia Haynes Boone, para entender como isso pode acontecer.

Impacto nos desenvolvedores

Blikshteyn afirmou que o projeto de lei também pode se estender a pequenos desenvolvedores que ajustam modelos de IA com poder computacional igual ou superior a três vezes 10^25 operações inteiras ou FLOPs e que podem arcar com um acesso de US$ 10 milhões.

"O projeto de lei visa prevenir desastres causados por modelos de IA, particularmente por meio da implementação de capacidades de desligamento", disse ela.

"No entanto, ele pode não eliminar totalmente os riscos, pois um modelo de IA poderia desencadear uma reação em cadeia com consequências prejudiciais mesmo após o desligamento." 

Ela também apontou:

"Embora a intenção do projeto de lei seja positiva, os requisitos para protocolos de segurança, auditorias e relatórios de conformidade podem ser vistos como excessivos, potencialmente impondo exigências burocráticas e de divulgação onerosas que poderiam prejudicar a inovação na indústria de IA da Califórnia."

Atualmente, os Estados Unidos não possuem uma estrutura federal para regular os resultados dos modelos de IA; no entanto, Blikshteyn aponta que estados como a Califórnia e o Colorado estão promulgando suas próprias regulamentações.

As regulamentações na mesa do governador Gavin Newsom afetariam os californianos que treinam e acessam os modelos de IA abrangidos.

"As grandes empresas de IA teriam mais pessoal para lidar com os requisitos do projeto de lei", ela destacou, "o que pode ser considerado um fardo para os recursos das empresas menores."

"Embora as grandes empresas de IA sejam improváveis de deixar a Califórnia, a variação nas leis estaduais e a falta de supervisão federal poderiam empurrar os pequenos desenvolvedores a se mudarem ou realizarem trabalhos de IA em estados com menos regulamentações sobre governança de IA."

Califórnia lidera a legislação

No entanto, Blikshteyn destaca o que muitos na indústria veem como uma verdade: "Legislação em nível federal que estabeleça requisitos básicos para modelos poderosos de IA seria benéfica tanto para consumidores quanto para desenvolvedores. Também forneceria uma base para todos os estados em relação a quais são esses requisitos."

O SB-1047 foi submetido ao governador Newsom em 9 de setembro e ainda aguarda uma decisão. Newsom comentou sobre o projeto de lei, dizendo que tem trabalhado em "regulamentação racional que apoie a tomada de riscos, mas não a imprudência". No entanto, ele também expressou preocupação com o impacto potencial na competitividade.

Com a Califórnia sendo uma líder global em inovação tecnológica, suas decisões legais sobre IA são algo que o mundo inteiro está observando com grande expectativa.