O mundo deu um passo mais próximo de unificar seus objetivos e valores relacionados à inteligência artificial (IA) após uma reunião dos ministros da Justiça do Conselho da Europa.

Os Estados Unidos, a União Europeia e o Reino Unido devem assinar a Convenção-Quadro sobre IA em 5 de setembro. O tratado destaca os direitos humanos e os valores democráticos como fundamentais para a regulamentação dos modelos de IA do setor público e privado.

Unidos pela IA

A Convenção-Quadro sobre IA seria o primeiro tratado internacional sobre IA com força legal obrigatória para seus signatários. Ele responsabilizaria cada signatário por qualquer dano ou discriminação causados por sistemas de IA.

Além disso, o tratado exige que os resultados desses sistemas respeitem os direitos de igualdade e privacidade dos cidadãos, oferecendo às vítimas de violações por IA um recurso legal. No entanto, ainda não foram implementadas medidas de reforço consequentes, como multas, em caso de violações.

O cumprimento do tratado, por enquanto, é monitorado, mas não há penalidades específicas previstas.

Peter Kyle, ministro britânico de ciência, inovação e tecnologia, afirmou que a assinatura do tratado seria um primeiro passo "importante" em nível global.

"A diversidade de nações que esperamos que assinem este tratado mostra que, de fato, estamos nos unindo como uma comunidade global para enfrentar os desafios impostos pela IA."

O tratado foi inicialmente redigido há dois anos, com contribuições de mais de 50 países, incluindo Canadá, Israel, Japão e Austrália.

Embora seja o primeiro tratado internacional sobre IA, muitas nações estão considerando a implementação de regulamentações mais localizadas para IA.

Regras globais para a IA

Durante o verão, a UE se tornou a primeira jurisdição a implementar amplas regras que regem o desenvolvimento e a implantação de modelos de IA, especialmente os de alto nível equipados com grande poder computacional.

A Lei de IA da UE entrou em vigor em 1º de agosto e introduziu regulamentações significativas para a IA por meio de uma implementação gradual e obrigações-chave de conformidade.

Embora o projeto tenha sido desenvolvido com a segurança em mente, ele também tem sido um ponto de discórdia entre os desenvolvedores da área de IA, que afirmam que isso sufoca a inovação na região.

A Meta — empresa matriz do Facebook — que está por trás de um dos maiores modelos de linguagem, o Llama2, parou de lançar seus produtos mais recentes na UE devido às regulamentações que impedem os europeus de acessar as ferramentas de IA mais avançadas.

Empresas de tecnologia se uniram em agosto para redigir uma carta aos líderes da UE, pedindo mais tempo para cumprir as regulamentações.

IA nos EUA

Nos Estados Unidos, o Congresso ainda não implementou um marco regulatório nacional para a IA. No entanto, a administração Biden estabeleceu comitês e forças-tarefa para a segurança da IA.

Enquanto isso, na Califórnia, os legisladores estão ocupados redigindo e aprovando regulamentações de IA. Nas últimas duas semanas, duas propostas de lei foram aprovadas na Assembleia Estadual e aguardam uma decisão final do governador Gavin Newsom.

A primeira regulamenta e penaliza a criação de réplicas digitais sem autorização geradas por IA de personalidades falecidas.

A segunda é uma proposta altamente controversa, que exige testes de segurança obrigatórios para a maioria dos modelos avançados de IA e a necessidade de desenvolver um "botão de desligar" para esses modelos.

A regulamentação de IA na Califórnia é importante, pois o estado abriga as sedes de alguns dos principais desenvolvedores do mundo, como OpenAI, Meta e Alphabet.