No ano passado, à medida que a inteligência artificial (IA) se tornou uma ferramenta de uso diário para muitos usuários, o cenário jurídico em torno da tecnologia começou a tomar forma. 

De regulamentações e leis globais que começaram a ser elaboradas a uma miríade de ações judiciais alegando violação de direitos autorais e de uso de dados, a IA esteve no radar de políticos, juízes e advogados.

À medida que 2024 se aproxima, o Cointelegraph pediu a especialistas do setor que trabalham na interseção entre direito e IA que analisassem as lições aprendidas em 2023 e o que elas poderiam indicar para o ano que começa. Para obter uma visão geral abrangente do que aconteceu na IA em 2023, não se esqueça de conferir o "Guia Definitivo de IA de 2023" do Cointelegraph.

Atrasos na implementação da Lei de IA da UE

Em 2023, a União Europeia se tornou uma das primeiras regiões a fazer progressos significativos na aprovação de uma legislação para regulamentar a implantação e o desenvolvimento de modelos de IA de alto nível.

A "Lei de IA da UE" foi inicialmente proposta em abril e aprovada pelo Parlamento em junho. Em 8 de dezembro, os negociadores do Parlamento Europeu e do Conselho chegaram a um acordo provisório sobre o projeto de lei.

Quando estiver totalmente em vigor, ele regulará o uso da IA pelo governo na vigilância biométrica, supervisionará grandes sistemas de IA como o ChatGPT e definirá regras de transparência que os desenvolvedores devem seguir antes de entrar no mercado.

No entanto, o projeto de lei já recebeu críticas do setor de tecnologia por "excesso de regulamentação".

Com a resistência dos desenvolvedores e um histórico de atrasos, Lothar Determann, sócio da Baker McKenzie e autor do Guia de Campo do Determann para a Lei de Inteligência Artificial, disse ao Cointelegraph:

"Não parece totalmente impossível que possamos ver um cronograma similarmente atrasado com a promulgação da Lei de IA da UE."

Determann apontou que, embora o acordo tenha sido alcançado no início de dezembro, um texto final ainda não foi divulgado. Ele acrescentou que vários políticos dos principais estados membros da UE, incluindo o presidente francês, expressaram preocupação com a minuta atual.

"Isso me lembra a trajetória do regulamento de privacidade eletrônica, que a UE anunciou em 2016 que entraria em vigor com o Regulamento Geral de Proteção de Dados em maio de 2018, mas que ainda não foi finalizado cinco anos depois."

Laura De Boel, sócia do escritório de advocacia Wilson Sonsini Goodrich & Rosati, baseado em Bruxelas, também apontou que o avanço obtido em dezembro é um "acordo político", com a adoção formal ainda prevista para o início de 2024.

Ela explicou ainda que os parlamentares da UE incluíram um "período de carência em fases", durante o qual:

"As regras sobre sistemas de IA proibidos serão aplicadas após seis meses, e as regras sobre IA de uso geral serão aplicadas após 12 meses", disse ela. "Os outros requisitos da Lei de IA serão aplicados após 24 meses, exceto que as obrigações para sistemas de alto risco definidas no Anexo II serão aplicadas após 36 meses."

Desafios de conformidade 

Apesar de uma enxurrada de novas leis entrando em cena, 2024 apresentará alguns desafios para as empresas em termos de conformidade.

De Boel disse que a Comissão Europeia já pediu aos desenvolvedores de IA que implementem voluntariamente as principais obrigações determinadas pela Lei de IA, mesmo antes de elas se tornarem obrigatórias:

"Eles precisarão começar a criar os processos internos necessários e preparar as suas equipes."

No entanto, Determann disse que, mesmo sem um esquema regulatório abrangente de IA, "veremos desafios de conformidade à medida que as empresas lidam com a conformação aos esquemas regulatórios existentes."

Isso inclui o Regulamento Geral de Proteção de Dados (GDPR) da UE, leis de privacidade em todo o mundo, leis de propriedade intelectual, regulamentos de segurança de produtos, leis de propriedade, segredos comerciais, acordos de confidencialidade e padrões do setor, entre outros.

Nesse sentido, nos Estados Unidos, a administração do presidente Joe Biden publicou uma longa ordem executiva em 30 de outubro com o objetivo de proteger cidadãos, agências governamentais e empresas, garantindo a implementação de padrões de segurança de IA.

A ordem estabeleceu seis novos padrões de segurança e proteção de IA, incluindo intenções de uso ético de IA em agências governamentais.

Embora Biden tenha sido citado dizendo que a ordem se alinha com os princípios do governo de "segurança, proteção, confiança, abertura", especialistas do setor disseram que a ordem executiva criou um ambiente "desafiador" para os desenvolvedores.

Isso se resume principalmente a discernir padrões de conformidade concretos a partir de uma linguagem vaga.

Em uma entrevista concedida anteriormente ao Cointelegraph, Adam Struck, sócio fundador da Struck Capital e investidor em IA, disse que a ordem torna difícil para os desenvolvedores preverem riscos futuros para atuar em conformidade com a legislação, que se baseia em suposições sobre produtos que ainda não foram totalmente desenvolvidos. Ele disse:

"Isso certamente é um desafio para empresas e desenvolvedores, especialmente na comunidade de código aberto, onde a ordem executiva era menos diretiva."

Mais leis específicas

Outra antecipação no cenário jurídico de 2024 são leis mais específicas e de enquadramento restrito. Isso já pode ser visto a partir do momento em que alguns países implementarem regulamentações contra deepfakes gerados por IA.

Os órgãos reguladores dos EUA já estão considerando a introdução de regulamentações contra deepfakes políticos no período que antecede as eleições presidenciais de 2024. No final de novembro, a Índia começou a votar leis locais contra deepfakes.

Determann advertiu as empresas relacionadas à IA e as que usam produtos de IA:

"Daqui para frente, as empresas precisarão se manter atualizadas sobre esses avanços, que incluirão requisitos de divulgação para bots, restrições a 'deepfakes' e requisitos de auditoria para sistemas de avaliação de candidaturas a empregos."

Ele continuou dizendo que essas leis específicas tendem a ter uma "melhor chance" de resultar nos objetivos pretendidos do que regulamentações excessivamente amplas.

"Isso ocorre porque as empresas podem entendê-las e cumpri-las com mais facilidade, e as autoridades podem aplicá-las com mais eficiência", explicou.

Também houve rumores de que em 2024 poderia haver regulamentações com foco em investimentos em tecnologia. Entre os legisladores dos EUA, já se falou em regulamentar os investimentos.

Em julho, o Senado dos EUA apoiou uma legislação bipartidária que exige que as empresas locais informem quaisquer investimentos em tecnologias chinesas, especialmente semicondutores usados em IA.

Esclarecimento sobre direitos autorais

Muitos no setor também esperam ver um esclarecimento sobre o que é considerado infração de direitos autorais ou violação das leis de direitos autorais.

No ano passado, foram movidas uma série de ações judiciais de alto nível relacionadas a direitos autorais, nas quais os réus eram os principais desenvolvedores de IA, como OpenAI, Microsoft, Meta e Google. Todos eles são acusados de violação das leis de direitos autorais.

Essas ações judiciais abrangeram quase todas as formas de conteúdo, desde arte e música até literatura e notícias.

Mais recentemente, em 7 de dezembro, o The New York Times abriu um processo contra a OpenAI e a Microsoft por violação de direitos autorais de seu conteúdo de notícias durante o treinamento de modelos de IA. Advogados proeminentes da área classificaram esse caso específico como um potencial "momento decisivo" para a área de IA e de direitos autorais.

Com a maioria desses casos em andamento, espera-se que o ano de 2024 traga algum tipo de resolução para essa questão – se total ou parcialmente, ainda não se sabe.

O que a IA tem a dizer? 

No espírito de todas as coisas relacionadas à IA, o Cointelegraph decidiu perguntar ao próprio ChatGPT o que ele acredita que acontecerá no cenário jurídico relacionado à indústria em 2024.

Quando perguntado: "Você pode fazer algumas previsões sobre as leis de IA em 2024?", o ChatGPT respondeu com as seguintes suposições:

  • Mais "leis rigorosas" em nível global sobre questões éticas e preconceitos.
  • Desenvolvimento de "padrões de responsabilidade" mais claros para incidentes relacionados à IA para desenvolvedores e usuários.
  • Uma maior "ênfase nas leis de privacidade de dados."
  • Uma "maior demanda por transparência nos algoritmos de IA."
  • O surgimento de "conselhos especializados ou órgãos reguladores" dedicados a supervisionar a implementação da IA.
  • Possíveis atualizações nas leis trabalhistas e novos modelos de emprego que levem a IA em consideração.
  • Esforços para estabelecer um "marco internacional coeso para governança das tecnologias de IA."
  • Implementação de "medidas para proteger os consumidores" de aplicativos de IA enganosos ou preconceituosos.

Se o ChatGPT está certo ou não, só o tempo dirá, e 2024 será um ano decisivo para todos nós. Fique atento a este espaço em 2024 para obter as últimas atualizações sobre tudo relacionado à IA.

LEIA MAIS