A Itália recentemente fez manchetes ao se tornar o primeiro país ocidental a proibir o popular chatbot alimentado por inteligência artificial (IA) ChatGPT.

A Autoridade Italiana de Proteção de Dados (IDPA) ordenou que a OpenAI, empresa dos Estados Unidos por trás do ChatGPT, pare de processar os dados dos usuários italianos até que esteja em conformidade com o Regulamento Geral de Proteção de Dados (GDPR), a lei de privacidade do usuário da União Europeia.

A IDPA citou preocupações com uma violação de dados que expôs conversas de usuários e informações de pagamento, a falta de transparência e a base legal para coletar e usar dados pessoais para treinar o chatbot.

A decisão gerou um debate sobre as implicações da regulamentação da IA para inovação, privacidade e ética. A medida da Itália foi amplamente criticada, com seu vice-primeiro-ministro Matteo Salvini dizendo que era "desproporcional" e hipócrita, já que dezenas de serviços baseados em IA, como o chat do Bing, ainda estão operando no país.

Salvini disse que a proibição poderia prejudicar os negócios e a inovação nacional, argumentando que toda revolução tecnológica traz "grandes mudanças, riscos e oportunidades".

IA e riscos à privacidade

Embora a proibição absoluta do ChatGPT na Itália tenha sido amplamente criticada nas redes sociais, alguns especialistas argumentaram que a proibição pode ser justificada. Falando ao Cointelegraph, Aaron Rafferty, CEO da organização descentralizada autônoma StandardDAO, disse que a proibição "pode ser justificada se apresentar riscos de privacidade incontroláveis".

Rafferty acrescentou que enfrentar desafios mais amplos de privacidade da IA, como gerenciamento de dados e transparência, poderia "ser mais eficaz do que se concentrar em um único sistema de IA". A medida, segundo ele, coloca a Itália e seus cidadãos "em déficit na corrida armamentista da IA", algo que "os EUA estão atualmente enfrentando também".

Vincent Peters, ex-aluno da Starlink e fundador do projeto de tokens não fungíveis Inheritance Art, disse que a proibição foi justificada, apontando que o GDPR é um "conjunto abrangente de regulamentos em vigor para ajudar a proteger os dados do consumidor e informações pessoalmente identificáveis".

Peters, que liderou o esforço de conformidade da Starlink com o GDPR à medida que se espalhou pelo continente, comentou que os países europeus que aderem à lei de privacidade levam isso a sério, o que significa que a OpenAI deve ser capaz de articular ou demonstrar como as informações pessoais estão e não estão sendo usadas. No entanto, ele concordou com Salvini, afirmando:

"Assim como o ChatGPT não deve ser destacado, também não deve ser excluído de ter que abordar as questões de privacidade que quase todos os serviços online precisam enfrentar."

Nicu Sebe, chefe de IA da empresa de inteligência artificial Humans.ai e professor de aprendizado de máquina na Universidade de Trento, na Itália, disse ao Cointelegraph que sempre há uma corrida entre o desenvolvimento da tecnologia e seus aspectos éticos e de privacidade correlatos.

Fluxo de trabalho do ChatGPT. Fonte: OpenAI

Sebe disse que a corrida nem sempre está sincronizada, e neste caso, a tecnologia está na liderança, embora ele acredite que os aspectos éticos e de privacidade logo alcancem. Por enquanto, a proibição foi "compreensível" para que "a OpenAI possa se ajustar às regulamentações locais em relação ao gerenciamento de dados e privacidade."

A incompatibilidade não está isolada na Itália. Outros governos estão desenvolvendo suas próprias regras para IA, à medida que o mundo se aproxima da inteligência artificial geral, um termo usado para descrever uma IA que pode realizar qualquer tarefa intelectual. O Reino Unido anunciou planos para regular a IA, enquanto a UE aparentemente adota uma postura cautelosa por meio da Lei de Inteligência Artificial, que restringe fortemente o uso de IA em várias áreas críticas, como dispositivos médicos e veículos autônomos.

Estabeleceu-se um precedente?

A Itália pode não ser o último país a proibir o ChatGPT. A decisão da IDPA de proibir o ChatGPT pode estabelecer um precedente para outros países ou regiões seguirem, o que pode ter implicações significativas para empresas globais de IA. Rafferty, da StandardDAO, disse:

"A decisão da Itália pode estabelecer um precedente para outros países ou regiões, mas fatores específicos de jurisdição determinarão como eles responderão às preocupações com a privacidade relacionadas à IA. No geral, nenhum país quer ficar para trás no potencial de desenvolvimento da IA." Jake Maymar, vice-presidente de inovação da provedora de software de realidade aumentada e realidade virtual The Glimpse Group, disse que a medida "estabelecerá um precedente ao chamar a atenção para os desafios associados às políticas de IA e dados, ou à falta delas."

Para Maymar, o discurso público sobre essas questões é um "passo na direção certa, pois uma gama mais ampla de perspectivas aprimora nossa capacidade de compreender todo o escopo do impacto." Peters, da Inheritance Art, concordou, dizendo que a medida estabelecerá um precedente para outros países que estão sob o GDPR.

Para aqueles que não aplicam o GDPR, estabelece um "arcabouço no qual esses países devem considerar como a OpenAI está tratando e usando os dados do consumidor". Sebe, da Universidade de Trento, acredita que a proibição resultou de uma discrepância entre a legislação italiana sobre gerenciamento de dados e o que é "normalmente permitido nos Estados Unidos".

Equilibrando inovação e privacidade

Parece claro que os atores no espaço da IA precisam mudar sua abordagem, pelo menos na UE, para poder fornecer serviços aos usuários enquanto se mantêm do lado bom dos reguladores. Mas como eles podem equilibrar a necessidade de inovação com preocupações de privacidade e ética ao desenvolver seus produtos?

Esta não é uma pergunta fácil de responder, pois pode haver compensações e desafios envolvidos no desenvolvimento de produtos de IA que respeitem os direitos dos usuários.

Joaquin Capozzoli, CEO da plataforma de jogos Web3 Mendax, disse que um equilíbrio pode ser alcançado ao "incorporar medidas robustas de proteção de dados, realizar análises éticas completas e envolver-se em diálogo aberto com usuários e reguladores para abordar preocupações proativamente."

Rafferty, da StandardDAO, afirmou que, em vez de destacar o ChatGPT, é necessária uma abordagem abrangente com "padrões e regulamentações consistentes para todas as tecnologias de IA e tecnologias de mídia social mais amplas".

Equilibrar inovação e privacidade envolve "priorizar a transparência, o controle do usuário, a proteção robusta de dados e os princípios de privacidade por design". A maioria das empresas deve estar "colaborando de alguma forma com o governo ou fornecendo estruturas de código aberto para participação e feedback", disse Rafferty.

Sebe mencionou discussões em andamento sobre se a tecnologia de IA é prejudicial, incluindo uma carta aberta recente pedindo uma paralisação de seis meses no avanço da tecnologia para permitir uma análise introspectiva mais profunda de suas possíveis repercussões. A carta obteve mais de 20.000 assinaturas, incluindo líderes de tecnologia como Elon Musk, CEO da Tesla, Steve Wozniak, co-fundador da Apple, e Chris Larsen, co-fundador da Ripple - entre muitos outros.

A carta levanta uma preocupação válida para Sebe, mas tal parada de seis meses é "irrealista". Ele acrescentou:

"Para equilibrar a necessidade de inovação com preocupações de privacidade, as empresas de IA precisam adotar políticas e medidas de segurança de privacidade de dados mais rígidas, garantir transparência na coleta e uso de dados e obter consentimento do usuário para coleta e processamento de dados."

O avanço da inteligência artificial aumentou a capacidade de coletar e analisar grandes quantidades de dados pessoais, levantando preocupações sobre privacidade e vigilância. Para ele, as empresas têm "uma obrigação de ser transparentes sobre suas práticas de coleta e uso de dados e estabelecer medidas de segurança sólidas para proteger os dados do usuário."

Outras preocupações éticas a serem consideradas incluem potenciais viéses, responsabilidade e transparência, disse Sebe, já que os sistemas de IA "têm o potencial de exacerbar e reforçar preconceitos sociais pré-existentes, resultando em tratamento discriminatório de grupos específicos."

Capozzoli, da Mendax, afirmou que a empresa acredita ser "responsabilidade coletiva das empresas de IA, usuários e reguladores trabalharem juntos para abordar preocupações éticas e criar uma estrutura que incentive a inovação enquanto protege os direitos individuais."

Jake Maymar, vice-presidente de inovação na empresa de software de realidade aumentada e virtual The Glimpse Group, afirmou que os sistemas de IA como o ChatGPT têm "potencial infinito e podem ser muito destrutivos se mal utilizados". Para que as empresas por trás desses sistemas consigam equilibrar tudo, elas devem estar cientes de tecnologias similares e analisar onde tiveram problemas e onde obtiveram sucesso, acrescentou ele.

Simulações e testes revelam falhas no sistema, de acordo com Maymar; portanto, as empresas de IA devem buscar inovação, transparência e responsabilidade. Elas devem identificar e abordar proativamente os possíveis riscos e impactos de seus produtos na privacidade, ética e sociedade. Ao fazer isso, é provável que consigam construir confiança e credibilidade entre os usuários e reguladores, evitando - e potencialmente revertendo - o destino do ChatGPT na Itália.

VEJA MAIS: