Vinte empresas de tecnologia que desenvolvem inteligência artificial (IA) anunciaram na sexta-feira, 16 de fevereiro, compromisso de evitar que seus softwares influencime as eleições, inclusive nos Estados Unidos.
O acordo reconhece que os produtos de IA representam um risco significativo, especialmente num ano em que se espera que cerca de quatro mil milhões de pessoas em todo o mundo participem nas eleições. O documento destaca preocupações sobre a IA enganosa no conteúdo eleitoral e o seu potencial para enganar o público, representando uma ameaça à integridade dos processos eleitorais.
O acordo também reconhece que os legisladores globais têm sido lentos a responder ao rápido progresso da IA generativa, levando a indústria tecnológica a explorar a autorregulação. Brad Smith, vice-presidente e presidente da Microsoft, expressou seu apoio em comunicado:
“À medida que a sociedade abraça os benefícios da IA, temos a responsabilidade de ajudar a garantir que estas ferramentas não se tornem armas nas eleições.”
Os 20 signatários do compromisso são Microsoft, Google, Adobe, Amazon, Anthropic, Arm, ElevenLabs, IBM, Inflection AI, LinkedIn, McAfee, Meta, Nota, OpenAI, Snap, Stability AI, TikTok, TrendMicro, Truepic e X.
This is not a drill: We are in one of the most consequential election years in recent memory. Social-media companies need to step up to guard against the harms of #AI.
— Free Press (@freepress) February 16, 2024
Our statement:https://t.co/shTZEQIsVt
No entanto, o acordo é voluntário e não chega ao ponto de proibir completamente o conteúdo de IA nas eleições. O documento de 1.500 palavras descreve oito etapas que as empresas se comprometem a seguir em 2024. Essas etapas envolvem a criação de ferramentas para diferenciar imagens geradas por IA de conteúdo genuíno e garantir transparência com o público sobre desenvolvimentos significativos.
A Free Press, um grupo de defesa da Internet aberta, afirmou que o compromisso era uma promessa vazia. Argumentou que as empresas de tecnologia não seguiram as promessas anteriores de integridade eleitoral após as eleições de 2020. O grupo defende uma maior supervisão por revisores humanos.
A representante dos EUA, Yvette Clarke, disse que acolheu com satisfação o acordo tecnológico e deseja que o Congresso o desenvolva:
“Este pode ser um momento decisivo para este Congresso, e esta pode ser a única questão unificadora onde podemos nos unir para proteger esta nação e as futuras gerações de americanos que virão.”
Clarke promoveu uma legislação para regular deepfakes e conteúdo gerado por IA em anúncios políticos.
Em 31 de janeiro, a Comissão Federal de Comunicações votou pela proibição de chamadas automáticas geradas por IA que contenham vozes geradas por IA. Isso ocorreu depois que uma chamada automática falsa, alegando ser do presidente Joe Biden, antes das primárias de janeiro em New Hampshire, causou alarme generalizado sobre o potencial de vozes , imagens e vídeos falsificados na política.