Autoridades na União Europeia discutiram medidas adicionais que tornariam as ferramentas de inteligência artificial (IA), como o ChatGPT da OpenAI, mais transparentes para o público.
Em 5 de junho, Vera Jourova, a vice-presidente da Comissão Europeia para valores e transparência, disse à mídia que as empresas que implantam ferramentas de IA gerativas com o "potencial de gerar desinformação" devem colocar etiquetas em seu conteúdo como um esforço para combater as "notícias falsas".
"Signatários que têm serviços com potencial para disseminar desinformação gerada por IA devem, por sua vez, colocar em prática tecnologia para reconhecer tal conteúdo e rotulá-lo claramente para os usuários."
Jourova também fez referência a empresas que integram IA gerativa em seus serviços - como o Bing Chat da Microsoft e o Bard do Google - como precisando criar "salvaguardas" para evitar que atores mal-intencionados os utilizem para fins de desinformação.
Em 2018, a UE criou seu "Código de Conduta sobre Desinformação", que atua tanto como um acordo quanto como uma ferramenta para os players da indústria de tecnologia sobre padrões de autorregulação para combater a desinformação.
Grandes empresas de tecnologia, incluindo Google, Microsoft e Meta Platforms, já aderiram ao Código de Conduta sobre Desinformação da UE de 2022. Jourova disse que essas empresas e outras devem relatar novas salvaguardas para a IA em julho próximo.
Ela também destacou a retirada do Twitter do código de conduta, dizendo que a empresa deve esperar mais escrutínio dos reguladores.
"Ao deixar o Código, o Twitter atraiu muita atenção, e suas ações e conformidade com a lei da UE serão vigorosa e urgentemente escrutinadas."
Essas declarações da vice-presidente ocorrem enquanto a UE se prepara para a sua futura Lei de Inteligência Artificial da UE, que será um conjunto abrangente de diretrizes para o uso público da IA e as empresas que a implantam.
Apesar das leis oficiais programadas para entrar em vigor nos próximos dois a três anos, os funcionários europeus instaram as empresas a criar um código voluntário de conduta para os desenvolvedores de IA gerativa no meio tempo.
VEJA MAIS: