Apelidado de “Poderoso Chefão da IA”, um pioneiro do desenvolvimento da inteligência artificial renunciou ao seu cargo na empresa Big Tech Google para poder falar mais abertamente sobre os perigos potenciais da tecnologia.
Antes de renunciar ao cargo, o Dr. Geoffrey Hinton trabalhou no Google em algoritmos de aprendizado de máquina por mais de uma década. Ele supostamente ganhou seu apelido devido ao seu trabalho dedicado ao desenvolvimento de redes neurais.
No entanto, em uma postagem publicada no Twitter em 1º de maio, Hinton esclareceu que deixou seu cargo no Google “para poder falar sobre os perigos da IA.”
In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly.
— Geoffrey Hinton (@geoffreyhinton) May 1, 2023
No NYT de hoje, Cade Metz insinua que deixei o Google para poder criticar a empresa. Na verdade, saí para poder falar sobre os perigos da IA sem precisar me preocupar em como isso afetará o Google. O Google agiu com muita responsabilidade.
— Geoffrey Hinton (@geoffreyhinton)
Em uma entrevista concedida ao The New York Times, Hinton declarou que sua preocupação mais imediata com a IA era sua utilização indiscriminada para inundar a internet com fotos, vídeos e textos falsos, a ponto de muitas pessoas “não conseguirem mais saber o que é verdade” de fato.
Outras preocupações de Hinton diziam respeito aos impactos da IA sobre o mercado de trabalho e os empregos. No futuro, ele acredita que a IA pode representar uma ameaça para a humanidade devido ao aprendizado de comportamentos inesperados a partir da enorme quantidade de dados que analisa.
Ele também expressou preocupação com a contínua corrida armamentista em torno de IA, mais especificamente sobre o uso da tecnologia em sistemas letais de armas autônomas (LAWS).
Hinton também expressou um arrependimento parcial sobre o trabalho desenvolvido ao longo de sua carreira:
“Eu me consolo com a desculpa usual: se eu não tivesse feito o que fiz, outra pessoa o teria feito.”
Nos últimos meses, reguladores, legisladores e executivos da indústria de tecnologia também expressaram preocupação com o desenvolvimento da IA. Em março, mais de 2.600 executivos e pesquisadores de tecnologia assinaram uma carta aberta que pedia a interrupção temporária do desenvolvimento de IA, alegando “riscos profundos para a sociedade e a humanidade.”
Um grupo de 12 legisladores da União Europeia assinou uma carta semelhante em abril e um projeto de lei da UE apresentado recentemente classifica as ferramentas de IA com base em seus níveis de risco. O Reino Unido também está disponibilizando US$ 125 milhões para apoiar uma força-tarefa para o desenvolvimento de “IA segura.”
IA é usada em fake news e pegadinhas
As ferramentas de IA já estão sendo usadas para promover desinformação, com diversos exemplos recentes de meios de comunicação que publicaram notícias falsas enganados por IA, enquanto um veículo alemão até usou IA para fabricar uma entrevista.
Em 1º de maio, a Binance alegou que foi vítima de uma campanha de difamação criada com o ChatGPT e compartilhou evidências de que o chatbot alegou que seu CEO Changpeng “CZ” Zhao era membro de uma organização juvenil do Partido Comunista Chinês.
To all the crypto and AI sleuths out there, here is the ChatGPT thread if someone wants to dig in. As you'll see ChatGPT pulls this from a fake LinkedIn profile and a non-existent @Forbes article. We can't find any evidence of this story nor the LinkedIn page ever existing. pic.twitter.com/szLaix3nza
— Patrick Hillmann ♂️ (@PRHillmann) May 1, 2023
Para todos os detetives de criptomoedas e IA por aí, aqui está a thread do ChatGPT se alguém quiser se aprofundar. Como você verá, o ChatGPT extrai isso de um perfil falso do LinkedIn e de um artigo inexistente da @Forbes. Não encontramos nenhuma evidência dessa história nem que a página do LinkedIn supostamente existiu.
— Patrick Hillmann ♂️ (@PRHillmann)
O bot utilizou um artigo da Forbes e uma página do LinkedIn para obter as informações. No entanto, o artigo parece não existir e o perfil do LinkedIn não é de Zhao.
Na semana passada, um grupo de brincalhões também enganou vários meios de comunicação em todo o mundo, incluindo o Daily Mail e o The Independent.
O Daily Mail publicou e depois foi obrigado a se retratar por divulgar uma história sobre um suposto ator canadense chamado "Saint Von Colucci", que teria morrido após uma operação de cirurgia plástica cujo objetivo era torná-lo mais parecido com uma estrela pop sul-coreana.
A notícia foi publicada a partir de informações divulgadas em um comunicado de imprensa sobre a morte do ator, que foi enviado por uma entidade disfarçada de empresa de relações públicas e usava o que pareciam ser imagens geradas por IA.

Em abril, o jornal alemão Die Aktuelle publicou uma entrevista que usou o ChatGPT para simular uma conversa com o ex-piloto de Fórmula 1 Michael Schumacher, que sofreu uma grave lesão cerebral em um acidente de esqui em 2013.
A família de Schumacher deve entrar com uma ação legal contra a publicação em função do artigo.
LEIA MAIS