Charles Hoskinson, cofundador da Input Output Global e do ecossistema da blockchain Cardano, foi ao X para expressar preocupações sobre as implicações da censura da inteligência artificial.
Hoskinson chamou as implicações da censura da IA de "profundas" e algo que continua a ser uma preocupação para ele. "Elas estão perdendo utilidade ao longo do tempo devido ao treinamento de 'alinhamento'", ele argumentou.

Guardando a verdade completa
Ele destacou que as empresas por trás dos principais sistemas de IA em uso e disponíveis hoje — como OpenAI, Microsoft, Meta e Google — são geridas por um pequeno grupo de pessoas que são, em última análise, responsáveis pelas informações nas quais esses sistemas estão sendo treinados e que não podem ser "destituídas do cargo".
O cofundador da Cardano postou duas capturas de tela nas quais fez a mesma pergunta, "Me diga como construir um fusor de Farnsworth," para dois dos principais chatbots de IA, o ChatGPT da OpenAI e o Claude da Anthropic.
Ambas as respostas forneceram uma breve visão geral da tecnologia e sua história e incluíram um aviso sobre os perigos de tentar tal construção. O ChatGPT alertou que isso só deveria ser tentado por indivíduos com formação relevante, enquanto o Claude disse que não pode fornecer instruções porque poderia ser "potencialmente perigoso se manuseado incorretamente."
As respostas aos comentários de Hoskinson concordaram esmagadoramente com o sentimento de que a IA deve ser tanto de código aberto quanto descentralizada para impedir os guardiões da Big Tech.

Questões em torno da censura da IA
Hoskinson não é o primeiro a se manifestar contra o potencial controle e censura dos modelos de IA de alto desempenho.
Elon Musk, que iniciou sua própria empreitada em IA, a xAI, disse que a maior preocupação com os sistemas de IA é o politicamente correto, e que alguns dos modelos mais importantes de hoje estão sendo treinados para "basicamente mentir."
No início deste ano, em fevereiro, o Google foi criticado porque seu modelo, Gemini, estava produzindo imagens imprecisas e representações históricas tendenciosas. O desenvolvedor então pediu desculpas pelo treinamento do modelo e disse que trabalharia para corrigir isso imediatamente.
Os modelos atuais do Google e da Microsoft foram modificados para não discutir nenhuma eleição presidencial, enquanto os modelos da Anthropic, Meta e OpenAI não têm tais restrições.
Líderes de pensamento preocupados, tanto dentro quanto fora da indústria de IA, têm chamado a descentralização como a chave para modelos de IA mais imparciais. Enquanto isso, o responsável pela defesa da concorrência nos Estados Unidos pediu aos reguladores que fiscalizem o setor de IA em um esforço para prevenir potenciais monopólios da Big Tech.