O cientista-chefe de inteligência artificial (IA) da Meta se manifestou para afirmar que as preocupações com os riscos existenciais que a tecnologia emergente poderia impor aos seres humanos ainda são "prematuras", durante uma entrevista ao Financial Times. 

Em 19 de outubro, o FT citou Yann LeCun dizendo que uma regulamentação prematura da tecnologia de IA reforçará a dominância das atuais grandes empresas do setor de tecnologia e minará a concorrência.

"Regulamentar a pesquisa e o desenvolvimento de IA é incrivelmente contraproducente", disse ele. LeCun acredita que os reguladores estão usando questões relativas à segurança dos sistemas de IA para impor o que ele chamou de "captura regulatória."

Desde que o desenvolvimento de dispositivos de IA realmente decolou após o lançamento do chatbot ChatGPT-4 da OpenAI em novembro de 2022, vários líderes do setor têm proclamado que a IA representa uma ameaça à humanidade.

Geoffrey Hinton, conhecido como o "padrinho da IA", deixou seu cargo no Google para poder abertamente "falar sobre os perigos e riscos da IA."

O diretor do Centro para Segurança de IA, Dan Hendrycks, escreveu no Twitter em maio que a mitigação do risco de extinção representado pela IA deveria se tornar uma prioridade global, assim como "outros riscos de grande escala, como pandemias e guerras nucleares."

Entretanto, tratando do mesmo assunto, LeCun disse na entrevista ao FT que a ideia de que a IA acabará com a humanidade é "absurda."

"O debate sobre o risco existencial é muito prematuro até que tenhamos um projeto para um sistema que possa rivalizar até mesmo com um gato em termos de capacidade de aprendizado, o que não temos no momento."

Ele também afirmou que os modelos atuais de IA não são tão capazes quanto alguns afirmam. Eles não entendem como o mundo funciona e não podem planejar ou raciocinar, afirmou.

No entanto, os temores em relação ao poder da tecnologia continuam sendo uma preocupação para muitos especialistas. O consultor da força-tarefa de IA do Reino Unido alertou que a IA poderia se tornar uma ameaça ao futuro da humanidade dentro de dois anos.

LEIA MAIS