Brad Smith, presidente da empresa de Big Tech Microsoft, pediu aos governos que “se movam mais rápido” e que as corporações “se apressem” para impor limites à aceleração maciça no desenvolvimento de inteligência artificial.

Falando em um painel em 25 de maio diante de legisladores dos Estados Unidos em Washington, DC, Smith pediu a criação de leis que possam mitigar os riscos potenciais da IA, de acordo com uma reportagem do The New York Times.

Smith também pediu que as empresas implementem “freios de segurança” para sistemas de IA que controlam a infraestrutura crítica e desenvolvam uma estrutura legal e regulatória mais ampla para IA, entre outras coisas.

A IA pode ser o avanço tecnológico mais importante de nossas vidas. Hoje anunciamos um plano de 5 pontos de governança para IA. Ele aborda questões atuais e emergentes, aproxima os setores público e privado e garante que esta ferramenta atenda a toda a sociedade.

— Brad Smith (@BradSmi)

Smith é mais um peso-pesado da indústria a soar o alarme sobre o rápido desenvolvimento dos sistemas de IA. O ritmo vertiginoso dos avanços da inteligência artificial já deu origem a uma série de desdobramentos prejudiciais aos usuários, incluindo ameaças à privacidade, perda de empregos por meio da automação e vídeos “deep fake” extremamente convincentes que rotineiramente espalham golpes e desinformação nas mídias sociais.

O executivo da Microsoft disse que os governos não devem arcar com todo o peso da ação e que as empresas também precisam trabalhar para mitigar os riscos do desenvolvimento irrestrito da IA.

Os comentários de Smith não ignoram que a própria Microsoft também esteja trabalhando no desenvolvimento de projetos de IA. A empresa estaria desenvolvendo uma série de novos chips especializados em IA que ajudariam a capacitar ainda mais o chatbot viral da OpenAI, o ChatGPT.

Ainda assim, Smith argumentou que a Microsoft não estava tentando se isentar da sua responsabilidade, pois se comprometeu a estabelecer seus próprios limites internos relacionados ao desenvolvimento de projetos de IA, independentemente de o governo a obrigar a fazê-lo, afirmando:

“Não há um pingo de isenção de nossa responsabilidade.”

Em 16 de maio, o fundador e CEO da OpenAI, Sam Altman, testemunhou perante o Congresso dos EUA, onde defendeu a criação de uma agência federal de supervisão que concederia licenças a empresas de IA.

O senador Lindsey Graham pergunta às testemunhas na audiência sobre regulamentação de inteligência artificial se deveria haver uma agência para licenciar e supervisionar ferramentas de IA.

Todos dizem que sim, mas a diretora de privacidade e confiança da IBM, Christina Montgomery, tem condições:

Notavelmente, Smith endossou a ideia de Altman de distribuir licenças para desenvolvedores, dizendo que os serviços de desenvolvimento de IA de “alto risco” devem ser realizados apenas em data centers de IA licenciados.

Desde que o ChatGPT foi lançado em novembro do ano passado, houve apelos generalizados para uma supervisão mais rigorosa da IA. Algumas personalidades e organizações do setor de tecnologia chegaram a sugerir que o desenvolvimento da tecnologia deveria ser interrompido temporariamente.

Em 22 de março, o Future of Life Institute publicou uma carta aberta pedindo aos líderes do setor que “pausassem” o desenvolvimento de projetos de IA. O documento foi assinado por alguns dos principais líderes da indústria de tecnologia, incluindo o CEO da Tesla, Elon Musk, e o cofundador da Apple, Steve Wozniak. No momento da publicação, a carta atraiu mais de 31.000 assinaturas.

LEIA MAIS