Os líderes da Comissão de Serviços Financeiros dos Estados Unidos (FSC) responderam a uma solicitação de feedback do Tesouro dos EUA sobre a regulamentação da inteligência artificial em uma carta publicada em 16 de agosto.

A carta, assinada pela liderança republicana da comissão, pede o que equivale a uma abordagem leve à regulamentação. “Uma abordagem única para todos só sufocará a competição entre instituições financeiras”, escreveram os signatários, acrescentando que “os reguladores devem avaliar o uso da tecnologia de IA por cada instituição caso a caso”.

Sandbox para IA

A comissão demonstrou otimismo em relação ao uso de IA generativa — que inclui serviços e produtos como o ChatGPT da OpenAI e o Claude da Anthropic — no setor de serviços financeiros. Ele destacou o potencial dessas tecnologias para proporcionar maior acesso aos serviços financeiros, aumentando tanto a adoção quanto a inclusão.

A comissão também recomendou fortemente uma abordagem orgânica para a criação de novas regulamentações e leis. Descrevendo um "sandbox regulatório" para IA, o FSC parece estar defendendo a manutenção do foco em sustentar o status quo, aplicando as regras existentes aos desafios conforme eles surgem.

De acordo com o documento:

"Os reguladores, o Congresso e o Departamento do Tesouro devem ser criteriosos em relação à regulamentação da IA, reconhecendo as regulamentações, regras, orientações e leis atualmente em vigor que abordam o uso de tecnologias pelas instituições financeiras."

Privacidade de dados

No que diz respeito à privacidade do consumidor e à proteção de dados, as opiniões da comissão parecem estar em desacordo com sua insistência em uma abordagem relativamente liberal à regulamentação. No status quo, empresas como OpenAI, Google e xAI têm, até agora, sido permitidas a coletar dados gerados por humanos para treinar sistemas de IA.

No entanto, a carta do FSC afirma que os consumidores dos EUA "deveriam ter o direito de encerrar a coleta de seus dados ou solicitar sua exclusão". Se tal regulamentação se tornasse lei, isso poderia ter um efeito potencialmente devastador no principal modelo de negócios de algumas das maiores empresas de IA dos EUA.

Devido à forma como sistemas de IA como o ChatGPT são treinados, "encerrar a coleta" de dados do usuário poderia ser uma medida ineficaz quando aplicada à tecnologia existente. O verdadeiro problema é que pode não ser possível "excluir" dados de usuários de sistemas pré-treinados.