O CEO Tim Cook deu uma visão rara, mesmo que cautelosa, do jardim murado da Apple durante a sessão de perguntas e respostas de uma recente teleconferência de resultados, quando perguntado sobre sua opinião sobre inteligência artificial (IA) generativa e para onde ele "vê isso indo".

Cook evitou revelar os planos da Apple, afirmando logo de início: "Não comentamos os roteiros de produtos". No entanto, ele insinuou que a empresa estava interessada no espaço:

 

"Acho muito importante ser deliberado e ponderado em como você aborda essas coisas. E há várias questões que precisam ser resolvidas. ... Mas o potencial é certamente muito interessante."

O CEO acrescentou mais tarde que a empresa vê "a IA como enorme" e continuaria "a integrá-la aos nossos produtos de forma muito ponderada".

Os comentários de Cook sobre adotar uma abordagem "deliberada e cuidadosa" podem explicar a ausência da empresa no espaço de IA generativa. No entanto, há alguns indícios de que a Apple está conduzindo suas próprias pesquisas em modelos relacionados.

Um artigo de pesquisa programado para ser publicado na conferência Interaction Design and Children em junho detalha um novo sistema para combater o viés no desenvolvimento de conjuntos de dados de aprendizado de máquina.

O viés - a tendência de um modelo de IA fazer previsões injustas ou imprecisas com base em dados incorretos ou incompletos - é frequentemente citado como uma das preocupações mais urgentes para o desenvolvimento seguro e ético de modelos de IA generativa.

Muito feliz que a OpenAI está mantendo seus vieses sob controle. pic.twitter.com/y4a7FUochR

— Brooklin Nash (@realBrookNash) 27 de abril de 2023

O artigo, que pode ser lido atualmente em pré-impressão, detalha um sistema em que vários usuários contribuiriam para o desenvolvimento do conjunto de dados de um sistema de IA com entrada igual.

O desenvolvimento atual de IA generativa não inclui feedback humano até estágios posteriores, quando os modelos normalmente já adquiriram viés de treinamento.

A nova pesquisa da Apple integra feedback humano nos estágios iniciais do desenvolvimento do modelo, a fim de, essencialmente, democratizar o processo de seleção de dados. O resultado, segundo os pesquisadores, é um sistema que emprega uma "abordagem prática e colaborativa para introduzir estratégias para a criação de conjuntos de dados equilibrados".

É importante mencionar que este estudo de pesquisa foi projetado como um paradigma educacional para incentivar o interesse de iniciantes no desenvolvimento de aprendizado de máquina.

Pode ser difícil escalar as técnicas descritas no artigo para uso no treinamento de modelos de linguagem grande (LLMs) como o ChatGPT e o Google Bard. No entanto, a pesquisa demonstra uma abordagem alternativa para combater o viés.

Em última análise, a criação de um LLM sem viés indesejado pode representar um momento marcante no caminho para o desenvolvimento de sistemas de IA de nível humano.

Esses sistemas têm o potencial de interromper todos os aspectos do setor de tecnologia, especialmente os mundos de fintech, negociação de criptomoedas e blockchain. Bots de negociação de ações e criptomoedas imparciais e capazes de raciocínio de nível humano, por exemplo, poderiam agitar o mercado financeiro global, democratizando o conhecimento de negociação de alto nível.

Além disso, demonstrar um LLM imparcial poderia ajudar a satisfazer as preocupações governamentais de segurança e ética para a indústria de IA generativa.

Isso é especialmente notável para a Apple, já que qualquer produto de IA generativa que ela desenvolva ou escolha apoiar se beneficiaria do chipset de IA integrado do iPhone e de sua base de 1,5 bilhão de usuários.

VEJA MAIS: