A Anthropic, uma startup generativa de inteligência artificial (IA) , prometeu não usar dados de clientes para treinamento de grandes modelos de linguagem, de acordo com atualizações nos termos de serviço comerciais do desenvolvedor Claude. A empresa se compromete a apoiar os usuários em disputas de direitos autorais.

A Anthropic, liderada por ex-pesquisadores da OpenAI, revisou seus Termos de Serviço comerciais para esclarecer sua posição. A partir de janeiro de 2024, as mudanças estabelecem que os clientes comerciais da Anthropic também possuem todos os resultados do uso de seus modelos de IA. O desenvolvedor Claude “não prevê a obtenção de quaisquer direitos sobre o Conteúdo do Cliente sob estes Termos”.

OpenAI, Microsoft e Google comprometeram-se a apoiar clientes que enfrentem problemas legais devido a reivindicações de direitos autorais relacionadas ao uso de suas tecnologias no segundo semestre de 2023.

A Anthropic se comprometeu de forma semelhante em seus termos comerciais atualizados de serviço para proteger os clientes de reclamações de violação de direitos autorais decorrentes do uso autorizado dos serviços ou resultados da empresa. Antrópico afirmou,

“Os clientes agora desfrutarão de maior proteção e tranquilidade à medida que constroem com Claude, bem como de uma API mais simplificada e mais fácil de usar”, 

Como parte de seu compromisso de proteção legal, a Anthropic disse que pagará por quaisquer acordos ou julgamentos aprovados resultantes de violações de sua IA. Os termos se aplicam aos clientes da API Claude e àqueles que usam o Claude por meio do Bedrock, o pacote de desenvolvimento de IA generativo da Amazon.

Relacionado: O Google ensinou um modelo de IA como usar outros modelos de IA e ficou 40% melhor na codificação .

Os termos estabelecem que a Anthropic não planeja adquirir quaisquer direitos sobre o conteúdo do cliente e não fornece a nenhuma das partes direitos sobre o conteúdo ou propriedade intelectual da outra, por implicação ou de outra forma.

Sistemas avançados de IA como Claude, GPT-4 e LlaMa da Anthropic, conhecidos como grandes modelos de linguagem (LLMs), são treinados em extensos dados de texto. A eficácia dos LLMs depende de dados de treinamento diversos e abrangentes, melhorando a precisão e a consciência contextual ao aprender com vários padrões de linguagem, estilos e novas informações.

O Universal Music Group processou a Anthropic AI em outubro por violação de direitos autorais em “grandes quantidades de obras protegidas por direitos autorais – incluindo letras de inúmeras composições musicais” que estão sob propriedade ou controle dos editores.

A Anthropic não é a única objeto de tais processos. O autor Julian Sancton está processando a OpenAI e a Microsoft por supostamente usarem trabalhos de autores de não ficção sem autorização para treinar modelos de IA, incluindo ChatGPT.

Revista: Principais ferramentas de IA de 2023, estranhas proteções de imagem DEI, bots de IA 'baseados': AI Eye