Em um desenvolvimento recente voltado para melhorar a segurança e transparência da inteligência artificial, o Google introduziu três novos modelos de IA generativa. Os modelos, parte da série Gemma 2 do Google, foram projetados para serem mais seguros, eficientes e transparentes do que muitos modelos existentes.
Uma postagem no blog do site da empresa afirma que os novos modelos — Gemma 2 2B, ShieldGemma e Gemma Scope — são construídos sobre a base estabelecida pela série original Gemma 2, lançada em maio.
Uma nova era da IA com Gemma 2
Ao contrário dos modelos Gemini do Google, a série Gemma é de código aberto. Essa abordagem reflete a estratégia da Meta com seus modelos Llama, visando fornecer ferramentas de IA acessíveis e robustas para um público mais amplo.
O Gemma 2 2B é um modelo leve para gerar e analisar texto. Ele é versátil o suficiente para rodar em diversos hardwares, incluindo laptops e dispositivos de borda. Sua capacidade de funcionar em diferentes ambientes o torna uma opção atraente para desenvolvedores e pesquisadores que procuram soluções de IA flexíveis, de acordo com o Google.
Enquanto isso, o Google disse que o modelo ShieldGemma se concentra em melhorar a segurança, atuando como uma coleção de classificadores de segurança. O ShieldGemma foi criado para detectar e filtrar conteúdo tóxico, incluindo discurso de ódio, assédio e material sexualmente explícito. Ele opera sobre o Gemma 2, fornecendo uma camada de moderação de conteúdo.

De acordo com o Google, o ShieldGemma pode filtrar prompts para um modelo generativo e o conteúdo gerado, tornando-o uma ferramenta valiosa para manter a integridade e a segurança do conteúdo gerado por IA.
O modelo Gemma Scope permite que os desenvolvedores obtenham insights mais profundos sobre o funcionamento interno dos modelos Gemma 2. Segundo o Google, o Gemma Scope consiste em redes neurais especializadas que ajudam a desvendar as informações densas e complexas processadas pelo Gemma 2.
Ao expandir essas informações para uma forma mais interpretável, os pesquisadores podem entender melhor como o Gemma 2 identifica padrões, processa dados e faz previsões. Essa transparência é vital para melhorar a confiabilidade e a credibilidade da IA.
Abordando preocupações de segurança e endosso governamental
O lançamento desses modelos pelo Google também ocorre após um alerta do engenheiro da Microsoft, Shane Jones, que levantou preocupações sobre as ferramentas de IA do Google criarem imagens violentas e sexuais e ignorarem direitos autorais.
O lançamento desses novos modelos coincide com um relatório preliminar do Departamento de Comércio dos EUA endossando modelos de IA abertos. O relatório destaca os benefícios de tornar a IA generativa mais acessível para pequenas empresas, pesquisadores, organizações sem fins lucrativos e desenvolvedores individuais.
No entanto, ele também enfatiza a importância de monitorar esses modelos para riscos potenciais, ressaltando a necessidade de medidas de segurança como as implementadas no ShieldGemma.