Tudo sobre Google
Meses atrás, o Google tinha anunciado pela primeira vez o Gemma 2, sua família de modelos abertos – mas não de código aberto. Nesta semana, veio o anúncio de um trio de novos modelos de IA generativos “abertos”, que pertencem a mesma família.
O Google está chamando esses modelos de “mais seguros”, “menores” e “mais transparentes” do que a maioria. Os novos modelos, Gemma 2 2B, ShieldGemma e Gemma Scope, são projetados para aplicações e casos de uso ligeiramente diferentes, mas compartilham em comum uma tendência à segurança.
A série de modelos Gemma do Google é diferente de seus modelos Gemini, já que o Google não disponibiliza o código-fonte do Gemini.
Com o Gemma e seus modelos abertos, o Google demonstra algum esforço para promover a boa vontade dentro da comunidade de desenvolvedores, assim como Meta está tentando fazer com o Llama.
Leia mais:
Os três novos modelos do Gemma 2
- O Gemma 2 2B é um modelo leve para geração de análise de texto que pode ser executado em uma variedade de hardwares, incluindo laptops e dispositivos de ponta.
- Ele é licenciado para determinadas aplicações comerciais e de pesquisa e pode ser baixado de fontes como a biblioteca de modelos Vertex AI do Google, a plataforma de ciência de dados Kaggle e o kit de ferramentas AI Studio do Google.
- Quanto ao ShieldGemma, é uma coleção de “classificadores de segurança” que tentam detectar toxicidade como discurso de ódio, assédio e conteúdo sexualmente explícito.
- Construído sobre o Gemma 2, ele pode ser usado para filtrar prompts para um modelo generativo, bem como o conteúdo que o modelo gera.
- Por último, o Gemma Scope permite que os desenvolvedores “ampliem” pontos específicos em um modelo Gemma 2 e tornem seu funcionamento interno mais interpretável.
O lançamento dos novos modelos do Gemma 2 ocorre logo após o Departamento de Comércio dos EUA endossar modelos abertos de IA em um relatório preliminar.
Os modelos abertos ampliam a disponibilidade da IA generativa para pequenas empresas, pesquisadores, organizações sem fins lucrativos e desenvolvedores individuais, afirma o relatório, ao mesmo tempo que destaca a necessidade de capacidades para monitorizar tais modelos quanto a riscos potenciais.