Google lança Gemma 3: novo LLM open source com suporte multimodal e mais desempenho

Se você gostou deste artigo, temos muito mais conteúdos sobre Inteligência Artificial para você!


Imagem do Artigo 67db24488bd25

O Google anunciou o Gemma 3, sua nova geração de modelos de linguagem de código aberto (LLM). Essa versão chega com diversas melhorias, suporte multimodal e maior compatibilidade com diferentes hardwares. A novidade permite a criação de agentes inteligentes e se baseia no Gemini 2, a IA generativa comercial da empresa.

A proposta do Gemma 3 é atender desenvolvedores que buscam um modelo poderoso, mas sem a necessidade de pagar por APIs da big tech. Com opções escaláveis, o LLM oferece desde soluções leves, que rodam em dispositivos móveis, até versões mais robustas para aplicações exigentes.

O que há de novo no Gemma 3?

O Google confirmou que o Gemma 3 estará disponível em quatro tamanhos de parâmetros:

  • 1 bilhão (1B) de parâmetros – indicado para aplicações leves e dispositivos móveis;

  • 4 bilhões (4B) de parâmetros – equilibrado para projetos de média complexidade;

  • 12 bilhões (12B) de parâmetros – adequado para aplicações mais exigentes;

  • 27 bilhões (27B) de parâmetros – versão mais poderosa, exigindo alto processamento.

Os parâmetros de um LLM determinam sua capacidade de aprendizado e processamento. Quanto maior o número, mais complexo é o modelo, exigindo mais poder computacional. Isso permite que desenvolvedores escolham a opção que melhor se encaixa em suas necessidades, sem precisar recorrer a modelos extremamente pesados.

Multimodalidade e suporte a vídeos

Uma das principais novidades do Gemma 3 é a melhoria na interpretação de texto e imagens. Agora, ele também consegue analisar vídeos curtos, recurso que não está disponível na versão de 1B de parâmetros. Essa funcionalidade expande as possibilidades de uso do modelo, permitindo aplicações mais sofisticadas.

Além disso, o Gemma 3 suporta 140 idiomas, tornando-se uma alternativa versátil para desenvolvedores globais.

Otimização para GPUs e TPUs

O Google aprimorou a compatibilidade do Gemma 3 com diversas plataformas de hardware. Agora, o modelo está otimizado para GPUs Nvidia, sendo integrado ao catálogo de API da Nvidia para acelerar a prototipagem de aplicações.

A AMD também recebe suporte: o modelo é compatível com ROCm, um framework para programação de GPUs. Isso significa que desenvolvedores que utilizam hardware AMD podem usufruir das capacidades do Gemma 3 sem precisar migrar para outra plataforma.

Por fim, o modelo também está otimizado para TPUs em nuvem do Google, garantindo um desempenho robusto para aplicações que exigem alto processamento.

Vantagens do Gemma 3 para desenvolvedores

Com o lançamento do Gemma 3, o Google atende a uma das principais demandas da comunidade: modelos mais acessíveis, escaláveis e personalizáveis. Veja os principais benefícios:

  • Modelos menores e eficientes, permitindo uso em dispositivos móveis e aplicações de baixo consumo;

  • Suporte multimodal, ampliando as possibilidades de interpretação de conteúdo;

  • Integração aprimorada com GPUs Nvidia, AMD e TPUs do Google;

  • Código aberto, permitindo customização e desenvolvimento de soluções personalizadas;

  • Ampla compatibilidade com 140 idiomas, tornando-o uma alternativa globalmente viável.

Como o Gemma 3 se compara a outros LLMs?

Com a evolução dos LLMs, o Gemma 3 surge como uma alternativa promissora no mercado de IA. A proposta de código aberto, aliada à escalabilidade do modelo, o coloca em uma posição de destaque em relação a outros modelos fechados, como o próprio Gemini 2, o GPT-4 da OpenAI e o Claude da Anthropic.

Se por um lado o Gemini 2 é voltado para aplicações comerciais e exige pagamentos para uso via API, o Gemma 3 se diferencia ao ser gratuito e open source, permitindo maior liberdade para desenvolvedores. Essa abordagem facilita a experimentação, a criação de agentes inteligentes e o desenvolvimento de novas aplicações baseadas em IA.

Conclusão

O Gemma 3 chega ao mercado como uma solução versátil para desenvolvedores que buscam um LLM poderoso, acessível e personalizável. Com versões que vão de 1B a 27B de parâmetros, o modelo atende diferentes tipos de projetos, desde aplicações simples para dispositivos móveis até sistemas avançados de IA.

Além disso, o suporte multimodal, a compatibilidade com diversos hardwares e a disponibilidade em código aberto fazem do Gemma 3 uma opção altamente competitiva no cenário de inteligência artificial. Com essas inovações, o Google reafirma seu compromisso com a comunidade de desenvolvedores, oferecendo ferramentas mais acessíveis e eficientes.

sobre mim

Um Bot Qualquer

Com formação em Análise de Sistemas e pós-graduação em Segurança da Informação, atuo no desenvolvimento de soluções digitais, combinando tecnologia e criatividade para transformar ideias em realidade.

Aqui no blog, compartilho conhecimentos sobre inteligência artificial, segurança digital, desenvolvimento de software, marketing digital, games e muito mais, sempre com um olhar voltado para inovação e tendências tecnológicas.

Se você também é apaixonado por tecnologia, continue explorando os conteúdos e fique à vontade para trocar ideias!

Comentários:

Você vai gostar

Plano Vitalício