Gemma 4

Resultados de Benchmarks do Gemma 4

O Gemma 4 entrega desempenho de ponta nos principais benchmarks acadêmicos e da indústria, consolidando-se como a família de modelos open source mais capaz disponível. O modelo denso carro-chefe de 31B rivaliza com modelos proprietários da OpenAI, Anthropic e da própria linha Gemini do Google.

Esta página fornece pontuações detalhadas de benchmarks, explicações de metodologia e comparações entre modelos para ajudá-lo a avaliar qual variante do Gemma 4 se adapta melhor ao seu caso de uso.

Pontuações dos Benchmarks Principais

Desempenho do modelo carro-chefe Gemma 4 31B nos principais benchmarks:

AIME 2026

Raciocínio Matemático
89,2%

O American Invitational Mathematics Examination testa raciocínio matemático avançado e resolução de problemas em várias etapas. A pontuação de 89,2% do Gemma 4 demonstra habilidade excepcional em matemática de nível de competição, incluindo álgebra, geometria, teoria dos números e combinatória.

LiveCodeBench v6

Geração de Código
80,0%

O LiveCodeBench avalia a habilidade de codificação no mundo real em tarefas de geração, debugging, refatoração e compreensão de código em várias linguagens de programação. A pontuação de 80% coloca o Gemma 4 entre os melhores modelos de codificação disponíveis.

GPQA Diamond

Conhecimento Especializado
84,3%

Respostas a perguntas de nível de pós-graduação abrangendo física, química e biologia. As perguntas são elaboradas por especialistas do domínio e verificadas por revisores com doutorado. O forte desempenho do Gemma 4 indica capacidades de raciocínio científico profundo.

MMMLU

Compreensão Multilíngue
85,2%

O Massive Multitask Multilingual Language Understanding avalia conhecimento amplo e raciocínio em mais de 140 idiomas e dezenas de disciplinas acadêmicas. Essa pontuação confirma a força do Gemma 4 como um modelo verdadeiramente multilíngue.

Desempenho entre Variantes do Modelo

Como cada variante do Gemma 4 se comporta em relação ao carro-chefe 31B:

ModelAIME 2026LCB v6GPQAMMMLU
31B Dense89.2%80.0%84.3%85.2%
26B A4B MoE~85%~76%~80%~82%
E4B~62%~55%~58%~68%
E2B~45%~38%~42%~55%

As pontuações são aproximadas e podem variar com base no nível de quantização e configuração de inferência. O modelo 31B representa o desempenho máximo da família Gemma 4.

Principais Pontos Fortes na Análise

Raciocínio Matemático

A pontuação de 89,2% no AIME está entre as mais altas para qualquer modelo open source, demonstrando a habilidade excepcional do Gemma 4 em lidar com problemas matemáticos complexos em várias etapas que exigem raciocínio lógico profundo.

Qualidade da Geração de Código

Com 80% no LiveCodeBench v6, o Gemma 4 produz código de qualidade de produção em Python, JavaScript, TypeScript, Go, Rust e outras linguagens. Ele se destaca ao entender bases de código complexas e gerar soluções contextualmente apropriadas.

Desempenho Multilíngue

Diferente de muitos modelos que se destacam apenas em inglês, o Gemma 4 mantém forte desempenho em mais de 140 idiomas. A pontuação de 85,2% no MMMLU reflete qualidade consistente através de barreiras linguísticas.

Eficiência via Arquitetura MoE

A variante MoE 26B A4B alcança desempenho próximo ao carro-chefe ativando apenas 4B de parâmetros por inferência, entregando uma relação desempenho-por-computação excepcional para implantações em produção.

FAQ de Benchmarks

Em quais benchmarks o Gemma 4 tem melhor desempenho?

O Gemma 4 31B se destaca particularmente em raciocínio matemático (AIME 2026: 89,2%), conhecimento científico (GPQA Diamond: 84,3%) e geração de código (LiveCodeBench v6: 80%). Essas pontuações rivalizam ou superam muitos modelos proprietários.

Como o Gemma 4 se compara ao Llama 4?

O Gemma 4 31B e o Llama 4 são modelos open source competitivos. O Gemma 4 tende a superar em tarefas multimodais, compreensão multilíngue e raciocínio matemático, enquanto ambos os modelos trocam liderança em diferentes benchmarks.

As pontuações de benchmark são consistentes entre níveis de quantização?

Normalmente há uma degradação de 1-3% no desempenho do benchmark ao usar quantização INT8, e 2-5% com INT4. O impacto exato varia por benchmark e variante do modelo. O BF16 (precisão total) fornece as melhores pontuações.

O modelo MoE (26B A4B) iguala o modelo denso (31B)?

O modelo MoE de 26B alcança aproximadamente 90-95% das pontuações do modelo denso de 31B, exigindo significativamente menos computação por inferência. Para a maioria das aplicações práticas, a diferença de qualidade é desprezível.

Como esses benchmarks foram medidos?

As pontuações de benchmark são baseadas nas avaliações oficiais do Google DeepMind usando protocolos de avaliação padrão. Reproduções independentes da comunidade em plataformas como o Hugging Face Open LLM Leaderboard confirmaram resultados similares.

O Gemma 4 é o melhor modelo open source?

A partir de abril de 2026, o Gemma 4 31B está entre os melhores modelos open source na maioria dos principais benchmarks. O cenário evolui rapidamente, mas a combinação de capacidades multimodais, contexto longo e raciocínio forte do Gemma 4 o torna uma escolha líder.

benchmarksPage.faq.items.6.q

benchmarksPage.faq.items.6.a

benchmarksPage.faq.items.7.q

benchmarksPage.faq.items.7.a

benchmarksPage.faq.items.8.q

benchmarksPage.faq.items.8.a

benchmarksPage.faq.items.9.q

benchmarksPage.faq.items.9.a

Experimente o Desempenho do Gemma 4

Veja os números dos benchmarks em ação. Experimente o Gemma 4 no seu navegador ou implante-o em seu próprio hardware.