O Google acaba de revelar seu Gemma 3. Seria capaz de obter resultados quase idênticos para os da DeepSeek usando apenas uma GPU. Prático para executar uma AI nativamente em um celular.
Para o jogo de “Quem diz melhor?” “Em” tecnologia “os atores doIAIA são os mais ativos no momento. No início do ano, a Deepseek AI abalou os tenores americanos no setor com sua IA tão poderosa quanto frugal nas necessidades de recursos. Hoje, GoogleGoogle parece responder a ele explicando que seu mais recente modelo de código aberto gemma 3 está próximo do R1 de DeepseekDeepseek Explicando apenas uma fração de seu poder de computação.
Segundo o Google, apenas um chip GPU da NVIDIA H100 NVIDIA seria necessário para que Gemma 3 atinja quase o desempenho de R1. Para um resultado equivalente, este último usaria o equivalente a 32 dessas CPUs, de acordo com o Google. Em sua nota de blog, o gigante da Internet aproveita a oportunidade para destacar seu próprio chip de TPU (unidade de processamento de ” tensortensor ) Que podem ser usados para obter desempenho semelhante ao de uma GPU da NVIDIA em seu modelo. Deve -se notar que o número de GPUs indicado pelo Google em suas comparações é baseado em suas próprias estimativas. Por exemplo, a AI Deepseek não usa GPU H100, mas muito menos poderosos chips H800.
Um modelo de smartphone
Mas com a Gemma 3, o Google busca especialmente demonstrar que seu modelo pode ser explorado diretamente pelos terminais do usuário, em vez de via Datacenters. Em termos de número de parâmetros, o código Gemma 3 possui quatro configurações diferentes com 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões. São muito poucos parâmetros, em comparação com o que está sendo feito atualmente. Assim, mesmo o Deepseek gerencia 671 bilhões de parâmetros. Certamente é possível reduzir esse número para 37 bilhões, desativando certas partes da rede.
Para limitar o peso da IA e torná -lo mais eficaz, o Google usou a técnica de IA chamada “destilação”. Essa necessidade de começar de um modelo muito grande, a fim de extrair sua substância para aumentar o desempenho de uma IA com poucos parâmetros. É exatamente isso que o Deepseek teria feito de ChatgptChatgpt Para projetar seu modelo. Para ir além, também é necessário refinar o aprendizado, fortalecendo. Para isso, retornos “humanos” são essenciais. Para seus resultados, se o Gemma 3 for menos preciso que os modelos anteriores, dada a pequena quantidade de parâmetros nos quais se baseia, ele permanece muito eficiente em comparação com os outros modelos de gêmeos “fechados”. Assim, em termos de “tokens”, Gemma 3 pode aceitar 128.000, contra 8.000 para Gemma 2. A IA processa até 140 idiomas e também é multimodal. Também pode gerar texto e lidar com imagens. Quem disse melhor agora?