Novo modelo “BitNet” da Microsoft promete desempenho elevado com eficiência inédita, operando diretamente em CPUs como o chip M2 da Apple.
Microsoft apresenta BitNet, modelo ultracompacto de IA que roda sem GPU e acelera acesso à inteligência artificial
A Microsoft revelou o BitNet b1.58 2B4T, o maior modelo de inteligência artificial baseado em arquitetura 1-bit já desenvolvido. A proposta é ousada: um sistema de linguagem natural que funciona eficientemente em CPUs comuns, sem depender de placas gráficas. Licenciado sob MIT, o modelo promete expandir o acesso à IA de ponta para ambientes com recursos computacionais limitados.
Os chamados bitnets operam com eficiência extrema ao reduzir a representação dos pesos dos modelos a apenas três valores: -1, 0 e 1. Essa simplificação reduz drasticamente o uso de memória e o processamento necessário, sem comprometer o desempenho em tarefas complexas.
Com 2 bilhões de parâmetros treinados a partir de um volume de dados equivalente a 4 trilhões de tokens, o BitNet b1.58 2B4T superou concorrentes como Llama 3.2 1B da Meta, Gemma 3 1B do Google e Qwen 2.5 1.5B da Alibaba em benchmarks de raciocínio lógico e físico, como GSM8K e PIQA.
Além da precisão, o diferencial do BitNet está na velocidade: ele pode ser até duas vezes mais rápido que modelos de mesma escala, utilizando apenas uma fração da memória. Esse desempenho otimizado abre portas para aplicações em dispositivos modestos como notebooks e sistemas embarcados.
Apesar da inovação, o BitNet foi construído com o bitnet.cpp — um framework ainda restrito à execução em CPUs e sem suporte a GPUs, o que limita sua aplicação em ambientes de alta demanda, como datacenters voltados a inteligência artificial.
Com essa iniciativa, a Microsoft reforça seu compromisso com a democratização da inteligência artificial, oferecendo soluções mais acessíveis, compactas e sustentáveis para um mercado cada vez mais diversificado em termos de infraestrutura computacional.