Ollama agora suporta aceleração de hardware nos chips Apple M5, se houver 32 GB de RAM instalada
Ollama — aplicativo para execução local de modelos de IA agora mais rápido em chips M5 da Mac
Como isso parece
Nova versão: Ollama 0.19
Sistemas operacionais suportados: Windows, macOS, Linux
Aceleração de hardware: Apenas para chips Apple M5 (M5 Pro, M5 Max)
Requisitos de memória: Mínimo 32 GB de RAM unificada
O que mudou
Ollama permite aos usuários baixar e executar modelos de inteligência artificial diretamente em seus computadores. Ao contrário dos serviços na nuvem como o ChatGPT, aqui não é necessário estar constantemente conectado à internet.
A partir da versão 0.19 os desenvolvedores adicionaram suporte ao Apple MLX – framework de aprendizado de máquina, bem como à memória unificada (Unified Memory Architecture). Isso acelera a execução do modelo nos novos chips Apple M5, reduzindo o tempo até o primeiro token e aumentando a velocidade geral de geração.
Como funciona
* Aceleradores neurais: Ollama acessa blocos especializados de redes neurais dentro dos chips M5, tornando a emissão de tokens mais rápida.
* Modelos: Funcionam mais rapidamente tanto os agentes de IA pessoais (por exemplo, OpenClaw) quanto sistemas maiores – OpenCode, Anthropic Claude Code, OpenAI Codex e outros.
Limitações
1. A aceleração está disponível apenas em chips Apple M5 (M5 Pro/Max).
2. O computador deve ter no mínimo 32 GB de memória unificada; caso contrário a aceleração não funcionará.
Assim, se você tem um Mac com chip M5 e quantidade suficiente de RAM, poderá aumentar significativamente o desempenho do aplicativo local de IA Ollama.
Comentários (0)
Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.
Faça login para comentar