Ollama agora suporta aceleração de hardware nos chips Apple M5, se houver 32 GB de RAM instalada

Ollama agora suporta aceleração de hardware nos chips Apple M5, se houver 32 GB de RAM instalada

25 software

Ollama — aplicativo para execução local de modelos de IA agora mais rápido em chips M5 da Mac

Como isso parece
Nova versão: Ollama 0.19
Sistemas operacionais suportados: Windows, macOS, Linux
Aceleração de hardware: Apenas para chips Apple M5 (M5 Pro, M5 Max)
Requisitos de memória: Mínimo 32 GB de RAM unificada

O que mudou
Ollama permite aos usuários baixar e executar modelos de inteligência artificial diretamente em seus computadores. Ao contrário dos serviços na nuvem como o ChatGPT, aqui não é necessário estar constantemente conectado à internet.

A partir da versão 0.19 os desenvolvedores adicionaram suporte ao Apple MLX – framework de aprendizado de máquina, bem como à memória unificada (Unified Memory Architecture). Isso acelera a execução do modelo nos novos chips Apple M5, reduzindo o tempo até o primeiro token e aumentando a velocidade geral de geração.

Como funciona
* Aceleradores neurais: Ollama acessa blocos especializados de redes neurais dentro dos chips M5, tornando a emissão de tokens mais rápida.

* Modelos: Funcionam mais rapidamente tanto os agentes de IA pessoais (por exemplo, OpenClaw) quanto sistemas maiores – OpenCode, Anthropic Claude Code, OpenAI Codex e outros.

Limitações
1. A aceleração está disponível apenas em chips Apple M5 (M5 Pro/Max).

2. O computador deve ter no mínimo 32 GB de memória unificada; caso contrário a aceleração não funcionará.

Assim, se você tem um Mac com chip M5 e quantidade suficiente de RAM, poderá aumentar significativamente o desempenho do aplicativo local de IA Ollama.

Comentários (0)

Compartilhe sua opinião — por favor, seja educado e mantenha-se no tema.

Ainda não há comentários. Deixe um comentário e compartilhe sua opinião!

Para deixar um comentário, faça login.

Faça login para comentar