Publicado em 25/11/2025
Revisado por Felipe Santos
Nos últimos anos, os modelos de linguagem (LLMs) se tornaram ferramentas indispensáveis para desenvolvedores, pesquisadores e criadores de conteúdo. No entanto, muitas dessas tecnologias dependem de processamento em nuvem, o que pode gerar limitações relacionadas a custo, privacidade, latência e conectividade. Nesse cenário surge o Ollama, uma plataforma que facilita a execução de grandes modelos de linguagem localmente, diretamente no seu computador — sem necessidade de internet e com foco em simplicidade, segurança e performance. Neste artigo, você vai aprender:
O Ollama é uma plataforma de código aberto projetada para executar modelos de linguagem grandes diretamente no computador do usuário. Ele permite gerar textos, auxiliar em programação e realizar tarefas de IA de forma privada e eficiente, sem depender da nuvem.
O Ollama utiliza uma engine otimizada em Go e C++ para rodar modelos localmente usando CPU ou GPU, dependendo do hardware. Ele suporta modelos no formato GGUF, que são versões otimizadas dos grandes modelos de linguagem recentes.
Esses modelos são quantizados, ou seja, reduzidos para ocupar menos memória e permitir execução em máquinas comuns.
ollama
ollama não funcione no
Windows,
reinicie o terminal ou o computador — o instalador adiciona
o
Ollama ao PATH.
Baixe qualquer modelo com:
ollama pull <modelo>
Exemplos:
ollama pull llama3.1ollama pull mistralollama pull gemma:2bPara listar os modelos instalados:
ollama list
ollama run <modelo>
Exemplos:
ollama run llama3.1ollama run mistralQuando aparecer o campo de envio de mensagem, você pode começar a conversar com o modelo.
ollama run llama3.1 "Resuma o texto: A computação em nuvem permite..."
ollama run mistral "Crie uma função Java que filtre uma lista de usuários."
ollama run llama3.1 "Explique esse stacktrace: <cole o stacktrace>"
ollama run llama3.1 "Escreva um título para artigo sobre arquitetura de microsserviços."
O Ollama permite executar modelos de linguagem de forma local, simples e privada. Agora você já sabe como instalar, rodar e testar seus primeiros modelos. A partir daqui, pode explorar o enorme potencial que essa ferramenta oferece.
← Voltar