Leonardo.DEV

Ollama: Executando Modelos de Linguagem Localmente

Publicado em 25/11/2025

Revisado por Felipe Santos

Nos últimos anos, os modelos de linguagem (LLMs) se tornaram ferramentas indispensáveis para desenvolvedores, pesquisadores e criadores de conteúdo. No entanto, muitas dessas tecnologias dependem de processamento em nuvem, o que pode gerar limitações relacionadas a custo, privacidade, latência e conectividade. Nesse cenário surge o Ollama, uma plataforma que facilita a execução de grandes modelos de linguagem localmente, diretamente no seu computador — sem necessidade de internet e com foco em simplicidade, segurança e performance. Neste artigo, você vai aprender:

📚 Sumário


O que é o Ollama?

O Ollama é uma plataforma de código aberto projetada para executar modelos de linguagem grandes diretamente no computador do usuário. Ele permite gerar textos, auxiliar em programação e realizar tarefas de IA de forma privada e eficiente, sem depender da nuvem.

💡 Privacidade total: tudo roda localmente — nenhum dado é enviado para servidores externos.

Como funciona o Ollama?

O Ollama utiliza uma engine otimizada em Go e C++ para rodar modelos localmente usando CPU ou GPU, dependendo do hardware. Ele suporta modelos no formato GGUF, que são versões otimizadas dos grandes modelos de linguagem recentes.

Esses modelos são quantizados, ou seja, reduzidos para ocupar menos memória e permitir execução em máquinas comuns.

Vantagens

Limitações

Instalação

  1. Acesse: https://ollama.com
  2. Baixe para:
    • Windows
    • macOS
    • Linux
  3. Abra o terminal e execute:
    ollama
  4. Se o menu de ajuda aparecer, tudo está funcionando.
⚠️ Caso o comando ollama não funcione no Windows, reinicie o terminal ou o computador — o instalador adiciona o Ollama ao PATH.

Instalando Modelos

Baixe qualquer modelo com:

ollama pull <modelo>

Exemplos:

Para listar os modelos instalados:

ollama list

Rodando um Modelo

ollama run <modelo>

Exemplos:

Quando aparecer o campo de envio de mensagem, você pode começar a conversar com o modelo.

Exemplos Práticos

  1. Resumir textos:
    ollama run llama3.1 "Resuma o texto: A computação em nuvem permite..."
  2. Gerar código:
    ollama run mistral "Crie uma função Java que filtre uma lista de usuários."
  3. Explicar logs:
    ollama run llama3.1 "Explique esse stacktrace: <cole o stacktrace>"
  4. Criar conteúdo:
    ollama run llama3.1 "Escreva um título para artigo sobre arquitetura de microsserviços."

Conclusão

O Ollama permite executar modelos de linguagem de forma local, simples e privada. Agora você já sabe como instalar, rodar e testar seus primeiros modelos. A partir daqui, pode explorar o enorme potencial que essa ferramenta oferece.

← Voltar