Ajude o site desativando o bloqueador de anúncio
Cabeçalho

Como usar o Ollama localmente com o VS Code. IA

Autor: Eurai Criado: 04/11/2025 Atualizado: 05/11/2025 Protheus
Postagem

Como usar o Ollama localmente com o VS Code. IA (Inteligência artifical)

Quer usar inteligência artificial localmente no seu computador sem depender da nuvem? Com o Ollama e o Visual Studio Code (VS Code), você pode rodar modelos de linguagem como o Llama 3 e o Qwen 2.5 Coder diretamente no Windows.

1. Baixar e instalar o Ollama

Primeiro, faça o download do Ollama diretamente no site oficial:

https://ollama.com/download

 

 

2. Baixar os modelos de IA

Depois de instalar o Ollama, abra o terminal do Windows e execute os seguintes comandos para baixar os modelos desejados:

ollama pull llama3.1:8b
ollama pull qwen2.5-coder:1.5b-base
ollama pull nomic-embed-text:latest

Comando ollama pull no terminal do Windows

3. Verificar o Ollama em execução

Abra o aplicativo Ollama e verifique se os modelos foram baixados corretamente.

Interface do Ollama mostrando modelos instalados

4. Instalar a extensão do Ollama no VS Code

No VS Code, abra a aba de extensões (Ctrl + Shift + X) e procure por Continue (ou “Ollama VS Code”). Clique em Instalar.

Extensão Continue do VS Code

5. Configurar o Ollama no VS Code

Após instalar a extensão, configure a URL e o modelo local do Ollama. Na maioria dos casos, as configurações padrão já são:

  • URL: http://localhost:11434
  • Modelo: llama3.1:8b

Configuração do Ollama no VS Code

Configurar o caminho

Clicar com o botão direito no ícone do lado do relógio > settings.

Outro modelos

ollama pull jmorgan/grok:latest

 

 

Dica extra

Se você quiser usar o Ollama com outras ferramentas ou IDEs, basta manter o servidor local ativo. Isso permite integrar IA generativa em qualquer fluxo de trabalho.


Gostou do tutorial? Compartilhe com seus amigos e deixe um comentário abaixo! 😎

Um abraço e até a próxima!

ASSINE A NEWSLETTER

Cadastrando...

PIX uDesenv

PIX QR Code para depósito

Clique para doar

Parceiros

Tudo em ADVPL - Blog parceiro

Blog ADVPL