Skip to content

surfx/chat-ollama-angular

Repository files navigation

Chat ollama

Projeto angular de chat com o ollama

Índice

Versão
Angular CLI 19.1.2006
Node 22.13.1
Package Manager npm 10.9.2
nvm 0.40.1
ollama 0.5.7

🏃‍♂️‍➡️ Start

🚀 Angular

./run.sh

🪄 Json server

#!/bin/bash
cd /home/serpro/estudos/chat-ollama-angular/
json-server --watch src/db/db.json

Obs: ./run.sh já executa o projeto angular e o json server.

🦙 Ollama

Instale o ollama e os modelos.

Configurar o path dos modelos (Windows):

setx OLLAMA_MODELS "E:\programas\ia\ollama"

Configurar o ollama na rede local (Windows):

setx OLLAMA_HOST "0.0.0.0"

No Linux altere o arquivo .bashrc ou .zshrc, etc.

Para instalar, p.ex., o modelo deepseek-r1:7b, execute o seguinte comando:

ollama run deepseek-r1:7b

Exemplo de consulta via curl:

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:7b",
  "prompt": "What color is the sky at different times of the day? Respond using JSON",
  "format": "json",
  "stream": false
}'

🤖 Dependências

npm i ollama
npm i showdown --save
npm i --save-dev @types/showdown
npm i -g json-server
npm i ngx-markdown
npm i prismjs
npm i clipboard@^2.0.11 --save

📄 TODO

  • Implementar o chat inicial
  • Consular a Api do Ollama
  • Formatar o markdown de retorno
  • Melhorar as mensagens
  • Adicionar os estilos para as seções de código (resposta Ollama)
  • Explorar a Api de consulta para o Ollama
  • Adicionar botão para copiar o código
  • Implementar ollama.abort()

🔗 Referências

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published