Projeto angular de chat com o ollama
Chat ollama
- 🤖 Requisitos
- 🏃♂️➡️ Start
- 🚀 Angular
- 🪄 Json server
- 🦙 Ollama
- 🤖 Dependências
- 📄 TODO
- 🔗 Referências
Versão | |
---|---|
Angular CLI | 19.1.2006 |
Node | 22.13.1 |
Package Manager | npm 10.9.2 |
nvm | 0.40.1 |
ollama | 0.5.7 |
./run.sh
#!/bin/bash
cd /home/serpro/estudos/chat-ollama-angular/
json-server --watch src/db/db.json
Obs: ./run.sh
já executa o projeto angular e o json server.
Instale o ollama e os modelos.
Configurar o path dos modelos (Windows):
setx OLLAMA_MODELS "E:\programas\ia\ollama"
Configurar o ollama na rede local (Windows):
setx OLLAMA_HOST "0.0.0.0"
No Linux altere o arquivo .bashrc
ou .zshrc
, etc.
Para instalar, p.ex., o modelo deepseek-r1:7b, execute o seguinte comando:
ollama run deepseek-r1:7b
Exemplo de consulta via curl
:
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt": "What color is the sky at different times of the day? Respond using JSON",
"format": "json",
"stream": false
}'
npm i ollama
npm i showdown --save
npm i --save-dev @types/showdown
npm i -g json-server
npm i ngx-markdown
npm i prismjs
npm i clipboard@^2.0.11 --save
- Implementar o chat inicial
- Consular a Api do Ollama
- Formatar o markdown de retorno
- Melhorar as mensagens
- Adicionar os estilos para as seções de código (resposta Ollama)
- Explorar a Api de consulta para o Ollama
- Adicionar botão para copiar o código
- Implementar
ollama.abort()