Aller au contenu

Proxmox4 - Chatbot Domotique

Vue d'ensemble

Serveur dédié au chatbot domotique interne avec RAG (Retrieval-Augmented Generation).

Matériel

Composant Spécification
Modèle Minisforum UM700 (ou U700)
CPU AMD Ryzen 7
RAM 12 Go DDR4
Stockage SSD NVMe 256 Go+
GPU Aucun (CPU only)
Réseau Ethernet Gigabit

Rôle dans le cluster

┌─────────────────────────────────────────────────────────────────┐
│                     CLUSTER PROXMOX                             │
├─────────────┬─────────────┬─────────────┬─────────────────────┤
│  proxmox    │  proxmox2   │  proxmox3   │     proxmox4        │
│  Principal  │  Dev        │  Média      │     Chatbot IA      │
│ 192.168.1.32│ 192.168.1.70│ 192.168.1.17│   192.168.1.XX      │
└─────────────┴─────────────┴─────────────┴─────────────────────┘

Services hébergés

LXC chatbot-proxmox4

Paramètre Valeur
VMID À définir
RAM 10 Go
vCPUs 4
Disque 50 Go
Template Debian 13
IP 192.168.1.XX

Stack Docker

Service Port RAM Description
Ollama 11434 ~5 Go Moteur LLM
Open WebUI 3000 ~1.5 Go Interface + RAG
ChromaDB (interne) ~500 Mo Base vectorielle

Modèles LLM

Modèle Usage Taille
phi-3-mini 3.8B Q4 Conversations principales ~2.5 Go
nomic-embed-text Embeddings RAG ~500 Mo
fixt/home-3b-v3 Contrôle Home Assistant (optionnel) ~2 Go

Accès

Interfaces

Service URL
Proxmox https://192.168.1.XX:8006
Ollama API http://192.168.1.XX:11434
Open WebUI http://192.168.1.XX:3000

SSH

ssh root@192.168.1.XX      # Proxmox4 host
pct enter VMID             # LXC chatbot

Intégrations

Home Assistant

# configuration.yaml
ollama:
  - name: Assistant Maison
    host: http://192.168.1.XX:11434
    model: phi3:3.8b-mini-instruct-4k-q4_K_M

Google Nest Hub (vocal)

Google Nest Hub ──▶ Home Assistant ──▶ Ollama (proxmox4)
     │                    │                  │
   STT/TTS           Google SDK         RAG docs

Documentation RAG

~60 fichiers Markdown indexés couvrant : - Architecture Proxmox (cluster, LXC, réseau) - Système solaire (EVCC, Zendure) - Véhicule électrique (Wallbox, Nissan Ariya) - Piscine (équipements, entretien) - Home Assistant (automations, scripts) - Raspberry Pi (IoT, SMS, RF)

Commandes utiles

Gestion des modèles

# Lister les modèles
docker exec ollama ollama list

# Télécharger un modèle
docker exec ollama ollama pull phi3:3.8b-mini-instruct-4k-q4_K_M

# Supprimer un modèle
docker exec ollama ollama rm nom_modele

Diagnostic

# Test API Ollama
curl http://localhost:11434/api/tags

# Logs Open WebUI
docker logs open-webui --tail 100

# Usage mémoire
docker stats --no-stream

Mise à jour

cd /chemin/vers/chatbot-local
docker compose pull
docker compose up -d

Performance attendue

Métrique Valeur
Tokens/seconde 3-6 (CPU)
Temps de réponse 10-20 secondes
RAM au repos ~6 Go
RAM en charge ~9 Go

Voir aussi