2.1 KiB
2.1 KiB
Première cible de déploiement — client Linux + serveur distant (SSH)
Modèle
La première cible de déploiement n’est pas un poste tout-en-un sur la même machine que le socle IA.
| Rôle | Où ça tourne | Contenu typique |
|---|---|---|
| Client | Machine Linux de l’utilisateur (poste local) | Shell d’édition / UX (ex. Lapce), orchestrateur côté client si applicable, connexion SSH persistante ou à la demande |
| Serveur distant | Hôte joignable en SSH (LAN, bastion, ou jump host selon l’infra) | Socle technique IA (Ollama, AnythingLLM Docker, services associés), clones des dépôts, exécution des agents / scripts / OpenShell sur le périmètre autorisé |
L’utilisateur travaille depuis un Linux client ; le calcul, les modèles, la mémoire RAG et les sources de vérité Git résident sur le serveur (ou une ferme de serveurs derrière la même session SSH).
Conséquences
- Les URLs « locales » du serveur (
localhost:11434,localhost:3001, …) sont locales au serveur. Depuis le client, l’accès passe par tunnel SSH (-L), ProxyJump, ou configuration explicite (hostname interne, VPN) selon la politique réseau. - L’agent gateway et le policy-runtime (OpenShell) s’exécutent idéalement là où tournent les agents et les repos — le serveur — sauf décision contraire documentée.
- Le workspace AnythingLLM par projet vit côté serveur (stockage du conteneur ou chemin monté sur l’hôte distant). La moulinette de synchro lit les dépôts sur le serveur.
- Le client doit disposer d’une identité SSH autorisée sur le serveur (voir
add-ssh-key.shet infrastructure.md).
Documentation liée
- Topologie LAN / bastion : infrastructure.md
- Services Ollama / AnythingLLM sur l’hôte qui héberge le socle : services.md
- Répartition logique des modules : system-architecture.md (à lire avec ce découpage physique)