**Motivations:** - Ollama and AnythingLLM moved from 192.168.1.164 to the ia LAN host. **Root causes:** - Upstreams still targeted 192.168.1.164. **Correctifs:** - Set upstream servers to 192.168.1.173:11434 and :3001. **Evolutions:** - Docs aligned with ia role IP; note to edit site conf if IP changes. **Pages affectées:** - deploy/nginx/sites/ia.enso.4nkweb.com.conf - deploy/nginx/README-ia-enso.md - docs/features/ia-enso-nginx-proxy-ollama-anythingllm.md - docs/infrastructure.md - docs/services.md
smart_ide — IDE orienté intention et IA locale
Projet d’environnement de développement où l’inférence repose sur Ollama, la mémoire documentaire et RAG sur AnythingLLM, et la bureautique métier sur ONLYOFFICE. Les agents métier existants (ia_dev et sous-agents) restent le noyau opératoire ; l’éditeur et l’orchestrateur les exposent via une grammaire de commandes plutôt que via une navigation fichiers classique.
Première cible de déploiement
Le premier déploiement visé est un poste Linux client qui se connecte en SSH à un serveur distant hébergeant :
- le socle technique IA (Ollama, AnythingLLM, services associés) ;
- les dépôts (sources, agents, procédures).
L’UX (ex. Lapce) et les flux utilisateur peuvent tourner sur le client ; l’exécution lourde, la mémoire projet et Git vivent sur le serveur. Détail : docs/deployment-target.md.
Positionnement
- Pas d’explorer comme surface principale : la navigation primaire passe par intentions, recherche, contexte, timeline, objets logiques et artefacts ; un accès brut (fichiers / arborescence) reste disponible en mode expert / secours, pas comme flux nominal.
- Machine de travail orientée opérations plutôt qu’éditeur de fichiers : l’utilisateur exprime ce qu’il veut faire, sur quel objet logique, avec quels droits, dans quel contexte projet, avec quelle procédure, avec quel agent, avec quel résultat attendu.
- Socle éditeur envisagé : Lapce — open source, Rust, rendu natif / GPU, positionné comme éditeur rapide et léger : base cohérente pour un noyau d’édition + agents, sans empiler l’historique complet d’un IDE classique. Choix d’architecture, pas une obligation figée.
AnythingLLM et projets
Pour chaque projet, un workspace AnythingLLM dédié est créé (ou rattaché) : corpus, embeddings et conversations restent isolés par projet. Une moulinette de synchronisation aligne un sous-ensemble de fichiers du dépôt avec le workspace concerné afin de garder la mémoire RAG alignée avec le code et la doc utiles.
Voir docs/anythingllm-workspaces.md.
Documentation
| Document | Contenu |
|---|---|
| docs/README.md | Index de la documentation technique |
| docs/infrastructure.md | LAN, SSH, scripts d’accès hôte |
| docs/services.md | Ollama, AnythingLLM Docker, intégration |
| docs/anythingllm-workspaces.md | Workspaces par projet, synchronisation |
| docs/ux-navigation-model.md | Remplacer l’explorer : intentions, risques, vues, graphe, mode expert |
| docs/system-architecture.md | Couches, modules, agents, gateway, OpenShell, événements |
| docs/deployment-target.md | Client Linux + SSH : serveur = socle IA + repos |
Dépôt actuel (outillage)
Scripts d’installation et d’exploitation sur Ubuntu : SSH, sudo ciblé, AnythingLLM Docker, Ollama exposé pour Docker, modèle Ollama alias qwen3-code-webdev, installer Desktop AnythingLLM. Ces scripts ciblent en priorité l’hôte serveur qui porte le socle IA et les repos ; le client Linux repose surtout sur SSH et l’IDE. L’IDE complet (Lapce + orchestrateur + gateway) est cible de conception ; ce dépôt documente et supporte la stack sur serveur (Ollama + AnythingLLM) et l’accès distant.
Auteur : Équipe 4NK