- Add .cursor agents ia-dev-* and smart-ide-ia-dev-bridge rule - Track ia_dev project conf under projects/smart_ide; link script for ia_dev/projects - Document docv AI integration and ecosystem architecture/sync strategy - Update README, platform-target, system-architecture, submodule doc
1.6 KiB
1.6 KiB
AnythingLLM — workspaces par projet
Principe
- Un workspace AnythingLLM est créé (ou associé) par projet : documents indexés, embeddings, threads et paramètres RAG sont scopés au projet, pas mélangés entre dépôts.
- Cela permet à la mémoire interrogée par
ask/ les agents de rester pertinente et traçable par contexte métier.
Synchronisation avec le dépôt
- Une moulinette (pipeline de synchro) met à jour le workspace à partir de fichiers sélectionnés du dépôt : sources, doc, configs exposées volontairement, etc.
- Les règles de ce qu’on synchronise (inclusions / exclusions, secrets interdits) doivent être explicites et alignées avec la politique de sécurité du projet.
Exploitation
- Instance Docker décrite dans services.md : stockage hôte typiquement sous
$HOME/anythingllmsur l’hôte qui exécute le conteneur — en première cible de déploiement, cet hôte est le serveur distant (SSH), pas obligatoirement le poste Linux client ; la création de plusieurs workspaces se fait dans l’UI AnythingLLM (ou via API) en conservant la convention « un workspace = un projet ». - L’orchestrateur IDE décide quand interroger AnythingLLM (voir system-architecture.md). L’URL vue depuis le client peut exiger un tunnel SSH ou un rebond réseau : deployment-target.md.
- Stratégie d’ensemble (Git, hooks, scripts de synchro) : ecosystem-architecture-and-sync.md.