smart_ide/README.md
Nicolas Cantu 7f1cee487c Cursor ia-dev bridge, versioned project confs, docv and ecosystem docs
- Add .cursor agents ia-dev-* and smart-ide-ia-dev-bridge rule
- Track ia_dev project conf under projects/smart_ide; link script for ia_dev/projects
- Document docv AI integration and ecosystem architecture/sync strategy
- Update README, platform-target, system-architecture, submodule doc
2026-04-03 16:30:42 +02:00

6.5 KiB
Raw Blame History

smart_ide — IDE orienté intention et IA locale

Projet denvironnement de développement où linférence repose sur Ollama, la mémoire documentaire et RAG sur AnythingLLM, la bureautique métier riche sur ONLYOFFICE, et lédition / dépôt de fichiers Office par API (docx programmatique) via Local Office (services/local-office/). Les agents métier existants (ia_dev et sous-agents) restent le noyau opératoire ; léditeur et lorchestrateur les exposent via une grammaire de commandes plutôt que via une navigation fichiers classique.

Monorepo unique : ce dépôt est le référentiel principal pour la doc, les services locaux (services/, dont Local Office), les scripts, les extensions et le socle applicatif éditeur (Lapce sous core_ide/, clone local hors index Git — voir docs/core-ide.md). Lhébergement canonique est la forge interne ; les dépôts publics cités en documentation sont des amonts ou références, pas des cibles de publication obligatoires pour les livrables 4NK. Détail architectural : docs/system-architecture.md.

Première cible de déploiement

Le premier déploiement visé est un poste Linux client qui se connecte en SSH à un serveur distant hébergeant :

  • le socle technique IA (Ollama, AnythingLLM, services associés) ;
  • les dépôts (sources, agents, procédures).

LUX (ex. Lapce) et les flux utilisateur peuvent tourner sur le client ; lexécution lourde, la mémoire projet et Git vivent sur le serveur. Détail : docs/deployment-target.md.

Positionnement

  • Pas dexplorer comme surface principale : la navigation primaire passe par intentions, recherche, contexte, timeline, objets logiques et artefacts ; un accès brut (fichiers / arborescence) reste disponible en mode expert / secours, pas comme flux nominal.
  • Machine de travail orientée opérations plutôt quéditeur de fichiers : lutilisateur exprime ce quil veut faire, sur quel objet logique, avec quels droits, dans quel contexte projet, avec quelle procédure, avec quel agent, avec quel résultat attendu.
  • Socle applicatif éditeur : Lapce sous core_ide/ — open source, Rust, rendu natif / GPU ; base pour le noyau dédition + agents. Mise à jour et build : docs/core-ide.md. Choix darchitecture, pas une obligation figée.

AnythingLLM et projets

Pour chaque projet, un workspace AnythingLLM dédié est créé (ou rattaché) : corpus, embeddings et conversations restent isolés par projet. Une moulinette de synchronisation aligne un sous-ensemble de fichiers du dépôt avec le workspace concerné afin de garder la mémoire RAG alignée avec le code et la doc utiles.

Voir docs/anythingllm-workspaces.md.

Dépôt ia_dev (sous-module Git)

Le dépôt ia_dev est intégré comme sous-module dans le répertoire ./ia_dev : équipe dagents, scripts deploy/, ticketing Gitea, etc. Les fichiers conf.json pour ce monorepo sont sous ./projects/<id>/ (pas les clones Git ; ceux-ci ailleurs, ex. ../projects/). Cloner avec git clone --recurse-submodules ou initialiser avec git submodule update --init --recursive. Détail : docs/ia_dev-submodule.md. Les agents Cursor pont (ia-dev-*) sont décrits dans docs/ia_dev-project-smart_ide.md.

Documentation

Document Contenu
docs/README.md Index de la documentation technique (docs/, docs/features/, docs/API/)
docs/platform-target.md Plateforme en ligne : envs test/pprod/prod, IA same-host, SSO docv, API IA docv
docs/API/README.md Référence HTTP des services sous services/ (endpoints, auth, ports)
docs/infrastructure.md LAN, SSH, scripts daccès hôte
docs/services.md Ollama, AnythingLLM Docker, intégration
docs/anythingllm-workspaces.md Workspaces par projet, synchronisation
docs/ux-navigation-model.md Remplacer lexplorer : intentions, risques, vues, graphe, mode expert
docs/system-architecture.md Couches, modules, agents, gateway, OpenShell, événements
docs/ecosystem-architecture-and-sync.md smart_ide, clones projet, API IA, Git / Ollama / AnythingLLM ; automation synchro
docs/deployment-target.md Client Linux + SSH : serveur = socle IA + repos
projects/README.md Confs ia_dev (conf.json seuls) — distinct des clones sous ../projects/
docs/ia_dev-submodule.md Sous-module Git ia_dev, clone / mise à jour
docs/ia_dev-project-smart_ide.md Projet ia_dev smart_ide : conf.json, wiki/issues forge 4nk, agents Cursor ia-dev-*
docs/features/langextract-api.md API locale LangExtract (extraction structurée)
docs/features/claw-harness-api.md Intégration claw-code (multi-modèles, sans Anthropic dans les gabarits)
docs/features/agent-regex-search-api.md API recherche regex code (ripgrep), contexte article Cursor
docs/features/local-office.md Local Office : API REST docx (upload, commandes), dossier services/local-office/
docs/core-ide.md Socle applicatif Lapce : répertoire core_ide/, clone, build

Dépôt actuel (outillage)

Scripts dinstallation et dexploitation sur Ubuntu : SSH, sudo ciblé, AnythingLLM Docker, Ollama exposé pour Docker, modèle Ollama alias qwen3-code-webdev, installer Desktop AnythingLLM. Ces scripts ciblent en priorité lhôte serveur qui porte le socle IA et les repos ; le client Linux repose surtout sur SSH et lIDE. LIDE complet (Lapce + orchestrateur + gateway) est cible de conception ; ce dépôt documente et supporte la stack sur serveur (Ollama + AnythingLLM) et laccès distant.

Auteur : Équipe 4NK