Nicolas Cantu 564b9d5576 AnythingLLM extension: clarify API key vs nginx bearer, normalize Bearer prefix
**Motivations:**
- 403 No valid api key when users paste Ollama nginx secret into extension

**Root causes:**
- AnythingLLM validates keys only from its DB; nginx Bearer is unrelated

**Correctifs:**
- README and fixKnowledge doc; strip optional Bearer prefix in client

**Evolutions:**
- Extension version 0.1.1

**Pages affectées:**
- extensions/anythingllm-workspaces/*
- docs/fixKnowledge/anythingllm-extension-403-api-key.md
- docs/README.md
2026-03-23 14:23:09 +01:00
2026-03-21 17:43:45 +01:00
2026-03-21 17:43:45 +01:00
2026-03-21 17:43:45 +01:00
2026-03-21 17:43:45 +01:00
2026-03-21 17:43:45 +01:00
2026-03-21 17:43:45 +01:00
2026-03-21 17:43:45 +01:00

smart_ide — IDE orienté intention et IA locale

Projet denvironnement de développement où linférence repose sur Ollama, la mémoire documentaire et RAG sur AnythingLLM, et la bureautique métier sur ONLYOFFICE. Les agents métier existants (ia_dev et sous-agents) restent le noyau opératoire ; léditeur et lorchestrateur les exposent via une grammaire de commandes plutôt que via une navigation fichiers classique.

Première cible de déploiement

Le premier déploiement visé est un poste Linux client qui se connecte en SSH à un serveur distant hébergeant :

  • le socle technique IA (Ollama, AnythingLLM, services associés) ;
  • les dépôts (sources, agents, procédures).

LUX (ex. Lapce) et les flux utilisateur peuvent tourner sur le client ; lexécution lourde, la mémoire projet et Git vivent sur le serveur. Détail : docs/deployment-target.md.

Positionnement

  • Pas dexplorer comme surface principale : la navigation primaire passe par intentions, recherche, contexte, timeline, objets logiques et artefacts ; un accès brut (fichiers / arborescence) reste disponible en mode expert / secours, pas comme flux nominal.
  • Machine de travail orientée opérations plutôt quéditeur de fichiers : lutilisateur exprime ce quil veut faire, sur quel objet logique, avec quels droits, dans quel contexte projet, avec quelle procédure, avec quel agent, avec quel résultat attendu.
  • Socle éditeur envisagé : Lapce — open source, Rust, rendu natif / GPU, positionné comme éditeur rapide et léger : base cohérente pour un noyau dédition + agents, sans empiler lhistorique complet dun IDE classique. Choix darchitecture, pas une obligation figée.

AnythingLLM et projets

Pour chaque projet, un workspace AnythingLLM dédié est créé (ou rattaché) : corpus, embeddings et conversations restent isolés par projet. Une moulinette de synchronisation aligne un sous-ensemble de fichiers du dépôt avec le workspace concerné afin de garder la mémoire RAG alignée avec le code et la doc utiles.

Voir docs/anythingllm-workspaces.md.

Documentation

Document Contenu
docs/README.md Index de la documentation technique
docs/infrastructure.md LAN, SSH, scripts daccès hôte
docs/services.md Ollama, AnythingLLM Docker, intégration
docs/anythingllm-workspaces.md Workspaces par projet, synchronisation
docs/ux-navigation-model.md Remplacer lexplorer : intentions, risques, vues, graphe, mode expert
docs/system-architecture.md Couches, modules, agents, gateway, OpenShell, événements
docs/deployment-target.md Client Linux + SSH : serveur = socle IA + repos

Dépôt actuel (outillage)

Scripts dinstallation et dexploitation sur Ubuntu : SSH, sudo ciblé, AnythingLLM Docker, Ollama exposé pour Docker, modèle Ollama alias qwen3-code-webdev, installer Desktop AnythingLLM. Ces scripts ciblent en priorité lhôte serveur qui porte le socle IA et les repos ; le client Linux repose surtout sur SSH et lIDE. LIDE complet (Lapce + orchestrateur + gateway) est cible de conception ; ce dépôt documente et supporte la stack sur serveur (Ollama + AnythingLLM) et laccès distant.

Auteur : Équipe 4NK

Description
No description provided
Readme 1.5 MiB
Languages
Rust 36.9%
Shell 28.3%
TypeScript 18.1%
Python 12.3%
JavaScript 3.5%
Other 0.9%