smart_ide/docs/features/anythingllm-vscode-extension.md
Nicolas Cantu cb87e283a1 Add AnythingLLM workspaces VS Code extension scaffold
**Motivations:**
- Expose AnythingLLM API workspaces from the editor against ia.enso public URL

**Root causes:**
- N/A (new capability)

**Correctifs:**
- N/A

**Evolutions:**
- Extension folder with list/open UI commands and API client
- Docs index and feature note

**Pages affectées:**
- extensions/anythingllm-workspaces/*
- docs/README.md
- docs/features/anythingllm-vscode-extension.md
2026-03-23 11:10:15 +01:00

29 lines
1.7 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# AnythingLLM workspaces — extension VS Code / Cursor
**Author:** 4NK
## Objectif
Fournir un point dentrée minimal dans léditeur pour lister les **workspaces AnythingLLM** via lAPI développeur (`GET /api/v1/workspaces`) et ouvrir linterface web du workspace sélectionné, en sappuyant sur lURL publique documentée pour **ia.enso** (`/anythingllm/`).
## Impacts
- Nouveau répertoire : `extensions/anythingllm-workspaces/` (extension autonome, non publiée sur le marketplace par défaut).
- Aucun impact sur le déploiement nginx ni sur les services Docker tant que seuls les paramètres utilisateur (`baseUrl`, `apiKey`) sont renseignés côté poste développeur.
## Modifications
- `package.json`, `tsconfig.json`, sources TypeScript (`src/extension.ts`, `src/anythingllmClient.ts`, `src/types.ts`).
- `README.md` de lextension : prérequis, configuration, commandes, lien vers `deploy/nginx/README-ia-enso.md`.
## Modalités de déploiement
- Développement : ouvrir le dossier `extensions/anythingllm-workspaces` dans VS Code / Cursor, `npm install`, `npm run compile`, lancer **Run Extension**.
- Distribution interne : `vsce package` après installation de `@vscode/vsce` si besoin, installation du `.vsix` sur les postes cibles.
## Modalités danalyse
- En cas déchec : lire le message derreur affiché par la commande (statut HTTP et extrait du corps).
- Vérifier côté proxy que `anythingllm.baseUrl` correspond au chemin public (sans slash final) et que la clé API est valide dans lUI AnythingLLM.
- Référence API amont : Mintplex-Labs anything-llm, `server/endpoints/api/workspace/index.js` (`GET /v1/workspaces` sous préfixe `/api`).