- Add ia_dev submodule (projects/smart_ide on forge 4nk) - Document APIs, orchestrator, gateway, local-office, rollout - Add systemd/scripts layout; relocate setup scripts - Remove obsolete nginx/enso-only docs from this repo scope
2.2 KiB
Claw-code — harnais multi-modèles (services/claw-harness-api)
Objectif
Documenter et outiller l’usage du dépôt claw-code (runtime type « harness » pour agents, outils, MCP selon les versions amont) dans le périmètre smart_ide, avec une politique sans Anthropic dans les gabarits fournis ici.
Sources amont
- Page miroir : gitlawb — claw-code
- Dépôt GitHub souvent utilisé pour cloner : instructkr/claw-code
Le dépôt amont évolue (Rust / Python, binaires, serveur HTTP). Ce dépôt ne vend pas claw-code : seulement README, exemple de politique fournisseurs, et un proxy HTTP optionnel.
Fichiers locaux
| Fichier / dossier | Rôle |
|---|---|
| services/claw-harness-api/README.md | Clone, build résumé, variables du proxy |
| services/claw-harness-api/providers.example.yaml | Exemple : Ollama activé ; Anthropic enabled: false |
| services/claw-harness-api/proxy/ | Proxy 127.0.0.1 + Bearer → URL amont (CLAW_UPSTREAM_URL) |
Anthropic
Les gabarits dans smart_ide n’activent pas Anthropic. Le bloc y figure explicitement avec enabled: false. Le contrôle d’accès réseau (pas de résolution / pas de route vers api.anthropic.com) et l’absence de secrets côté hôte complètent la politique si vous en avez besoin.
Intégration architecture
Positionnement par rapport à system-architecture.md : claw-code joue le rôle d’exécution harnais (outils, session, éventuellement MCP) ; le proxy homogénéise l’accès (token, bind local) pour un futur client type Lapce ou un gateway maison. Les agents métier ia_dev restent le noyau opératoire décrit ailleurs ; claw est un runtime optionnel à brancher explicitement.
Limites
- Projet tiers ; licence et stabilité suivent l’amont.
- Le proxy relaye le trafic vers le serveur HTTP claw : il ne remplace pas la lecture des politiques de confidentialité des fournisseurs que vous activez (Ollama local vs API cloud).