algo/v1/chapitre16.md
Nicolas Cantu e93b10a719 Script de compilation, livre consolidé v0, structure v1 et correctifs
**Motivations:**
- Compilation du livre à partir des chapitres v0
- Création de la structure v1 avec chapitres et correctifs

**Evolutions:**
- v0/compile_livre.py : script de compilation
- v0/livre.md : livre consolidé généré
- Modifications des chapitres v0 (1-32), introduction, fermeture, plan_total_ouvrage, references, analyses critiques
- v1 : abstract, chapitres 1-16, correctifs chapitres 17-32, introduction, fermeture, plan_total_ouvrage, references

**Pages affectées:**
- v0/ : compile_livre.py (nouveau), livre.md (nouveau), chapitre1-32.md, introduction.md, fermeture.md, plan_total_ouvrage.md, references.md, analyse_critique_ouvrage*.md
- v1/ : abstract.md, chapitre1-16.md, correctifs/chapitre17-32.md, introduction.md, fermeture.md, plan_total_ouvrage.md, references.md (nouveaux)

Co-authored-by: Cursor <cursoragent@cursor.com>
2026-02-14 00:44:58 +01:00

17 KiB
Raw Blame History

livre version auteur chapitre type
Théorie des futurs accessibles v1 Nicolas Cantu 16 chapitre

Interprétation épistémique minimale

Introduction

Les chapitres précédents ont construit un cadre où lévolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes déquivalence, transmission partielle sur graphes orientés, verrouillage des futurs, sélection structurelle sans optimisation et, enfin, auto-stabilisation non réflexive dans lespace étendu étatscontraintes.

Le présent chapitre introduit tardivement le terme « connaissance ». Cette introduction tardive est méthodologique : la connaissance ne doit pas être posée comme un primitive explicative. Elle doit être dérivée comme un résidu nécessaire de la dynamique déjà formalisée. Le chapitre vise donc une interprétation épistémique minimale, compatible avec des disciplines différentes, sans supposer un sujet, ni une sémantique, ni une finalité.

Le résultat attendu peut être annoncé de manière strictement technique :

  • des trajectoires différentes deviennent indistinguables pour le futur dès lors quelles induisent les mêmes cônes de futur (ou la même loi de futur) ;
  • lobjet qui capture cette indistinguabilité est une classe déquivalence sur les histoires ;
  • lorsquune collection de contraintes se stabilise et se transmet, elle réalise une compression opérationnelle des histoires en un objet prédictif, au sens où elle suffit à déterminer lensemble des futurs admissibles.

La connaissance, dans ce sens minimal, est ce qui reste dune histoire lorsquon ne conserve que ce qui contraint encore le futur.

Cadre et notations

États, transformations et cônes de futur

Soit X un ensemble détats (fini ou muni dune structure mesurable ou topologique). Soit \mathcal{T} un ensemble de transformations admissibles f:X\to X.

Pour x\in X et n\in\mathbb{N}, lensemble atteignable en n étapes est :


\operatorname{Reach}_n(x)=\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}.

Le cône de futur (atteignabilité à horizon fini quelconque) est :


\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x).

Contraintes et dynamique conditionnée

Soit \mathfrak{C} un ensemble de contraintes élémentaires. À toute collection K\subseteq\mathfrak{C}, on associe :

  • un ensemble admissible A(K)\subseteq X,
  • une relation admissible R(K)\subseteq X\times X,

avec monotonie par inclusion :


K_1\subseteq K_2\Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1).

La famille de transformations admissibles induite par K est :


\mathcal{T}(K)=\{f\in\mathcal{T}:\forall x\in A(K),\ (x,f(x))\in R(K)\}.

Un opérateur de compatibilité \operatorname{Comp} est supposé donné :


\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}),

tel que \operatorname{Comp}(K)\subseteq K, et tel que \operatorname{Comp}(K) soit compatible dès lors quune sous-collection compatible existe. Cette définition ne contient aucune optimisation : il sagit uniquement déviter la contradiction opérationnelle.

Espace étendu et actualisation des contraintes

Comme au chapitre 15, on introduit lespace étendu :


Y=X\times \mathcal{P}(\mathfrak{C}),

dont un élément y=(x,K) encode un état et ses contraintes actives.

On suppose donnée une règle dactualisation :


\Phi:Y\to \mathcal{P}(\mathfrak{C}),

et une mise à jour :


K^+=\operatorname{Comp}(K\cup \Phi(x,K)).

Lévolution de x dépend de K via une restriction de \mathcal{T}. Dans une version stochastique (utile pour lénoncé dobjets prédictifs), on suppose une loi conditionnelle \mathbb{P}(\cdot\mid x,K) supportée sur \mathcal{T}(K).

La dynamique est alors :


(x_{t+1},K_{t+1})=\Psi(x_t,K_t),

\Psi résume le mécanisme « choisir une transformation admissible sous K_t, lappliquer, puis actualiser K ».

Histoires et futurs

On note une histoire (temps discret) :


h_t=(x_0,x_1,\ldots,x_t),

ou, dans lespace étendu :


\tilde{h}_t=((x_0,K_0),(x_1,K_1),\ldots,(x_t,K_t)).

Pour distinguer lapproche déterministe et probabiliste, deux objets de futur seront utilisés :

  • futur ensembliste : \mathcal{F}(x) ou \mathcal{F}_{\mathcal{T}(K)}(x) ;
  • futur probabiliste : la loi conditionnelle du futur (X_{t+1},X_{t+2},\ldots) sachant lhistoire.

Ces deux notions sont compatibles : lapproche probabiliste raffine lapproche ensembliste lorsquune loi a priori sur les transformations (ou un bruit) est fixée.

Introduction tardive de la connaissance : définition dérivée et non primitive

Principe de dérivation

Définition (principe minimal).
On appellera « connaissance » un objet qui :

  • est déterminé par lhistoire passée ;
  • est plus pauvre que lhistoire (compression) ;
  • conserve exactement ce qui est pertinent pour le futur, au sens où deux histoires qui produisent le même objet de connaissance induisent le même futur (ensembliste ou probabiliste).

Ce principe ne suppose pas de sujet : il définit une propriété relationnelle entre passé et futur, à lintérieur du système.

Définition ensembliste (équivalence par cône de futur)

Soit une dynamique conditionnée par contraintes sur lespace étendu Y. Pour une histoire étendue \tilde{h}_t, on note y_t=(x_t,K_t) son dernier état.

On définit le futur accessible sous contraintes à partir de y_t par :


\mathcal{F}_Y(y_t)=\bigcup_{n\ge 0}\{y_{t+n}:\exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}.

Définition (équivalence prédictive ensembliste).
Deux histoires étendues \tilde{h}_t et \tilde{h}'_t sont dites équivalentes, noté \tilde{h}_t\sim_{\mathrm{ens}}\tilde{h}'_t, si leurs derniers états y_t et y'_t induisent le même futur accessible :


\mathcal{F}_Y(y_t)=\mathcal{F}_Y(y'_t).

La classe déquivalence [\tilde{h}_t]_{\mathrm{ens}} est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre lensemble des futurs admissibles ».

Définition (connaissance ensembliste minimale).
La connaissance ensembliste associée à une histoire est la classe déquivalence [\tilde{h}_t]_{\mathrm{ens}}.

Cette définition est interne au système : elle nutilise aucune sémantique et ne suppose aucun observateur.

Définition probabiliste (équivalence par loi de futur)

Soit maintenant une version stochastique, où la dynamique sur Y induit une loi \mathbb{P} sur les trajectoires.

Définition (équivalence prédictive probabiliste).
Deux histoires étendues \tilde{h}_t et \tilde{h}'_t sont équivalentes, noté \tilde{h}_t\sim_{\mathrm{prob}}\tilde{h}'_t, si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) :


\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}_t\big)
=
\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'_t\big).

La classe [\tilde{h}_t]_{\mathrm{prob}} est un objet de connaissance au sens probabiliste.

Remarque de consensus.
Cette notion est standard : elle est équivalente à la notion de statistique suffisante pour la prédiction du futur, et se relie aux constructions de filtrations et de conditionnements en probabilités. La formulation ici évite toute référence à une utilité : seule la loi du futur importe.

Mesures dinformation prédictive (sans utilité)

Pour quantifier le contenu prédictif dune variable interne Z_t=g(\tilde{h}_t), on peut utiliser des objets standard de théorie de linformation.

Définition (entropie conditionnelle).
Pour des variables aléatoires U,V, lentropie conditionnelle est H(U\mid V).

Définition (information mutuelle).
Linformation mutuelle est :


I(U;V)=H(U)-H(U\mid V).

Dans le cadre présent, si lon fixe un horizon n et U=X_{t+1:t+n} (bloc futur), on peut quantifier linformation prédictive portée par Z_t via I(Z_t;X_{t+1:t+n}). Aucun « bénéfice » nest invoqué : seule la dépendance statistique est mesurée.

Connaissance comme contrainte stabilisée transmissible

Le plan impose une définition : « connaissance comme contrainte stabilisée transmissible ». Il convient den donner un contenu mathématique précis, en reliant cette idée aux équivalences prédictives définies ci-dessus.

Définition (contrainte stabilisée)

Soit une trajectoire (x_t,K_t) dans Y. Une collection K^\star\subseteq\mathfrak{C} est dite stabilisée le long de la trajectoire sil existe T tel que :


K^\star\subseteq K_t \quad \text{pour tout } t\ge T,

et si la suite (K_t) admet une limite en inclusion :


K_t\uparrow K_\infty=\bigcup_{t\ge 0}K_t
\quad \text{(éventuellement après application de }\operatorname{Comp}\text{).}

Dans le cas |\mathfrak{C}|<\infty et dune actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15).

Définition (transmissibilité de contrainte sur graphe)

Soit un graphe orienté acyclique G=(V,E) de filiation (chapitre 12). À chaque sommet v est associée une occurrence y_v=(x_v,K_v). À chaque arête e=(u\to v) est associé un opérateur de transmission \tau_e.

Une contrainte élémentaire c\in\mathfrak{C} est transmissible sur une arête e si :


c\in K \Rightarrow c\in \tau_e(K).

Une collection K^\star est transmissible sur un sous-graphe si chaque c\in K^\star est transmissible sur toutes les arêtes de ce sous-graphe.

Proposition (suffisance prédictive du registre de contraintes stabilisées)

Hypothèses minimales :

  • la dynamique dans Y est Markovienne (au niveau complet (x,K)) ;
  • lévolution de x dépend de K uniquement via \mathcal{T}(K) ;
  • le mécanisme dactualisation K^+=\operatorname{Comp}(K\cup \Phi(x,K)) est donné et ne dépend pas du futur.

Alors :

  • le futur ensembliste accessible depuis y_t=(x_t,K_t) dépend uniquement de y_t, et non de lhistoire complète ;
  • de même, le futur probabiliste (loi conditionnelle) dépend uniquement de y_t.

Autrement dit, dans lespace étendu Y, y_t est une statistique suffisante au sens prédictif : lhistoire se résume sans perte (pour le futur) à létat étendu présent.

Conséquence (connaissance comme résidu).
Si K_t se stabilise vers K_\infty, et si K_\infty est transmissible le long des arêtes dun sous-graphe de filiation, alors la composante K_\infty constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant quil est prédictif (il détermine \mathcal{T}(K_\infty) et donc latteignabilité), réalise une notion minimale de connaissance.

Cette proposition ne requiert aucune sémantique : la “connaissance” est un registre de restrictions stabilisées qui suffisent à prédire les futurs admissibles au sens du modèle.

Lien avec le verrouillage des futurs

Le chapitre 13 a défini le verrouillage comme une décroissance de latteignabilité. Dans le cadre présent, si K_t\uparrow K_\infty, alors \mathcal{T}(K_t) est décroissante et :


\mathcal{T}(K_\infty)=\bigcap_{t\ge 0}\mathcal{T}(K_t),

doù une limite de transformation. Le registre K_\infty encode donc explicitement le mécanisme par lequel le passé réduit lespace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : lune en terme de futur, lautre en terme de contrainte stabilisée.

Absence de sujet

Le plan exige « absence de sujet ». Cela signifie ici :

  • aucune entité “sait” ;
  • aucune intention noriente les transitions ;
  • aucun vocabulaire de représentation nest posé comme causal.

Cette absence est garantie par construction : la connaissance est une classe déquivalence sur les histoires (définie par des futurs), ou un registre de contraintes stabilisées (défini par une actualisation et une transmissibilité). Dans les deux cas, lobjet est une propriété de la dynamique.

Remarque méthodologique.
Dans les sciences formelles, la “connaissance” est souvent associée à un observateur. Le chapitre présent adopte une interprétation minimale : lobservateur, sil existe, najoute pas la notion ; il peut au mieux la lire, en identifiant une variable ou une partition qui est déjà suffisante pour prédire le futur.

Compatibilité interdisciplinaire

La définition dérivée obtenue est compatible avec plusieurs cadres standards, car elle exprime uniquement des relations entre passé, présent étendu et futur.

Statistique et apprentissage

La notion de connaissance comme classe déquivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable Z_t est “suffisante” si elle conserve toute linformation nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive.

Théorie de linformation

La quantification du contenu prédictif par I(Z_t;X_{t+1:t+n}) est standard et ne dépend pas dune utilité. La notion pertinente est linformation prédictive, non linformation “utile”. La distinction est cruciale : la théorie ne requiert aucune tâche externe, seulement un couplage statistique entre états internes et futurs.

Systèmes dynamiques et réduction

La connaissance ensembliste est un invariant datteignabilité : deux histoires sont équivalentes si elles induisent le même ensemble de futurs. Cela se relie naturellement aux notions densembles invariants, de bassins et dattracteurs, mais sans les réintroduire comme causes : ils sont déjà des objets du cadre.

Automates et computation

Dans un cadre discret et fini, léquivalence prédictive définit une partition des histoires ; cette partition peut être vue comme un automate minimal qui prédit lensemble des futurs admissibles. Le point essentiel est quil sagit dun objet de minimisation structurelle (minimisation dautomate, minimisation de quotient), non dune optimisation dobjectif externe.

Limites formelles

La définition de connaissance est minimale et dépend de choix explicites.

Dépendance au modèle de futur

  • En version ensembliste : \sim_{\mathrm{ens}} dépend du choix dadmissibilité (contraintes, transformations).
  • En version probabiliste : \sim_{\mathrm{prob}} dépend de la loi \mathbb{P} sur les transformations et des variables observées.

Dépendance à la description
Si lon observe uniquement s=\Pi(x) au lieu de (x,K), la connaissance devient relative à \Pi : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Cela ninvalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que lobservable oublie.

Caractère non unique des représentations internes
Plusieurs variables Z_t peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes déquivalence, mais sa représentation peut ne pas être unique.

Analyse philosophique

Lintroduction dérivée de la connaissance modifie trois oppositions classiques.

Mémoire versus contrainte
La mémoire est souvent conçue comme un enregistrement du passé. Ici, ce qui persiste du passé nest pas une copie, mais une contrainte stabilisée qui restreint le futur. La mémoire, au sens minimal, est une forme de compression irréversible de lhistoire.

Vérité versus prédictivité
La connaissance est définie par la conservation de ce qui détermine le futur admissible, non par une correspondance sémantique à un “monde” extérieur. Cette neutralité nest pas une thèse ; elle est un choix de minimalité : le cadre ne nécessite pas de théorie de la référence pour fonctionner.

Sujet versus structure
Labsence de sujet nélimine pas la possibilité dun sujet ; elle montre que la notion de connaissance peut être construite sans lui. Si un sujet apparaît dans un prolongement, il apparaît comme une structure particulière au sein de X, portant un registre K et une description \Pi, et non comme une primitive transcendantale.

Conclusion

Le terme « connaissance » a été introduit tardivement et défini de manière dérivée, sans être posé comme cause. Deux définitions minimales ont été construites :

  • une définition ensembliste : connaissance comme classe déquivalence dhistoires induisant le même futur accessible ;
  • une définition probabiliste : connaissance comme classe déquivalence dhistoires induisant la même loi conditionnelle du futur.

Le lien avec les chapitres précédents est direct : lorsque des contraintes se stabilisent et se transmettent, elles constituent un résidu du passé qui continue à restreindre les transformations admissibles et donc les futurs accessibles. En ce sens précis, la connaissance est un résidu nécessaire : lhistoire se compresse en contraintes prédictives, sans sujet, sans sémantique, et sans finalité.