**Motivations:** - Compilation du livre à partir des chapitres v0 - Création de la structure v1 avec chapitres et correctifs **Evolutions:** - v0/compile_livre.py : script de compilation - v0/livre.md : livre consolidé généré - Modifications des chapitres v0 (1-32), introduction, fermeture, plan_total_ouvrage, references, analyses critiques - v1 : abstract, chapitres 1-16, correctifs chapitres 17-32, introduction, fermeture, plan_total_ouvrage, references **Pages affectées:** - v0/ : compile_livre.py (nouveau), livre.md (nouveau), chapitre1-32.md, introduction.md, fermeture.md, plan_total_ouvrage.md, references.md, analyse_critique_ouvrage*.md - v1/ : abstract.md, chapitre1-16.md, correctifs/chapitre17-32.md, introduction.md, fermeture.md, plan_total_ouvrage.md, references.md (nouveaux) Co-authored-by: Cursor <cursoragent@cursor.com>
298 lines
17 KiB
Markdown
298 lines
17 KiB
Markdown
---
|
||
livre: "Théorie des futurs accessibles"
|
||
version: v0
|
||
auteur: Nicolas Cantu
|
||
chapitre: 16
|
||
type: chapitre initial
|
||
---
|
||
|
||
# Interprétation épistémique minimale
|
||
|
||
## Introduction
|
||
|
||
Les chapitres précédents ont construit un cadre où l’évolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes d’équivalence, transmission partielle sur graphes orientés, verrouillage des futurs, sélection structurelle sans optimisation et, enfin, auto-stabilisation non réflexive dans l’espace étendu états–contraintes.
|
||
|
||
Le présent chapitre introduit tardivement le terme « connaissance ». Cette introduction tardive est méthodologique : la connaissance ne doit pas être posée comme un primitive explicative. Elle doit être dérivée comme un résidu nécessaire de la dynamique déjà formalisée. Le chapitre vise donc une interprétation épistémique minimale, compatible avec des disciplines différentes, sans supposer un sujet, ni une sémantique, ni une finalité.
|
||
|
||
Le résultat attendu peut être annoncé de manière strictement technique :
|
||
|
||
- des trajectoires différentes deviennent indistinguables pour le futur dès lors qu’elles induisent les mêmes cônes de futur (ou la même loi de futur) ;
|
||
- l’objet qui capture cette indistinguabilité est une classe d’équivalence sur les histoires ;
|
||
- lorsqu’une collection de contraintes se stabilise et se transmet, elle réalise une compression opérationnelle des histoires en un objet prédictif, au sens où elle suffit à déterminer l’ensemble des futurs admissibles.
|
||
|
||
La connaissance, dans ce sens minimal, est ce qui reste d’une histoire lorsqu’on ne conserve que ce qui contraint encore le futur.
|
||
|
||
## Cadre et notations
|
||
|
||
### États, transformations et cônes de futur
|
||
|
||
Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) un ensemble de transformations admissibles \(f:X\to X\).
|
||
|
||
Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble atteignable en \(n\) étapes est :
|
||
\[
|
||
\operatorname{Reach}_n(x)=\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}.
|
||
\]
|
||
Le cône de futur (atteignabilité à horizon fini quelconque) est :
|
||
\[
|
||
\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x).
|
||
\]
|
||
|
||
### Contraintes et dynamique conditionnée
|
||
|
||
Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe :
|
||
|
||
- un ensemble admissible \(A(K)\subseteq X\),
|
||
- une relation admissible \(R(K)\subseteq X\times X\),
|
||
|
||
avec monotonie par inclusion :
|
||
\[
|
||
K_1\subseteq K_2\Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1).
|
||
\]
|
||
|
||
La famille de transformations admissibles induite par \(K\) est :
|
||
\[
|
||
\mathcal{T}(K)=\{f\in\mathcal{T}:\forall x\in A(K),\ (x,f(x))\in R(K)\}.
|
||
\]
|
||
|
||
Un opérateur de compatibilité \(\operatorname{Comp}\) est supposé donné :
|
||
\[
|
||
\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}),
|
||
\]
|
||
tel que \(\operatorname{Comp}(K)\subseteq K\), et tel que \(\operatorname{Comp}(K)\) soit compatible dès lors qu’une sous-collection compatible existe. Cette définition ne contient aucune optimisation : il s’agit uniquement d’éviter la contradiction opérationnelle.
|
||
|
||
### Espace étendu et actualisation des contraintes
|
||
|
||
Comme au chapitre 15, on introduit l’espace étendu :
|
||
\[
|
||
Y=X\times \mathcal{P}(\mathfrak{C}),
|
||
\]
|
||
dont un élément \(y=(x,K)\) encode un état et ses contraintes actives.
|
||
|
||
On suppose donnée une règle d’actualisation :
|
||
\[
|
||
\Phi:Y\to \mathcal{P}(\mathfrak{C}),
|
||
\]
|
||
et une mise à jour :
|
||
\[
|
||
K^+=\operatorname{Comp}(K\cup \Phi(x,K)).
|
||
\]
|
||
|
||
L’évolution de \(x\) dépend de \(K\) via une restriction de \(\mathcal{T}\). Dans une version stochastique (utile pour l’énoncé d’objets prédictifs), on suppose une loi conditionnelle \(\mathbb{P}(\cdot\mid x,K)\) supportée sur \(\mathcal{T}(K)\).
|
||
|
||
La dynamique est alors :
|
||
\[
|
||
(x_{t+1},K_{t+1})=\Psi(x_t,K_t),
|
||
\]
|
||
où \(\Psi\) résume le mécanisme « choisir une transformation admissible sous \(K_t\), l’appliquer, puis actualiser \(K\) ».
|
||
|
||
### Histoires et futurs
|
||
|
||
On note une histoire (temps discret) :
|
||
\[
|
||
h_t=(x_0,x_1,\ldots,x_t),
|
||
\]
|
||
ou, dans l’espace étendu :
|
||
\[
|
||
\tilde{h}_t=((x_0,K_0),(x_1,K_1),\ldots,(x_t,K_t)).
|
||
\]
|
||
|
||
Pour distinguer l’approche déterministe et probabiliste, deux objets de futur seront utilisés :
|
||
|
||
- futur ensembliste : \(\mathcal{F}(x)\) ou \(\mathcal{F}_{\mathcal{T}(K)}(x)\) ;
|
||
- futur probabiliste : la loi conditionnelle du futur \((X_{t+1},X_{t+2},\ldots)\) sachant l’histoire.
|
||
|
||
Ces deux notions sont compatibles : l’approche probabiliste raffine l’approche ensembliste lorsqu’une loi a priori sur les transformations (ou un bruit) est fixée.
|
||
|
||
## Introduction tardive de la connaissance : définition dérivée et non primitive
|
||
|
||
### Principe de dérivation
|
||
|
||
Définition (principe minimal).
|
||
On appellera « connaissance » un objet qui :
|
||
|
||
- est déterminé par l’histoire passée ;
|
||
- est plus pauvre que l’histoire (compression) ;
|
||
- conserve exactement ce qui est pertinent pour le futur, au sens où deux histoires qui produisent le même objet de connaissance induisent le même futur (ensembliste ou probabiliste).
|
||
|
||
Ce principe ne suppose pas de sujet : il définit une propriété relationnelle entre passé et futur, à l’intérieur du système.
|
||
|
||
### Définition ensembliste (équivalence par cône de futur)
|
||
|
||
Soit une dynamique conditionnée par contraintes sur l’espace étendu \(Y\). Pour une histoire étendue \(\tilde{h}_t\), on note \(y_t=(x_t,K_t)\) son dernier état.
|
||
|
||
On définit le futur accessible sous contraintes à partir de \(y_t\) par :
|
||
\[
|
||
\mathcal{F}_Y(y_t)=\bigcup_{n\ge 0}\{y_{t+n}:\exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}.
|
||
\]
|
||
|
||
Définition (équivalence prédictive ensembliste).
|
||
Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont dites équivalentes, noté \(\tilde{h}_t\sim_{\mathrm{ens}}\tilde{h}'_t\), si leurs derniers états \(y_t\) et \(y'_t\) induisent le même futur accessible :
|
||
\[
|
||
\mathcal{F}_Y(y_t)=\mathcal{F}_Y(y'_t).
|
||
\]
|
||
|
||
La classe d’équivalence \([\tilde{h}_t]_{\mathrm{ens}}\) est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre l’ensemble des futurs admissibles ».
|
||
|
||
Définition (connaissance ensembliste minimale).
|
||
La connaissance ensembliste associée à une histoire est la classe d’équivalence \([\tilde{h}_t]_{\mathrm{ens}}\).
|
||
|
||
Cette définition est interne au système : elle n’utilise aucune sémantique et ne suppose aucun observateur.
|
||
|
||
### Définition probabiliste (équivalence par loi de futur)
|
||
|
||
Soit maintenant une version stochastique, où la dynamique sur \(Y\) induit une loi \(\mathbb{P}\) sur les trajectoires.
|
||
|
||
Définition (équivalence prédictive probabiliste).
|
||
Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont équivalentes, noté \(\tilde{h}_t\sim_{\mathrm{prob}}\tilde{h}'_t\), si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) :
|
||
\[
|
||
\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}_t\big)
|
||
=
|
||
\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'_t\big).
|
||
\]
|
||
|
||
La classe \([\tilde{h}_t]_{\mathrm{prob}}\) est un objet de connaissance au sens probabiliste.
|
||
|
||
Remarque de consensus.
|
||
Cette notion est standard : elle est équivalente à la notion de statistique suffisante pour la prédiction du futur, et se relie aux constructions de filtrations et de conditionnements en probabilités. La formulation ici évite toute référence à une utilité : seule la loi du futur importe.
|
||
|
||
### Mesures d’information prédictive (sans utilité)
|
||
|
||
Pour quantifier le contenu prédictif d’une variable interne \(Z_t=g(\tilde{h}_t)\), on peut utiliser des objets standard de théorie de l’information.
|
||
|
||
Définition (entropie conditionnelle).
|
||
Pour des variables aléatoires \(U,V\), l’entropie conditionnelle est \(H(U\mid V)\).
|
||
|
||
Définition (information mutuelle).
|
||
L’information mutuelle est :
|
||
\[
|
||
I(U;V)=H(U)-H(U\mid V).
|
||
\]
|
||
|
||
Dans le cadre présent, si l’on fixe un horizon \(n\) et \(U=X_{t+1:t+n}\) (bloc futur), on peut quantifier l’information prédictive portée par \(Z_t\) via \(I(Z_t;X_{t+1:t+n})\). Aucun « bénéfice » n’est invoqué : seule la dépendance statistique est mesurée.
|
||
|
||
## Connaissance comme contrainte stabilisée transmissible
|
||
|
||
Le plan impose une définition : « connaissance comme contrainte stabilisée transmissible ». Il convient d’en donner un contenu mathématique précis, en reliant cette idée aux équivalences prédictives définies ci-dessus.
|
||
|
||
### Définition (contrainte stabilisée)
|
||
|
||
Soit une trajectoire \((x_t,K_t)\) dans \(Y\). Une collection \(K^\star\subseteq\mathfrak{C}\) est dite stabilisée le long de la trajectoire s’il existe \(T\) tel que :
|
||
\[
|
||
K^\star\subseteq K_t \quad \text{pour tout } t\ge T,
|
||
\]
|
||
et si la suite \((K_t)\) admet une limite en inclusion :
|
||
\[
|
||
K_t\uparrow K_\infty=\bigcup_{t\ge 0}K_t
|
||
\quad \text{(éventuellement après application de }\operatorname{Comp}\text{).}
|
||
\]
|
||
|
||
Dans le cas \(|\mathfrak{C}|<\infty\) et d’une actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15).
|
||
|
||
### Définition (transmissibilité de contrainte sur graphe)
|
||
|
||
Soit un graphe orienté acyclique \(G=(V,E)\) de filiation (chapitre 12). À chaque sommet \(v\) est associée une occurrence \(y_v=(x_v,K_v)\). À chaque arête \(e=(u\to v)\) est associé un opérateur de transmission \(\tau_e\).
|
||
|
||
Une contrainte élémentaire \(c\in\mathfrak{C}\) est transmissible sur une arête \(e\) si :
|
||
\[
|
||
c\in K \Rightarrow c\in \tau_e(K).
|
||
\]
|
||
|
||
Une collection \(K^\star\) est transmissible sur un sous-graphe si chaque \(c\in K^\star\) est transmissible sur toutes les arêtes de ce sous-graphe.
|
||
|
||
### Proposition (suffisance prédictive du registre de contraintes stabilisées)
|
||
|
||
Hypothèses minimales :
|
||
|
||
- la dynamique dans \(Y\) est Markovienne (au niveau complet \((x,K)\)) ;
|
||
- l’évolution de \(x\) dépend de \(K\) uniquement via \(\mathcal{T}(K)\) ;
|
||
- le mécanisme d’actualisation \(K^+=\operatorname{Comp}(K\cup \Phi(x,K))\) est donné et ne dépend pas du futur.
|
||
|
||
Alors :
|
||
|
||
- le futur ensembliste accessible depuis \(y_t=(x_t,K_t)\) dépend uniquement de \(y_t\), et non de l’histoire complète ;
|
||
- de même, le futur probabiliste (loi conditionnelle) dépend uniquement de \(y_t\).
|
||
|
||
Autrement dit, dans l’espace étendu \(Y\), \(y_t\) est une statistique suffisante au sens prédictif : l’histoire se résume sans perte (pour le futur) à l’état étendu présent.
|
||
|
||
Conséquence (connaissance comme résidu).
|
||
Si \(K_t\) se stabilise vers \(K_\infty\), et si \(K_\infty\) est transmissible le long des arêtes d’un sous-graphe de filiation, alors la composante \(K_\infty\) constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant qu’il est prédictif (il détermine \(\mathcal{T}(K_\infty)\) et donc l’atteignabilité), réalise une notion minimale de connaissance.
|
||
|
||
Cette proposition ne requiert aucune sémantique : la “connaissance” est un registre de restrictions stabilisées qui suffisent à prédire les futurs admissibles au sens du modèle.
|
||
|
||
### Lien avec le verrouillage des futurs
|
||
|
||
Le chapitre 13 a défini le verrouillage comme une décroissance de l’atteignabilité. Dans le cadre présent, si \(K_t\uparrow K_\infty\), alors \(\mathcal{T}(K_t)\) est décroissante et :
|
||
\[
|
||
\mathcal{T}(K_\infty)=\bigcap_{t\ge 0}\mathcal{T}(K_t),
|
||
\]
|
||
d’où une limite de transformation. Le registre \(K_\infty\) encode donc explicitement le mécanisme par lequel le passé réduit l’espace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : l’une en terme de futur, l’autre en terme de contrainte stabilisée.
|
||
|
||
## Absence de sujet
|
||
|
||
Le plan exige « absence de sujet ». Cela signifie ici :
|
||
|
||
- aucune entité “sait” ;
|
||
- aucune intention n’oriente les transitions ;
|
||
- aucun vocabulaire de représentation n’est posé comme causal.
|
||
|
||
Cette absence est garantie par construction : la connaissance est une classe d’équivalence sur les histoires (définie par des futurs), ou un registre de contraintes stabilisées (défini par une actualisation et une transmissibilité). Dans les deux cas, l’objet est une propriété de la dynamique.
|
||
|
||
Remarque méthodologique.
|
||
Dans les sciences formelles, la “connaissance” est souvent associée à un observateur. Le chapitre présent adopte une interprétation minimale : l’observateur, s’il existe, n’ajoute pas la notion ; il peut au mieux la lire, en identifiant une variable ou une partition qui est déjà suffisante pour prédire le futur.
|
||
|
||
## Compatibilité interdisciplinaire
|
||
|
||
La définition dérivée obtenue est compatible avec plusieurs cadres standards, car elle exprime uniquement des relations entre passé, présent étendu et futur.
|
||
|
||
### Statistique et apprentissage
|
||
|
||
La notion de connaissance comme classe d’équivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable \(Z_t\) est “suffisante” si elle conserve toute l’information nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive.
|
||
|
||
### Théorie de l’information
|
||
|
||
La quantification du contenu prédictif par \(I(Z_t;X_{t+1:t+n})\) est standard et ne dépend pas d’une utilité. La notion pertinente est l’information prédictive, non l’information “utile”. La distinction est cruciale : la théorie ne requiert aucune tâche externe, seulement un couplage statistique entre états internes et futurs.
|
||
|
||
### Systèmes dynamiques et réduction
|
||
|
||
La connaissance ensembliste est un invariant d’atteignabilité : deux histoires sont équivalentes si elles induisent le même ensemble de futurs. Cela se relie naturellement aux notions d’ensembles invariants, de bassins et d’attracteurs, mais sans les réintroduire comme causes : ils sont déjà des objets du cadre.
|
||
|
||
### Automates et computation
|
||
|
||
Dans un cadre discret et fini, l’équivalence prédictive définit une partition des histoires ; cette partition peut être vue comme un automate minimal qui prédit l’ensemble des futurs admissibles. Le point essentiel est qu’il s’agit d’un objet de minimisation structurelle (minimisation d’automate, minimisation de quotient), non d’une optimisation d’objectif externe.
|
||
|
||
## Limites formelles
|
||
|
||
La définition de connaissance est minimale et dépend de choix explicites.
|
||
|
||
Dépendance au modèle de futur
|
||
- En version ensembliste : \(\sim_{\mathrm{ens}}\) dépend du choix d’admissibilité (contraintes, transformations).
|
||
- En version probabiliste : \(\sim_{\mathrm{prob}}\) dépend de la loi \(\mathbb{P}\) sur les transformations et des variables observées.
|
||
|
||
Dépendance à la description
|
||
Si l’on observe uniquement \(s=\Pi(x)\) au lieu de \((x,K)\), la connaissance devient relative à \(\Pi\) : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Cela n’invalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que l’observable oublie.
|
||
|
||
Caractère non unique des représentations internes
|
||
Plusieurs variables \(Z_t\) peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes d’équivalence, mais sa représentation peut ne pas être unique.
|
||
|
||
## Analyse philosophique
|
||
|
||
L’introduction dérivée de la connaissance modifie trois oppositions classiques.
|
||
|
||
Mémoire versus contrainte
|
||
La mémoire est souvent conçue comme un enregistrement du passé. Ici, ce qui persiste du passé n’est pas une copie, mais une contrainte stabilisée qui restreint le futur. La mémoire, au sens minimal, est une forme de compression irréversible de l’histoire.
|
||
|
||
Vérité versus prédictivité
|
||
La connaissance est définie par la conservation de ce qui détermine le futur admissible, non par une correspondance sémantique à un “monde” extérieur. Cette neutralité n’est pas une thèse ; elle est un choix de minimalité : le cadre ne nécessite pas de théorie de la référence pour fonctionner.
|
||
|
||
Sujet versus structure
|
||
L’absence de sujet n’élimine pas la possibilité d’un sujet ; elle montre que la notion de connaissance peut être construite sans lui. Si un sujet apparaît dans un prolongement, il apparaît comme une structure particulière au sein de \(X\), portant un registre \(K\) et une description \(\Pi\), et non comme une primitive transcendantale.
|
||
|
||
## Conclusion
|
||
|
||
Le terme « connaissance » a été introduit tardivement et défini de manière dérivée, sans être posé comme cause. Deux définitions minimales ont été construites :
|
||
|
||
- une définition ensembliste : connaissance comme classe d’équivalence d’histoires induisant le même futur accessible ;
|
||
- une définition probabiliste : connaissance comme classe d’équivalence d’histoires induisant la même loi conditionnelle du futur.
|
||
|
||
Le lien avec les chapitres précédents est direct : lorsque des contraintes se stabilisent et se transmettent, elles constituent un résidu du passé qui continue à restreindre les transformations admissibles et donc les futurs accessibles. En ce sens précis, la connaissance est un résidu nécessaire : l’histoire se compresse en contraintes prédictives, sans sujet, sans sémantique, et sans finalité.
|