**Motivations:** - Compilation du livre à partir des chapitres v0 - Création de la structure v1 avec chapitres et correctifs **Evolutions:** - v0/compile_livre.py : script de compilation - v0/livre.md : livre consolidé généré - Modifications des chapitres v0 (1-32), introduction, fermeture, plan_total_ouvrage, references, analyses critiques - v1 : abstract, chapitres 1-16, correctifs chapitres 17-32, introduction, fermeture, plan_total_ouvrage, references **Pages affectées:** - v0/ : compile_livre.py (nouveau), livre.md (nouveau), chapitre1-32.md, introduction.md, fermeture.md, plan_total_ouvrage.md, references.md, analyse_critique_ouvrage*.md - v1/ : abstract.md, chapitre1-16.md, correctifs/chapitre17-32.md, introduction.md, fermeture.md, plan_total_ouvrage.md, references.md (nouveaux) Co-authored-by: Cursor <cursoragent@cursor.com>
17 KiB
| livre | version | auteur | chapitre | type |
|---|---|---|---|---|
| Théorie des futurs accessibles | v0 | Nicolas Cantu | 16 | chapitre initial |
Interprétation épistémique minimale
Introduction
Les chapitres précédents ont construit un cadre où l’évolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes d’équivalence, transmission partielle sur graphes orientés, verrouillage des futurs, sélection structurelle sans optimisation et, enfin, auto-stabilisation non réflexive dans l’espace étendu états–contraintes.
Le présent chapitre introduit tardivement le terme « connaissance ». Cette introduction tardive est méthodologique : la connaissance ne doit pas être posée comme un primitive explicative. Elle doit être dérivée comme un résidu nécessaire de la dynamique déjà formalisée. Le chapitre vise donc une interprétation épistémique minimale, compatible avec des disciplines différentes, sans supposer un sujet, ni une sémantique, ni une finalité.
Le résultat attendu peut être annoncé de manière strictement technique :
- des trajectoires différentes deviennent indistinguables pour le futur dès lors qu’elles induisent les mêmes cônes de futur (ou la même loi de futur) ;
- l’objet qui capture cette indistinguabilité est une classe d’équivalence sur les histoires ;
- lorsqu’une collection de contraintes se stabilise et se transmet, elle réalise une compression opérationnelle des histoires en un objet prédictif, au sens où elle suffit à déterminer l’ensemble des futurs admissibles.
La connaissance, dans ce sens minimal, est ce qui reste d’une histoire lorsqu’on ne conserve que ce qui contraint encore le futur.
Cadre et notations
États, transformations et cônes de futur
Soit X un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \mathcal{T} un ensemble de transformations admissibles f:X\to X.
Pour x\in X et n\in\mathbb{N}, l’ensemble atteignable en n étapes est :
\operatorname{Reach}_n(x)=\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}.
Le cône de futur (atteignabilité à horizon fini quelconque) est :
\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x).
Contraintes et dynamique conditionnée
Soit \mathfrak{C} un ensemble de contraintes élémentaires. À toute collection K\subseteq\mathfrak{C}, on associe :
- un ensemble admissible
A(K)\subseteq X, - une relation admissible
R(K)\subseteq X\times X,
avec monotonie par inclusion :
K_1\subseteq K_2\Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1).
La famille de transformations admissibles induite par K est :
\mathcal{T}(K)=\{f\in\mathcal{T}:\forall x\in A(K),\ (x,f(x))\in R(K)\}.
Un opérateur de compatibilité \operatorname{Comp} est supposé donné :
\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}),
tel que \operatorname{Comp}(K)\subseteq K, et tel que \operatorname{Comp}(K) soit compatible dès lors qu’une sous-collection compatible existe. Cette définition ne contient aucune optimisation : il s’agit uniquement d’éviter la contradiction opérationnelle.
Espace étendu et actualisation des contraintes
Comme au chapitre 15, on introduit l’espace étendu :
Y=X\times \mathcal{P}(\mathfrak{C}),
dont un élément y=(x,K) encode un état et ses contraintes actives.
On suppose donnée une règle d’actualisation :
\Phi:Y\to \mathcal{P}(\mathfrak{C}),
et une mise à jour :
K^+=\operatorname{Comp}(K\cup \Phi(x,K)).
L’évolution de x dépend de K via une restriction de \mathcal{T}. Dans une version stochastique (utile pour l’énoncé d’objets prédictifs), on suppose une loi conditionnelle \mathbb{P}(\cdot\mid x,K) supportée sur \mathcal{T}(K).
La dynamique est alors :
(x_{t+1},K_{t+1})=\Psi(x_t,K_t),
où \Psi résume le mécanisme « choisir une transformation admissible sous K_t, l’appliquer, puis actualiser K ».
Histoires et futurs
On note une histoire (temps discret) :
h_t=(x_0,x_1,\ldots,x_t),
ou, dans l’espace étendu :
\tilde{h}_t=((x_0,K_0),(x_1,K_1),\ldots,(x_t,K_t)).
Pour distinguer l’approche déterministe et probabiliste, deux objets de futur seront utilisés :
- futur ensembliste :
\mathcal{F}(x)ou\mathcal{F}_{\mathcal{T}(K)}(x); - futur probabiliste : la loi conditionnelle du futur
(X_{t+1},X_{t+2},\ldots)sachant l’histoire.
Ces deux notions sont compatibles : l’approche probabiliste raffine l’approche ensembliste lorsqu’une loi a priori sur les transformations (ou un bruit) est fixée.
Introduction tardive de la connaissance : définition dérivée et non primitive
Principe de dérivation
Définition (principe minimal).
On appellera « connaissance » un objet qui :
- est déterminé par l’histoire passée ;
- est plus pauvre que l’histoire (compression) ;
- conserve exactement ce qui est pertinent pour le futur, au sens où deux histoires qui produisent le même objet de connaissance induisent le même futur (ensembliste ou probabiliste).
Ce principe ne suppose pas de sujet : il définit une propriété relationnelle entre passé et futur, à l’intérieur du système.
Définition ensembliste (équivalence par cône de futur)
Soit une dynamique conditionnée par contraintes sur l’espace étendu Y. Pour une histoire étendue \tilde{h}_t, on note y_t=(x_t,K_t) son dernier état.
On définit le futur accessible sous contraintes à partir de y_t par :
\mathcal{F}_Y(y_t)=\bigcup_{n\ge 0}\{y_{t+n}:\exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}.
Définition (équivalence prédictive ensembliste).
Deux histoires étendues \tilde{h}_t et \tilde{h}'_t sont dites équivalentes, noté \tilde{h}_t\sim_{\mathrm{ens}}\tilde{h}'_t, si leurs derniers états y_t et y'_t induisent le même futur accessible :
\mathcal{F}_Y(y_t)=\mathcal{F}_Y(y'_t).
La classe d’équivalence [\tilde{h}_t]_{\mathrm{ens}} est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre l’ensemble des futurs admissibles ».
Définition (connaissance ensembliste minimale).
La connaissance ensembliste associée à une histoire est la classe d’équivalence [\tilde{h}_t]_{\mathrm{ens}}.
Cette définition est interne au système : elle n’utilise aucune sémantique et ne suppose aucun observateur.
Définition probabiliste (équivalence par loi de futur)
Soit maintenant une version stochastique, où la dynamique sur Y induit une loi \mathbb{P} sur les trajectoires.
Définition (équivalence prédictive probabiliste).
Deux histoires étendues \tilde{h}_t et \tilde{h}'_t sont équivalentes, noté \tilde{h}_t\sim_{\mathrm{prob}}\tilde{h}'_t, si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) :
\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}_t\big)
=
\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'_t\big).
La classe [\tilde{h}_t]_{\mathrm{prob}} est un objet de connaissance au sens probabiliste.
Remarque de consensus.
Cette notion est standard : elle est équivalente à la notion de statistique suffisante pour la prédiction du futur, et se relie aux constructions de filtrations et de conditionnements en probabilités. La formulation ici évite toute référence à une utilité : seule la loi du futur importe.
Mesures d’information prédictive (sans utilité)
Pour quantifier le contenu prédictif d’une variable interne Z_t=g(\tilde{h}_t), on peut utiliser des objets standard de théorie de l’information.
Définition (entropie conditionnelle).
Pour des variables aléatoires U,V, l’entropie conditionnelle est H(U\mid V).
Définition (information mutuelle).
L’information mutuelle est :
I(U;V)=H(U)-H(U\mid V).
Dans le cadre présent, si l’on fixe un horizon n et U=X_{t+1:t+n} (bloc futur), on peut quantifier l’information prédictive portée par Z_t via I(Z_t;X_{t+1:t+n}). Aucun « bénéfice » n’est invoqué : seule la dépendance statistique est mesurée.
Connaissance comme contrainte stabilisée transmissible
Le plan impose une définition : « connaissance comme contrainte stabilisée transmissible ». Il convient d’en donner un contenu mathématique précis, en reliant cette idée aux équivalences prédictives définies ci-dessus.
Définition (contrainte stabilisée)
Soit une trajectoire (x_t,K_t) dans Y. Une collection K^\star\subseteq\mathfrak{C} est dite stabilisée le long de la trajectoire s’il existe T tel que :
K^\star\subseteq K_t \quad \text{pour tout } t\ge T,
et si la suite (K_t) admet une limite en inclusion :
K_t\uparrow K_\infty=\bigcup_{t\ge 0}K_t
\quad \text{(éventuellement après application de }\operatorname{Comp}\text{).}
Dans le cas |\mathfrak{C}|<\infty et d’une actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15).
Définition (transmissibilité de contrainte sur graphe)
Soit un graphe orienté acyclique G=(V,E) de filiation (chapitre 12). À chaque sommet v est associée une occurrence y_v=(x_v,K_v). À chaque arête e=(u\to v) est associé un opérateur de transmission \tau_e.
Une contrainte élémentaire c\in\mathfrak{C} est transmissible sur une arête e si :
c\in K \Rightarrow c\in \tau_e(K).
Une collection K^\star est transmissible sur un sous-graphe si chaque c\in K^\star est transmissible sur toutes les arêtes de ce sous-graphe.
Proposition (suffisance prédictive du registre de contraintes stabilisées)
Hypothèses minimales :
- la dynamique dans
Yest Markovienne (au niveau complet(x,K)) ; - l’évolution de
xdépend deKuniquement via\mathcal{T}(K); - le mécanisme d’actualisation
K^+=\operatorname{Comp}(K\cup \Phi(x,K))est donné et ne dépend pas du futur.
Alors :
- le futur ensembliste accessible depuis
y_t=(x_t,K_t)dépend uniquement dey_t, et non de l’histoire complète ; - de même, le futur probabiliste (loi conditionnelle) dépend uniquement de
y_t.
Autrement dit, dans l’espace étendu Y, y_t est une statistique suffisante au sens prédictif : l’histoire se résume sans perte (pour le futur) à l’état étendu présent.
Conséquence (connaissance comme résidu).
Si K_t se stabilise vers K_\infty, et si K_\infty est transmissible le long des arêtes d’un sous-graphe de filiation, alors la composante K_\infty constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant qu’il est prédictif (il détermine \mathcal{T}(K_\infty) et donc l’atteignabilité), réalise une notion minimale de connaissance.
Cette proposition ne requiert aucune sémantique : la “connaissance” est un registre de restrictions stabilisées qui suffisent à prédire les futurs admissibles au sens du modèle.
Lien avec le verrouillage des futurs
Le chapitre 13 a défini le verrouillage comme une décroissance de l’atteignabilité. Dans le cadre présent, si K_t\uparrow K_\infty, alors \mathcal{T}(K_t) est décroissante et :
\mathcal{T}(K_\infty)=\bigcap_{t\ge 0}\mathcal{T}(K_t),
d’où une limite de transformation. Le registre K_\infty encode donc explicitement le mécanisme par lequel le passé réduit l’espace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : l’une en terme de futur, l’autre en terme de contrainte stabilisée.
Absence de sujet
Le plan exige « absence de sujet ». Cela signifie ici :
- aucune entité “sait” ;
- aucune intention n’oriente les transitions ;
- aucun vocabulaire de représentation n’est posé comme causal.
Cette absence est garantie par construction : la connaissance est une classe d’équivalence sur les histoires (définie par des futurs), ou un registre de contraintes stabilisées (défini par une actualisation et une transmissibilité). Dans les deux cas, l’objet est une propriété de la dynamique.
Remarque méthodologique.
Dans les sciences formelles, la “connaissance” est souvent associée à un observateur. Le chapitre présent adopte une interprétation minimale : l’observateur, s’il existe, n’ajoute pas la notion ; il peut au mieux la lire, en identifiant une variable ou une partition qui est déjà suffisante pour prédire le futur.
Compatibilité interdisciplinaire
La définition dérivée obtenue est compatible avec plusieurs cadres standards, car elle exprime uniquement des relations entre passé, présent étendu et futur.
Statistique et apprentissage
La notion de connaissance comme classe d’équivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable Z_t est “suffisante” si elle conserve toute l’information nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive.
Théorie de l’information
La quantification du contenu prédictif par I(Z_t;X_{t+1:t+n}) est standard et ne dépend pas d’une utilité. La notion pertinente est l’information prédictive, non l’information “utile”. La distinction est cruciale : la théorie ne requiert aucune tâche externe, seulement un couplage statistique entre états internes et futurs.
Systèmes dynamiques et réduction
La connaissance ensembliste est un invariant d’atteignabilité : deux histoires sont équivalentes si elles induisent le même ensemble de futurs. Cela se relie naturellement aux notions d’ensembles invariants, de bassins et d’attracteurs, mais sans les réintroduire comme causes : ils sont déjà des objets du cadre.
Automates et computation
Dans un cadre discret et fini, l’équivalence prédictive définit une partition des histoires ; cette partition peut être vue comme un automate minimal qui prédit l’ensemble des futurs admissibles. Le point essentiel est qu’il s’agit d’un objet de minimisation structurelle (minimisation d’automate, minimisation de quotient), non d’une optimisation d’objectif externe.
Limites formelles
La définition de connaissance est minimale et dépend de choix explicites.
Dépendance au modèle de futur
- En version ensembliste :
\sim_{\mathrm{ens}}dépend du choix d’admissibilité (contraintes, transformations). - En version probabiliste :
\sim_{\mathrm{prob}}dépend de la loi\mathbb{P}sur les transformations et des variables observées.
Dépendance à la description
Si l’on observe uniquement s=\Pi(x) au lieu de (x,K), la connaissance devient relative à \Pi : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Cela n’invalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que l’observable oublie.
Caractère non unique des représentations internes
Plusieurs variables Z_t peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes d’équivalence, mais sa représentation peut ne pas être unique.
Analyse philosophique
L’introduction dérivée de la connaissance modifie trois oppositions classiques.
Mémoire versus contrainte
La mémoire est souvent conçue comme un enregistrement du passé. Ici, ce qui persiste du passé n’est pas une copie, mais une contrainte stabilisée qui restreint le futur. La mémoire, au sens minimal, est une forme de compression irréversible de l’histoire.
Vérité versus prédictivité
La connaissance est définie par la conservation de ce qui détermine le futur admissible, non par une correspondance sémantique à un “monde” extérieur. Cette neutralité n’est pas une thèse ; elle est un choix de minimalité : le cadre ne nécessite pas de théorie de la référence pour fonctionner.
Sujet versus structure
L’absence de sujet n’élimine pas la possibilité d’un sujet ; elle montre que la notion de connaissance peut être construite sans lui. Si un sujet apparaît dans un prolongement, il apparaît comme une structure particulière au sein de X, portant un registre K et une description \Pi, et non comme une primitive transcendantale.
Conclusion
Le terme « connaissance » a été introduit tardivement et défini de manière dérivée, sans être posé comme cause. Deux définitions minimales ont été construites :
- une définition ensembliste : connaissance comme classe d’équivalence d’histoires induisant le même futur accessible ;
- une définition probabiliste : connaissance comme classe d’équivalence d’histoires induisant la même loi conditionnelle du futur.
Le lien avec les chapitres précédents est direct : lorsque des contraintes se stabilisent et se transmettent, elles constituent un résidu du passé qui continue à restreindre les transformations admissibles et donc les futurs accessibles. En ce sens précis, la connaissance est un résidu nécessaire : l’histoire se compresse en contraintes prédictives, sans sujet, sans sémantique, et sans finalité.