**Motivations:** - Initial push of project to Gitea **Evolutions:** - Add v0 content (plan, chapters, analysis, references) **Pages affectées:** - v0/*.md, scripts, .gitignore
22 KiB
22 KiB
L’infrastructure de création de fichier dans cette session renvoie actuellement une erreur technique (impossibilité de produire un lien de téléchargement). Le contenu complet est néanmoins fourni ci-dessous en markdown prêt à enregistrer dans un fichier nommé chapitre13.md.
# Structures persistantes et verrouillage des futurs
## Introduction
Le chapitre précédent a établi un formalisme de filiation au moyen de graphes orientés acycliques, ainsi que des opérateurs de transmission et de composition permettant de décrire, sans vocabulaire substantiel, la propagation de structures partielles à travers des événements de séparation et de collision.
Le présent chapitre introduit le mécanisme par lequel ces structures transmissibles deviennent des contraintes actives sur l’évolution : l’existence d’une structure persistante ne se limite pas à être détectable dans l’état courant ; elle restreint l’ensemble des trajectoires futures accessibles depuis cet état. Le verrouillage des futurs est défini comme une réduction monotone, au cours du temps, de l’espace des devenirs admissibles, pouvant aller jusqu’à des sous-ensembles invariants, des classes absorbantes, ou des attracteurs au sens des systèmes dynamiques dissipatifs.
La priorité est strictement mathématique : tous les objets sont définis avant usage, et l’interprétation ne précède pas la construction.
## Notations et prérequis
Soit :
- $(X,\mathcal{B})$ un espace mesurable d’états (ou un espace topologique $X$ muni de sa tribu borélienne ; le choix dépendra des résultats mobilisés).
- $\mathcal{T}$ un ensemble de transformations admissibles $f : X \to X$ (temps discret).
- $\langle \mathcal{T}\rangle$ le semi-groupe engendré par $\mathcal{T}$ par composition.
Pour $x \in X$ et $n \in \mathbb{N}$, l’ensemble des états atteignables en $n$ étapes est :
\[
\operatorname{Reach}_n(x)
=
\{ f_n \circ \cdots \circ f_1(x) \;:\; f_1,\ldots,f_n \in \mathcal{T} \}.
\]
Le cône de futur (ensemble des états atteignables à horizon fini quelconque) est :
\[
\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x),
\qquad
\operatorname{Reach}_0(x)=\{x\}.
\]
Si une mesure de référence $\mu$ est disponible (mesure de volume, mesure stationnaire, etc.), la “taille” du futur accessible peut être mesurée par $\mu(\mathcal{F}(x))$. Dans un cadre fini, on utilisera plutôt la cardinalité $|\mathcal{F}(x)|$.
Dans les chapitres précédents, une structure a été introduite sous des formes compatibles : partition ou quotient de $X$, sous-tribu informative, ensemble de contraintes locales transportables, ou collection de motifs partiels transmissibles. Le chapitre présent n’impose pas un choix unique ; il impose en revanche un ordre logique minimal, garantissant l’absence d’auto-justification.
Hypothèse de base (structure comme information opératoire)
Une structure est représentée par :
- un opérateur de description $\Pi$ qui associe à un état $x$ une description $s=\Pi(x)$ dans un espace de descriptions $S$ ;
- une règle de restriction indexée par $s$, qui sélectionne soit un ensemble d’états admissibles, soit une relation de transitions admissibles, soit une sous-famille de transformations admissibles.
Cette dissociation impose l’ordre : description puis contrainte. La structure n’est pas définie comme “ce qui restreint”, mais comme une description préalable associée à une règle de restriction fixée indépendamment de l’effet constaté.
## Structures comme contraintes actives
### Définition d’une contrainte
Une contrainte admet plusieurs représentations équivalentes. Toutes seront utilisées, car elles correspondent à des points de vue complémentaires sur “ce qui est interdit”.
Contrainte d’état
Un sous-ensemble $A \subseteq X$ ; l’état est admissible si $x\in A$.
Contrainte de transition
Une relation $R \subseteq X\times X$ ; une transition $x\to y$ est admissible si $(x,y)\in R$.
Contrainte fonctionnelle
Une application $g:X\to Y$ et une condition $g(x)\in C_Y$ (notamment $g(x)=0$ ou $g(x)\le 0$). Cela induit l’ensemble admissible $A=\{x: g(x)\in C_Y\}$.
Contrainte de coût
Une fonction $c:X\times X\to [0,+\infty]$ et un seuil $\kappa$ ; $(x,y)$ est admissible si $c(x,y)\le \kappa$. Le cas $c(x,y)=+\infty$ encode l’interdiction stricte.
Interconversions utiles (sans perte)
- D’une contrainte d’état $A$, on déduit la contrainte de transition $R_A=A\times A$.
- D’une contrainte fonctionnelle $g(x)\in C_Y$, on déduit la contrainte d’état $A=\{x: g(x)\in C_Y\}$.
- D’une contrainte de coût $c(x,y)\le \kappa$, on déduit la contrainte de transition $R=\{(x,y): c(x,y)\le \kappa\}$.
### Définition d’une contrainte active
Le qualificatif “active” désigne un effet effectif sur l’atteignabilité, et non l’existence nominale d’une règle.
Soit $(X,\mathcal{T})$ et deux ensembles de transformations admissibles $\mathcal{T}\supseteq \mathcal{T}'$. Le passage de $\mathcal{T}$ à $\mathcal{T}'$ est une activation de contrainte au point $x$ si :
\[
\mathcal{F}_{\mathcal{T}'}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x),
\]
où $\mathcal{F}_{\mathcal{T}}(x)$ désigne le cône de futur construit avec $\mathcal{T}$, et $\mathcal{F}_{\mathcal{T}'}(x)$ celui construit avec $\mathcal{T}'$.
Une contrainte est globalement active si l’inclusion stricte vaut sur un ensemble d’états non négligeable (mesure non nulle, ou partie dense, selon le cadre retenu).
### Structures et activation
Soit $\Pi:X\to S$ une description, et soit $\mathcal{T}(s)\subseteq \mathcal{T}$ une famille de transformations admissibles indexée par $s\in S$.
Une structure $s$ est dite active au point $x$ si, pour $\Pi(x)=s$, on a :
\[
\mathcal{F}_{\mathcal{T}(s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x).
\]
Cette définition impose que $(\Pi,\mathcal{T}(\cdot))$ soit donné avant toute interprétation : la structure n’est pas “ce qui réduit”, elle est “ce qui est décrit” et “ce qui impose ensuite une restriction”.
### Contraintes endogènes et ensembles invariants
Il est utile de distinguer deux sources de contraintes.
Contraintes exogènes
Restrictions prescrites sur $\mathcal{T}$ (interdictions, règles externes).
Contraintes endogènes
Restrictions produites par la structure interne de la dynamique : ensembles invariants, classes absorbantes, attracteurs, dissipation, non-injectivité, réduction effective de dimension.
Le verrouillage des futurs relève principalement des contraintes endogènes. L’héritage de structures, traité plus loin, fournit un mécanisme endogène de génération et stabilisation de contraintes au sein d’un processus de filiation.
## Réduction de l’espace des trajectoires futures
### Verrouillage comme réduction monotone des cônes de futur
On modélise l’accumulation ou l’activation progressive de contraintes par une suite d’ensembles de transformations admissibles $(\mathcal{T}_t)_{t\in\mathbb{N}}$ telle que :
\[
\mathcal{T}_{t+1}\subseteq \mathcal{T}_t
\quad \text{pour tout } t.
\]
Le futur accessible à partir du temps $t$ est défini par :
\[
\mathcal{F}^{(t)}(x)
=
\bigcup_{n\ge 0}
\left\{
f_{t+n}\circ \cdots \circ f_{t+1}(x)
:
f_{t+k}\in \mathcal{T}_{t+k}
\right\}.
\]
Alors, pour tout $x$ :
\[
\mathcal{F}^{(t+1)}(x)\subseteq \mathcal{F}^{(t)}(x),
\]
donc la famille $(\mathcal{F}^{(t)}(x))_t$ est décroissante.
Le verrouillage correspond à la situation où l’inclusion est strictement décroissante sur une suite de temps, ou, de façon plus structurelle, lorsque l’intersection limite est strictement plus petite :
\[
\mathcal{F}^{(\infty)}(x)=\bigcap_{t\ge 0}\mathcal{F}^{(t)}(x)
\subsetneq
\mathcal{F}^{(0)}(x).
\]
Cas fini
Si $X$ est fini, les ensembles $\mathcal{F}^{(t)}(x)$ sont des sous-ensembles d’un ensemble fini ; la décroissance est donc stationnaire en temps fini. Le verrouillage est alors un phénomène à horizon fini, détectable par stabilisation des ensembles atteignables.
Cas infini
Si $X$ est infini, l’intersection peut être non vide tout en étant strictement plus petite que $\mathcal{F}^{(0)}(x)$ ; l’analyse se fait alors via la mesure, la topologie, ou des invariants dynamiques (dimension effective, entropie topologique, etc.).
### Verrouillage via ensembles invariants, classes absorbantes et attracteurs
Dans le cas déterministe $F:X\to X$ :
- $A$ est positivement invariant si $F(A)\subseteq A$.
- $A$ est invariant si $F(A)=A$.
- $A$ est absorbant si pour tout $x\in X$, il existe $n$ tel que $F^n(x)\in A$.
Si un ensemble absorbant strict $A\subsetneq X$ existe, alors tout futur accessible à partir de n’importe quel état devient contenu dans $A$ après un temps fini dépendant de l’état initial. Le verrouillage est ici un fait ensembliste.
Dans les systèmes dissipatifs (au sens standard), les attracteurs offrent une forme stabilisée du verrouillage : un attracteur $A$ est un ensemble compact invariant possédant un bassin $B(A)$ (ensemble d’états initiaux dont l’orbite approche $A$). Alors, pour $x\in B(A)$, l’adhérence de l’orbite est contenue dans $A$, ce qui implique une restriction durable des devenirs.
Le verrouillage n’implique pas unicité. Plusieurs attracteurs et bassins peuvent coexister ; la réduction du futur dépend alors du bassin effectif dans lequel l’état initial se situe.
### Verrouillage relatif à une observable (réduction par projection)
Soit une application de réduction $\Pi:X\to S$ (projection, quotient, codage). Pour une dynamique $F:X\to X$, le processus réduit est :
\[
S_{t+1}=\Pi(F(X_t)),
\qquad
S_t=\Pi(X_t).
\]
En général, il n’existe pas de $G:S\to S$ tel que $\Pi\circ F = G\circ \Pi$ : le système réduit n’est pas autonome.
On définit néanmoins l’ensemble des futurs observables depuis une description $s\in S$ :
\[
\mathcal{F}_S(s)
=
\{
\Pi(x')
:
x'\in \mathcal{F}(x)
\text{ pour un } x\in \Pi^{-1}(s)
\}.
\]
Même si le futur microscopique est large, le futur observable peut être fortement restreint : c’est un verrouillage relatif à l’observable. Ce point est structurel, et ne dépend pas d’une interprétation : il résulte du fait qu’une projection identifie des états distincts.
## Dépendance au passé sans mémoire explicite
Dans un système Markovien au niveau de l’état complet (ou d’une variable d’état suffisante), le futur ne dépend que du présent. La dépendance au passé apparaît lorsque :
- la variable suivie est une description partielle $\Pi(x)$ ;
- ou des variables internes de contrainte existent mais ne sont pas incluses dans l’observation.
Deux mécanismes couvrent exhaustivement le cadre présent.
### Mécanisme A : non-Markovianité induite par réduction (système caché)
Soit $(X_t)_{t\ge 0}$ une chaîne de Markov sur $X$ de noyau $K(x,\mathrm{d}x')$. Soit $\Pi:X\to S$ et $S_t=\Pi(X_t)$.
En général, $(S_t)$ n’est pas Markovien. Il existe un noyau effectif dépendant de l’histoire :
\[
\mathbb{P}(S_{t+1}\in \cdot \mid S_0,\ldots,S_t)
=
\mathcal{K}_t(S_0,\ldots,S_t;\cdot).
\]
Raison structurelle
La connaissance de $S_t$ fixe seulement la fibre $\Pi^{-1}(S_t)$, mais pas la distribution conditionnelle de $X_t$ sur cette fibre ; cette distribution dépend de l’histoire. Ainsi, la loi de $S_{t+1}$ dépend de l’histoire sans qu’une variable “mémoire” explicite ne soit introduite dans $S_t$.
Cas limite où le processus réduit redevient Markovien
Le processus réduit est Markovien si la partition induite par $\Pi$ est compatible avec le noyau (lumpabilité), c’est-à-dire si tous les états d’une même cellule induisent la même loi sur les cellules futures. En dehors de ce cas, la dépendance au passé est générique.
### Mécanisme B : variables internes de contrainte non observées (hystérésis)
Soit une dynamique augmentée sur $X\times M$ :
\[
(x_{t+1},m_{t+1})=\Psi(x_t,m_t),
\]
où $M$ représente un registre interne de contrainte (paramètre lent, ressource consommée, défaut cumulé, variable dissipative, etc.).
Si seule la composante $x_t$ est observée, la dynamique apparente sur $X$ n’est pas autonome :
\[
x_{t+1}=\pi_X(\Psi(x_t,m_t)).
\]
Deux histoires différentes peuvent mener au même $x_t$ avec des valeurs différentes de $m_t$. Or $m_t$ restreint les transitions futures ; les futurs accessibles depuis $x_t$ dépendent donc du passé, sans que cette dépendance ne soit portée par une variable explicite dans l’espace observé.
### Correspondance entre les deux mécanismes
Tout processus réduit non Markovien peut être réalisé comme la projection d’un processus Markovien sur un espace étendu. Cette correspondance n’est pas utilisée comme justification, mais comme garantie logique : la dépendance au passé est un effet de réduction ou de variable interne, et non un postulat additionnel.
## Robustesse cumulative
La robustesse cumulative formalise le fait que certaines contraintes persistantes deviennent progressivement moins sensibles :
- aux fluctuations d’état dans un voisinage ;
- aux perturbations (déterministes ou stochastiques) ;
- aux recompositions via collisions.
Elle repose sur deux mécanismes non exclusifs : l’emboîtement de régions admissibles et la contraction (au sens métrique ou probabiliste), auxquels s’ajoute un mécanisme de redondance interne.
### Notions de robustesse
Les notions standards suivantes sont toutes pertinentes et non redondantes :
- stabilité de Lyapunov autour d’un ensemble invariant ;
- attractivité ;
- stabilité asymptotique ;
- stabilité structurelle (conjugaison sous perturbations) ;
- robustesse probabiliste (persistance en probabilité sous bruit faible).
Le chapitre n’en privilégie aucune par principe : elles servent d’outillage pour caractériser différents régimes de persistance.
### Emboîtement d’ensembles admissibles
On modélise l’accumulation de contraintes par une suite d’ensembles admissibles $(A_t)_{t\ge 0}$ telle que :
\[
A_{t+1}\subseteq A_t\subseteq X,
\qquad
x_t\in A_t \Rightarrow x_{t+1}\in A_{t+1}.
\]
Toute trajectoire admissible est confinée dans :
\[
A_{\infty}=\bigcap_{t\ge 0}A_t.
\]
Interprétation strictement mathématique
Même si $A_t$ reste large pour des temps initiaux, l’intersection peut être strictement plus petite, éventuellement de dimension effective plus faible. La robustesse cumulative se lit alors comme une concentration progressive des trajectoires ou des mesures images sur $A_{\infty}$.
### Contraction et perte effective de degrés de liberté
Dans un espace métrique $(X,d)$, une condition suffisante de robustesse est l’existence d’une contraction locale ou en moyenne :
\[
d(F(x),F(y))\le \lambda\,d(x,y),
\qquad
0\le \lambda < 1,
\]
sur une région pertinente.
Conséquence directe
Des trajectoires initialement distinctes deviennent indiscernables à l’avenir : plusieurs passés se rabattent sur un même futur. Le verrouillage prend alors une forme forte : la multiplicité des devenirs diminue du fait de la contraction.
Dans les systèmes où coexistent directions contractantes et expansives, la théorie des variétés stables et instables décrit la décomposition des directions. Dans un cadre dissipatif, l’attracteur peut avoir une dimension fractale strictement plus petite que celle de l’espace ambiant, ce qui formalise une réduction durable des degrés de liberté effectifs.
### Redondance interne et bassins de réalisations
Un mécanisme complémentaire, distinct de la contraction, est la redondance : une contrainte macroscopique peut admettre de nombreuses réalisations microscopiques connectées par les transformations admissibles.
Formellement, si une contrainte macroscopique correspond à une fibre $A=\Pi^{-1}(s)$, la robustesse dépend :
- de la taille de $A$ (nombre ou mesure de réalisations) ;
- de la connectivité de $A$ sous les transformations admissibles (possibilité de “changer de réalisation” tout en conservant $s$) ;
- de l’existence d’un bassin (au sens ensembliste ou probabiliste) qui renvoie vers $A$ après perturbation.
Ce mécanisme explique une robustesse qui n’est pas due à la rigidité, mais à la multiplicité des réalisations.
## Contraintes héritées
Les chapitres antérieurs ont introduit des graphes orientés de filiation et des opérateurs de transmission partielle. Il reste à formaliser comment des contraintes deviennent héritées, au sens où elles se propagent le long des arêtes et se stabilisent.
### Espace des contraintes et ordre naturel
Soit $\mathfrak{C}$ un ensemble de contraintes élémentaires. On considère l’ensemble des collections :
\[
\mathcal{P}(\mathfrak{C})
\]
muni de l’ordre par inclusion.
À toute collection $K\subseteq \mathfrak{C}$, on associe :
- un ensemble admissible $A(K)\subseteq X$ (intersection des contraintes d’état induites) ;
- une relation admissible $R(K)\subseteq X\times X$ (intersection des contraintes de transition induites) ;
avec cohérence monotone :
\[
K_1\subseteq K_2
\Rightarrow
A(K_2)\subseteq A(K_1),
\qquad
R(K_2)\subseteq R(K_1).
\]
La lecture est purement ordinale : “plus de contraintes” implique “moins d’admissible”.
### Transport le long d’une arête
Soit un graphe orienté acyclique $G=(V,E)$. À chaque arête $e=(u\to v)$, on associe un opérateur de transmission :
\[
\tau_e:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}).
\]
Le nœud $v$ hérite de $u$ le long de $e$ si :
\[
\tau_e(K_u)\subseteq K_v.
\]
Propriété de monotonicité attendue
Il est naturel d’exiger :
\[
K_1\subseteq K_2
\Rightarrow
\tau_e(K_1)\subseteq \tau_e(K_2),
\]
afin de préserver l’ordre “plus de contraintes” le long des transmissions.
### Collisions et compatibilité
Si $v$ possède des prédécesseurs $u_1,\ldots,u_k$, les contraintes candidates transmises sont :
\[
\widetilde{K}_v
=
\bigcup_{i=1}^k \tau_{(u_i\to v)}(K_{u_i}).
\]
L’union peut créer des incompatibilités (ensemble admissible vide, relation admissible vide). On introduit un opérateur de compatibilité :
\[
\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C})
\]
tel que :
- $\operatorname{Comp}(K)\subseteq K$ ;
- $A(\operatorname{Comp}(K))\neq \varnothing$ et/ou $R(\operatorname{Comp}(K))\neq \varnothing$ ;
- si $K$ est déjà compatible, $\operatorname{Comp}(K)=K$.
Règle minimale de composition
\[
K_v \supseteq \operatorname{Comp}(\widetilde{K}_v).
\]
Aucune optimisation n’est requise : seule la satisfaisabilité est imposée.
### Verrouillage induit par héritage
Une contrainte héritée devient facteur de verrouillage dès qu’elle restreint l’atteignabilité des descendants.
On associe à $K$ un ensemble de transformations admissibles induites, par exemple :
\[
\mathcal{T}(K)
=
\{ f\in\mathcal{T} :
\forall x\in A(K),\ (x,f(x))\in R(K)
\}.
\]
Le futur accessible depuis le nœud $v$ est alors :
\[
\mathcal{F}_{\mathcal{T}(K_v)}(x_v).
\]
Forme explicite de “le passé agit sans être représenté”
Il peut exister deux nœuds $v$ et $v'$ tels que $\Pi(x_v)=\Pi(x_{v'})$ (même description observable) mais $K_v\neq K_{v'}$ (contraintes héritées différentes). Alors, en général :
\[
\mathcal{F}_{\mathcal{T}(K_v)}(x_v)
\neq
\mathcal{F}_{\mathcal{T}(K_{v'})}(x_{v'}).
\]
Le passé agit via la variable de contrainte $K$, sans que la description observée $\Pi(x)$ porte une mémoire explicite de ce passé.
### Stabilisation
Une contrainte $c\in\mathfrak{C}$ est stabilisée le long d’une suite de descendants $(v_n)$ si, à partir d’un rang, $c\in K_{v_n}$ pour tout $n$ ultérieur. Plus généralement, un sous-ensemble $K^\star$ est stabilisé si $K^\star\subseteq K_{v_n}$ à partir d’un rang.
La stabilisation est le passage d’un verrouillage local (lié à un événement de transmission ou de collision) à un verrouillage durable (lié à la persistance de contraintes au long cours).
## Résultat logique
Les constructions précédentes conduisent à une proposition strictement ensembliste :
- une structure devient contrainte active dès qu’elle réduit un cône de futur ;
- toute accumulation monotone de contraintes produit une réduction monotone des futurs accessibles ;
- toute réduction par projection, ou tout oubli de variables internes de contrainte, induit une dépendance au passé au niveau des descriptions ;
- l’héritage de contraintes sur un graphe orienté suffit à faire varier l’ensemble des futurs accessibles sans modifier nécessairement la description observée.
La phrase « le passé agit sans être représenté » est donc un énoncé technique : la variable descriptive peut rester constante tandis que l’ensemble admissible des transformations change, via des contraintes héritées ou cachées.
## Notes bibliographiques minimales
Les notions mobilisées ici appartiennent à des cadres standard :
- systèmes dynamiques (invariance, classes absorbantes, attracteurs, stabilité) ;
- chaînes de Markov et modèles cachés (réduction non Markovienne, compatibilité de partitions, lumpabilité) ;
- théorie de l’information (projection, perte d’information, suffisance) ;
- semi-groupes d’opérateurs (cadre temps continu, dissipation).
Aucune hypothèse non standard n’est requise pour établir les résultats ensemblistes du chapitre.
## Conclusion
Le verrouillage des futurs a été défini comme une propriété d’atteignabilité : des structures persistantes, lorsqu’elles se traduisent en contraintes actives, réduisent l’espace des trajectoires futures. La dépendance au passé a été formalisée sans variable de mémoire explicite, par réduction non Markovienne ou par variables internes non observées. Enfin, l’héritage sur graphes orientés a été articulé à ces notions pour produire un mécanisme de verrouillage durable.
Le chapitre suivant pourra exploiter ce cadre pour étudier une sélection structurelle fondée sur compatibilité et transmissibilité, sans introduire d’optimisation ni de finalité.
Si la production d’un fichier téléchargeable redevient possible dans la session, le même contenu pourra être directement exporté en chapitre13.md sans modification.