diff --git a/v0/livre.md b/v0/livre.md index 34d8dd6..fa2bead 100644 --- a/v0/livre.md +++ b/v0/livre.md @@ -4,7 +4,7 @@ version: v0 auteur: Nicolas Cantu --- -# Introduction +# Introduction {#introduction} Un livre peut tenter de décrire le monde, ou bien tenter de décrire les conditions minimales sous lesquelles une description du monde devient possible. Le présent ouvrage relève de la seconde ambition. Il ne part pas d’une ontologie, d’une physique, d’une psychologie, ni d’une théorie de l’information déjà constituée. Il part d’un problème plus nu : comment une structure, au sein d’un ensemble de transformations possibles, peut-elle devenir assez stable pour être réutilisée, transmise, et agir comme contrainte sur ce qui peut advenir ensuite. @@ -14,43 +14,49 @@ Cette question n’est pas traitée ici comme une question “de sens” ou “d L’objet central est un triplet conceptuel minimal : -- un espace d’états, entendu au sens le plus large (configurations, descriptions, classes, états internes, états d’un système abstrait) ; -- un ensemble de transformations admissibles, c’est-à-dire un catalogue de transitions autorisées, dont la composition induit une dynamique ; +- un espace d’états, entendu au sens le plus large (configurations, descriptions, classes, états internes, états d’un système abstrait) + +- un ensemble de transformations admissibles, c’est-à-dire un catalogue de transitions autorisées, dont la composition induit une dynamique - un mécanisme de contraintes, qui réduit ou organise ces transformations au cours de l’évolution. À partir de ce triplet, l’ouvrage construit progressivement des notions qui sont habituellement posées comme primitives : temps effectif, irréversibilité, mémoire, transmission, sélection, et finalement connaissance. La thèse directrice peut être formulée sans métaphysique et sans agent : une “connaissance” est une contrainte stabilisée, opératoire et transmissible, qui réduit durablement l’ensemble des futurs accessibles pour une classe de trajectoires, et dont la stabilisation peut être étudiée indépendamment d’une sémantique. -Note de méthode (mémoire). -Dans l’ouvrage, le mot « mémoire » n’est pas un synonyme de « dépendance au passé ». On distingue : - -- une **mémoire transmissible** : un registre de contraintes stabilisé et transmissible (p. ex. un registre \(K\) ou \(M\)), opératoire sur les transitions admissibles et réduisant durablement l’ensemble des futurs accessibles ; -- une **variable cachée** : une composante de l’état omise par choix de description/projection, telle qu’un processus observé devienne non markovien alors qu’il redevient markovien sur un espace d’état étendu où la dynamique est fermée. -Dès qu’un passage invoque la mémoire, il précise l’espace d’état utilisé, la projection éventuelle, et si l’on parle d’un registre transmissible ou d’un état incomplet (variable cachée). +> **Note de méthode** (mémoire). +> +> Dans l’ouvrage, le mot « mémoire » n’est pas un synonyme de « dépendance au passé ». On distingue : +> +> - une **mémoire transmissible** : un registre de contraintes stabilisé et transmissible (p. ex. un registre \(((K\) ou \(M\)), opératoire sur les transitions admissibles et réduisant durablement l’ensemble des futurs accessibles ; +> +> - une **variable cachée** : une composante de l’état omise par choix de description/projection, telle qu’un processus observé devienne non markovien alors qu’il redevient markovien sur un espace d’état étendu où la dynamique est fermée. +> +> Dès qu’un passage invoque la mémoire, il précise l’espace d’état utilisé, la projection éventuelle, et si l’on parle d’un registre transmissible ou d’un état incomplet (variable cachée). Règle M0 (déclaration). Chaque fois qu’un passage emploie l’un des mots : mémoire, héritage, dépendance au passé, non‑Markovianité, contexte historique, il ajoute une déclaration structurée : -- espace d’état utilisé : observable \(X\), espace complet \(S\), ou espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) ; -- projection(s) actives : \(\Pi\) (par exemple \(X=\Pi(S)\) ou \(s=\Pi(x)\)) ; -- statut markovien : “markovien sur \(S\)”, “non markovien sur \(X\)”, “markovien sur \(Y\)” ; +- espace d’état utilisé : observable \(X\), espace complet \(S\), ou espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) + +- projection(s) actives : \(((\Pi\) (par exemple \(X=\Pi(S)\)\)) ou \(((s=\Pi(x)\)\))) +- statut markovien : “markovien sur \(((S\)”, “non markovien sur \(X\)”, “markovien sur \(Y\)” - type : - - mémoire‑état (variable cachée) si l’effet disparaît en espace complet/étendu minimal, + +- mémoire‑état (variable cachée) si l’effet disparaît en espace complet/étendu minimal, - mémoire‑structure (transmissible) si un registre \(K\) est défini comme contrainte opératoire et transmissible. Déclaration standard M0‑État (projection). -Espace d’état : \(S\) (état complet), observable \(X=\Pi(S)\). -Projection : \(\Pi\). +Espace d’état : \(S\) (état complet), observable \(X=\Pi(S)\)\)). +Projection : \(((\Pi\). Statut markovien : non markovien sur \(X\) en général ; markovien sur \(S\) (ou sur un espace étendu \(Y=X\times H\) rendant la dynamique fermée). Type : mémoire‑état (variable cachée), pas mémoire‑structure. Déclaration standard M0‑Structure (registre transmissible). -Espace d’état : \(Y=X\times\mathcal{P}(\mathfrak{C})\) (état + registre de contraintes \(K\)). -Projection : \(\Pi_X(x,K)=x\) (et, si lecture sur une description, \(s=\Pi(x)\)). -Statut markovien : markovien sur \(Y\) lorsque la dynamique est formulée sur \(Y\) (fermeture par ajout de \(K\)). +Espace d’état : \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) (état + registre de contraintes \(((K\)). +Projection : \(\Pi\_X(x,K)=x\) (et, si lecture sur une description, \(s=\Pi(x)\)\))). +Statut markovien : markovien sur \(((Y\) lorsque la dynamique est formulée sur \(Y\) (fermeture par ajout de \(K\)). Type : mémoire‑structure (registre transmissible) lorsque \(K\) se stabilise et contraint l’atteignabilité ; sinon, mémoire‑état (variable cachée) si \(K\) n’est qu’un état omis. Règle M1 (formulation sur espace étendu). -Si un argument dépend d’une dépendance au passé ou d’un registre \(K\), il est formulé d’abord sur l’espace étendu minimal rendant la dynamique fermée (par exemple \(Y=X\times\mathcal{P}(\mathfrak{C})\)), puis la lecture sur une projection \(\Pi\) est discutée. +Si un argument dépend d’une dépendance au passé ou d’un registre \(K\), il est formulé d’abord sur l’espace étendu minimal rendant la dynamique fermée (par exemple \(Y=X\times\mathcal{P}(\mathfrak{C})\)\))), puis la lecture sur une projection \(((\Pi\) est discutée. Cette formulation ne présuppose ni sujet connaissant, ni objectif, ni valeur, ni finalité. Elle ne présuppose pas non plus que l’information soit une substance : elle la reconstruit, lorsque cela devient nécessaire, comme une mesure dérivée d’indistinguabilités et de restrictions sur l’atteignabilité. @@ -58,10 +64,11 @@ Cette formulation ne présuppose ni sujet connaissant, ni objectif, ni valeur, n L’ouvrage se situe à l’intersection de plusieurs traditions, sans se confondre avec aucune : -- la théorie des systèmes dynamiques (attracteurs, invariants, régions piégées, stabilité) ; -- la théorie des graphes et des automates (atteignabilité, composantes, cycles, quotients) ; -- la théorie de l’ordre et des points fixes (monotonie, treillis, fermetures, convergence par itération) ; -- la théorie de l’information (entropies, informations mutuelles) uniquement comme couche optionnelle, lorsque des structures probabilistes sont explicitement introduites ; +- la théorie des systèmes dynamiques (attracteurs, invariants, régions piégées, stabilité) + +- la théorie des graphes et des automates (atteignabilité, composantes, cycles, quotients) +- la théorie de l’ordre et des points fixes (monotonie, treillis, fermetures, convergence par itération) +- la théorie de l’information (entropies, informations mutuelles) uniquement comme couche optionnelle, lorsque des structures probabilistes sont explicitement introduites - la thermodynamique de non-équilibre uniquement comme instanciation possible, sous hypothèses additionnelles, et jamais comme conséquence du noyau minimal. Ce positionnement impose une règle de méthode : aucune notion empruntée à une discipline ne doit être importée comme évidence. Si un mot est employé (stabilité, sélection, mémoire, information, contrainte), il doit soit être défini dans le cadre, soit être explicitement présenté comme un raccourci terminologique dont les conditions d’usage sont déclarées. @@ -80,14 +87,13 @@ Elle ne suppose aucune probabilité. Elle utilise des ensembles d’états et de Elle introduit des distances, coûts de chemin, quasi-métriques ou mesures de taille, non comme réalités physiques, mais comme instruments de quantification. Elle permet de comparer des intensités de verrouillage, des vitesses de stabilisation, des goulots, des fragmentations de futurs. -Encadré (statut et instanciations d’un coût de transition \(c\)). -Lorsqu’un coût \(c(x\to y)\) est introduit pour quantifier des chemins, des barrières ou des restrictions, il a par défaut le statut d’un **poids de graphe** (couche quantitative). Une lecture physico‑thermodynamique n’est mobilisée qu’après déclaration d’un dictionnaire d’instanciation et de ses hypothèses. - -Instanciations typiques (à déclarer, non équivalentes). - -- déterministe : \(c\) est un poids de transition ou de chemin (longueur, pénalité, ressource abstraite). -- stochastique : \(c\) est dérivé d’un noyau \(P\) (par exemple via des rapports de probabilités de trajectoires) ; ses propriétés sont alors indexées par \(P\). -- thermodynamique de l’information : \(c\) est relié à un protocole d’implémentation et à un effacement logique ; Landauer fournit une borne minimale sous hypothèses explicites, sans identifier \(c\) à une grandeur unique. +> **Encadré** (statut et instanciations d’un coût de transition \(c\)). +> Lorsqu’un coût \(c(x\to y)\)\)) est introduit pour quantifier des chemins, des barrières ou des restrictions, il a par défaut le statut d’un **poids de graphe** (couche quantitative). Une lecture physico‑thermodynamique n’est mobilisée qu’après déclaration d’un dictionnaire d’instanciation et de ses hypothèses. +> Instanciations typiques (à déclarer, non équivalentes). +> +> - déterministe : \(((c\) est un poids de transition ou de chemin (longueur, pénalité, ressource abstraite). +> - stochastique : \(c\) est dérivé d’un noyau \(P\) (par exemple via des rapports de probabilités de trajectoires) ; ses propriétés sont alors indexées par \(P\). +> - thermodynamique de l’information : \(c\) est relié à un protocole d’implémentation et à un effacement logique ; Landauer fournit une borne minimale sous hypothèses explicites, sans identifier \(c\) à une grandeur unique. Le texte sépare explicitement ce qui relève d’un consensus (conditions d’application, formes de bornes) de ce qui relève d’un choix de modèle (niveau de description, protocole, indexation). @@ -166,59 +172,60 @@ Cette introduction fixe une ambition et une discipline : construire, à partir d --- -# Chapitre 1 — Espaces de configurations et transformations admissibles +## Chapitre 1 — Espaces de configurations et transformations admissibles {#chapitre-1-espaces-de-configurations-et-transformations-admissibles} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 1 -Hypothèses (H). +**Hypothèses (H).** -- un espace de configurations \(X\) (ensemble d’états) ; -- une notion d’admissibilité (contraintes) fixée avant l’analyse ; +- un espace de configurations \(X\) (ensemble d’états) +- une notion d’admissibilité (contraintes) fixée avant l’analyse - une famille de transformations admissibles (déterministes ou stochastiques) décrivant l’évolution. -Résultats (E). +**Résultats (E).** -- définitions de configuration, contrainte admissible et transformation admissible ; +- définitions de configuration, contrainte admissible et transformation admissible - mise en place de la dynamique (itération/succession) et du rôle structural des collisions comme indiscernabilité relative à une description. -Statut. +**Statut.** - noyau ensembliste ; la topologie/métrique, si mentionnée, reste un ajout optionnel et déclaré. ## Espace de configurations et contraintes admissibles -On définit un espace de configurations comme l’ensemble abstrait de tous les états possibles d’un système considéré. Mathématiquement, il peut s’agir d’un ensemble fini ou infini (dénombrable, voire continu), potentiellement muni d’une structure additionnelle (topologie, métrique) pour refléter des proximités ou relations entre configurations. Chaque configuration $C$ représente une disposition complète des éléments ou paramètres du système à un instant donné. Par exemple, en mécanique classique, l’espace de configurations correspond à toutes les positions possibles des corps; en informatique, l’ensemble des valeurs de toutes les variables du programme; et dans un contexte plus général, l’espace de formes ou de connaissances possibles. +On définit un espace de configurations comme l’ensemble abstrait de tous les états possibles d’un système considéré. Mathématiquement, il peut s’agir d’un ensemble fini ou infini (dénombrable, voire continu), potentiellement muni d’une structure additionnelle (topologie, métrique) pour refléter des proximités ou relations entre configurations. Chaque configuration \(C\) représente une disposition complète des éléments ou paramètres du système à un instant donné. Par exemple, en mécanique classique, l’espace de configurations correspond à toutes les positions possibles des corps ; en informatique, l’ensemble des valeurs de toutes les variables du programme ; et dans un contexte plus général, l’espace de formes ou de connaissances possibles. Toute construction rigoureuse d’un espace de configurations nécessite aussi de spécifier les contraintes admissibles qui le caractérisent. Celles-ci sont les conditions ou règles logiques limitant les configurations possibles ou leurs enchaînements. Autrement dit, parmi toutes les configurations concevables, les contraintes admissibles définissent celles qui sont physiquement, logiquement ou structurellement réalisables par le système. Par exemple, dans un système physique, les lois de conservation (énergie, charge, etc.) imposent des contraintes qui restreignent l’ensemble des états accessibles. De même, pour un système d’information structuré, on peut avoir des invariants (comme l’intégrité référentielle dans une base de données, ou la syntaxe dans une phrase) qui excluent certaines combinaisons. Ces contraintes admissibles peuvent être vues comme définissant un sous-espace valide à l’intérieur de l’espace de configurations, garantissant la cohérence interne de chaque état autorisé. -On note que l’espace de configurations n’est pas nécessairement un espace géométrique au sens habituel, mais peut être purement relationnel ou combinatoire. Par exemple, en théorie des graphes (ou dans les topologies relationnelles), on considère des états définis par des relations entre objets plutôt que par des positions dans un espace métrique. Un graphe de $N$ nœuds possède un espace de configurations représentant toutes les manières dont les arêtes peuvent relier ces nœuds – espace contraint par des règles éventuelles (degré maximal, connexité requise, etc.). On peut doter un tel espace d’une notion de distance ou de voisinage (par exemple en comptant le nombre d’arêtes différentes entre deux graphes) afin de le munir d’une topologie relationnelle pertinente. Cela illustre comment l’abstraction de configuration s’adapte à la nature du système : qu’il s’agisse de variables numériques continues, d’objets discrets ou de relations, on vise une description suffisamment générale pour englober tout état possible sans perdre la cohérence imposée par les contraintes. +On note que l’espace de configurations n’est pas nécessairement un espace géométrique au sens habituel, mais peut être purement relationnel ou combinatoire. Par exemple, en théorie des graphes (ou dans les topologies relationnelles), on considère des états définis par des relations entre objets plutôt que par des positions dans un espace métrique. Un graphe de \(N\) nœuds possède un espace de configurations représentant toutes les manières dont les arêtes peuvent relier ces nœuds – espace contraint par des règles éventuelles (degré maximal, connexité requise, etc.). On peut doter un tel espace d’une notion de distance ou de voisinage (par exemple en comptant le nombre d’arêtes différentes entre deux graphes) afin de le munir d’une topologie relationnelle pertinente. Cela illustre comment l’abstraction de configuration s’adapte à la nature du système : qu’il s’agisse de variables numériques continues, d’objets discrets ou de relations, on vise une description suffisamment générale pour englober tout état possible sans perdre la cohérence imposée par les contraintes. ## Transformations et dynamique des états -Une transformation dans ce contexte est une opération qui, appliquée à une configuration initiale $C(t)$ à un « temps » $t$, produit une nouvelle configuration $C(t+1)$ à l’instant suivant (dans un cadre discret) ou $C(t+\mathrm{d}t)$ (en temps continu). Les transformations peuvent être déterministes (règle fixe donnant un état suivant unique) ou stochastiques. Collectivement, elles définissent la dynamique du système, c’est-à-dire l’évolution possible des configurations au fil du temps. Formellement, on peut voir la dynamique comme une application $\Phi^t$ qui à un temps $t$ et un état initial $x$ associe l’état $\Phi^t(x)$ atteint après évolution pendant $t$ unités de temps[1]. Dans un système à temps discret, $\Phi^{1}$ correspond à l’application d’une étape de transformation élémentaire, et l’itération de cette fonction décrit l’évolution itérative du système. +Une transformation dans ce contexte est une opération qui, appliquée à une configuration initiale \(C(t)\)\)) à un « temps » \(((t\), produit une nouvelle configuration \(C(t+1)\)\)) à l’instant suivant (dans un cadre discret) ou \(((C(t+\mathrm{d}t)\)\)) (en temps continu). Les transformations peuvent être déterministes (règle fixe donnant un état suivant unique) ou stochastiques. Collectivement, elles définissent la dynamique du système, c’est-à-dire l’évolution possible des configurations au fil du temps. Formellement, on peut voir la dynamique comme une application \(((\Phi^t\) qui à un temps \(t\) et un état initial \(x\) associe l’état \(\Phi^t(x)\)\)) atteint après évolution pendant \(((t\) unités de temps[1]. Dans un système à temps discret, \(\Phi^{1}\) correspond à l’application d’une étape de transformation élémentaire, et l’itération de cette fonction décrit l’évolution itérative du système. Les contraintes admissibles mentionnées plus haut jouent un rôle double dans cette dynamique. D’une part, elles peuvent restreindre l’ensemble des transformations autorisées – par exemple, une transformation doit conserver certains invariants ou respecter des lois de conservation. D’autre part, même si une transformation est théoriquement applicable, la configuration résultante doit encore satisfaire les contraintes pour être un état valide. Ainsi, on parle de transformations admissibles pour désigner les transformations qui conduisent toujours d’une configuration admissible vers une autre configuration elle-même admissible. Ces transformations forment l’ensemble des opérations élémentaires qui préservent le cadre du système. En pratique, elles découlent souvent de lois fondamentales (équations du mouvement en physique, règles d’inférence en logique, règles de mise à jour dans un automate, etc.). -Encadré (statut de l’admissibilité). -La notion d’« admissible » est une donnée du modèle : elle fixe un ensemble (ou une famille) de transformations autorisées, éventuellement dépendant d’un ensemble de contraintes actives \(K\). Lorsque l’on veut limiter la sous‑détermination du choix d’admissibilité sans introduire de critère de tâche, on peut imposer des propriétés structurelles minimales (invariance par renommage, localité d’action, bornes de ressource, cohérence avec les contraintes). Ces propriétés restreignent une classe de dynamiques possibles ; elles ne déterminent pas une dynamique unique. De même, si l’on introduit une procédure de compatibilité des contraintes (choix d’un sous‑ensemble satisfaisable), sa définition et ses critères doivent être déclarés, car ils peuvent influencer la dynamique effective. +> **Encadré** (statut de l’admissibilité). +> +> La notion d’« admissible » est une donnée du modèle : elle fixe un ensemble (ou une famille) de transformations autorisées, éventuellement dépendant d’un ensemble de contraintes actives \(K\). Lorsque l’on veut limiter la sous‑détermination du choix d’admissibilité sans introduire de critère de tâche, on peut imposer des propriétés structurelles minimales (invariance par renommage, localité d’action, bornes de ressource, cohérence avec les contraintes). Ces propriétés restreignent une classe de dynamiques possibles ; elles ne déterminent pas une dynamique unique. De même, si l’on introduit une procédure de compatibilité des contraintes (choix d’un sous‑ensemble satisfaisable), sa définition et ses critères doivent être déclarés, car ils peuvent influencer la dynamique effective. -La dynamique discrète – où l’on évolue par sauts successifs d’une configuration à la suivante – est un cas standard. Elle permet une analyse itérative des comportements du système et donne lieu à des propriétés bien étudiées comme la convergence éventuelle vers des états particuliers. Un exemple canonique en est la routine de Kaprekar, un processus numérique itératif sur les chiffres d’un nombre qui conduit fréquemment à des points fixes ou des cycles attracteurs connus [par exemple 6174 en base 10](2). Plus généralement, dans tout système dynamique (discret ou continu), on s’intéresse aux configurations particulières qui structurent l’évolution à long terme : les attracteurs. Avant d’y venir en détail, on note un aspect des transformations admissibles : elles induisent souvent des collisions dans l’espace de configurations. Deux configurations distinctes $C_1$ et $C_2$ sont en collision s’il existe une transformation (ou une séquence de transformations) $T$ telle que $T(C_1) = T(C_2)$. Dans le cas d’une dynamique déterministe, cela signifie que des états initialement différents aboutissent à un même état futur. Loin d’être nécessairement un problème, de telles collisions peuvent au contraire avoir une portée structurante. En effet, si $C_1 \neq C_2$ évoluent vers une même configuration $C_f$, cela indique que $C_1$ et $C_2$ appartiennent à une même classe de comportement – elles sont indiscernables vis-à-vis de l’observateur qui ne regarde que l’état final $C_f$. Un tel phénomène de collision structurante peut être exploité pour regrouper des configurations par similarité de dynamique ou de forme, à l’instar des fonctions de hachage « locality-sensitive » en informatique qui organisent des collisions afin de refléter une proximité sémantique ou morphologique[3]. Plutôt que de proscrire ces collisions, on peut les voir comme la manifestation de contraintes de compatibilité : différentes conditions initiales mènent au même motif final, révélant ainsi une robustesse du motif ou une perte d’information quant aux détails initiaux. +La dynamique discrète – où l’on évolue par sauts successifs d’une configuration à la suivante – est un cas standard. Elle permet une analyse itérative des comportements du système et donne lieu à des propriétés bien étudiées comme la convergence éventuelle vers des états particuliers. Un exemple canonique en est la routine de Kaprekar, un processus numérique itératif sur les chiffres d’un nombre qui conduit fréquemment à des points fixes ou des cycles attracteurs connus [par exemple 6174 en base 10](2). Plus généralement, dans tout système dynamique (discret ou continu), on s’intéresse aux configurations particulières qui structurent l’évolution à long terme : les attracteurs. Avant d’y venir en détail, on note un aspect des transformations admissibles : elles induisent souvent des collisions dans l’espace de configurations. Deux configurations distinctes \(C\_1\) et \(C\_2\) sont en collision s’il existe une transformation (ou une séquence de transformations) \(T\) telle que \(T(C\_1) = T(C\_2)\)\)). Dans le cas d’une dynamique déterministe, cela signifie que des états initialement différents aboutissent à un même état futur. Loin d’être nécessairement un problème, de telles collisions peuvent au contraire avoir une portée structurante. En effet, si \(((C\_1 \neq C\_2\) évoluent vers une même configuration \(C\_f\), cela indique que \(C\_1\) et \(C\_2\) appartiennent à une même classe de comportement – elles sont indiscernables vis-à-vis de l’observateur qui ne regarde que l’état final \(C\_f\). Un tel phénomène de collision structurante peut être exploité pour regrouper des configurations par similarité de dynamique ou de forme, à l’instar des fonctions de hachage « locality-sensitive » en informatique qui organisent des collisions afin de refléter une proximité sémantique ou morphologique[3]. Plutôt que de proscrire ces collisions, on peut les voir comme la manifestation de contraintes de compatibilité : différentes conditions initiales mènent au même motif final, révélant ainsi une robustesse du motif ou une perte d’information quant aux détails initiaux. -En résumé, les transformations admissibles définissent comment on peut naviguer dans l’espace de configurations. Elles tracent un graphe orienté sur cet espace (chaque configuration pointant vers sa ou ses transformées), généralement non bijectif (plusieurs antécédents pouvant conduire à un même état futur, d’où les collisions). L’étude de la dynamique revient alors à analyser la structure de ce graphe : existe-t-il des cycles ? des chemins menant à des impasses ou à des attracteurs ? quelle est la taille des bassins conduisant à telle configuration stable ? Ces questions introduisent la notion d’attracteur et de stabilité. +En résumé, les transformations admissibles définissent comment on peut naviguer dans l’espace de configurations. Elles tracent un graphe orienté sur cet espace (chaque configuration pointant vers sa ou ses transformées), généralement non bijectif (plusieurs antécédents pouvant conduire à un même état futur, d’où les collisions). L’étude de la dynamique revient alors à analyser la structure de ce graphe : existe-t-il des cycles ? des chemins menant à des impasses ou à des attracteurs ? quelle est la taille des bassins conduisant à telle configuration stable ? Ces questions introduisent la notion d’attracteur et de stabilité. ## Attracteurs, bassins et topologie de la stabilité -On appelle attracteur un ensemble de configurations vers lequel le système évolue de manière irréversible à partir d’un grand nombre d’états initiaux différents. Plus formellement, un attracteur $\mathcal{A}$ est un sous-ensemble de l’espace des configurations qui vérifie deux propriétés : (1) $\mathcal{A}$ est invariant par la dynamique (toute transformation admissible d’un état de $\mathcal{A}$ reste dans $\mathcal{A}$, i.e. $\Phi^t(\mathcal{A})=\mathcal{A}$ pour $t$ suffisamment grand) et (2) $\mathcal{A}$ attire un ensemble voisinage de lui-même[4][5]. En d’autres termes, il existe un voisinage $\mathcal{B}$ de $\mathcal{A}$ tel que tout état initial appartenant à $\mathcal{B}$ finira par évoluer dans $\mathcal{A}$. L’ensemble de tous les états qui convergent vers $\mathcal{A}$ constitue ce qu’on nomme le bassin d’attraction de $\mathcal{A}$[6]. Intuitivement, $\mathcal{A}$ représente un comportement asymptotique stable du système : une fois l’état entré dans $\mathcal{A}$ (ou suffisamment proche de $\mathcal{A}$), il s’y maintient ou y revient après de petites perturbations. +On appelle attracteur un ensemble de configurations vers lequel le système évolue de manière irréversible à partir d’un grand nombre d’états initiaux différents. Plus formellement, un attracteur \(\mathcal{A}\) est un sous-ensemble de l’espace des configurations qui vérifie deux propriétés : (1) \(\mathcal{A}\) est invariant par la dynamique (toute transformation admissible d’un état de \(\mathcal{A}\) reste dans \(\mathcal{A}\), i.e. \(\Phi^t(\mathcal{A})=\mathcal{A}\) pour \(t\) suffisamment grand) et (2) \(\mathcal{A}\) attire un ensemble voisinage de lui-même[4][5]. En d’autres termes, il existe un voisinage \(\mathcal{B}\) de \(\mathcal{A}\) tel que tout état initial appartenant à \(\mathcal{B}\) finira par évoluer dans \(\mathcal{A}\). L’ensemble de tous les états qui convergent vers \(\mathcal{A}\) constitue ce qu’on nomme le bassin d’attraction de \(\mathcal{A}\)[6]. Intuitivement, \(\mathcal{A}\) représente un comportement asymptotique stable du système : une fois l’état entré dans \(\mathcal{A}\) (ou suffisamment proche de \(\mathcal{A}\)), il s’y maintient ou y revient après de petites perturbations. -Un attracteur peut être trivial, par exemple un point fixe (état unique $C^*$ tel que $\Phi^t(C^*) = C^*$ pour tout $t$). Un tel état est stationnaire et, s’il attire ses voisins, on parle d’équilibre stable. Les attracteurs peuvent aussi être plus complexes : un cycle limite (ou attracteur périodique) est un ensemble fini de configurations ${C_1, C_2, ..., C_k}$ telles que $\Phi^k(C_i) = C_i$ pour chaque $i$ (avec un $k$ minimal, période du cycle), et ${C_1,\dots,C_k}$ attire les configurations aux alentours. Dans un système continu, on rencontre également des attracteurs étranges (fractal, de dimension non entière) dans les systèmes chaotiques, mais dans le cadre discret et fini, toute trajectoire finit par aboutir à un cycle ou un point fixe (puisque l’espace d’états est fini, une trajectoire dynamique finira forcément par revisiter un état antérieur, engendrant un cycle de périodicité finie). +Un attracteur peut être trivial, par exemple un point fixe (état unique \(C^*\) tel que \(\Phi^t(C^*) = C^*\) pour tout \(t\)). Un tel état est stationnaire et, s’il attire ses voisins, on parle d’équilibre stable. Les attracteurs peuvent aussi être plus complexes : un cycle limite (ou attracteur périodique) est un ensemble fini de configurations \({C\_1, C\_2, ..., C\_k}\) telles que \(\Phi^k(C\_i) = C\_i\) pour chaque \(i\) (avec un \(k\) minimal, période du cycle), et \({C\_1,\dots,C\_k}\) attire les configurations aux alentours. Dans un système continu, on rencontre également des attracteurs étranges (fractal, de dimension non entière) dans les systèmes chaotiques, mais dans le cadre discret et fini, toute trajectoire finit par aboutir à un cycle ou un point fixe (puisque l’espace d’états est fini, une trajectoire dynamique finira forcément par revisiter un état antérieur, engendrant un cycle de périodicité finie). La topologie de la stabilité désigne ici l’organisation globale des attracteurs et de leurs bassins au sein de l’espace de configurations. On peut la concevoir comme une **structure d'atteignabilité** (ou, lorsqu'une métrique ou une fonction de potentiel est choisie, une **géométrie induite**) où les attracteurs jouent le rôle de vallées ou de points bas (états vers lesquels la dynamique descend), séparés par des cols ou des crêtes définissant les bassins d’attraction. Cette analogie est courante en dynamique : si l’on peut définir une fonction de potentiel ou une mesure de « hauteur » (par exemple une entropie ou une énergie libre associée à chaque configuration), les attracteurs correspondent aux minima locaux de cette fonction. Les chemins d’évolution suivent alors plus ou moins la pente vers ces minima, et la topologie de la stabilité décrit comment ces minima sont distribués, comment les bas-fonds (bassins) se connectent ou sont séparés par des barrières. La pertinence de cette lecture dépend d’hypothèses explicites sur l’état (finitude, compacité, dissipativité) et sur le choix de métrique ou de mesure. -Dans un cadre strictement déterministe, deux attracteurs distincts sont disjoints : un état du bassin de l’attracteur $\mathcal{A}_1$ ne peut pas, sans perturbation extérieure, basculer spontanément dans le bassin d’un autre attracteur $\mathcal{A}_2$. Cependant, si l’on introduit de légères perturbations aléatoires ou des modifications paramétriques (par exemple du « bruit » ou une variation continue de paramètres), la stabilité des attracteurs peut être mise à l’épreuve. On étudie alors la robustesse des attracteurs : certains persistent sous de petites perturbations (on parle de stabilité structurelle du système dynamique), tandis que d’autres peuvent bifurquer ou disparaître. La topologie de la stabilité englobe ainsi non seulement la répartition des attracteurs et de leurs bassins, mais aussi les voisinages de stabilité de ces attracteurs – c’est-à-dire jusqu’où s’étend, en termes de perturbations possibles, la conservation du comportement attracteur. +Dans un cadre strictement déterministe, deux attracteurs distincts sont disjoints : un état du bassin de l’attracteur \(\mathcal{A}\_1\) ne peut pas, sans perturbation extérieure, basculer spontanément dans le bassin d’un autre attracteur \(\mathcal{A}\_2\). Cependant, si l’on introduit de légères perturbations aléatoires ou des modifications paramétriques (par exemple du « bruit » ou une variation continue de paramètres), la stabilité des attracteurs peut être mise à l’épreuve. On étudie alors la robustesse des attracteurs : certains persistent sous de petites perturbations (on parle de stabilité structurelle du système dynamique), tandis que d’autres peuvent bifurquer ou disparaître. La topologie de la stabilité englobe ainsi non seulement la répartition des attracteurs et de leurs bassins, mais aussi les voisinages de stabilité de ces attracteurs – c’est-à-dire jusqu’où s’étend, en termes de perturbations possibles, la conservation du comportement attracteur. -Un aspect de cette topologie est la présence éventuelle d’attracteurs dominants, c’est-à-dire ayant un bassin d’attraction extrêmement large par rapport aux autres[7][8]. Dans les systèmes finis, on observe parfois qu’une poignée d’attracteurs concentrent la plupart des trajectoires possibles (presque tout état initial finit dans l’un d’entre eux), alors que d’autres attracteurs plus « exotiques » ont des bassins ténus (par exemple, des configurations très particulières mènent à un cycle rare). La structure des bassins peut se quantifier par une entropie ou une mesure de diversité : plus les trajectoires se répartissent uniformément entre de nombreux attracteurs, plus l’entropie est élevée; à l’inverse, si quelques attracteurs absorbent presque tout, l’entropie structurelle de la dynamique est faible (le système a tendance à « oublier » ses conditions initiales en ne conservant qu’un petit nombre de motifs finaux possibles). +Un aspect de cette topologie est la présence éventuelle d’attracteurs dominants, c’est-à-dire ayant un bassin d’attraction extrêmement large par rapport aux autres[7][8]. Dans les systèmes finis, on observe parfois qu’une poignée d’attracteurs concentrent la plupart des trajectoires possibles (presque tout état initial finit dans l’un d’entre eux), alors que d’autres attracteurs plus « exotiques » ont des bassins ténus (par exemple, des configurations très particulières mènent à un cycle rare). La structure des bassins peut se quantifier par une entropie ou une mesure de diversité : plus les trajectoires se répartissent uniformément entre de nombreux attracteurs, plus l’entropie est élevée ; à l’inverse, si quelques attracteurs absorbent presque tout, l’entropie structurelle de la dynamique est faible (le système a tendance à « oublier » ses conditions initiales en ne conservant qu’un petit nombre de motifs finaux possibles). -Enfin, la stabilité d’un attracteur se manifeste aussi par la résistance aux transformations internes. Un attracteur peut être vu comme une configuration (ou un motif) invariant par transformation – éventuellement au sens élargi d’invariance statistique. Par exemple, un motif qui se répète périodiquement dans le temps est invariant par la transformation « avancer de la période $T$ ». De même, un motif spatial auto-similaire est invariant par certaines transformations d’échelle ou de rotation. Cette invariance confère à l’attracteur une identité propre. On peut alors étudier la stabilité sous transformation : une configuration est stable sous une transformation donnée si l’application de cette transformation ne l’éjecte pas de son attracteur. Un attracteur est par définition stable sous la dynamique du système (puisqu’il est invariant par $\Phi^t$), mais on peut élargir la notion à d’autres transformations du système, par exemple des transformations sémantiques ou des perturbations contrôlées. Dans les systèmes complexes, on attend des attracteurs qu’ils conservent leurs propriétés qualitatives face à des changements mineurs ou non structurants – c’est un critère de robustesse. Par exemple, en reconnaissance de formes, une image d’un même objet reste reconnue malgré de petites rotations ou changements d’échelle : le concept représenté par l’attracteur « objet » demeure stable sous ces transformations non essentielles. +Enfin, la stabilité d’un attracteur se manifeste aussi par la résistance aux transformations internes. Un attracteur peut être vu comme une configuration (ou un motif) invariant par transformation – éventuellement au sens élargi d’invariance statistique. Par exemple, un motif qui se répète périodiquement dans le temps est invariant par la transformation « avancer de la période \(T\) ». De même, un motif spatial auto-similaire est invariant par certaines transformations d’échelle ou de rotation. Cette invariance confère à l’attracteur une identité propre. On peut alors étudier la stabilité sous transformation : une configuration est stable sous une transformation donnée si l’application de cette transformation ne l’éjecte pas de son attracteur. Un attracteur est par définition stable sous la dynamique du système (puisqu’il est invariant par \(\Phi^t\)), mais on peut élargir la notion à d’autres transformations du système, par exemple des transformations sémantiques ou des perturbations contrôlées. Dans les systèmes complexes, on attend des attracteurs qu’ils conservent leurs propriétés qualitatives face à des changements mineurs ou non structurants – c’est un critère de robustesse. Par exemple, en reconnaissance de formes, une image d’un même objet reste reconnue malgré de petites rotations ou changements d’échelle : le concept représenté par l’attracteur « objet » demeure stable sous ces transformations non essentielles. La notion de transformation structurante émerge lorsque l’application d’une transformation provoque non pas la destruction d’un motif, mais au contraire la création d’une nouvelle structure organisée. Dans certains systèmes, deux configurations peuvent interagir (on peut penser à une « collision » entre deux motifs dans un automate cellulaire) pour en produire une troisième de complexité supérieure. Si cette nouvelle configuration est elle-même stable ou donne naissance à un attracteur, la transformation a joué un rôle structurant. On touche ici à l’idée que des interactions locales peuvent engendrer de la nouveauté stable – concept intimement lié à l’auto-organisation. @@ -226,13 +233,13 @@ La notion de transformation structurante émerge lorsque l’application d’une Un système est dit auto-organisé lorsqu’il est capable de faire émerger spontanément de l’ordre à partir du désordre, sans contrôle externe imposé. L’auto-organisation se manifeste typiquement par l’apparition de structures cohérentes, de motifs ou de comportements globaux à partir d’interactions locales entre constituants simples. Ce principe, formulé en termes généraux, souligne la capacité de composants simples à former des structures complexes de manière autonome, sans intervention extérieure[9]. De nombreux systèmes physiques, chimiques et biologiques illustrent ce phénomène : on peut citer la formation de motifs de convection hexagonaux dans une couche fluide chauffée (cellules de Bénard), les oscillations chimiques de la réaction de Belousov-Zhabotinski, la cristallisation, ou en biologie la morphogenèse (apparition de motifs pigmentaires, de rayures, de tâches sur les animaux, expliquée dès 1952 par les modèles réaction-diffusion de Turing). Dans tous ces exemples, un état initial homogène ou chaotique évolue vers un état structuré présentant des corrélations à longue portée entre éléments du système. Prigogine a formalisé ce phénomène dans sa théorie des structures dissipatives, montrant que loin de l’équilibre, des phénomènes ordonnés peuvent se produire qui sont impossibles à proximité de l’équilibre thermique[10][11]. En régime loin de l’équilibre, l’énergie dissipée alimente des fluctuations qui, au-delà d’un certain seuil d’instabilité, se stabilisent en nouveaux modes organisés. En ce sens, la dissipation d’énergie devient source d’ordre – une idée paradoxale du point de vue de l’entropie classique, mais parfaitement illustrée par ces structures auto-organisées. -Le lien entre attracteurs et auto-organisation se fait naturellement : les attracteurs sont les structures ordonnées vers lesquelles tend un système auto-organisé. On parle parfois d’attracteurs morphologiques pour souligner que ces attracteurs correspondent à des formes ou motifs stables. Par exemple, dans un automate cellulaire comme le Jeu de la Vie de Conway, on observe une multitude de structures émergentes : certaines configurations finissent par osciller (clignoteurs), d’autres convergent vers des motifs stables figés (« blocs », « bateaux »), et d’autres encore produisent des vaisseaux mobiles comme le fameux glider (planeur) qui se déplace indéfiniment sur la grille. Chaque tel motif stable ou périodique peut être vu comme un attracteur morphologique de la dynamique de l’automate. Fait remarquable, ces structures apparaissent spontanément à partir de configurations initiales aléatoires – un désordre initial « cuisiné » en quelque sorte en configurations structurées. Dans l’analogie de la soupe primitive chère aux biologistes, le Jeu de la Vie démontre comment, avec quelques règles locales de survie et reproduction, des motifs très sophistiqués peuvent émerger et rappeler la diversité des formes vivantes issues du chaos primordial[12][13]. La soupe primordiale du Jeu de la Vie correspond à une grille initialement remplie au hasard de cellules vivantes ou mortes ; très vite, on voit surgir des arrangements réguliers – c’est une illustration ludique mais profonde du principe d’auto-organisation. +Le lien entre attracteurs et auto-organisation se fait naturellement : les attracteurs sont les structures ordonnées vers lesquelles tend un système auto-organisé. On parle parfois d’attracteurs morphologiques pour souligner que ces attracteurs correspondent à des formes ou motifs stables. Par exemple, dans un automate cellulaire comme le Jeu de la Vie de Conway, on observe une multitude de structures émergentes : certaines configurations finissent par osciller (clignoteurs), d’autres convergent vers des motifs stables figés (« blocs », « bateaux »), et d’autres encore produisent des vaisseaux mobiles comme le fameux glider (planeur) qui se déplace indéfiniment sur la grille. Chaque tel motif stable ou périodique peut être vu comme un attracteur morphologique de la dynamique de l’automate. Fait remarquable, ces structures apparaissent spontanément à partir de configurations initiales aléatoires – un désordre initial « cuisiné » en quelque sorte en configurations structurées. Dans l’analogie de la soupe primitive chère aux biologistes, le Jeu de la Vie démontre comment, avec quelques règles locales de survie et reproduction, des motifs très sophistiqués peuvent émerger et rappeler la diversité des formes vivantes issues du chaos primordial[12][13]. La soupe primordiale du Jeu de la Vie correspond à une grille initialement remplie au hasard de cellules vivantes ou mortes ; très vite, on voit surgir des arrangements réguliers – c’est une illustration ludique mais profonde du principe d’auto-organisation. -Du point de vue scientifique général, ces attracteurs morphologiques relient notre construction à divers corpus établis. D’une part, la dynamique discrète et la théorie générale des systèmes dynamiques fournissent le langage mathématique pour décrire ces attracteurs, leurs bassins, et les bifurcations possibles[2][14]. Ce cadre est bien consensuel : depuis Poincaré jusqu’à la théorie du chaos déterministe, on dispose d’outils pour comprendre la convergence vers des ensembles invariants, la robustesse aux perturbations et la dépendance sensible aux conditions initiales. D’autre part, les systèmes auto-organisés relèvent d’un domaine de recherche interdisciplinaire actif, englobant la thermodynamique hors-équilibre (Prigogine, Haken), la physique statistique des processus d’ordre émergent, la chimie prébiotique, la science des matériaux (auto-assemblage) et bien sûr la biologie du développement et de l’évolution. Un consensus s’est formé sur le fait que l’auto-organisation est un ingrédient fondamental dans l’émergence du vivant et des structures complexes, même s’il reste beaucoup de questions ouvertes quant aux détails (par exemple, comment quantifier précisément l’information produite lors de l’auto-organisation, comment prédire l’apparition de tel ou tel attracteur en fonction des paramètres, etc.). +Du point de vue scientifique général, ces attracteurs morphologiques relient notre construction à divers corpus établis. D’une part, la dynamique discrète et la théorie générale des systèmes dynamiques fournissent le langage mathématique pour décrire ces attracteurs, leurs bassins, et les bifurcations possibles[2][14]. Ce cadre est bien consensuel : depuis Poincaré jusqu’à la théorie du chaos déterministe, on dispose d’outils pour comprendre la convergence vers des ensembles invariants, la robustesse aux perturbations et la dépendance sensible aux conditions initiales. D’autre part, les systèmes auto-organisés relèvent d’un domaine de recherche interdisciplinaire actif, englobant la thermodynamique hors-équilibre (Prigogine, Haken), la physique statistique des processus d’ordre émergent, la chimie prébiotique, la science des matériaux (auto-assemblage) et bien sûr la biologie du développement et de l’évolution. Un consensus s’est formé sur le fait que l’auto-organisation est un ingrédient fondamental dans l’émergence du vivant et des structures complexes, même s’il reste beaucoup de questions ouvertes quant aux détails (par exemple, comment quantifier précisément l’information produite lors de l’auto-organisation, comment prédire l’apparition de tel ou tel attracteur en fonction des paramètres, etc.). En parlant d’information, il faut souligner le lien avec la notion d’entropie structurelle. Classiquement, l’entropie mesure le désordre microscopique d’un système. L’entropie informationnelle de Shannon, formulée en 1948, quantifie l’incertitude associée à une distribution d’états ou de symboles[15]. Un système complètement désordonné ou imprévisible a une entropie élevée, tandis qu’un système très ordonné (donc prévisible) a une entropie faible. Lorsqu’une structure émerge – par exemple un cristal se forme à partir d’atomes en solution, ou un motif régulier apparaît – l’entropie associée à la configuration diminue localement (il y a moins de surprise, plus de régularité). Schrödinger notait dès 1944 que la vie se caractérise par sa capacité à absorber de la « négentropie » pour maintenir son ordre interne[16]. En d’autres termes, un organisme vivant puise de l’énergie dans son environnement et l’utilise pour réduire son entropie interne (créer et maintenir des structures hautement improbables du point de vue de l’équilibre). -Dans le cadre de notre modèle, on peut définir l’entropie structurelle comme une mesure de la diversité ou du désordre des configurations du système au niveau macroscopique. Par exemple, si l’espace de configurations se répartit en quelques attracteurs dominants et que presque toutes les trajectoires finissent dans l’un d’eux, on dira que l’entropie structurelle du système est faible – il y a peu de diversité finale. En revanche, s’il existe de très nombreux attracteurs de taille comparable, ou si la dynamique conserve une richesse de formes au cours du temps, l’entropie structurelle est élevée. L’information produite par le système au cours du temps peut se mesurer par la réduction d’entropie qu’il opère en formant des structures. Landauer a établi en 1961 un lien entre information et physique : « toute manipulation logique irréversible de l’information... est nécessairement accompagnée d’une augmentation de l’entropie dans l’environnement »[17]. Effacer un bit d’information – c’est-à-dire détruire de l’information pour aller vers un état plus ordonné – coûte au minimum $kT\ln 2$ d’énergie dissipée sous forme de chaleur[18]. Cette limite de Landauer montre que créer de l’ordre (réduire l’entropie informationnelle interne) a un prix énergétique. Notre cadre s’inscrit dans cette compréhension : l’émergence d’un attracteur (ordre organisé) suppose en contrepartie une dissipation d’énergie ou une exportation d’entropie ailleurs. Dans une perspective physique, l’analyse consiste à considérer où part l’entropie perdue quand de l’ordre apparaît localement. Cela évite de violer le second principe de la thermodynamique, même si, à première vue, un système auto-organisé semble « décréer » du désordre. En réalité, il le délocalise ou le transforme. +Dans le cadre de notre modèle, on peut définir l’entropie structurelle comme une mesure de la diversité ou du désordre des configurations du système au niveau macroscopique. Par exemple, si l’espace de configurations se répartit en quelques attracteurs dominants et que presque toutes les trajectoires finissent dans l’un d’eux, on dira que l’entropie structurelle du système est faible – il y a peu de diversité finale. En revanche, s’il existe de très nombreux attracteurs de taille comparable, ou si la dynamique conserve une richesse de formes au cours du temps, l’entropie structurelle est élevée. L’information produite par le système au cours du temps peut se mesurer par la réduction d’entropie qu’il opère en formant des structures. Landauer a établi en 1961 un lien entre information et physique : « toute manipulation logique irréversible de l’information... est nécessairement accompagnée d’une augmentation de l’entropie dans l’environnement »[17]. Effacer un bit d’information – c’est-à-dire détruire de l’information pour aller vers un état plus ordonné – coûte au minimum \(kT\ln 2\) d’énergie dissipée sous forme de chaleur[18]. Cette limite de Landauer montre que créer de l’ordre (réduire l’entropie informationnelle interne) a un prix énergétique. Notre cadre s’inscrit dans cette compréhension : l’émergence d’un attracteur (ordre organisé) suppose en contrepartie une dissipation d’énergie ou une exportation d’entropie ailleurs. Dans une perspective physique, l’analyse consiste à considérer où part l’entropie perdue quand de l’ordre apparaît localement. Cela évite de violer le second principe de la thermodynamique, même si, à première vue, un système auto-organisé semble « décréer » du désordre. En réalité, il le délocalise ou le transforme. Le pont conceptuel jeté par E.T. Jaynes dans les années 1950 vient ici éclairer la situation d’un jour unifié : Jaynes a soutenu que l’entropie de Shannon et l’entropie de Gibbs (thermodynamique statistique) sont en fait la même notion conceptuelle, l’une appliquée à de l’information abstraite, l’autre à des micro-états physiques[19]. Le fait qu’elles obéissent à des formules identiques n’est pas une coïncidence mais le signe que la physique statistique peut se voir comme un cas particulier d’un principe d’inférence logique (le principe de maximum d’entropie). Ainsi, la formation d’une structure dans notre espace de configurations peut être interprétée à deux niveaux : (i) concrètement, comme l’établissement d’un ordre dans le système (baisse d’entropie physique interne, augmentation corrélative de l’entropie dans l’environnement dissipatif) et (ii) informationnellement, comme une gain d’information sur l’état du système (on a réduit l’incertitude sur sa configuration en observant l’émergence d’un motif précis). Cette double lecture, garantie cohérente par les principes de Landauer, Shannon et Jaynes, confère au concept d’attracteur une portée à la fois physique et informationnelle : un attracteur, c’est un condensé d’information (la description de l’attracteur est relativement simple comparée à celle d’un état aléatoire) et c’est un puits de dissipation (de l’énergie a été dissipée pour y parvenir). @@ -246,27 +253,27 @@ On peut considérer l’hypothèse de travail suivante : au fondement d’un sys Cette construction fournit un langage pour formuler cette lecture de manière conditionnelle. En effet, si l’on considère un espace de configurations (éventuellement très grand), satisfaisant des hypothèses explicites, évoluant suivant des règles (transformations admissibles) et contraint par certaines cohérences internes (contraintes admissibles fondamentales, qu’on peut relier, selon les instanciations, à des principes de symétrie ou de conservation), alors l’émergence du monde matériel peut être lue comme l’apparition d’attracteurs dans cet espace abstrait. Les particules élémentaires, par exemple, pourraient correspondre aux attracteurs stables d’une dynamique informationnelle sous-jacente – des formes invariantes (comme des solitons) dans un substrat de calcul ou de relation. Cette idée rejoint en partie des pistes déjà explorées en cosmologie et en physique théorique : automates cellulaires universels (Zel’dovich, Fredkin) pour simuler des dynamiques à grande échelle, théories décrivant la physique comme calcul (Zuse), ou hypothèses sur un substrat de calcul. Dans cette lecture, on introduit explicitement la dimension de connaissance : ce substrat informationnel peut être vu non seulement comme de l’information brute, mais comme une ontologie de la connaissance – une structure formelle dans laquelle ce qui existe, c’est ce qui peut être distingué, organisé, connu en puissance. -Dans un tel cadre, les collisions structurantes évoquées plus tôt peuvent recevoir une lecture interprétative (sous hypothèses explicites) : deux « configurations » d’un espace de configurations qui entrent en collision (au sens d’interaction dans la dynamique) peuvent donner naissance à une nouvelle structure stable – on pourrait y voir une analogie avec deux ondes se rencontrant pour créer une particule stable, ou deux événements fusionnant en un concept nouveau. De même, la notion de reproductibilité interne revêt une portée fondamentale : pour qu’une complexification croissante se produise dans le système sans apport extérieur, il faut que certaines structures une fois apparues puissent se copier ou se répliquer à l’intérieur du système. Sans reproduction, pas d’accumulation d’information structurale sur le long terme – c’est l’apanage du vivant, mais peut-être aussi d’autres processus naturels. Or, on sait depuis les travaux de von Neumann qu’un système purement formel peut tout à fait engendrer des entités auto-réplicatives : dès 1948, von Neumann décrivit un automate cellulaire capable de se copier lui-même, anticipant conceptuellement le mécanisme de l’ADN bien avant sa découverte[22]. Il montra qu’en munissant un automate d’un ensemble suffisant d’états et de règles, on peut avoir une configuration $P$ (un « programme ») qui crée une copie $P'$ d’elle-même à côté, tout en se conservant – établissant ainsi la possibilité d’une machine virtuelle autoreproductrice[23][24]. Autrement dit, la logique de la vie (duplication de l’information génétique et construction d’un nouvel individu à partir de cette information) peut être capturée dans un espace de configurations purement informationnel. La reproductibilité interne dans notre modèle consisterait en de tels attracteurs capables de générer, via les transformations admissibles, des copies d’eux-mêmes au sein du même espace. Un tel phénomène permettrait la transmission et l’accumulation de structures, ouvrant la voie à une évolution endogène du système. Cette idée est spéculative à grande échelle ; elle suppose qu’un système, pour engendrer de la complexité, requiert (sous hypothèses explicites) la capacité de conserver et de répliquer certains agencements informationnels stables à travers le temps, en plus de simplement les produire de manière isolée. +Dans un tel cadre, les collisions structurantes évoquées plus tôt peuvent recevoir une lecture interprétative (sous hypothèses explicites) : deux « configurations » d’un espace de configurations qui entrent en collision (au sens d’interaction dans la dynamique) peuvent donner naissance à une nouvelle structure stable – on pourrait y voir une analogie avec deux ondes se rencontrant pour créer une particule stable, ou deux événements fusionnant en un concept nouveau. De même, la notion de reproductibilité interne revêt une portée fondamentale : pour qu’une complexification croissante se produise dans le système sans apport extérieur, il faut que certaines structures une fois apparues puissent se copier ou se répliquer à l’intérieur du système. Sans reproduction, pas d’accumulation d’information structurale sur le long terme – c’est l’apanage du vivant, mais peut-être aussi d’autres processus naturels. Or, on sait depuis les travaux de von Neumann qu’un système purement formel peut tout à fait engendrer des entités auto-réplicatives : dès 1948, von Neumann décrivit un automate cellulaire capable de se copier lui-même, anticipant conceptuellement le mécanisme de l’ADN bien avant sa découverte[22]. Il montra qu’en munissant un automate d’un ensemble suffisant d’états et de règles, on peut avoir une configuration \(P\) (un « programme ») qui crée une copie \(P'\) d’elle-même à côté, tout en se conservant – établissant ainsi la possibilité d’une machine virtuelle autoreproductrice[23][24]. Autrement dit, la logique de la vie (duplication de l’information génétique et construction d’un nouvel individu à partir de cette information) peut être capturée dans un espace de configurations purement informationnel. La reproductibilité interne dans notre modèle consisterait en de tels attracteurs capables de générer, via les transformations admissibles, des copies d’eux-mêmes au sein du même espace. Un tel phénomène permettrait la transmission et l’accumulation de structures, ouvrant la voie à une évolution endogène du système. Cette idée est spéculative à grande échelle ; elle suppose qu’un système, pour engendrer de la complexité, requiert (sous hypothèses explicites) la capacité de conserver et de répliquer certains agencements informationnels stables à travers le temps, en plus de simplement les produire de manière isolée. Philosophiquement, envisager la connaissance comme substrat pré-énergétique conduit à repenser la notion même d’être. Dans cette optique, être signifierait peut-être être informé, c’est-à-dire occuper une configuration distinctive dans l’espace ontologique fondamental. La connaissance, quant à elle, ne serait plus seulement une faculté émergente de certains systèmes (comme le cerveau humain), mais un ingrédient constitutif de la réalité – au sens où les « lois de la physique » pourraient être lues comme des contraintes admissibles de cet espace, et les « états physiques » comme des attracteurs informationnels. Cette vue ne fait pas consensus et reste une interprétation parmi d’autres ; elle exige un dictionnaire d’instanciation explicite pour relier le formalisme minimal à des énoncés physiques. -Pour conclure ce chapitre de fondations, nous soulignons la progression logique suivie : nous sommes partis de notions mathématiques pures (ensemble de configurations, applications dynamiques, attracteurs) pour arriver à effleurer les questions d’interprétation (origine de l’ordre dans un modèle, primauté de l’information) et ontologiques (qu’est-ce qui est fondamentalement réel ? la matière ou la connaissance ?). Cette progression s’est faite sans rupture de ton, car le même formalisme sous-tend chaque étape. Les attracteurs que nous avons définis formellement peuvent représenter aussi bien un motif dans un automate que l’état stationnaire d’un système modélisé ou l’idée stable dans un système de pensée. Le fil conducteur est la stabilité structurelle et la reproductibilité : ces deux caractéristiques rendent compte de la persistance et de l’organisation du réel à toutes les échelles. En effet, dans tout modèle satisfaisant les hypothèses de stabilité, la stabilité structurelle est ce qui permet à des structures élémentaires (particules, atomes) de perdurer suffisamment pour se combiner en structures plus complexes (molécules, cellules, étoiles), et la reproductibilité (ou du moins la multiplicabilité) est ce qui permet d’en avoir de multiples exemplaires pour construire les niveaux supérieurs. Du point de vue de la connaissance, la stabilité correspond à la fiabilité des concepts ou des informations (une connaissance stable est une connaissance qui reste vraie ou opérante sous diverses transformations de contexte), et la reproductibilité correspond à la communicabilité et à la transférabilité du savoir (une idée reproductible peut être transmise, recopiée, enseignée, rejouée dans un autre esprit ou un autre support). +Pour conclure ce chapitre de fondations, nous soulignons la progression logique suivie : nous sommes partis de notions mathématiques pures (ensemble de configurations, applications dynamiques, attracteurs) pour arriver à effleurer les questions d’interprétation (origine de l’ordre dans un modèle, primauté de l’information) et ontologiques (qu’est-ce qui est fondamentalement réel ? la matière ou la connaissance?). Cette progression s’est faite sans rupture de ton, car le même formalisme sous-tend chaque étape. Les attracteurs que nous avons définis formellement peuvent représenter aussi bien un motif dans un automate que l’état stationnaire d’un système modélisé ou l’idée stable dans un système de pensée. Le fil conducteur est la stabilité structurelle et la reproductibilité : ces deux caractéristiques rendent compte de la persistance et de l’organisation du réel à toutes les échelles. En effet, dans tout modèle satisfaisant les hypothèses de stabilité, la stabilité structurelle est ce qui permet à des structures élémentaires (particules, atomes) de perdurer suffisamment pour se combiner en structures plus complexes (molécules, cellules, étoiles), et la reproductibilité (ou du moins la multiplicabilité) est ce qui permet d’en avoir de multiples exemplaires pour construire les niveaux supérieurs. Du point de vue de la connaissance, la stabilité correspond à la fiabilité des concepts ou des informations (une connaissance stable est une connaissance qui reste vraie ou opérante sous diverses transformations de contexte), et la reproductibilité correspond à la communicabilité et à la transférabilité du savoir (une idée reproductible peut être transmise, recopiée, enseignée, rejouée dans un autre esprit ou un autre support). Ainsi, espaces de configurations, transformations admissibles, attracteurs et stabilité constituent les briques d’un cadre formel où l’on peut comparer, sous hypothèses explicites, des lectures physiques, biologiques ou informationnelles en termes de formes, d’information et de dynamique. Les chapitres suivants poursuivent la construction en détaillant comment ce cadre est enrichi et appliqué à divers domaines, en distinguant systématiquement : résultats standard, hypothèses de travail, et lectures optionnelles. Toute extrapolation est annoncée comme telle. -Références utilisées : Landauer [principe thermodynamique de l’information](17), Shannon [entropie d’information](15), Jaynes [principe de maximum d’entropie et correspondance avec la thermo](19), Schrödinger [néguentropie du vivant](16), Prigogine [structures dissipatives et ordre hors-équilibre](10)[11], von Neumann [automates auto-reproducteurs](22), Wheeler [« it from bit »](21), entre autres. Chaque concept introduit est associé à des références et à un statut (résultat standard, hypothèse de travail, lecture optionnelle). +Références utilisées : Landauer [principe thermodynamique de l’information](17), Shannon [entropie d’information](15), Jaynes [principe de maximum d’entropie et correspondance avec la thermo](19), Schrödinger [néguentropie du vivant](16), Prigogine [structures dissipatives et ordre hors-équilibre](10), (11), von Neumann [automates auto-reproducteurs](22), Wheeler [« it from bit »](21), entre autres. Chaque concept introduit est associé à des références et à un statut (résultat standard, hypothèse de travail, lecture optionnelle). [1] [4] [5] [6] Attracteur — Wikipédia -[2] [3] Signatures_genetiques_Kaprekar_manuscrit_complet.docx +[2] [3] Signatures\\_genetiques\\_Kaprekar\\_manuscrit\\_complet.docx -file://file_0000000026e071f49117ec4b3b473db8 +file://file\\_0000000026e071f49117ec4b3b473db8 -[7] [8] [14] Signatures_genetiques_Kaprekar_fondamentaux.md +[7] [8] [14] Signatures\\_genetiques\\_Kaprekar\\_fondamentaux.md -file://file_000000009b3471f4b506d9eb26d55ffe +file://file\\_000000009b3471f4b506d9eb26d55ffe [9] [12] [13] Le jeu de la vie - Bio-Info @@ -278,19 +285,19 @@ file://file_000000009b3471f4b506d9eb26d55ffe [15] Entropy (information theory) - Wikipedia - + [16] Qu'est-ce que la vie ? — Wikipédia - + [17] [18] Principe de Landauer — Wikipédia - + [19] Principle of maximum entropy - Wikipedia - + [20] [21] « It from bit », la matière repensée | Cairn.info @@ -300,82 +307,88 @@ file://file_000000009b3471f4b506d9eb26d55ffe +[5]: +[8]: +[11]: +[13]: +[14]: +[24]: + --- -# Chapitre 2 — Itération, finitude locale et répétition nécessaire +## Chapitre 2 — Itération, finitude locale et répétition nécessaire {#chapitre-2-iteration-finitude-locale-et-repetition-necessaire} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 2 -Hypothèses (H). +**Hypothèses (H).** -- temps discret et itération d’une transformation \(f:X\to X\) (déterministe pour l’exposé) ; +- temps discret et itération d’une transformation \(f : X\to X\) (déterministe pour l’exposé) - finitude globale (\(|X|<\infty\)) ou finitude effective au niveau d’une description/partition. -Résultats (E). +**Résultats (E).** -- dérivation combinatoire de la répétition (réapparition d’états) puis de l’entrée en régime cyclique après transitoire ; +- dérivation combinatoire de la répétition (réapparition d’états) puis de l’entrée en régime cyclique après transitoire - distinction de statut entre répétition, invariance et lectures interprétatives. -Statut. +**Statut.** - noyau ensembliste/combinatoire ; aucune quantification n’est requise. -## Introduction +## Introduction — Ch. 2 Le chapitre précédent a établi un cadre minimal : un espace de configurations, des contraintes d’admissibilité, et une famille de transformations qui induit une dynamique (éventuellement discrète) sur cet espace. Le présent chapitre introduit la contrainte formelle suivante : l’itération, combinée à une forme de finitude (globale ou locale), entraîne la réapparition d’états, puis l’entrée dans des régimes cycliques. Cette conséquence ne dépend ni d’une interprétation physique ni d’une hypothèse finaliste : elle résulte d’un fait combinatoire élémentaire, puis d’une lecture dynamique. ## Itération comme contrainte première On se donne un ensemble de configurations admissibles (X) et une transformation admissible -[ -f: X \to X, -] -déterministe (pour simplifier l’exposé ; les extensions stochastiques seront distinguées plus loin). Une trajectoire issue d’un état initial (x_0 \in X) est la suite -[ -x_0,; x_1=f(x_0),; x_2=f(x_1)=f^{(2)}(x_0),; \dots,; x_t=f^{(t)}(x_0). -] -L’itération n’est pas un détail de mise à jour : elle constitue une contrainte ontologique minimale dès lors qu’un système (au sens abstrait) se prolonge par mise à jour d’état, c’est-à-dire produit un état suivant à partir de l’état présent. En ce sens, l’itération impose l’existence d’orbites ({f^{(t)}(x_0)}_{t\ge 0}) et fait apparaître la question de leur structure globale. +\[ +f : X \to X, +\] +déterministe (pour simplifier l’exposé ; les extensions stochastiques seront distinguées plus loin). Une trajectoire issue d’un état initial (x\\_0 \in X) est la suite +\[ +x\_0, ; x\_1=f(x\_0), ; x\_2=f(x\_1)=f^{(2)}(x\_0), ; \dots, ; x\_t=f^{(t)}(x\_0). +\] +L’itération n’est pas un détail de mise à jour : elle constitue une contrainte ontologique minimale dès lors qu’un système (au sens abstrait) se prolonge par mise à jour d’état, c’est-à-dire produit un état suivant à partir de l’état présent. En ce sens, l’itération impose l’existence d’orbites ({f^{(t)}(x\\_0)}\\\_{t\ge 0}) et fait apparaître la question de leur structure globale. Deux remarques disciplinaires encadrent la suite. Premièrement, l’itération n’implique pas le temps comme primitive. Il s’agit d’un index d’étapes, qui ne présuppose aucune métrique temporelle ; la reconstruction d’une flèche temporelle sera traitée plus tard, comme conséquence supplémentaire (chapitre 4 du plan). -Deuxièmement, l’itération ne suppose pas non plus l’existence d’une quantité conservée, d’une énergie, ni d’une notion de coût. Ici, l’objet est strictement : “que devient une suite (x_{t+1}=f(x_t)) sous des hypothèses minimales sur (X) ?”. +Deuxièmement, l’itération ne suppose pas non plus l’existence d’une quantité conservée, d’une énergie, ni d’une notion de coût. Ici, l’objet est strictement : “que devient une suite (x\\_{t+1}=f(x\\_t)) sous des hypothèses minimales sur (X) ? ”. ## Finitude globale : répétition nécessaire par combinatoire On suppose d’abord que (X) est fini, de cardinal -[ +\[ |X| = N, -] +\] avec (N) entier strictement positif. -Considérons les (N+1) premiers termes d’une trajectoire : -[ -x_0, x_1, \dots, x_N. -] +Considérons les (N+1) premiers termes d’une trajectoire : \[ +x\_0, x\_1, \dots, x\_N. +\] Ces (N+1) éléments appartiennent tous à (X) qui ne contient que (N) éléments. Par le principe des tiroirs (pigeonhole), deux indices (0 \le i < j \le N) existent tels que -[ -x_i = x_j. -] -Cette égalité entraîne immédiatement un régime périodique à partir de (i). En effet, comme (f) est déterministe, l’état (x_i) engendre un unique successeur (x_{i+1}), donc l’égalité (x_i=x_j) impose -[ -x_{i+1}=f(x_i)=f(x_j)=x_{j+1}, -] +\[ +x\_i = x\_j. +\] +Cette égalité entraîne immédiatement un régime périodique à partir de (i). En effet, comme (f) est déterministe, l’état (x\\\_i) engendre un unique successeur (x\\\_{i+1}), donc l’égalité (x\\\_i=x\\\_j) impose +\[ +x\\\_{i+1}=f(x\\\_i)=f(x\\\_j)=x\\\_{j+1}, +\] et par récurrence -[ -x_{i+k}=x_{j+k}\quad \text{pour tout }k\ge 0. -] +\[ +x\_{i+k}=x\_{j+k}\quad \text{pour tout }k\ge 0. +\] Ainsi, la trajectoire entre (i) et (j-1) se répète avec une période -[ +\[ p = j-i,\quad 1 \le p \le N. -] +\] Calcul détaillé (borne de répétition dans le cas fini) Paramètre : (N = |X|) -Suite considérée : ((x_t)_{t\ge 0}) avec (x_{t+1}=f(x_t)) +Suite considérée : \((x\_t)\_{t\ge 0}\) avec \(x\_{t+1}=f(x\_t)\)\)) Nombre d’états examinés : (N+1) états (x_0,\dots,x_N) -Principe : (N+1) objets dans (N) classes (\Rightarrow) collision (x_i=x_j) +Principe : (N+1) objets dans (N) classes \(((\Rightarrow\) collision (x\\_i=x\\_j) Conclusion : entrée en cycle au plus tard à l’étape (N), avec période (p=j-i\le N) Ce résultat est strictement mathématique : il ne requiert aucune hypothèse de “dissipation”, d’“optimisation” ou de “tendance”. Il exprime une nécessité : l’itération sur un ensemble fini force une récurrence, donc une périodicité après un transitoire. @@ -388,45 +401,44 @@ Ce point est cohérent avec une formulation interne déjà utilisée ailleurs da La conséquence “il existe une répétition” ne doit pas être confondue avec “il existe une invariance”. -Répétition (récurrence) -Il existe (i orb["Orbite (f^t(x))_{t≥0}"] + x["État initial x ∈ X"] --> orb["Orbite (f^t(x))\\_{t≥0}"] orb --> rep["Répétition forcée (f^i(x)=f^j(x))"] rep --> cyc["Cycle C (ensemble invariant)"] - cyc --> inv["Invariance: f(C)=C"] - x --> bas["Bassin B(C): états menant à C"] + cyc --> inv["Invariance : f(C)=C"] + x --> bas["Bassin B(C) : états menant à C"] bas --> cyc ``` ## Extension au cadre topologique et métrique -On généralise maintenant à un espace \(X\) muni d’une structure topologique (ou métrique) et une application \(f:X\to X\) continue, ou à un flot \(\{\varphi_t\}_{t\in\mathbb{R}}\) engendré par une équation différentielle. +On généralise maintenant à un espace \(X\) muni d’une structure topologique (ou métrique) et une application \(f : X\to X\) continue, ou à un flot \(\{\varphi\_t\}\_{t\in\mathbb{R}}\) engendré par une équation différentielle. ### Notions de voisinage, \(\omega\)-limite, attraction -Soit \((X,d)\) un espace métrique (ou compact métrisable), \(f\) continue. +Soit \((X,d)\)\)) un espace métrique (ou compact métrisable), \(((f\) continue. -**\(\omega\)-limite.** Pour \(x\in X\), l’ensemble \(\omega(x)\) est l’ensemble des points limites de la suite \(\{f^{(n)}(x)\}\). C’est un invariant asymptotique standard en dynamique (et il généralise le « cycle final » du cas fini). +**\(\omega\)-limite.** Pour \(x\in X\), l’ensemble \(\omega(x)\)\)) est l’ensemble des points limites de la suite \(((\{f^{(n)}(x)\)\)}\). C’est un invariant asymptotique standard en dynamique (et il généralise le « cycle final » du cas fini). -**Distance à un ensemble.** Pour \(A\subseteq X\) fermé, on définit +**Distance à un ensemble.** Pour \(((A\subseteq X\) fermé, on définit \[ -\operatorname{dist}(y,A)=\inf_{a\in A} d(y,a). +\operatorname{dist}(y,A)=\inf\_{a\in A} d(y,a). \] **Attraction vers un ensemble.** On dit que l’orbite de \(x\) est attirée par \(A\) si \[ -\operatorname{dist}(f^{(n)}(x),A)\to 0\quad (n\to\infty). +\operatorname{dist}(f^{(n)}(x),A)\)\)to 0\quad (n\to\infty). \] ### Définition standard d’attracteur (topologique) @@ -600,72 +614,64 @@ Soit \((X,d)\) un espace métrique (ou compact métrisable), \(f\) continue. Il existe plusieurs définitions non équivalentes dans la littérature (topologiques, mesurales, « Milnor attractors », etc.). On adopte une définition topologique classique (suffisante ici). **Définition (attracteur topologique).** -Un compact non vide \(A\subseteq X\) est un attracteur si : - -1. **invariance** : \(f(A)=A\) ; -2. il existe un voisinage ouvert \(U\supseteq A\) tel que +Un compact non vide \(((A\subseteq X\) est un attracteur si : 1. **invariance** : \(f(A)=A\) ; 2. il existe un voisinage ouvert \(U\supseteq A\) tel que \[ - \operatorname{dist}(f^{(n)}(x),A)\to 0\quad \forall x\in U; - \] -3. (souvent ajouté) **minimalité** : \(A=\bigcap_{n\ge 0} f^{(n)}(\overline U)\). + \operatorname{dist}(f^{(n)}(x),A)\)\)to 0\quad \forall x\in U ; \] +3. (souvent ajouté) **minimalité** : \(((A=\bigcap\_{n\ge 0} f^{(n)}(\overline U)\)\)). -Le **bassin** de \(A\) est alors +Le **bassin** de \(((A\) est alors \[ -B(A)=\{x\in X:\operatorname{dist}(f^{(n)}(x),A)\to 0\}. +B(A)=\{x\in X : \operatorname{dist}(f^{(n)}(x),A)\)\)to 0\}. \] -Cette définition rend explicite le rôle de la topologie : le bassin n’est plus seulement atteignabilité, mais convergence (au sens de \(d\)). +Cette définition rend explicite le rôle de la topologie : le bassin n’est plus seulement atteignabilité, mais convergence (au sens de \(((d\)). ### Stabilité au sens de Lyapunov (cadre métrique et flots) La stabilité « géométrique » des attracteurs se formule via les définitions introduites par Lyapunov dans l’étude de la stabilité des mouvements, formulation devenue canonique. -Pour une équation autonome \(\dot x = F(x)\) et un équilibre \(x^\*\) (i.e. \(F(x^\*)=0\)) : - -**Stabilité de Lyapunov.** +Pour une équation autonome \(\dot x = F(x)\)\)) et un équilibre \(((x^*\) (i.e. \(F(x^*)=0\)) : **Stabilité de Lyapunov.** \(x^\*\) est stable si \[ -\forall \varepsilon>0,\ \exists \delta>0:\ \|x(0)-x^\*\|<\delta\Rightarrow \forall t\ge 0,\ \|x(t)-x^\*\|<\varepsilon. +\forall \varepsilon>0,\ \exists \delta>0 : \ \|x(0)-x^\*\|<\delta\Rightarrow \forall t\ge 0,\ \|x(t)-x^\*\|<\varepsilon. \] **Stabilité asymptotique.** -\(x^\*\) est asymptotiquement stable si, en plus, \(x(t)\to x^\*\) quand \(t\to\infty\). +\(x^\*\) est asymptotiquement stable si, en plus, \(x(t)\)\)to x^\*\) quand \(((t\to\infty\). Ces notions ont des analogues pour les points fixes des applications discrètes continues (avec \(t\) remplacé par \(n\in\mathbb{N}\)), et elles sont systématiquement utilisées pour relier « attraction » et « robustesse sous perturbation » dans les cadres différentiables. ### Types d’attracteurs en dynamique continue -Sous hypothèses de régularité, plusieurs classes de comportements invariants attirants sont bien établies : +Sous hypothèses de régularité, plusieurs classes de comportements invariants attirants sont bien établies : -- **équilibre stable** : point fixe du flot (un point) ; -- **cycle limite** : orbite périodique attirante (un cercle topologique) ; -- **tore invariant attirant** (quasi-périodicité) ; -- **attracteur chaotique** (dit souvent « étrange ») : ensemble invariant attirant présentant une dynamique sensible et typiquement une géométrie fractale. +- **équilibre stable** : point fixe du flot (un point) -Le résultat de Poincaré–Bendixson (consensus) joue un rôle de frontière : en dimension plane, sous conditions standard, les \(\omega\)-limites compactes non vides sont essentiellement des équilibres ou des orbites périodiques, ce qui exclut l’existence d’attracteurs étranges pour les flots \(C^1\) sur le plan (dans le régime couvert par le théorème). +- **cycle limite** : orbite périodique attirante (un cercle topologique) +- **tore invariant attirant** (quasi-périodicité) +- **attracteur chaotique** (dit souvent « étrange ») : ensemble invariant attirant présentant une dynamique sensible et typiquement une géométrie fractale. -### Attracteurs « étranges » : définition opérationnelle et sources classiques +Le résultat de Poincaré–Bendixson (consensus) joue un rôle de frontière : en dimension plane, sous conditions standard, les \(\omega\)-limites compactes non vides sont essentiellement des équilibres ou des orbites périodiques, ce qui exclut l’existence d’attracteurs étranges pour les flots \(C^1\) sur le plan (dans le régime couvert par le théorème). -Le terme « attracteur étrange » n’a pas une définition unique universelle; on retient une définition opérationnelle, standard dans la pratique : +### Attracteurs « étranges » : définition opérationnelle et sources classiques -Un attracteur \(A\) est dit **étrange** s’il est (i) attractif (au sens précédent), et (ii) porte une dynamique non périodique avec sensibilité aux conditions initiales, et (iii) présente typiquement une structure géométrique non régulière (dimension fractale) ou un étirement–repliement de type hyperbolique. +Le terme « attracteur étrange » n’a pas une définition unique universelle ; on retient une définition opérationnelle, standard dans la pratique : Un attracteur \(A\) est dit **étrange** s’il est (i) attractif (au sens précédent), et (ii) porte une dynamique non périodique avec sensibilité aux conditions initiales, et (iii) présente typiquement une structure géométrique non régulière (dimension fractale) ou un étirement–repliement de type hyperbolique. -Trois jalons consensuels structurent cette notion : +Trois jalons consensuels structurent cette notion : - **Lorenz (1963)** exhibe un flot déterministe en dimension 3 admettant un comportement non périodique et instable aux conditions initiales, devenu paradigme d’attracteur chaotique. + - **Ruelle–Takens (1971)** proposent un mécanisme menant à des régimes chaotiques dans des systèmes dissipatifs via perte de stabilité et apparition d’ensembles invariants complexes. - **Hénon (1976)** fournit une application de \(\mathbb{R}^2\) (diffeomorphisme dissipatif) dont les itérés tendent vers un attracteur étrange pour des paramètres spécifiques, montrant que le chaos attractif n’est pas réservé aux flots continus. -## Robustesse, bifurcations et stabilité structurelle +## Robustesse, bifurcations et stabilité structurelle — Ch. 3 -Le concept d’attracteur, compris comme « structure asymptotique », ne suffit pas : une structure peut exister mais être détruite par une perturbation arbitrairement petite. D’où l’introduction de la **robustesse**. +Le concept d’attracteur, compris comme « structure asymptotique », ne suffit pas : une structure peut exister mais être détruite par une perturbation arbitrairement petite. D’où l’introduction de la **robustesse**. -### Robustesse : définitions formelles minimales +### Robustesse : définitions formelles minimales -Soit une famille dépendant d’un paramètre \(\{f_\lambda\}_{\lambda\in\Lambda}\) (applications ou flots). On distingue au moins trois niveaux : - -**Robustesse d’un ensemble invariant.** -Un invariant \(A_\lambda\) est robuste si, pour \(\lambda'\) proche de \(\lambda\), il existe un invariant \(A_{\lambda'}\) « de même type » (conjugué topologiquement, ou continu en Hausdorff, selon le cadre retenu). +Soit une famille dépendant d’un paramètre \(\{f\_\lambda\}\_{\lambda\in\Lambda}\) (applications ou flots). On distingue au moins trois niveaux : **Robustesse d’un ensemble invariant.** +Un invariant \(A*\lambda\) est robuste si, pour \(\lambda'\) proche de \(\lambda\), il existe un invariant \(A\_{\lambda'}\) « de même type » (conjugué topologiquement, ou continu en Hausdorff, selon le cadre retenu). **Stabilité structurelle (définition standard).** Un système \(f\) est structurellement stable (dans une topologie \(C^r\)) si tout système \(g\) suffisamment proche est topologiquement conjugué à \(f\) (au moins sur l’ensemble non errant / non wandering). Cette notion est au cœur du programme de Smale et de ses prolongements. @@ -673,34 +679,36 @@ Un système \(f\) est structurellement stable (dans une topologie \(C^r\)) si to **Robustesse des bassins.** Même si un attracteur persiste, son bassin peut changer fortement (frontières fractales, crises), rendant la « prévisibilité macroscopique » instable. -### Bifurcations : principe +### Bifurcations : principe Une **bifurcation** est une valeur de paramètre où la structure qualitative de la dynamique change (nombre/stabilité d’équilibres ou d’orbites périodiques, apparition/disparition d’attracteurs, changement topologique de bassins). Les bifurcations sont donc des points où la stabilité structurelle échoue. -### Exemple canonique : bifurcation de Hopf +### Exemple canonique : bifurcation de Hopf -La bifurcation de Hopf formalise la naissance (ou mort) d’une orbite périodique à partir d’un équilibre lorsque une paire de valeurs propres complexes conjuguées traverse l’axe imaginaire (forme continue) ; c’est un mécanisme de création d’un **cycle limite**, donc d’un attracteur périodique. Ce résultat est exposé de manière classique dans la tradition Hopf–Andronov–Poincaré, et sa présentation moderne est standardisée dans la littérature. +La bifurcation de Hopf formalise la naissance (ou mort) d’une orbite périodique à partir d’un équilibre lorsque une paire de valeurs propres complexes conjuguées traverse l’axe imaginaire (forme continue) ; c’est un mécanisme de création d’un **cycle limite**, donc d’un attracteur périodique. Ce résultat est exposé de manière classique dans la tradition Hopf–Andronov–Poincaré, et sa présentation moderne est standardisée dans la littérature. -On distingue typiquement : +On distingue typiquement : -- **Hopf supercritique** : naissance d’un cycle limite stable (attracteur périodique) ; -- **Hopf subcritique** : apparition d’un cycle instable et perte de stabilité brutale de l’équilibre. +- **Hopf supercritique** : naissance d’un cycle limite stable (attracteur périodique) + +- **Hopf subcritique** : apparition d’un cycle instable et perte de stabilité brutale de l’équilibre. Hopf illustre que des attracteurs périodiques peuvent être **créés par variation infinitésimale** des contraintes dynamiques. ### Crises et changements de bassins (dynamique chaotique) Au-delà des bifurcations locales, des phénomènes de type **crise** décrivent des changements soudains d’un attracteur chaotique (élargissement, disparition) liés à une collision avec une orbite périodique instable. -Ces événements sont particulièrement pertinents pour la notion de « dominance d’attracteurs » : un attracteur peut rester invariant mais devenir inatteignable pour la plupart des conditions initiales si son bassin se fragmente. +Ces événements sont particulièrement pertinents pour la notion de « dominance d’attracteurs » : un attracteur peut rester invariant mais devenir inatteignable pour la plupart des conditions initiales si son bassin se fragmente. -### Critères de stabilité structurelle : repères de consensus +### Critères de stabilité structurelle : repères de consensus -Deux repères classiques (énoncés comme consensus, sans preuve ici) : +Deux repères classiques (énoncés comme consensus, sans preuve ici) : - En dimension 2 pour les flots sur surfaces compactes, la stabilité structurelle admet une caractérisation et une densité (théorèmes de Peixoto). + - Dans le cadre différentiable de Smale, les systèmes hyperboliques \(Axiom\,A\) (avec conditions additionnelles type « no cycles ») jouent un rôle central dans la stabilité \(C^1\) et la décomposition spectrale (programme de Smale et prolongements). -Ces repères justifient la séparation conceptuelle : il existe des attracteurs **non robustes**, et des attracteurs **robustes** (hyperboliques au sens large), ces derniers étant fondamentaux pour toute théorie de formes persistantes sous perturbations. +Ces repères justifient la séparation conceptuelle : il existe des attracteurs **non robustes**, et des attracteurs **robustes** (hyperboliques au sens large), ces derniers étant fondamentaux pour toute théorie de formes persistantes sous perturbations. ## Mesures structurelles et quantification @@ -708,54 +716,56 @@ Après avoir défini attracteurs et bassins, il devient possible de quantifier l ### Quantités combinatoires (discret fini) -Dans \((X,f)\) fini, chaque attracteur discret correspond à un cycle \(C_i\). On définit : +Dans \((X,f)\)\)) fini, chaque attracteur discret correspond à un cycle \(((C\_i\). On définit : -- **taille de bassin** : \(b_i = |B(C_i)|\) ; -- **dominance** : \(D=\max_i \frac{b_i}{N}\) ; -- **nombre d’attracteurs** : \(K = \#\{C_i\}\). +- **taille de bassin** : \(b\_i = |B(C\_i)|\) + +- **dominance** : \(D=\max\_i \frac{b\_i}{N}\) +- **nombre d’attracteurs** : \(K = \#\{C\_i\}\). Ces quantités sont calculables exactement. **Proposition D (borne et calcul de dominance).** \(1/N \le D \le 1\). De plus, \(D=1\) ssi il n’existe qu’un seul cycle (un attracteur discret unique absorbant tout \(X\)). -_Preuve._ \(D\) est le maximum d’une distribution \(\{b_i/N\}\) dont la somme vaut 1. Le maximum est au moins \(1/K\ge 1/N\) et au plus 1; l’égalité \(D=1\) implique qu’un seul terme vaut 1. □ +**Preuve.** \(D\) est le maximum d’une distribution \(\{b\_i/N\}\) dont la somme vaut 1. Le maximum est au moins \(1/K\ge 1/N\) et au plus 1 ; l’égalité \(D=1\) implique qu’un seul terme vaut 1. □ **Proposition E (entropie structurelle des bassins).** Définissons \[ -p_i=\frac{b_i}{N},\qquad H_{\text{bassins}} = -\sum_{i=1}^K p_i \log p_i. +p\_i=\frac{b\_i}{N},\qquad H\_{\text{bassins}} = -\sum\_{i=1}^K p\_i \log p\_i. \] Alors \[ -0 \le H_{\text{bassins}} \le \log K +0 \le H\_{\text{bassins}} \le \log K \] -avec \(H_{\text{bassins}}=0\) ssi \(K=1\), et \(H_{\text{bassins}}=\log K\) ssi \(p_i=1/K\) pour tout \(i\). +avec \(H\_{\text{bassins}}=0\) ssi \(K=1\), et \(H\_{\text{bassins}}=\log K\) ssi \(p\_i=1/K\) pour tout \(i\). -_Preuve._ Propriété standard de l’entropie de Shannon sur une distribution finie. +**Preuve.** Propriété standard de l’entropie de Shannon sur une distribution finie. -Cette « entropie structurelle » n’est ici qu’une **fonctionnelle** appliquée à la distribution des tailles de bassins. Elle quantifie la dispersion des destinées asymptotiques : faible entropie → attracteurs dominants; forte entropie → pluralité équilibrée des attracteurs. +Cette « entropie structurelle » n’est ici qu’une **fonctionnelle** appliquée à la distribution des tailles de bassins. Elle quantifie la dispersion des destinées asymptotiques : faible entropie → attracteurs dominants ; forte entropie → pluralité équilibrée des attracteurs. -### Entropies dynamiques (topologique et métrique) : extension consensuelle +### Entropies dynamiques (topologique et métrique) : extension consensuelle -Dans le cadre topologique, l’**entropie topologique** \(h_{\text{top}}(f)\) a été introduite comme invariant pour les applications continues sur espaces compacts. +Dans le cadre topologique, l’**entropie topologique** \(h\_{\text{top}}(f)\)\)) a été introduite comme invariant pour les applications continues sur espaces compacts. Conceptuellement, elle mesure une croissance du nombre d’orbites distinguables à résolution finie, et fournit une quantité globale de « complexité temporelle ». Dans le cadre mesuré, l’entropie métrique (Kolmogorov–Sinai / Sinai) formalise une notion de production d’incertitude par itération (sous mesure invariante), utilisée pour caractériser le chaos. -Ces deux notions ne remplacent pas \(H_{\text{bassins}}\) : elles répondent à une autre question (instabilité/complexité dans l’invariant), tandis que \(H_{\text{bassins}}\) décrit la distribution d’accessibilité des régimes. +Ces deux notions ne remplacent pas \(((H\_{\text{bassins}}\) : elles répondent à une autre question (instabilité/complexité dans l’invariant), tandis que \(H\_{\text{bassins}}\) décrit la distribution d’accessibilité des régimes. ### Métriques discrètes pour structures d’atteignabilité (bassins) Pour relier les structures d’attracteurs à des notions de proximité entre états discrets, on introduit des métriques compatibles avec l’interprétation (sans l’imposer). -Exemples génériques : +Exemples génériques : -- **distance de Hamming** sur des mots de longueur \(m\) ; -- **distance d’édition (Levenshtein)** sur des séquences ; -- **distance sur graphes** (nombre minimal de modifications locales: arêtes/sommets). +- **distance de Hamming** sur des mots de longueur \(m\) -Ces métriques permettent de définir des voisinages \(B_\varepsilon(x)\) et donc des versions « métriques » de bassins et de stabilité, même en contexte discret (commode pour relier, plus tard, l’agrégation et la quantification). La théorie de Shannon fournit le prototype de mesure d’incertitude sur un ensemble fini et sur des sources finies, indépendamment de toute sémantique. +- **distance d’édition (Levenshtein)** sur des séquences +- **distance sur graphes** (nombre minimal de modifications locales : arêtes/sommets). + +Ces métriques permettent de définir des voisinages \(B\_\varepsilon(x)\)\)) et donc des versions « métriques » de bassins et de stabilité, même en contexte discret (commode pour relier, plus tard, l’agrégation et la quantification). La théorie de Shannon fournit le prototype de mesure d’incertitude sur un ensemble fini et sur des sources finies, indépendamment de toute sémantique. ### Schéma de structure d’atteignabilité (attracteurs, idée structurale) @@ -775,38 +785,39 @@ flowchart LR ## Implications déduites strictement des résultats précédents (lecture conditionnelle) -Les implications suivantes ne sont pas des hypothèses additionnelles : elles découlent des constructions mathématiques précédentes. +Les implications suivantes ne sont pas des hypothèses additionnelles : elles découlent des constructions mathématiques précédentes. ### Disponibilité nécessaire de régimes persistants -Dans tout cadre abstrait où : +Dans tout cadre abstrait où : - une dynamique itérative est définie (chapitres 1–2), + - l’espace effectif est fini (ou compact avec dissipation/contraction dans le continu), il existe des **ensembles invariants** et, sous conditions, des **attracteurs** au sens topologique. Dans le cas fini déterministe, l’existence de cycles est forcée, et chaque composante admet une structure d’absorption (bassin → cycle). Donc un tel système est structurellement capable de produire des **formes persistantes** (au sens de régimes invariants atteints asymptotiquement). -Cette « persistance » n’est pas un concept biologique ou cognitif : c’est une propriété de fermeture et d’invariance. +Cette « persistance » n’est pas un concept biologique ou cognitif : c’est une propriété de fermeture et d’invariance. ### Effet d’effacement des détails initiaux -Dans le cas fini, deux états distincts peuvent partager le même attracteur (ils appartiennent au même bassin). Cela implique un **effet d’oubli structurel** : la dynamique identifie des classes d’états par leur destinée asymptotique, sans préserver l’identité des conditions initiales. Cette conclusion est purement logique (partition par bassins). +Dans le cas fini, deux états distincts peuvent partager le même attracteur (ils appartiennent au même bassin). Cela implique un **effet d’oubli structurel** : la dynamique identifie des classes d’états par leur destinée asymptotique, sans préserver l’identité des conditions initiales. Cette conclusion est purement logique (partition par bassins). ### Condition nécessaire (mais non suffisante) pour une réplication interne -Sans introduire encore les notions ultérieures de composition et de transmission (qui viendront plus tard), on peut déjà énoncer une nécessité minimale : +Sans introduire encore les notions ultérieures de composition et de transmission (qui viendront plus tard), on peut déjà énoncer une nécessité minimale : -- toute « réplication interne » (au sens strictement formel : production itérative d’occurrences persistantes d’une même sous-structure) exige l’existence de régimes invariants suffisamment stables pour ne pas être détruits immédiatement. +- toute « réplication interne » (au sens strictement formel : production itérative d’occurrences persistantes d’une même sous-structure) exige l’existence de régimes invariants suffisamment stables pour ne pas être détruits immédiatement. -Autrement dit, l’existence d’attracteurs (régimes invariants attractifs) constitue une **condition de possibilité** pour toute accumulation ultérieure de structures, mais ne garantit pas la réplication : celle-ci requiert des opérations de composition/couplage non encore introduites dans la spirale (chapitres ultérieurs du plan). +Autrement dit, l’existence d’attracteurs (régimes invariants attractifs) constitue une **condition de possibilité** pour toute accumulation ultérieure de structures, mais ne garantit pas la réplication : celle-ci requiert des opérations de composition/couplage non encore introduites dans la spirale (chapitres ultérieurs du plan). -## Analyse philosophique finale : nécessité ontologique, limites, interdits +## Analyse philosophique finale : nécessité ontologique, limites, interdits ### Lecture conditionnelle minimale (statut) -Hypothèses (H). +**Hypothèses (H).** -- cadre fini discret : \(H=\{\text{H‑F},\text{H‑Det}\}\) ; +- cadre fini discret : \(((H=\{\text{H‑F},\text{H‑Det}\}\) - cadre topologique/métrique : \(H=\{\text{H‑Cpt},\text{H‑Cont}\}\) (et H‑Diss si un piégeage est revendiqué). Énoncé (E). @@ -817,77 +828,78 @@ Ces invariants fournissent un schéma minimal de “long terme” au niveau de l Ruptures (C). -- si H‑F saute : cycles non garantis ; -- si H‑Cpt ou H‑Diss saute : fuite possible ; attracteur global non garanti ; +- si H‑F saute : cycles non garantis +- si H‑Cpt ou H‑Diss saute : fuite possible ; attracteur global non garanti - si la projection \(\Pi\) change : attracteurs apparents possibles au niveau observé. ### Ce que le formalisme interdit à ce stade -Conformément à la stratégie de l’ouvrage, ce chapitre interdit explicitement (par insuffisance de structure) : +Conformément à la stratégie de l’ouvrage, ce chapitre interdit explicitement (par insuffisance de structure) : -- d’interpréter un attracteur comme « information », « mémoire (au sens M0) » ou « connaissance » (ces lectures sont possibles mais exigent des constructions supplémentaires, notamment sur la non-injectivité, la composition, et l’irréversibilité en tant que coût — spirales suivantes) ; -- de confondre « attracteur » et « optimum » : aucune fonction de coût n’a été postulée; l’attraction est définie par convergence/invariance, pas par maximisation. +- d’interpréter un attracteur comme « information », « mémoire (au sens M0) » ou « connaissance » (ces lectures sont possibles mais exigent des constructions supplémentaires, notamment sur la non-injectivité, la composition, et l’irréversibilité en tant que coût — spirales suivantes) -### Limite conceptuelle : pluralité des définitions d’attracteur +- de confondre « attracteur » et « optimum » : aucune fonction de coût n’a été postulée ; l’attraction est définie par convergence/invariance, pas par maximisation. + +### Limite conceptuelle : pluralité des définitions d’attracteur Même en mathématiques, « attracteur » est un terme à définitions multiples (topologiques, mesurales, physiques). ### Ouverture disciplinée vers la physique (sans fondation) -Une remarque finale, sans changer le statut mathématique : en thermodynamique hors équilibre, l’émergence d’états organisés (structures dissipatives) peut être lue comme l’apparition de régimes attractifs dans l’espace des états macroscopiques; Prigogine a insisté sur le rôle des instabilités et fluctuations dans la genèse de telles structures. -Cette remarque ne sert pas de preuve; elle indique seulement que le concept abstrait d’attracteur a des instanciations reconnues dans des sciences empiriques. +Une remarque finale, sans changer le statut mathématique : en thermodynamique hors équilibre, l’émergence d’états organisés (structures dissipatives) peut être lue comme l’apparition de régimes attractifs dans l’espace des états macroscopiques ; Prigogine a insisté sur le rôle des instabilités et fluctuations dans la genèse de telles structures. +Cette remarque ne sert pas de preuve ; elle indique seulement que le concept abstrait d’attracteur a des instanciations reconnues dans des sciences empiriques. -## Tableaux comparatifs +## Tableaux comparatifs — Ch. 3 ### Définitions et objets entre cadre discret fini et cadre continu/métrique -| Objet | Discret fini \((X,f)\) | Continu / métrique \((X,d,f)\) ou flot \(\varphi_t\) | -|---|---|---| +| Objet | Discret fini \((X,f)\)\)) | Continu / métrique \((((X,d,f)\)\)) ou flot \(((\varphi\_t\) | +| --- | --- | --- | | État | \(x\in X\) | \(x\in X\) (souvent variété / espace métrique) | -| Orbite | \(\{f^{(n)}(x)\}_{n\ge 0}\) | \(\{f^{(n)}(x)\}\) ou \(\{\varphi_t(x)\}_{t\ge 0}\) | -| Invariance | \(f(S)\subseteq S\) | \(f(S)\subseteq S\) ou \(\varphi_t(S)=S\) | +| Orbite | \(\{f^{(n)}(x)\)\)}_{n\ge 0}\) | \(((\{f^{(n)}(x)\)\)}\) ou \(((\{\varphi\_t(x)\)\)}_{t\ge 0}\) | +| Invariance | \(((f(S)\)\)subseteq S\) | \(((f(S)\)\)subseteq S\) ou \(((\varphi\_t(S)=S\) | | Point fixe | \(f(x)=x\) | \(f(x)=x\) ou équilibre \(F(x)=0\) | -| Orbit. périodique | \(f^{(p)}(x)=x\) | \(\varphi_T(x)=x\) (cycle limite) | +| Orbit. périodique | \(f^{(p)}(x)=x\) | \(\varphi\_T(x)=x\) (cycle limite) | | Attracteur | cycle (avec bassin) | compact invariant + voisinage attiré | -| Bassin | atteignabilité vers un cycle | convergence : \(\operatorname{dist}(f^{(n)}(x),A)\to 0\) | +| Bassin | atteignabilité vers un cycle | convergence : \(\operatorname{dist}(f^{(n)}(x),A)\)\)to 0\) | | Stabilité | graph-theoretic (cycle) | Lyapunov / hyperbolicité | ### Types d’attracteurs et mécanismes d’apparition | Type | Support | Mécanisme canonical | Source jalon | -|---|---|---|---| +| --- | --- | --- | --- | | Équilibre stable | point | linéarisation + Lyapunov | Lyapunov (stabilité) | | Cycle limite | orbite périodique | bifurcation de Hopf | Marsden et al. (Hopf) | -| Chaos attractif | ensemble non lisse | étirement–repliement, hyperbolicité partielle | Lorenz; Ruelle–Takens; Hénon | +| Chaos attractif | ensemble non lisse | étirement–repliement, hyperbolicité partielle | Lorenz ; Ruelle–Takens ; Hénon | | Chaos en discret 1D | intervalle | période 3 ⇒ chaos (au sens Li–Yorke) | Li–Yorke | --- -# Chapitre 4 — Temps comme ordre induit par l’itération +## Chapitre 4 — Temps comme ordre induit par l’itération {#chapitre-4-temps-comme-ordre-induit-par-literation} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 4 -Hypothèses (H). +**Hypothèses (H).** -- itération (ou action de semi‑groupe) définie à partir de transformations admissibles ; +- itération (ou action de semi‑groupe) définie à partir de transformations admissibles - choix d’une granularité d’observation explicite si une “durée” est mobilisée. -Résultats (E). +**Résultats (E).** -- reconstruction du temps minimal comme ordre induit par l’atteignabilité (préordre, puis ordre sur quotient) ; +- reconstruction du temps minimal comme ordre induit par l’atteignabilité (préordre, puis ordre sur quotient) - clarification du statut de la flèche (semi‑groupe effectif) et des horloges internes comme quantifications optionnelles. -Statut. +**Statut.** - noyau ensembliste pour l’ordre ; quantifications (durées/coûts) indexées et optionnelles ; ancrages physiques annoncés comme correspondances sous hypothèses. -## Résumé exécutif +## Résumé exécutif — Ch. 4 -Ce chapitre reconstruit le « temps » **sans le postuler**. Partant uniquement de primitives non sémantiques — un espace de configurations \(X\), des transformations admissibles, et l’itération — on montre que la dynamique induit naturellement une **relation d’antériorité** entre états, définie par l’atteignabilité (transitive closure) plutôt que par un paramètre temporel préalable. Cette relation est toujours un **préordre** (réflexif, transitif) et devient un **ordre partiel** lorsque l’on quotient par l’équivalence de récurrence (mutuelle atteignabilité). Dans le cas discret fini, l’interprétation en graphe fonctionnel rend explicite la décomposition en **composantes** et en **cycles**, et l’on obtient un DAG (« condensation ») qui fournit une flèche d’ordre. +Ce chapitre reconstruit le « temps » **sans le postuler**. Partant uniquement de primitives non sémantiques — un espace de configurations \(((X\), des transformations admissibles, et l’itération — on montre que la dynamique induit naturellement une **relation d’antériorité** entre états, définie par l’atteignabilité (transitive closure) plutôt que par un paramètre temporel préalable. Cette relation est toujours un **préordre** (réflexif, transitif) et devient un **ordre partiel** lorsque l’on quotient par l’équivalence de récurrence (mutuelle atteignabilité). Dans le cas discret fini, l’interprétation en graphe fonctionnel rend explicite la décomposition en **composantes** et en **cycles**, et l’on obtient un DAG (« condensation ») qui fournit une flèche d’ordre. -On étend ensuite la construction à des cadres continus en remplaçant l’itération par une **action de semi-groupe** \((\mathbb{R}_+,+)\) (semi-flot), et en distinguant soigneusement le cas **réversible** (action de groupe \((\mathbb{R},+)\), flots bijectifs) du cas **irréversible** (absence d’inverse global, semi-groupes). La « flèche du temps » apparaît alors comme la non-extensibilité d’un semi-groupe en groupe, ce qui peut provenir soit de la non-injectivité (fusion de passés), soit de la perte d’information par agrégation, soit de la présence d’une grandeur monotone (fonction de Lyapunov / ressource consommée). +On étend ensuite la construction à des cadres continus en remplaçant l’itération par une **action de semi-groupe** \((\mathbb{R}\_+,+)\)\)) (semi-flot), et en distinguant soigneusement le cas **réversible** (action de groupe \((((\mathbb{R},+)\)\)), flots bijectifs) du cas **irréversible** (absence d’inverse global, semi-groupes). La « flèche du temps » apparaît alors comme la non-extensibilité d’un semi-groupe en groupe, ce qui peut provenir soit de la non-injectivité (fusion de passés), soit de la perte d’information par agrégation, soit de la présence d’une grandeur monotone (fonction de Lyapunov / ressource consommée). -La métrique temporelle (durée, échelle, granularité) est ensuite reconstruite par des **horloges internes** : compteurs d’événements, longueurs minimales de chaînes, ou temps pondéré par coûts de transitions. Enfin, le chapitre relie ces constructions à deux consensuses : (i) la flèche thermodynamique et l’entropie comme monotone (deuxième loi), et (ii) l’irréversibilité de l’effacement logique et son coût minimal (principe de Landauer). La lecture conditionnelle dérivée reste strictement minimale : dans tout modèle itératif satisfaisant les hypothèses du chapitre, le système peut porter un ordre historique seulement si, au niveau pertinent de description, l’évolution induit un ordre non symétrique (semi-groupe effectif, ou monotone empêchant les retours). La section philosophique conclut sur ce que le formalisme autorise et interdit : il autorise une ontologie du temps comme **structure d’ordre**; il interdit de traiter le temps comme primitif, et interdit d’inférer une métrique unique sans horloge ni convention. +La métrique temporelle (durée, échelle, granularité) est ensuite reconstruite par des **horloges internes** : compteurs d’événements, longueurs minimales de chaînes, ou temps pondéré par coûts de transitions. Enfin, le chapitre relie ces constructions à deux consensuses : (i) la flèche thermodynamique et l’entropie comme monotone (deuxième loi), et (ii) l’irréversibilité de l’effacement logique et son coût minimal (principe de Landauer). La lecture conditionnelle dérivée reste strictement minimale : dans tout modèle itératif satisfaisant les hypothèses du chapitre, le système peut porter un ordre historique seulement si, au niveau pertinent de description, l’évolution induit un ordre non symétrique (semi-groupe effectif, ou monotone empêchant les retours). La section philosophique conclut sur ce que le formalisme autorise et interdit : il autorise une ontologie du temps comme **structure d’ordre** ; il interdit de traiter le temps comme primitif, et interdit d’inférer une métrique unique sans horloge ni convention. ## Primitives non sémantiques et construction de l’ordre induit @@ -895,52 +907,49 @@ La métrique temporelle (durée, échelle, granularité) est ensuite reconstruit On fixe un cadre minimal. -**A0 — Configurations.** Un ensemble non vide \(X\), dont les éléments sont appelés configurations. +**A0 — Configurations.** Un ensemble non vide \(((X\), dont les éléments sont appelés configurations. -**A1 — Transformations admissibles.** Un ensemble \(\mathcal{T}\subseteq X^X\) d’applications \(T:X\to X\), stable par composition et contenant l’identité. Autrement dit, \((\mathcal{T},\circ,\mathrm{Id})\) est un monoïde d’endomorphismes admissibles. +**A1 — Transformations admissibles.** Un ensemble \(\mathcal{T}\subseteq X^X\) d’applications \(T : X\to X\), stable par composition et contenant l’identité. Autrement dit, \((\mathcal{T},\circ,\mathrm{Id})\)\)) est un monoïde d’endomorphismes admissibles. -**A2 — Générateur d’évolution.** On choisit un élément \(f\in\mathcal{T}\). La dynamique « élémentaire » est l’itération de \(f\), et le sous-monoïde engendré par \(f\) est +**A2 — Générateur d’évolution.** On choisit un élément \(((f\in\mathcal{T}\). La dynamique « élémentaire » est l’itération de \(f\), et le sous-monoïde engendré par \(f\) est \[ -\langle f\rangle \;=\;\{f^{(n)}\;:\;n\in\mathbb{N}\}, +\langle f\rangle \ ; =\ ; \{f^{(n)}\ ; : \ ; n\in\mathbb{N}\}, \] où \(f^{(0)}=\mathrm{Id}\) et \(f^{(n+1)}=f\circ f^{(n)}\). -Ces axiomes n’introduisent encore aucun « temps » : ils définissent seulement une fermeture opératoire par composition. +Ces axiomes n’introduisent encore aucun « temps » : ils définissent seulement une fermeture opératoire par composition. ### Relation d’antériorité comme atteignabilité -On définit une relation binaire \(\preceq\) sur \(X\) par : -\[ -x\preceq y \quad\Longleftrightarrow\quad \exists\,T\in\langle f\rangle,\; y=T(x). +On définit une relation binaire \(\preceq\) sur \(X\) par : \[ +x\preceq y \quad\Longleftrightarrow\quad \exists\,T\in\langle f\rangle,\ ; y=T(x). \] -Sans mentionner \(n\), on peut dire : \(y\) appartient à la plus petite partie \(S\subseteq X\) qui contient \(x\) et est stable par \(f\) (i.e. \(f(S)\subseteq S\)). +Sans mentionner \(n\), on peut dire : \(y\) appartient à la plus petite partie \(S\subseteq X\) qui contient \(x\) et est stable par \(f\) (i.e. \(f(S)\)\)subseteq S\)). -**Proposition 1 — \(\preceq\) est un préordre.** +**Proposition 1 — \(((\preceq\) est un préordre.** La relation \(\preceq\) est réflexive et transitive. -_Démonstration._ -Réflexivité : \(x = f^{(0)}(x)\), donc \(x\preceq x\). -Transitivité : si \(x\preceq y\) et \(y\preceq z\), il existe \(m,n\) tels que \(y=f^{(m)}(x)\) et \(z=f^{(n)}(y)\). Alors \(z=f^{(n)}(f^{(m)}(x))=f^{(m+n)}(x)\), donc \(x\preceq z\). □ +**Démonstration.** +Réflexivité : \(x = f^{(0)}(x)\)\)), donc \(((x\preceq x\). +Transitivité : si \(x\preceq y\) et \(y\preceq z\), il existe \(m,n\) tels que \(y=f^{(m)}(x)\)\)) et \(((z=f^{(n)}(y)\)\)). Alors \(((z=f^{(n)}(f^{(m)}(x))=f^{(m+n)}(x)\)\)), donc \(((x\preceq z\). □ -**Remarque structurale.** La définition ne dépend d’aucune métrique ni d’aucun paramètre géométrique : \(\preceq\) est une structure d’ordre issue du seul fait qu’il existe un « successeur admissible » (application de \(f\)). +**Remarque structurale.** La définition ne dépend d’aucune métrique ni d’aucun paramètre géométrique : \(\preceq\) est une structure d’ordre issue du seul fait qu’il existe un « successeur admissible » (application de \(f\)). -### Antisymétrie et cycles : pourquoi l’ordre échoue sur \(X\) +### Antisymétrie et cycles : pourquoi l’ordre échoue sur \(X\) -Un préordre devient un ordre partiel si, en plus, il est antisymétrique : -\[ -(x\preceq y\ \&\ y\preceq x)\ \Rightarrow\ x=y. +Un préordre devient un ordre partiel si, en plus, il est antisymétrique : \[ +(x\preceq y\ \&\ y\preceq x)\)\) \Rightarrow\ x=y. \] -Or, dès qu’il existe une périodicité (cycle), l’antisymétrie échoue : si \(y=f^{(k)}(x)\) et \(x=f^{(p)}(y)\), alors \(x\preceq y\) et \(y\preceq x\) sans que \(x=y\). +Or, dès qu’il existe une périodicité (cycle), l’antisymétrie échoue : si \(((y=f^{(k)}(x)\)\)) et \(((x=f^{(p)}(y)\)\)), alors \(((x\preceq y\) et \(y\preceq x\) sans que \(x=y\). Cette obstruction est exactement la présence d’ensembles invariants périodiques (chapitre 3). ### Quotient par récurrence et apparition d’un ordre partiel canonique -On introduit l’équivalence de récurrence (mutuelle atteignabilité) : -\[ -x\sim y \quad\Longleftrightarrow\quad (x\preceq y)\ \text{et}\ (y\preceq x). +On introduit l’équivalence de récurrence (mutuelle atteignabilité) : \[ +x\sim y \quad\Longleftrightarrow\quad (x\preceq y)\)\) \text{et}\ (y\preceq x). \] -**Proposition 2 — \(\sim\) est une relation d’équivalence.** +**Proposition 2 — \(((\sim\) est une relation d’équivalence.** Elle est réflexive (Proposition 1), symétrique par définition, transitive par composition des atteignabilités. On considère le quotient \(X/{\sim}\) et on définit une relation \(\preceq^\*\) sur les classes \([x]\) par @@ -950,14 +959,14 @@ On considère le quotient \(X/{\sim}\) et on définit une relation \(\preceq^\*\ **Proposition 3 — \(\preceq^\*\) est un ordre partiel sur \(X/{\sim}\).** Elle est réflexive, transitive, et antisymétrique. -_Démonstration (antisymétrie)._ +**Démonstration** (antisymétrie). Supposons \([x]\preceq^\*[y]\) et \([y]\preceq^\*[x]\). Alors \(x\preceq y\) et \(y\preceq x\), donc \(x\sim y\), donc \([x]=[y]\). □ Ainsi, **le temps comme ordre** n’est pas d’abord un ordre sur les états, mais un ordre sur les **classes asymptotiques de récurrence** (cycles et leurs « noyaux »), objets construits au chapitre 3. ### Lecture en graphe fonctionnel et condensation en DAG -Dans le cas discret (un seul successeur), on associe le graphe orienté \(G_f\) des arcs \((x,f(x))\). Le préordre \(\preceq\) est exactement l’atteignabilité le long des arcs. Les classes \(\sim\) sont les **composantes fortement connexes**; dans un graphe fonctionnel fini, elles correspondent aux cycles, et la condensation (graphe des classes) est acyclique, donc un DAG. Cette « acyclicité au niveau des classes » est l’ombre combinatoire de ce qui sera plus tard appelé flèche (absence de retour inter-classes). +Dans le cas discret (un seul successeur), on associe le graphe orienté \(G\_f\) des arcs \((x,f(x))\)\)). Le préordre \(((\preceq\) est exactement l’atteignabilité le long des arcs. Les classes \(\sim\) sont les **composantes fortement connexes** ; dans un graphe fonctionnel fini, elles correspondent aux cycles, et la condensation (graphe des classes) est acyclique, donc un DAG. Cette « acyclicité au niveau des classes » est l’ombre combinatoire de ce qui sera plus tard appelé flèche (absence de retour inter-classes). ```mermaid flowchart TD @@ -974,116 +983,117 @@ flowchart TD ## Temps discret, temps continu, flots et semi-groupes -La structure précédente suggère une thèse de méthode : **le temps est le paramètre qui indexe une action de monoïde**. On le construit alors à partir de la propriété de composition. +La structure précédente suggère une thèse de méthode : **le temps est le paramètre qui indexe une action de monoïde**. On le construit alors à partir de la propriété de composition. -### Discret : action de \((\mathbb{N},+)\) et itération +### Discret : action de \((\mathbb{N},+)\)\)) et itération -Définissons \(\Phi:\mathbb{N}\times X\to X\) par \(\Phi(n,x)=f^{(n)}(x)\). Alors +Définissons \(((\Phi : \mathbb{N}\times X\to X\) par \(\Phi(n,x)=f^{(n)}(x)\)\)). Alors \[ \Phi(0,x)=x,\qquad \Phi(n+m,x)=\Phi(n,\Phi(m,x)). \] -C’est une action du monoïde \((\mathbb{N},+)\) sur \(X\). Réciproquement, toute action \(\Phi\) de \((\mathbb{N},+)\) sur \(X\) est déterminée par \(f(x):=\Phi(1,x)\). Autrement dit, « discret » signifie : le paramètre est construit comme **longueur de composition**. +C’est une action du monoïde \((((\mathbb{N},+)\)\)) sur \(((X\). Réciproquement, toute action \(\Phi\) de \((\mathbb{N},+)\)\)) sur \(((X\) est déterminée par \(f(x) : =\Phi(1,x)\)\)). Autrement dit, « discret » signifie : le paramètre est construit comme **longueur de composition**. -Ce point est exactement celui que von Neumann met en évidence lorsqu’il souligne que, pour les automates, il ne suffit pas qu’un résultat soit atteignable en un nombre fini d’étapes ; **le nombre d’étapes** et les « ordres de grandeur de durée » deviennent constitutifs de la théorie. +Ce point est exactement celui que von Neumann met en évidence lorsqu’il souligne que, pour les automates, il ne suffit pas qu’un résultat soit atteignable en un nombre fini d’étapes ; **le nombre d’étapes** et les « ordres de grandeur de durée » deviennent constitutifs de la théorie. -### Continu : flots (groupes) et semi-flots (semi-groupes) +### Continu : flots (groupes) et semi-flots (semi-groupes) -Pour un champ de vecteurs générant une équation différentielle, on dispose d’une application de flot \(\Phi_t\) (quand elle existe globalement) qui envoie une condition initiale sur l’état à l’instant \(t\). Lorsque le flot est défini pour tout \(t\ge 0\), on parle d’invariance positive et de dynamique comme application \(\Phi_t:D\to D\) avec \(\Phi_t(D)\subseteq D\) pour tout \(t\ge 0\). +Pour un champ de vecteurs générant une équation différentielle, on dispose d’une application de flot \(((\Phi\_t\) (quand elle existe globalement) qui envoie une condition initiale sur l’état à l’instant \(t\). Lorsque le flot est défini pour tout \(t\ge 0\), on parle d’invariance positive et de dynamique comme application \(\Phi\_t : D\to D\) avec \(\Phi\_t(D)\)\)subseteq D\) pour tout \(((t\ge 0\). -La distinction structurante est la suivante : +La distinction structurante est la suivante : -- **Flot** : action de \((\mathbb{R},+)\) (groupe), donc existence d’une évolution pour \(t<0\) et d’inverses \(\Phi_{-t}=\Phi_t^{-1}\). -- **Semi-flot / semi-groupe** : action de \((\mathbb{R}_+,+)\), définie uniquement pour \(t\ge 0\), sans inverse global. +- **Flot** : action de \((\mathbb{R},+)\)\)) (groupe), donc existence d’une évolution pour \(((t<0\) et d’inverses \(\Phi\_{-t}=\Phi\_t^{-1}\). -Dans un cadre plus abstrait (Banach, opérateurs), cette propriété de semi-groupe est formulée explicitement : identité à \(t=0\), et propriété \(\,S_{t+s}=S_tS_s\) pour \(t,s\ge 0\). +- **Semi-flot / semi-groupe** : action de \((\mathbb{R}\_+,+)\)\)), définie uniquement pour \(((t\ge 0\), sans inverse global. -Ainsi, « temps continu » n’est pas une donnée primitive : il apparaît comme **paramètre d’une loi de composition**. Le temps devient « réel » lorsque l’action est compatible avec une structure topologique et une continuité \(t\mapsto S_t x\). +Dans un cadre plus abstrait (Banach, opérateurs), cette propriété de semi-groupe est formulée explicitement : identité à \(t=0\), et propriété \(\,S\_{t+s}=S\_tS\_s\) pour \(t,s\ge 0\). + +Ainsi, « temps continu » n’est pas une donnée primitive : il apparaît comme **paramètre d’une loi de composition**. Le temps devient « réel » lorsque l’action est compatible avec une structure topologique et une continuité \(t\mapsto S\_t x\). ### Condition de réversibilité comme extensibilité en groupe **Proposition 4 — Réversibilité discrète.** -L’action discrète se prolonge en action de \((\mathbb{Z},+)\) si et seulement si \(f\) est bijective (donc \(f^{-1}\) existe). +L’action discrète se prolonge en action de \((\mathbb{Z},+)\)\)) si et seulement si \(((f\) est bijective (donc \(f^{-1}\) existe). -_Démonstration._ +**Démonstration.** Si \(f\) est bijective, définir \(f^{(-n)}=(f^{-1})^{(n)}\) donne une action de \(\mathbb{Z}\). Réciproquement, si une action de \(\mathbb{Z}\) existe, l’élément correspondant à \(-1\) est un inverse de \(f\), donc \(f\) est bijective. □ -Cette proposition formalise la flèche du temps au niveau le plus nu : **absence d’inverse = absence de temps négatif**, donc semi-groupe plutôt que groupe. +Cette proposition formalise la flèche du temps au niveau le plus nu : **absence d’inverse = absence de temps négatif**, donc semi-groupe plutôt que groupe. -## Flèche du temps : irréversibilité formelle, non-injectivité et consommation +## Flèche du temps : irréversibilité formelle, non-injectivité et consommation Le plan de l’ouvrage exige ici des « premiers critères » d’irréversibilité, sans encore fonder les mécanismes généalogiques ultérieurs. On distingue trois sources formelles d’orientation. ### Irréversibilité comme non-injectivité -Une application non injective fusionne des passés : il existe \(x\neq y\) tels que \(f(x)=f(y)\). Alors le prédécesseur n’est pas déterminable à partir du seul présent. Cette propriété suffit à empêcher l’extension en groupe (Proposition 4) et à imposer une asymétrie intrinsèque. +Une application non injective fusionne des passés : il existe \(x\neq y\) tels que \(f(x)=f(y)\)\)). Alors le prédécesseur n’est pas déterminable à partir du seul présent. Cette propriété suffit à empêcher l’extension en groupe (Proposition 4) et à imposer une asymétrie intrinsèque. Dans un langage de théorie des automates, cela correspond exactement à une fonction de transition sans inverse univoque, phénomène que Landauer décrit comme « logical functions that do not have a single-valued inverse », associées à une irréversibilité physique. ### Irréversibilité comme perte par agrégation (non-injectivité effective) -Même si la dynamique microscopique était bijective, l’irréversibilité peut apparaître à un niveau de description agrégé. Cela se formalise par une application d’observation/quantification \(q:X\to A\) (alphabet fini ou espace grossier). La dynamique observée est +Même si la dynamique microscopique était bijective, l’irréversibilité peut apparaître à un niveau de description agrégé. Cela se formalise par une application d’observation/quantification \(((q : X\to A\) (alphabet fini ou espace grossier). La dynamique observée est \[ -a_{n+1} = \tilde f(a_n) \quad\text{avec}\quad a_n=q(x_n), +a\_{n+1} = \tilde f(a\_n) \quad\text{avec}\quad a\_n=q(x\_n), \] -mais \(\tilde f\) n’est pas nécessairement bien définie sans hypothèse; plus généralement, on obtient une relation de transition sur \(A\) qui est typiquement non injective (plusieurs micro-états distincts deviennent le même macro-état). +mais \(\tilde f\) n’est pas nécessairement bien définie sans hypothèse ; plus généralement, on obtient une relation de transition sur \(A\) qui est typiquement non injective (plusieurs micro-états distincts deviennent le même macro-état). -Ce mécanisme rejoint un consensus de la physique statistique : l’irréversibilité macroscopique provient du fait que l’on travaille sur des descriptions incomplètes, et Jaynes discute explicitement le lien entre « information loss » et irréversibilité dans l’extension de la mécanique statistique aux phénomènes dépendant du temps. +Ce mécanisme rejoint un consensus de la physique statistique : l’irréversibilité macroscopique provient du fait que l’on travaille sur des descriptions incomplètes, et Jaynes discute explicitement le lien entre « information loss » et irréversibilité dans l’extension de la mécanique statistique aux phénomènes dépendant du temps. -### Irréversibilité par monotone : ressources et fonctions de Lyapunov +### Irréversibilité par monotone : ressources et fonctions de Lyapunov Un troisième critère, purement formel, consiste à enrichir le système d’une « grandeur » monotone le long des trajectoires. **Définition — Monotone d’évolution.** -Soit \((S,\le)\) un ordre (souvent bien fondé). Une fonction \(V:X\to S\) est un monotone si \(V(f(x))\le V(x)\) pour tout \(x\). Elle est strictement dissipative si \(V(f(x)) c1["h=h+1 si P(x)"] end - x0 -. "observe P(x0)" .-> c1 - x1 -. "observe P(x1)" .-> c1 + x0 -. « observe P(x0) » .-> c1 + x1 -. « observe P(x1) » .-> c1 ``` -### Horloge pondérée : temps comme somme de coûts +### Horloge pondérée : temps comme somme de coûts -On peut enrichir l’horloge par un poids \(w:X\to\mathbb{R}_+\) (ou sur les arêtes) et définir un temps accumulé +On peut enrichir l’horloge par un poids \(w : X\to\mathbb{R}*+\) (ou sur les arêtes) et définir un temps accumulé \[ -t_{n+1}=t_n+w(x_n). +\(t\_{n+1}=t\_n+w(x\_n)\)\)). \] -On obtient alors une métrique de durée dépendant de la trajectoire, sans introduire d’horloge externe : l’horloge est un **fonctionnel de chemin**. +On obtient alors une métrique de durée dépendant de la trajectoire, sans introduire d’horloge externe : l’horloge est un **fonctionnel de chemin**. -Cette construction devient particulièrement significative lorsqu’on relie \(w\) à une dissipation, une dépense, ou à une production d’entropie (section suivante), mais elle existe purement formellement. +Cette construction devient particulièrement significative lorsqu’on relie \(((w\) à une dissipation, une dépense, ou à une production d’entropie (section suivante), mais elle existe purement formellement. ## Thermodynamique de l’information et flèche thermodynamique -Cette section n’introduit aucune entité sémantique. Elle relie deux consensuses : la flèche thermodynamique (entropie) et l’irréversibilité de certaines opérations logiques (Landauer). +Cette section n’introduit aucune entité sémantique. Elle relie deux consensuses : la flèche thermodynamique (entropie) et l’irréversibilité de certaines opérations logiques (Landauer). -### Shannon : mesure logarithmique non sémantique +### Shannon : mesure logarithmique non sémantique Shannon insiste explicitement sur le fait que les aspects sémantiques sont hors champ de la théorie de la communication, et que l’information pertinente est celle d’un choix parmi des messages possibles, mesurée naturellement par une fonction logarithmique. -Ce rappel n’est pas historique : il légitime une méthode où la « structure d’ordre » (ici, l’ordre temporel) est construite sans signification préalable. +Ce rappel n’est pas historique : il légitime une méthode où la « structure d’ordre » (ici, l’ordre temporel) est construite sans signification préalable. -### Boltzmann : probabilité, entropie et tendance macroscopique +### Boltzmann : probabilité, entropie et tendance macroscopique Dans sa formulation cinétique, Boltzmann affirme que l’explication des lois thermiques doit s’appuyer sur la théorie des probabilités et sur une fonction de distribution décrivant le nombre de molécules dans chaque état au cours du temps. Cette approche fonde l’idée qu’une flèche (croissance de l’entropie) n’est pas un axiome mécanique, mais une propriété typique à l’échelle de grandes multiplicités. Dans son texte de 1877 (traduit), Boltzmann relie explicitement le second principe à des calculs de probabilité et à une mesure de « permutabilité » des distributions d’état, ouvrant une définition statistique de l’entropie applicable au-delà de l’équilibre. -### Poincaré : récurrence et limite d’une flèche absolue au niveau microscopique +### Poincaré : récurrence et limite d’une flèche absolue au niveau microscopique -Le théorème de récurrence (version conservatrice) établit qu’un système préservant une mesure finie (volume de phase) présente une récurrence : des points reviennent arbitrairement près de leur état initial. Une démonstration-type utilise exactement un argument de finitude de mesure (impossibilité d’images disjointes infinies d’un ouvert). +Le théorème de récurrence (version conservatrice) établit qu’un système préservant une mesure finie (volume de phase) présente une récurrence : des points reviennent arbitrairement près de leur état initial. Une démonstration-type utilise exactement un argument de finitude de mesure (impossibilité d’images disjointes infinies d’un ouvert). -Conséquence (consensus) : si la dynamique microscopique est réversible et conservatrice sur un espace de volume fini, alors aucune grandeur strictement monotone ne peut exister sur les micro-états eux-mêmes. La flèche doit donc être cherchée soit dans une description agrégée, soit dans un couplage à un extérieur (système ouvert), soit dans une notion de typicité/probabilité. +Conséquence (consensus) : si la dynamique microscopique est réversible et conservatrice sur un espace de volume fini, alors aucune grandeur strictement monotone ne peut exister sur les micro-états eux-mêmes. La flèche doit donc être cherchée soit dans une description agrégée, soit dans un couplage à un extérieur (système ouvert), soit dans une notion de typicité/probabilité. Cette contrainte mathématique est l’une des raisons pour lesquelles le « temps comme ordre » doit être construit au niveau adéquat (classes, observables, ou monotones), et non imposé comme absolu. -### Landauer : non-injectivité logique \(\Rightarrow\) coût thermodynamique minimal +### Landauer : non-injectivité logique \(\Rightarrow\) coût thermodynamique minimal Landauer formule un lien direct entre opérations logiquement irréversibles — celles qui « n’ont pas d’inverse à valeur unique » — et irréversibilité physique, avec un coût minimal de dissipation typiquement de l’ordre de \(kT\) par opération irréversible. @@ -1144,11 +1154,11 @@ Dans notre langage, une opération d’effacement est une application non inject \] qui contracte l’espace des passés possibles. La non-injectivité est donc non seulement un critère formel d’irréversibilité (Proposition 4), mais aussi un critère physiquement contraint lorsqu’il s’agit d’implémentation matérielle. -Note de méthode (statut du lien modèle ↔ physique). - -- non‑injectivité formelle : propriété d’une application/quotient dans le modèle. -- irréversibilité logique : absence d’inverse univoque au niveau computationnel. -- irréversibilité thermodynamique : coût de dissipation dans une implémentation matérielle donnée. +> **Note de méthode** (statut du lien modèle ↔ physique). +> +> - non‑injectivité formelle : propriété d’une application/quotient dans le modèle. +> - irréversibilité logique : absence d’inverse univoque au niveau computationnel. +> - irréversibilité thermodynamique : coût de dissipation dans une implémentation matérielle donnée. Landauer borne le coût minimal de certains effacements logiques dans un cadre thermodynamique donné ; il n’implique ni que toute non‑injectivité abstraite soit réalisée comme effacement, ni que la dissipation observée atteigne la borne. Bennett clarifie le même point en montrant qu’on peut rendre une computation logiquement réversible en conservant l’information sur une « bande d’historique », mais que le problème réapparaît lors de l’effacement de cet historique, ce qui rejoint explicitement l’argument de Landauer. @@ -1156,16 +1166,16 @@ Il donne aussi une borne thermodynamique en termes de \(kT\ln 2\) pour une perte Enfin, le consensus en thermodynamique de la computation admet que des modèles de computation thermodynamiquement réversible existent (dissipation tendant vers 0 dans une limite quasi-statique), mais qu’ils exigent une logique réversible et une conduite suffisamment lente. -### Prigogine : entropie, histoire et diversification des niveaux de temps +### Prigogine : entropie, histoire et diversification des niveaux de temps Prigogine rappelle la centralité du second principe, introduit la distinction réversible/irréversible et insiste sur le fait que l’entropie (et sa production) fournit une direction privilégiée, avec la possibilité d’états organisés hors équilibre (« structures dissipatives »). Il formule aussi explicitement que l’incorporation d’éléments thermodynamiques conduit à un sens du temps lié à l’irréversibilité et à l’histoire, et distingue des niveaux de temps (dynamique, Lyapunov/entropie, historique via bifurcations). -Dans la logique de ce livre, cette remarque est une **correspondance** : notre construction purement formelle (ordre via monotone, semi-groupe effectif) est précisément ce que la thermodynamique réalise empiriquement via entropie/production d’entropie. +Dans la logique de ce livre, cette remarque est une **correspondance** : notre construction purement formelle (ordre via monotone, semi-groupe effectif) est précisément ce que la thermodynamique réalise empiriquement via entropie/production d’entropie. ## Implications déduites et analyse philosophique finale -### Implications strictement déduites (statut explicite) +### Implications strictement déduites (statut explicite) — Ch. 4 On se limite à ce qui suit des sections mathématiques. @@ -1173,101 +1183,104 @@ On se limite à ce qui suit des sections mathématiques. Dès qu’un successeur admissible est défini (A2), la relation d’atteignabilité \(\preceq\) existe et fournit une structure d’antériorité (préordre). Le « temps » au sens minimal est donc l’ordre d’engendrement des configurations. 2. **Une flèche exige une rupture de symétrie au niveau pertinent.** -Si la dynamique est bijective et se prolonge en groupe, « aller en arrière » est défini formellement; la structure d’ordre n’est pas antisymétrique sur \(X\) et la récurrence (en contexte conservatif) rend impossible un monotone strict sur micro-états. -À l’inverse, une flèche apparaît si l’évolution effective au niveau considéré est une action de semi-groupe non extensible en groupe : non-injectivité, agrégation, ou monotone strict (Proposition 5). +Si la dynamique est bijective et se prolonge en groupe, « aller en arrière » est défini formellement ; la structure d’ordre n’est pas antisymétrique sur \(X\) et la récurrence (en contexte conservatif) rend impossible un monotone strict sur micro-états. +À l’inverse, une flèche apparaît si l’évolution effective au niveau considéré est une action de semi-groupe non extensible en groupe : non-injectivité, agrégation, ou monotone strict (Proposition 5). -3. **Accumulation historique : condition nécessaire.** -Pour qu’une accumulation (au sens strict : une impossibilité structurelle de « défaire exactement » la succession) soit possible, il faut au moins une des deux conditions : - - (i) perte irréversible d’antécédents (non-injectivité) ; - - (ii) présence d’un monotone strict (ressource/entropie/coût) empêchant les cycles au niveau pertinent. -Landauer fournit un ancrage physique : lorsqu’une instanciation réalise effectivement une contraction des passés comme effacement logique, une borne minimale borne le coût associé, ce qui rend plausible une orientation irréductible dans les transformations matériellement réalisables. +3. **Accumulation historique : condition nécessaire.** +Pour qu’une accumulation (au sens strict : une impossibilité structurelle de « défaire exactement » la succession) soit possible, il faut au moins une des deux conditions : + +- (i) perte irréversible d’antécédents (non-injectivité) + +- (ii) présence d’un monotone strict (ressource/entropie/coût) empêchant les cycles au niveau pertinent. +Landauer fournit un ancrage physique : lorsqu’une instanciation réalise effectivement une contraction des passés comme effacement logique, une borne minimale borne le coût associé, ce qui rend plausible une orientation irréductible dans les transformations matériellement réalisables. ### Ontologie du temps comme ordre et limites du formalisme Le point philosophique ici n’est pas une doctrine, mais une **lecture de nécessité**. - Le temps n’apparaît pas d’abord comme une substance ni comme une dimension géométrique, mais comme une **structure d’ordre** induite par la composition des transformations. -- Une « durée » n’est pas donnée : elle est une mesure (horloge) construite sur des chaînes d’événements, et une granularité est une propriété de l’instrument d’indexation (sous-échantillonnage, compteur, poids). +- Une « durée » n’est pas donnée : elle est une mesure (horloge) construite sur des chaînes d’événements, et une granularité est une propriété de l’instrument d’indexation (sous-échantillonnage, compteur, poids). -Ce que le formalisme **interdit** à ce stade : +Ce que le formalisme **interdit** à ce stade : -- d’identifier le temps à une métrique unique universelle : sans horloge (compteur) ni structure supplémentaire, on ne dispose que d’un ordre (préordre / ordre sur classes) ; -- d’affirmer une flèche absolue au niveau microscopique dans un cadre strictement réversible et conservatif : la récurrence (au sens large) impose des retours, donc la flèche doit être située au niveau de description effectif (classe/observable/système ouvert). -- de confondre « ordre temporel » et « optimisation » : aucune fonction objectif n’a été postulée; seules des contraintes d’atteignabilité et de monotonicité (si ajoutée) sont en jeu. +- d’identifier le temps à une métrique unique universelle : sans horloge (compteur) ni structure supplémentaire, on ne dispose que d’un ordre (préordre / ordre sur classes) -Ce que le formalisme **autorise** dès maintenant : +- d’affirmer une flèche absolue au niveau microscopique dans un cadre strictement réversible et conservatif : la récurrence (au sens large) impose des retours, donc la flèche doit être située au niveau de description effectif (classe/observable/système ouvert). +- de confondre « ordre temporel » et « optimisation » : aucune fonction objectif n’a été postulée ; seules des contraintes d’atteignabilité et de monotonicité (si ajoutée) sont en jeu. + +Ce que le formalisme **autorise** dès maintenant : + +- une définition du « présent » comme classe d’équivalence de récurrence (quotient \(X/\sim\)) -- une définition du « présent » comme classe d’équivalence de récurrence (quotient \(X/\sim\)) ; - une définition opérationnelle de l’« irréversibilité » comme non-extensibilité d’un semi-groupe en groupe, compatible avec les contraintes thermodynamiques connues (Landauer, second principe) et avec la stabilité au sens Lyapunov (monotones). ### Tableau comparatif synthétique | Cadre | Paramètre d’évolution | Structure algébrique | Inverses | Flèche formelle | Obstruction typique | -|---|---|---|---|---|---| +| --- | --- | --- | --- | --- | --- | | Discret (itération) | composition de \(f\) | monoïde \(\langle f\rangle\) | non si \(f\) non bijective | oui (semi-groupe) | non-injectivité, cycles | | Discret réversible | idem + \(f^{-1}\) | groupe \(\langle f\rangle\simeq\mathbb{Z}\) | oui | non intrinsèque | récurrence/cycles (si fini) | -| Continu (semi-flot) | \(t\ge 0\) | semi-groupe \((\mathbb{R}_+,+)\) | non en général | oui | dissipation, perte d’info | -| Continu (flot) | \(t\in\mathbb{R}\) | groupe \((\mathbb{R},+)\) | oui | non intrinsèque | récurrence (conservatif) | +| Continu (semi-flot) | \(t\ge 0\) | semi-groupe \((\mathbb{R}\_+,+)\)\)) | non en général | oui | dissipation, perte d’info | +| Continu (flot) | \(((t\in\mathbb{R}\) | groupe \((\mathbb{R},+)\)\)) | oui | non intrinsèque | récurrence (conservatif) | | Propriété | Injectif | Non injectif | -|---|---|---| +| --- | --- | --- | | Reconstruction du passé (unique) | possible (en principe) | impossible (passés fusionnés) | | Extension en groupe | possible | impossible | | Coût thermodynamique d’effacement | non requis si tout est réversible | borne minimale si effacement logique (Landauer) | -Le chapitre suivant pourra donc porter sur la conséquence déjà annoncée dans le plan : comment cette structure d’ordre, lorsqu’elle s’accompagne de non-injectivité et de contraintes de transformation, prépare une notion plus forte d’irréversibilité et d’histoire (chapitres 9–10), puis de transmission et de généalogie (chapitres 11–12). +Le chapitre suivant pourra donc porter sur la conséquence déjà annoncée dans le plan : comment cette structure d’ordre, lorsqu’elle s’accompagne de non-injectivité et de contraintes de transformation, prépare une notion plus forte d’irréversibilité et d’histoire (chapitres 9–10), puis de transmission et de généalogie (chapitres 11–12). --- -# Chapitre 5 — Compression, non‑injectivité et classes de formes +## Chapitre 5 — Compression, non‑injectivité et classes de formes {#chapitre-5-compression-non-injectivite-et-classes-de-formes} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 5 -Hypothèses (H). +**Hypothèses (H).** -- existence d’une description/projection \(q:X\to A\) (contrainte de description) ; +- existence d’une description/projection \(((q : X\to A\) (contrainte de description) - possibilité de non‑injectivité (collisions) induite par finitude, compression ou observabilité agrégée. -Résultats (E). +**Résultats (E).** -- construction des fibres, partitions et classes d’équivalence induites par \(q\) ; -- formalisation de la compression comme projection/quotient et de la dynamique induite sur les classes (système facteur) ; +- construction des fibres, partitions et classes d’équivalence induites par \(q\) +- formalisation de la compression comme projection/quotient et de la dynamique induite sur les classes (système facteur) - mise en place de quantificateurs (entropies, complexités) comme couches optionnelles indexées. -Statut. +**Statut.** - noyau ensembliste pour partitions/quotients ; quantifications informationnelles annoncées comme couches mesurée/probabiliste déclarées. -## Résumé exécutif +## Résumé exécutif — Ch. 5 -Ce chapitre formalise un mécanisme structural déjà latent dans les chapitres précédents : dès qu’un système itératif opère sous **contraintes de description** (finitude globale, finitude locale, ou observabilité agrégée), les transformations effectives deviennent typiquement **non injectives**. Cette non‑injectivité engendre des **collisions** (plusieurs antécédents pour un même résultat), lesquelles imposent à leur tour des **partitions** de l’espace des configurations en **fibres** et en **classes d’équivalence**. +Ce chapitre formalise un mécanisme structural déjà latent dans les chapitres précédents : dès qu’un système itératif opère sous **contraintes de description** (finitude globale, finitude locale, ou observabilité agrégée), les transformations effectives deviennent typiquement **non injectives**. Cette non‑injectivité engendre des **collisions** (plusieurs antécédents pour un même résultat), lesquelles imposent à leur tour des **partitions** de l’espace des configurations en **fibres** et en **classes d’équivalence**. -D’abord, on établit des résultats élémentaires mais structurants : toute application \(q:X\to A\) avec \(|A|<|X|\) induit une partition par fibres; le degré de collision se borne par des arguments de comptage (principe des tiroirs) et, sous contraintes de codage, par des inégalités de type Kraft–McMillan (existence de codes à longueurs données) et par les bornes de Shannon sur la compression sans perte. Ensuite, on formalise la compression comme **projection** (idempotente) ou comme **quotient** (factorisation), et on introduit des « attracteurs de second ordre » : attracteurs de la dynamique induite sur un espace **des classes** (système facteur). Enfin, on relie ces constructions à des quantités de consensus : entropie de Shannon (et entropie conditionnelle) pour mesurer la perte induite par une projection déterministe, et complexité algorithmique de Kolmogorov comme mesure intrinsèque de compressibilité (non calculable en général, mais conceptuellement fondatrice). +D’abord, on établit des résultats élémentaires mais structurants : toute application \(q : X\to A\) avec \(|A|<|X|\) induit une partition par fibres ; le degré de collision se borne par des arguments de comptage (principe des tiroirs) et, sous contraintes de codage, par des inégalités de type Kraft–McMillan (existence de codes à longueurs données) et par les bornes de Shannon sur la compression sans perte. Ensuite, on formalise la compression comme **projection** (idempotente) ou comme **quotient** (factorisation), et on introduit des « attracteurs de second ordre » : attracteurs de la dynamique induite sur un espace **des classes** (système facteur). Enfin, on relie ces constructions à des quantités de consensus : entropie de Shannon (et entropie conditionnelle) pour mesurer la perte induite par une projection déterministe, et complexité algorithmique de Kolmogorov comme mesure intrinsèque de compressibilité (non calculable en général, mais conceptuellement fondatrice). -La partie « héritage morphologique » reste formelle : elle définit un **registre transmissible** comme mémoire de collisions (cooccurrences de classes) et montre quelles conditions minimales (flèche d’événements, disponibilité de projections stables) sont requises pour qu’une accumulation historique devienne possible, sans invoquer finalité ni sémantique. +La partie « héritage morphologique » reste formelle : elle définit un **registre transmissible** comme mémoire de collisions (cooccurrences de classes) et montre quelles conditions minimales (flèche d’événements, disponibilité de projections stables) sont requises pour qu’une accumulation historique devienne possible, sans invoquer finalité ni sémantique. -## Fondations formelles : non‑injectivité, collisions, partitions, fibres +## Fondations formelles : non‑injectivité, collisions, partitions, fibres -Soit \(X\) un ensemble de configurations (fini ou non), et \(q:X\to A\) une application. +Soit \(X\) un ensemble de configurations (fini ou non), et \(q : X\to A\) une application. **Définition (injectivité / non‑injectivité).** -\(q\) est injective si \(q(x)=q(y)\Rightarrow x=y\). Elle est non injective s’il existe \(x\neq y\) tels que \(q(x)=q(y)\). +\(q\) est injective si \(q(x)=q(y)\)\)Rightarrow x=y\). Elle est non injective s’il existe \(((x\neq y\) tels que \(q(x)=q(y)\)\)). **Définition (collision).** -Une collision est un couple \((x,y)\) avec \(x\neq y\) et \(q(x)=q(y)\). Le modèle ne qualifie pas moralement la collision : c’est un fait structurel. +Une collision est un couple \((((x,y)\)\)) avec \(((x\neq y\) et \(q(x)=q(y)\)\)). Le modèle ne qualifie pas moralement la collision : c’est un fait structurel. **Définition (fibre).** -Pour \(a\in A\), la fibre (préimage) est +Pour \(((a\in A\), la fibre (préimage) est \[ -F_a \;=\; q^{-1}(a)\;=\;\{x\in X:\ q(x)=a\}. +F\_a \ ; =\ ; q^{-1}(a)\)\) ; =\ ; \{x\in X : \ q(x)=a\}. \] **Proposition 1 (partition par fibres).** -L’ensemble \(\{F_a\}_{a\in A}\) forme une partition de \(X\) restreinte à l’image : -(i) \(X=\bigsqcup_{a\in q(X)} F_a\) ; (ii) \(F_a\cap F_b=\varnothing\) si \(a\neq b\). +L’ensemble \(((\{F\_a\}\_{a\in A}\) forme une partition de \(X\) restreinte à l’image : (i) \(X=\bigsqcup\_{a\in q(X)} F\_a\) ; (ii) \(F\_a\cap F\_b=\varnothing\) si \(a\neq b\). -_Preuve._ -Chaque \(x\in X\) appartient à \(F_{q(x)}\), donc \(X=\bigcup_{a\in q(X)}F_a\). Si \(x\in F_a\cap F_b\), alors \(q(x)=a=b\), contradiction si \(a\neq b\). □ +**Preuve.** +Chaque \(x\in X\) appartient à \(F\_{q(x)}\), donc \(X=\bigcup\_{a\in q(X)}F\_a\). Si \(x\in F\_a\cap F\_b\), alors \(q(x)=a=b\), contradiction si \(a\neq b\). □ ### Collisions imposées par compression de cardinal @@ -1276,79 +1289,78 @@ Supposons \(X\) fini, \(|X|=N\), et \(|q(X)|=M\). **Proposition 2 (principe des tiroirs → collision).** Si \(M|itération| X ``` -Note de méthode (Kaprekar : caractérisation de régimes). -Cet exemple sert ici de fil directeur (compression + dynamique). Toute conclusion quantitative sur l’opérateur \(\kappa\) est indexée par \((B,D)\) et par le protocole (distribution initiale, éventuelles règles de bruit/réparation). -Un usage de type « signature » exige une caractérisation explicite des régimes : nombre et types d’attracteurs, tailles de bassins, seuils de dominance, robustesse sous perturbations et sous transformations non sémantiques. Cette caractérisation est traitée comme un programme d’analyse, distinct des résultats généraux du noyau. +> **Note de méthode** (Kaprekar : caractérisation de régimes). +> +> Cet exemple sert ici de fil directeur (compression + dynamique). Toute conclusion quantitative sur l’opérateur \(\kappa\) est indexée par \((B,D)\)\)) et par le protocole (distribution initiale, éventuelles règles de bruit/réparation). +> Un usage de type « signature » exige une caractérisation explicite des régimes : nombre et types d’attracteurs, tailles de bassins, seuils de dominance, robustesse sous perturbations et sous transformations non sémantiques. Cette caractérisation est traitée comme un programme d’analyse, distinct des résultats généraux du noyau. -## Mesures de compression : entropies, complexités, distances +## Mesures de compression : entropies, complexités, distances ### Entropie de Shannon et perte induite par une projection déterministe -Soit une variable aléatoire \(X\) à valeurs dans un ensemble fini, et \(Y=q(X)\) une projection déterministe. +Soit une variable aléatoire \(((X\) à valeurs dans un ensemble fini, et \(Y=q(X)\)\)) une projection déterministe. Shannon établit les relations fondamentales (entropie jointe, conditionnelle) et la relation de chaîne \[ @@ -1374,14 +1387,15 @@ H(X,Y)=H(X)+H_X(Y), \] ainsi que des inégalités de sous‑additivité et le fait que l’incertitude ne croît pas lorsqu’on conditionne. -Comme \(Y\) est une fonction de \(X\), on a \(H(Y|X)=0\) et donc +Comme \(((Y\) est une fonction de \(X\), on a \(H(Y|X)=0\) et donc \[ H(X) = H(Y) + H(X|Y). \] -Interprétation strictement formelle : +Interprétation strictement formelle : -- \(H(Y)\) mesure l’incertitude au niveau des classes (partitions) ; -- \(H(X|Y)\) mesure l’incertitude résiduelle à l’intérieur d’une fibre (information perdue par la projection). +- \(H(Y)\)\)) mesure l’incertitude au niveau des classes (partitions) + +- \(((H(X|Y)\)\)) mesure l’incertitude résiduelle à l’intérieur d’une fibre (information perdue par la projection). **Proposition 5 (borne par la plus grande fibre).** \[ @@ -1390,8 +1404,8 @@ H(X|Y)\ \le\ \log |F_{\max}| |F_{\max}|=\max_{a}|F_a|. \] -_Preuve._ -Conditionnellement à \(Y=a\), la variable \(X\) prend ses valeurs dans \(F_a\), donc son entropie conditionnelle est \(\le \log|F_a|\); en moyennant, \(\le \log|F_{\max}|\). □ +**Preuve.** +Conditionnellement à \(((Y=a\), la variable \(X\) prend ses valeurs dans \(F\_a\), donc son entropie conditionnelle est \(\le \log|F\_a|\) ; en moyennant, \(\le \log|F\_{\max}|\). □ ### Compression sans perte et contraintes de codage @@ -1400,133 +1414,129 @@ Un « codage sans perte » impose que le décodage soit injectif sur les messa Sur le plan combinatoire, l’existence de codes instantanés/préfixes est contrainte par l’inégalité de Kraft, et l’extension aux codes uniquement déchiffrables par McMillan. Un cours MIT OCW rappelle cette contrainte classique et sa construction par arbres \(D\)-aires. Huffman fournit ensuite une procédure constructive d’optimalité (minimum de redondance moyenne) pour ensembles finis de messages, explicitement dans la continuité de Shannon et en citant Kraft. -Ces résultats sont utilisés ici de façon non sémantique : ils montrent que vouloir raccourcir systématiquement les descriptions (compression) impose soit des collisions (non‑injectivité du codage), soit des redondances explicites (longueurs suffisantes), soit une probabilité d’erreur. +Ces résultats sont utilisés ici de façon non sémantique : ils montrent que vouloir raccourcir systématiquement les descriptions (compression) impose soit des collisions (non‑injectivité du codage), soit des redondances explicites (longueurs suffisantes), soit une probabilité d’erreur. ### Entropie combinatoire et « entropie structurelle des classes » -Kolmogorov rappelle qu’avant toute probabilité, on peut définir une entropie combinatoire \(H(x)=\log_2 N\) lorsque \(x\) prend ses valeurs dans un ensemble fini de taille \(N\), et introduit aussi une entropie conditionnelle combinatoire via les ensembles possibles \(Y_a\) compatibles avec \(x=a\). +Kolmogorov rappelle qu’avant toute probabilité, on peut définir une entropie combinatoire \(H(x)=\log\_2 N\) lorsque \(x\) prend ses valeurs dans un ensemble fini de taille \(N\), et introduit aussi une entropie conditionnelle combinatoire via les ensembles possibles \(Y\_a\) compatibles avec \(x=a\). -Dans notre cadre, si \(q:X\to A\) induit des classes, une mesure structurelle minimale, indépendante de la dynamique, est +Dans notre cadre, si \(q : X\to A\) induit des classes, une mesure structurelle minimale, indépendante de la dynamique, est \[ -H_{\text{classes}} -\;=\;-\sum_{a\in A} p_a \log p_a, +H\_{\text{classes}} +\ ; =\ ; -\sum\_{a\in A} p\_a \log p\_a, \quad -p_a=\frac{|F_a|}{|X|} +p\_a=\frac{|F\_a|}{|X|} \] en supposant une distribution uniforme sur \(X\). C’est l’entropie de Shannon de la variable « classe » quand on pick un état uniformément (un cas particulier du cadre mesuré). -### Complexité de Kolmogorov : compressibilité intrinsèque (consensus, non constructive) +### Complexité de Kolmogorov : compressibilité intrinsèque (consensus, non constructive) -Kolmogorov introduit un troisième point de vue : mesurer l’information d’un objet par la longueur de la plus courte description algorithmique produisant cet objet (approche algorithmique), après avoir exposé les approches combinatoire et probabiliste. +Kolmogorov introduit un troisième point de vue : mesurer l’information d’un objet par la longueur de la plus courte description algorithmique produisant cet objet (approche algorithmique), après avoir exposé les approches combinatoire et probabiliste. -On en retient ici une conséquence structurale (de consensus dans la théorie) : il existe des objets (chaînes) **incompressibles** au sens algorithmique, pour lesquels aucune description significativement plus courte n’existe, tandis que d’autres objets sont compressibles parce qu’ils possèdent des régularités exploitables. Dans ce livre, cela n’est pas interprété comme « sens » ou « finalité », mais comme propriété intrinsèque de description. +On en retient ici une conséquence structurale (de consensus dans la théorie) : il existe des objets (chaînes) **incompressibles** au sens algorithmique, pour lesquels aucune description significativement plus courte n’existe, tandis que d’autres objets sont compressibles parce qu’ils possèdent des régularités exploitables. Dans ce livre, cela n’est pas interprété comme « sens » ou « finalité », mais comme propriété intrinsèque de description. -## Calcul effectif en contexte discret : algorithmes et complexité +## Calcul effectif en contexte discret : algorithmes et complexité -Ce chapitre requiert des outils effectifs : calculer classes, fibres, et parfois bassins, dans des cadres finis. +Ce chapitre requiert des outils effectifs : calculer classes, fibres, et parfois bassins, dans des cadres finis. ### Calcul des fibres d’une projection -Entrée : représentation explicite de \(X\) (liste des états) et de \(q\). -Sortie : dictionnaire \(a \mapsto F_a\). +Entrée : représentation explicite de \(X\) (liste des états) et de \(q\). +Sortie : dictionnaire \(a \mapsto F\_a\). -Algorithme : un seul parcours, insertion dans une table de hachage. +Algorithme : un seul parcours, insertion dans une table de hachage. -- Temps : \(O(|X|)\) évaluations de \(q\) + coût de hachage (amorti). -- Espace : \(O(|X|)\) au pire si on stocke tous les éléments. +- Temps : \(O(|X|)\)\)) évaluations de \(((q\) + coût de hachage (amorti). +- Espace : \(O(|X|)\)\)) au pire si on stocke tous les éléments. -### Calcul des cycles et bassins d’une fonction \(f:X\to X\) +### Calcul des cycles et bassins d’une fonction \(((f : X\to X\) -Dans un cadre fini déterministe, le graphe est fonctionnel (degré sortant 1). Les cycles et bassins se calculent en temps linéaire \(O(N)\) via élimination des arbres (méthode par degrés entrants) ou via détection de cycles. +Dans un cadre fini déterministe, le graphe est fonctionnel (degré sortant 1). Les cycles et bassins se calculent en temps linéaire \(O(N)\)\)) via élimination des arbres (méthode par degrés entrants) ou via détection de cycles. -Pseudocode (élimination des non‑cycliques) : +Pseudocode (élimination des non‑cycliques) : ```pseudo -Input: f[1..N] // successeur de chaque nœud +Input : f[1..N] // successeur de chaque nœud indeg[1..N] = 0 -for v in 1..N: indeg[f[v]]++ +for v in 1..N : indeg[f[v]]++ queue = all v with indeg[v]==0 mark_noncycle[v]=false -while queue not empty: - v = pop(queue) +while queue not empty : v = pop(queue) mark_noncycle[v]=true u = f[v] indeg[u]-- - if indeg[u]==0: push(u) + if indeg[u]==0 : push(u) cycles = all v with mark_noncycle[v]==false -// cycles contiennent les sommets sur cycles; les bassins se déduisent par parcours inverse +// cycles contiennent les sommets sur cycles ; les bassins se déduisent par parcours inverse ``` Cette structure « phase space » est précisément l’objet central des dynamiques discrètes finies (points fixes, orbites périodiques, réversibilité, réductions), comme le souligne la littérature SDS citée plus haut. -### Détection locale d’un cycle sur une trajectoire : accès constant +### Détection locale d’un cycle sur une trajectoire : accès constant -Lorsqu’on n’a pas accès à tout \(X\) mais seulement à un oracle \(f\) et un état initial, on peut détecter une périodicité par la méthode de la « tortue et du lièvre » (rho‑Floyd), présentée en français dans des notes d’agrégation. -Dans l’économie de notre livre, ce point illustre une propriété simple : la cyclicité n’est pas seulement un fait théorique, elle est détectable par des algorithmes légers. +Lorsqu’on n’a pas accès à tout \(((X\) mais seulement à un oracle \(f\) et un état initial, on peut détecter une périodicité par la méthode de la « tortue et du lièvre » (rho‑Floyd), présentée en français dans des notes d’agrégation. +Dans l’économie de notre livre, ce point illustre une propriété simple : la cyclicité n’est pas seulement un fait théorique, elle est détectable par des algorithmes légers. -## Transmission structurale : mémoire des collisions et sous‑structures transmissibles +## Transmission structurale : mémoire des collisions et sous‑structures transmissibles -Déclaration M0 (section — transmission structurale). - -- espace d’état : \(Y=(S,M,\mathcal{I},\mathcal{R})\) (état + registre \(M\) transmissible) ; -- projection : \(q:X\to A\) pour la lecture en classes, et \(\Pi_S(Y)=S\) si l’on ne conserve que la séquence ; -- statut markovien : markovien sur \(Y\) si les mises à jour portent sur \((S,M)\) ; non markovien en général sur une projection omettant \(M\) ; -- type : mémoire‑structure (registre transmissible), pas mémoire‑état. +> **Déclaration M0** (section — transmission structurale). +> +> - projection : \(q : X\to A\) pour la lecture en classes, et \(\Pi\_S(Y)=S\) si l’on ne conserve que la séquence +> - statut markovien : markovien sur \(Y\) si les mises à jour portent sur \((S,M)\)\)) ; non markovien en général sur une projection omettant \(((M\) +> - type : mémoire‑structure (registre transmissible), pas mémoire‑état. ### Registre de collisions comme objet transmissible -Fixons une projection \(q:X\to A\), permettant de remplacer les états par leurs classes \(a\in A\). Considérons une trajectoire \((x_t)\) et la trajectoire projetée \((a_t)\) avec \(a_t=q(x_t)\). +Fixons une projection \(q : X\to A\), permettant de remplacer les états par leurs classes \(a\in A\). Considérons une trajectoire \((x\_t)\)\)) et la trajectoire projetée \((((a\_t)\)\)) avec \(((a\_t=q(x\_t)\)\)). -On définit un registre de cooccurrences (mémoire purement combinatoire) : -\[ -M(a,b)\;=\;\#\{t:\ a_t=a,\ a_{t+1}=b\}, +On définit un registre de cooccurrences (mémoire purement combinatoire) : \[ +M(a,b)\ ; =\ ; \#\{t : \ a_t=a,\ a_{t+1}=b\}, \] -ou, plus généralement, une version multi‑distance \(M_\Delta(a,b)=\#\{t:\ a_t=a,\ a_{t+\Delta}=b\}\). +ou, plus généralement, une version multi‑distance \(((M\_\Delta(a,b)=\#\{t : \ a\_t=a,\ a\_{t+\Delta}=b\}\). -Ce registre encode l’histoire **au niveau des classes**, non des identités fines : il est invariant à l’intérieur des fibres, donc compatible avec le principe même de compression. +Ce registre encode l’histoire **au niveau des classes**, non des identités fines : il est invariant à l’intérieur des fibres, donc compatible avec le principe même de compression. ### Génotype minimal comme quadruplet formel -On définit un objet transmissible \(\Gamma\) (sans interprétation biologique requise) : -\[ +On définit un objet transmissible \(\Gamma\) (sans interprétation biologique requise) : \[ \Gamma=(S, M, \mathcal{I}, \mathcal{R}) \] -où : +où : -- \(S\in A^{n}\) est une séquence de classes (trace compressée) ; -- \(M\) est un registre de cooccurrences comme ci‑dessus ; -- \(\mathcal{I}\) est un ensemble d’invariants dérivés (par exemple, attracteur(s) dans l’espace des classes, période, temps de convergence dans l’espace quotient) ; +- \(S\in A^{n}\) est une séquence de classes (trace compressée) + +- \(M\) est un registre de cooccurrences comme ci‑dessus +- \(\mathcal{I}\) est un ensemble d’invariants dérivés (par exemple, attracteur(s) dans l’espace des classes, période, temps de convergence dans l’espace quotient) - \(\mathcal{R}\) est un ensemble de règles admissibles de transformation (mutations de \(S\), mises à jour de \(M\), contraintes de compatibilité). ### Gamète comme sous‑structure (fragment) et recombinaison On définit un opérateur de fragmentation \[ -\mathrm{Frag}(\Gamma) = \gamma = (S_\gamma, M_\gamma, \mathcal{I}_\gamma), +\mathrm{Frag}(\Gamma) = \gamma = (S\_\gamma, M\_\gamma, \mathcal{I}*\gamma), \] -où \(S_\gamma\) est une sous‑séquence (ou un ensemble de segments), \(M_\gamma\) est la restriction correspondante (sous‑matrice), et \(\mathcal{I}_\gamma\) les invariants associés. +où \(S*\gamma\) est une sous‑séquence (ou un ensemble de segments), \(M\_\gamma\) est la restriction correspondante (sous‑matrice), et \(\mathcal{I}\_\gamma\) les invariants associés. -Une recombinaison minimale est une opération de somme/concaténation sous contraintes : -\[ -\Gamma'=\mathrm{Recombine}(\gamma_1,\gamma_2;\Theta), +Une recombinaison minimale est une opération de somme/concaténation sous contraintes : \[ +\Gamma'=\mathrm{Recombine}(\gamma\_1,\gamma\_2 ; \Theta), \] où \(\Theta\) fixe les règles d’assemblage et de conflit. ### Condition formelle pour accumulation historique -Les objets précédents restent stériles si l’on autorise des boucles « généalogiques » illimitées : l’accumulation exige une flèche structurelle (chapitre 4). Dans la logique interne, une condition minimale est l’acyclicité du graphe d’événements (DAG) ou l’existence d’une ressource consommée monotone interdisant les retours exacts. +Les objets précédents restent stériles si l’on autorise des boucles « généalogiques » illimitées : l’accumulation exige une flèche structurelle (chapitre 4). Dans la logique interne, une condition minimale est l’acyclicité du graphe d’événements (DAG) ou l’existence d’une ressource consommée monotone interdisant les retours exacts. -À ce point, Landauer fournit un ancrage de consensus : lorsqu’une implémentation réalise effectivement une opération d’effacement logique (fonction sans inverse univoque) dans un cadre thermodynamique donné, un coût minimal de dissipation borne l’opération ; cela rend plausible (au niveau des implémentations) la non‑gratuité des compressions destructives. +À ce point, Landauer fournit un ancrage de consensus : lorsqu’une implémentation réalise effectivement une opération d’effacement logique (fonction sans inverse univoque) dans un cadre thermodynamique donné, un coût minimal de dissipation borne l’opération ; cela rend plausible (au niveau des implémentations) la non‑gratuité des compressions destructives. -Diagramme minimal (état → fibre → classe → registre → fragments transmissibles) : +Diagramme minimal (état → fibre → classe → registre → fragments transmissibles) : ```mermaid flowchart TD x["État x ∈ X"] -->|q| a["Classe a ∈ A"] - a --> Fa["Fibre F_a = q^{-1}(a)"] + a --> Fa["Fibre F\\_a = q^{-1}(a)"] a --> S["Trace S ∈ A^n"] S --> M["Cooccurrences M(a,b)"] subgraph Gamma["Registre Γ=(S,M,ℐ,ℛ)"] @@ -1544,66 +1554,65 @@ flowchart TD Cette section se limite à des implications déduites des mathématiques ci‑dessus (sous les hypothèses explicitement posées). **Disponibilité de classes de formes.** -Dès qu’une description effective est bornée (alphabet de classes \(A\), code plus court, quotient par symétries), la non‑injectivité est structurellement imposée (Proposition 2) : des classes apparaissent alors sous ces hypothèses. Ces classes sont des « formes » au sens minimal : des ensembles d’états indiscernables sous la projection considérée. +Dès qu’une description effective est bornée (alphabet de classes \(A\), code plus court, quotient par symétries), la non‑injectivité est structurellement imposée (Proposition 2) : des classes apparaissent alors sous ces hypothèses. Ces classes sont des « formes » au sens minimal : des ensembles d’états indiscernables sous la projection considérée. **Renforcement de stabilité par projection.** -Une projection idempotente \(P=r\circ q\) crée un sous‑ensemble invariant \(\mathrm{Im}(P)\) atteint en temps borné (Proposition 4). Donc, indépendamment de toute physique, la compression peut produire des régimes stables au niveau des représentants, et plus généralement au niveau du quotient (attracteurs de second ordre). +Une projection idempotente \(P=r\circ q\) crée un sous‑ensemble invariant \(\mathrm{Im}(P)\)\)) atteint en temps borné (Proposition 4). Donc, indépendamment de toute physique, la compression peut produire des régimes stables au niveau des représentants, et plus généralement au niveau du quotient (attracteurs de second ordre). **Condition de possibilité de canaux d’héritage.** -Un canal d’héritage au sens strictement formel exige (i) une représentation stable et transmissible (classe/registre), et (ii) une flèche empêchant le recyclage parfait des événements. Le premier point est fourni par la partition et par des invariants de quotient; le second relève des mécanismes d’irréversibilité (non‑injectivité, monotones) établis au chapitre 4. +Un canal d’héritage au sens strictement formel exige (i) une représentation stable et transmissible (classe/registre), et (ii) une flèche empêchant le recyclage parfait des événements. Le premier point est fourni par la partition et par des invariants de quotient ; le second relève des mécanismes d’irréversibilité (non‑injectivité, monotones) établis au chapitre 4. -## Analyse philosophique finale : ontologie de la compression, limites et interdits +## Analyse philosophique finale : ontologie de la compression, limites et interdits **Nécessité ontologique minimale.** -Dans un système défini par transformations admissibles, l’identité fine n’est pas une primitive garantie : elle est un luxe qui exige injectivité ou traçabilité complète. Or, toute contrainte de description ou de symétrie impose des quotients. Ainsi, « persister » à niveau donné signifie, le plus souvent, persister comme **classe** (fibre) plutôt que comme individu. +Dans un système défini par transformations admissibles, l’identité fine n’est pas une primitive garantie : elle est un luxe qui exige injectivité ou traçabilité complète. Or, toute contrainte de description ou de symétrie impose des quotients. Ainsi, « persister » à niveau donné signifie, le plus souvent, persister comme **classe** (fibre) plutôt que comme individu. **Compression n’implique ni finalité ni sémantique.** -Le vocabulaire de « compression » peut suggérer un acte, un but, une optimisation. Ici, il ne désigne qu’une relation structurale : une factorisation \(X\to A\) entraînant des collisions. Les entropies et complexités ne qualifient pas un sens, mais une quantité de distinction possible (Shannon) ou une longueur minimale de description (Kolmogorov). +Le vocabulaire de « compression » peut suggérer un acte, un but, une optimisation. Ici, il ne désigne qu’une relation structurale : une factorisation \(((X\to A\) entraînant des collisions. Les entropies et complexités ne qualifient pas un sens, mais une quantité de distinction possible (Shannon) ou une longueur minimale de description (Kolmogorov). **Ce que le formalisme interdit à ce stade.** -- Il interdit d’inférer une « meilleure » compression : sans fonction objectif, « mieux » n’a pas de sens mathématique. -- Il interdit d’identifier une classe à une essence : une classe est relative à une projection \(q\). Changer \(q\) change l’ontologie des formes. -- Il interdit toute téléologie cachée : un quotient peut être imposé par une symétrie, par une limitation de code, ou par une observation; aucune de ces raisons n’est une intention. +- Il interdit d’inférer une « meilleure » compression : sans fonction objectif, « mieux » n’a pas de sens mathématique. +- Il interdit d’identifier une classe à une essence : une classe est relative à une projection \(q\). Changer \(q\) change l’ontologie des formes. +- Il interdit toute téléologie cachée : un quotient peut être imposé par une symétrie, par une limitation de code, ou par une observation ; aucune de ces raisons n’est une intention. -**Limite structurale : pluralité des niveaux.** -La coexistence de plusieurs projections \(q_1,q_2,\dots\) implique une pluralité de mondes de classes. La philosophie rigoureuse qui suit de ce fait est une philosophie stratifiée : il n’existe pas « la » classe absolue sans spécification du niveau de description. Ce résultat n’est pas un relativisme : c’est la conséquence logique que l’équivalence est toujours définie par une relation (ou un observateur formel) et non par l’objet nu. +**Limite structurale : pluralité des niveaux.** +La coexistence de plusieurs projections \(q\_1,q\_2,\dots\) implique une pluralité de mondes de classes. La philosophie rigoureuse qui suit de ce fait est une philosophie stratifiée : il n’existe pas « la » classe absolue sans spécification du niveau de description. Ce résultat n’est pas un relativisme : c’est la conséquence logique que l’équivalence est toujours définie par une relation (ou un observateur formel) et non par l’objet nu. **Transition logique vers les chapitres suivants.** -Ce chapitre a montré que la non‑injectivité contraint le système à se décrire par classes, et que la dynamique peut se factoriser sur ces classes. Le chapitre suivant (classes d’équivalence et invariants) pourra donc : (i) stabiliser les constructions de quotient, (ii) étudier la persistance relative des invariants sous transformation, et (iii) préparer la grammaire compositionnelle des formes (chapitres 6–8). +Ce chapitre a montré que la non‑injectivité contraint le système à se décrire par classes, et que la dynamique peut se factoriser sur ces classes. Le chapitre suivant (classes d’équivalence et invariants) pourra donc : (i) stabiliser les constructions de quotient, (ii) étudier la persistance relative des invariants sous transformation, et (iii) préparer la grammaire compositionnelle des formes (chapitres 6–8). --- -# Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique +## Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique {#chapitre-6-reproduction-partielle-recombinaison-et-heritage-morphologique} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 6 -Hypothèses (H). +**Hypothèses (H).** -- objets discrets transmissibles (alphabet fini, séquences) et opérations admissibles (fragmentation, recombinaison, réparation) ; +- objets discrets transmissibles (alphabet fini, séquences) et opérations admissibles (fragmentation, recombinaison, réparation) - orientation des événements lorsqu’une flèche généalogique est mobilisée (consommation non récupérable déclarée). -Résultats (E). +**Résultats (E).** -- définition d’un registre transmissible \(\Gamma\) et de la reproduction partielle comme transmission d’invariants sous perte ; +- définition d’un registre transmissible \(\Gamma\) et de la reproduction partielle comme transmission d’invariants sous perte - bornes élémentaires sur la perte induite par recombinaison et conditions de stabilité de certains invariants. -Statut. +**Statut.** - noyau ensembliste ; quantifications (entropies, distances) restent optionnelles et indexées. -Déclaration M0 (chapitre 6 — héritage). +> **Déclaration M0** (chapitre 6 — héritage). +> +> - projection : \(\Pi\_S(Y)=S\) si l’on ne conserve que la séquence +> - statut markovien : markovien sur \(Y\) si l’évolution est formulée sur \(\Gamma\) ; non markovien en général sur \(\Pi\_S(Y)\)\)) si \(((M\) est omis +> - type : mémoire‑structure (registre transmissible), pas mémoire‑état. -- espace d’état : \(Y=\Gamma=(S,M,A,R)\) (séquence + registre transmissible \(M\)) ; -- projection : \(\Pi_S(Y)=S\) si l’on ne conserve que la séquence ; -- statut markovien : markovien sur \(Y\) si l’évolution est formulée sur \(\Gamma\) ; non markovien en général sur \(\Pi_S(Y)\) si \(M\) est omis ; -- type : mémoire‑structure (registre transmissible), pas mémoire‑état. - -## Résumé exécutif +## Résumé exécutif — Ch. 6 Ce chapitre introduit une famille d’opérations formelles — **fragmentation**, **recombinaison**, **épissage** et **réparation** — qui permettent de définir, sans hypothèse sémantique ni agentive, une **transmission partielle** de structures discrètes à travers une succession d’événements. La construction s’appuie exclusivement sur des primitives non sémantiques déjà admises dans l’ouvrage (configurations, transformations, itération et ordre induit), et prolonge la non‑injectivité et les classes (chapitres précédents) par une notion de **registre transmissible**. -Le noyau mathématique est la définition d’un **génotype abstrait** \(\Gamma=(S,M,A,R)\) : (i) une séquence \(S\) sur un alphabet fini, (ii) une mémoire \(M\) de cooccurrences (registre de collisions passées au niveau des classes), (iii) un ensemble \(A\) d’invariants calculés, (iv) un ensemble \(R\) de règles admissibles (mutations, épissage, réparation). Un **gamète** \(\gamma\) est une **sous‑structure** obtenue par fragmentation de \(\Gamma\); la reproduction se formalise comme la composition d’un opérateur de fragmentation avec un opérateur de recombinaison produisant un nouvel objet \(\Gamma'\). On établit des propositions élémentaires : conditions suffisantes de **transmission fidèle** d’une sous‑structure (segments invariants), bornes sur la **perte d’information** induite par la recombinaison (en termes de cardinalités de préimages ou d’entropie conditionnelle), et conditions de **stabilité** de certains invariants \(A\) sous recombinaison (homomorphismes de monoïdes). +Le noyau mathématique est la définition d’un **génotype abstrait** \(\Gamma=(S,M,A,R)\)\)) : (i) une séquence \(((S\) sur un alphabet fini, (ii) une mémoire \(M\) de cooccurrences (registre de collisions passées au niveau des classes), (iii) un ensemble \(A\) d’invariants calculés, (iv) un ensemble \(R\) de règles admissibles (mutations, épissage, réparation). Un **gamète** \(\gamma\) est une **sous‑structure** obtenue par fragmentation de \(\Gamma\) ; la reproduction se formalise comme la composition d’un opérateur de fragmentation avec un opérateur de recombinaison produisant un nouvel objet \(\Gamma'\). On établit des propositions élémentaires : conditions suffisantes de **transmission fidèle** d’une sous‑structure (segments invariants), bornes sur la **perte d’information** induite par la recombinaison (en termes de cardinalités de préimages ou d’entropie conditionnelle), et conditions de **stabilité** de certains invariants \(A\) sous recombinaison (homomorphismes de monoïdes). La flèche du temps **généalogique** est obtenue sans postuler un temps externe : elle résulte de (i) la structure d’ordre induite (chapitre 4) et (ii) la **consommation de ressources non réutilisables** associées aux événements reproductifs (gamètes‑jetons), rendant la généalogie un **DAG** (graphe orienté acyclique). La conclusion reste strictement déduite : dans tout modèle discret capable de (a) compression en classes, (b) fragmentation et recombinaison, et (c) orientation par consommation, on obtient des conditions minimales d’**accumulation historique** de formes transmissibles, sans présupposer finalité. Du point de vue philosophique, le chapitre fonde une ontologie de l’héritage comme **persistance de contraintes** (classes et cooccurrences) et explicite ce que le formalisme interdit : toute lecture intentionnelle, tout « but » de reproduction, et toute identité forte des individus. @@ -1615,43 +1624,43 @@ On travaille dans un cadre discret, compatible avec les chapitres antérieurs : **A1 (génotype abstrait).** Un individu est muni d’un quadruplet \[ -\Gamma \;=\; (S,M,A,R) +\Gamma \ ; =\ ; (S,M,A,R) \] où : - \(S \in \mathcal{L}^\*\) est une séquence (trace) de classes. -- \(M\) est une mémoire de collisions passées au niveau des classes, représentée minimalement comme un comptage de cooccurrences : - \[ - M:\mathcal{L}\times \mathcal{L}\to \mathbb{N},\qquad - M(a,b)=\#\{t:\ S_t=a,\ S_{t+1}=b\}. + +- \(M\) est une mémoire de collisions passées au niveau des classes, représentée minimalement comme un comptage de cooccurrences : \[ + M : \mathcal{L}\times \mathcal{L}\to \mathbb{N},\qquad + M(a,b)=\#\{t : \ S\_t=a,\ S\_{t+1}=b\}. \] - (Les variantes multi‑échelles \(M_\Delta\) sont possibles, mais non nécessaires ici.) -- \(A\) est un ensemble d’invariants calculés sur \((S,M)\) (p. ex. statistiques, attracteurs dans un quotient dynamique, longueurs de cycles), dont le statut est purement mathématique. -- \(R\) est un ensemble de règles admissibles (opérateurs) sur \((S,M,A)\) : mutations permises, épissage, réparation, normalisation. + (Les variantes multi‑échelles \(M\_\Delta\) sont possibles, mais non nécessaires ici.) +- \(A\) est un ensemble d’invariants calculés sur \((S,M)\)\)) (p. ex. statistiques, attracteurs dans un quotient dynamique, longueurs de cycles), dont le statut est purement mathématique. +- \(((R\) est un ensemble de règles admissibles (opérateurs) sur \((S,M,A)\)\)) : mutations permises, épissage, réparation, normalisation. **A2 (gamète).** Un gamète est une sous‑structure \[ -\gamma \;=\; (S_\gamma, M_\gamma, A_\gamma) +\gamma \ ; =\ ; (S_\gamma, M_\gamma, A_\gamma) \] -où \(S_\gamma\) est un sous‑mot (ou un multi‑segment) extrait de \(S\), \(M_\gamma\) est une restriction correspondante de la mémoire \(M\), et \(A_\gamma\) regroupe les invariants calculables localement à partir de \((S_\gamma,M_\gamma)\). +où \(((S\_\gamma\) est un sous‑mot (ou un multi‑segment) extrait de \(S\), \(M\_\gamma\) est une restriction correspondante de la mémoire \(M\), et \(A\_\gamma\) regroupe les invariants calculables localement à partir de \((S\_\gamma,M\_\gamma)\)\)). **A3 (reproduction partielle).** Un événement reproductif est une application \[ -\mathrm{Reproduce}:\gamma_1\times \gamma_2 \longrightarrow \Gamma' +\mathrm{Reproduce} : \gamma_1\times \gamma_2 \longrightarrow \Gamma' \] -où \(\Gamma'=(S',M',A',R')\) est construit à partir de \(\gamma_1,\gamma_2\) et de règles \(R\) (éventuellement avec hasard). +où \(((\Gamma'=(S',M',A',R')\)\)) est construit à partir de \(((\gamma\_1,\gamma\_2\) et de règles \(R\) (éventuellement avec hasard). **A4 (épissage).** Un épissage est une application de sélection‑concaténation \[ -\pi:\mathcal{L}^\*\to (\mathcal{L}^\*)^k +\pi : \mathcal{L}^\*\to (\mathcal{L}^\*)^k \quad \text{puis}\quad -\mathrm{Concat}:(\mathcal{L}^\*)^k\to \mathcal{L}^\*, +\mathrm{Concat} : (\mathcal{L}^\*)^k\to \mathcal{L}^\*, \] où \(\pi\) choisit des segments selon des marqueurs (positions, motifs), et \(\mathrm{Concat}\) les recolle suivant un ordre imposé. **A5 (réparation).** Une réparation est une application \[ -\rho:\mathcal{L}^\*\to \mathcal{L}^\* +\rho : \mathcal{L}^\*\to \mathcal{L}^\* \] (ou sur \(\Gamma\)) qui projette un objet potentiellement non admissible dans une sous‑classe admissible définie par des contraintes \(R\). Elle n’a pas à être injective. @@ -1665,47 +1674,42 @@ On explicite maintenant trois opérateurs fondamentaux, puis on étudie leurs pr Un opérateur de fragmentation est une application \[ -\mathrm{Frag}:\Gamma\to \mathcal{P}(\Gamma)\ \text{ou}\ \Gamma\to \gamma, +\mathrm{Frag} : \Gamma\to \mathcal{P}(\Gamma)\)\) \text{ou}\ \Gamma\to \gamma, \] selon qu’on produit un ensemble de fragments ou un fragment unique. -**Version segment unique.** Pour un couple \((i,j)\) avec \(1\le i\le j\le |S|\), +**Version segment unique.** Pour un couple \((((i,j)\)\)) avec \(((1\le i\le j\le |S|\), \[ -S_\gamma = S[i:j]. +S\_\gamma = S[i : j]. \] -La mémoire restreinte peut être définie par le comptage interne aux transitions contenues dans \([i:j]\) : -\[ -M_\gamma(a,b)=\#\{t\in[i,j-1]: S_t=a,\ S_{t+1}=b\}. +La mémoire restreinte peut être définie par le comptage interne aux transitions contenues dans \([i : j]\) : \[ +M\_\gamma(a,b)=\#\{t\in[i,j-1] : S\_t=a,\ S\_{t+1}=b\}. \] -**Version multi‑segments (épissage).** On choisit une famille d’intervalles disjoints \(\{[i_p,j_p]\}_{p=1}^k\). On pose +**Version multi‑segments (épissage).** On choisit une famille d’intervalles disjoints \(\{[i\_p,j\_p]\}\_{p=1}^k\). On pose \[ -S_\gamma = S[i_1:j_1]\ \Vert\ S[i_2:j_2]\ \Vert\ \cdots\ \Vert\ S[i_k:j_k], +S*\gamma = S[i\_1 : j\_1]\ \Vert\ S[i\_2 : j\_2]\ \Vert\ \cdots\ \Vert\ S[i\_k : j\_k], \] -où \(\Vert\) est la concaténation, et \(M_\gamma\) est la somme des comptages internes à chaque segment, éventuellement augmentée de transitions « de jonction » si on les considère comme admissibles. +où \(\Vert\) est la concaténation, et \(M\_\gamma\) est la somme des comptages internes à chaque segment, éventuellement augmentée de transitions « de jonction » si on les considère comme admissibles. ### Recombinaison On formalise la recombinaison comme un opérateur \[ -\mathrm{Recombine}:\gamma_1\times \gamma_2 \to \Gamma'. +\mathrm{Recombine} : \gamma\_1\times \gamma\_2 \to \Gamma'. \] -Le cas minimal est la recombinaison _par concaténation_ : -\[ -S' = S_{\gamma_1}\ \Vert\ S_{\gamma_2}. +Le cas minimal est la recombinaison *par concaténation* : \[ +S' = S\_{\gamma\_1}\ \Vert\ S\_{\gamma\_2}. \] Une recombinaison plus proche des modèles classiques de « crossover » est définie par un **masque** \(m\in\{1,2\}^n\) indiquant, pour chaque position, le parent source (crossover uniforme), ou par une coupure \(k\) (crossover à un point). Ces opérateurs sont standards en modélisation algorithmique de recombinaison ; ils capturent mathématiquement le fait discuté en génétique évolutive que la reproduction sexuée implique **réassortiment** et **recombinaison** de segments héréditaires. -Pour la mémoire \(M'\), trois constructions minimales (toutes admissibles) existent : - -1. **Héritage additif restreint.** +Pour la mémoire \(M'\), trois constructions minimales (toutes admissibles) existent : 1. **Héritage additif restreint.** \[ - M' = M_{\gamma_1} + M_{\gamma_2} + M' = M\_{\gamma\_1} + M\_{\gamma\_2} \] (somme point‑par‑point), puis éventuelle mise à jour des transitions sur les jonctions. -2. **Héritage par projection.** \(M'\) est recomputée à partir de \(S'\) par définition : - \[ - M'(a,b)=\#\{t:\ S'_t=a,\ S'_{t+1}=b\}. +2. **Héritage par projection.** \(M'\) est recomputée à partir de \(S'\) par définition : \[ + M'(a,b)=\#\{t : \ S'\_t=a,\ S'\_{t+1}=b\}. \] 3. **Héritage mixte.** \(M'\) combine (1) et (2), en conservant certains compteurs « historiques » tout en recalculant les transitions nouvellement créées. @@ -1714,18 +1718,18 @@ Pour la mémoire \(M'\), trois constructions minimales (toutes admissibles) exis La réparation est un opérateur de projection (souvent non injectif) visant à satisfaire des contraintes \(R\) (par exemple interdictions de motifs, bornes sur longueur, compatibilité de marqueurs). La réparation est l’analogue formel d’une étape de « purification/normalisation » : elle peut être idempotente si elle est une projection sur un sous‑ensemble admissible. **Proposition 1 (idempotence de la réparation sous projection).** -Si \(\rho\) vérifie \(\rho(x)=x\) pour tout \(x\) admissible (fixé) et \(\rho(x)\) admissible pour tout \(x\), alors \(\rho\circ \rho = \rho\). +Si \(\rho\) vérifie \(\rho(x)=x\) pour tout \(x\) admissible (fixé) et \(\rho(x)\)\)) admissible pour tout \(((x\), alors \(\rho\circ \rho = \rho\). -_Preuve._ \(\rho(x)\) est admissible, donc \(\rho(\rho(x))=\rho(x)\). □ +**Preuve.** \(\rho(x)\)\)) est admissible, donc \(((\rho(\rho(x))=\rho(x)\)\)). □ -Cette structure est la même que celle d’un projecteur de compression (chapitre 5), mais appliquée ici au niveau des règles \(R\). +Cette structure est la même que celle d’un projecteur de compression (chapitre 5), mais appliquée ici au niveau des règles \(((R\). ### Propriétés algébriques élémentaires On note \(\oplus\) une recombinaison sur les séquences (p. ex. concaténation). -- **Associativité (concaténation).** \((u\Vert v)\Vert w = u\Vert (v\Vert w)\). - Donc l’opérateur « recombiner par concaténation » est associatif sur \(S\). +- **Associativité (concaténation).** \((u\Vert v)\)\)Vert w = u\Vert (v\Vert w)\). + Donc l’opérateur « recombiner par concaténation » est associatif sur \(((S\). - **Non‑commutativité.** \(u\Vert v \neq v\Vert u\) en général : la recombinaison ordonnée n’est pas commutative. - **Commutativité éventuelle.** Si l’on définit la recombinaison comme multiensemble de segments (ordre oublié), alors elle devient commutative mais perd de l’information (projection supplémentaire). @@ -1741,78 +1745,73 @@ On formalise une « sous‑structure » comme un sous‑objet \(\sigma\) (typiqu Un segment \(\sigma\in\mathcal{L}^\*\) est transmis fidèlement de \(S\) à \(S'\) si \(\sigma\) apparaît comme sous‑mot contigu de \(S'\) et correspond à un segment extrait sans modification. **Proposition 2 (transmission fidèle sous épissage conservatif).** -Supposons : - -1) \(\mathrm{Frag}\) extrait un segment \(\sigma=S[i:j]\) sans altération, +Supposons : 1) \(\mathrm{Frag}\) extrait un segment \(\sigma=S[i : j]\) sans altération, 2) \(\mathrm{Recombine}\) insère \(\sigma\) comme bloc contigu dans \(S'\), 3) \(\rho\) n’altère pas \(\sigma\) (i.e. \(\rho\) agit en dehors de ses positions). Alors \(\sigma\) est transmis fidèlement. -_Preuve._ Par (1) \(\sigma\) est présent dans \(S_{\gamma}\). Par (2) \(\sigma\) apparaît bloc contigu dans \(S'\). Par (3) la réparation ne le modifie pas. □ +**Preuve.** Par (1) \(\sigma\) est présent dans \(S\_{\gamma}\). Par (2) \(\sigma\) apparaît bloc contigu dans \(S'\). Par (3) la réparation ne le modifie pas. □ ### Métriques d’héritabilité -On introduit deux métriques compatibles avec les objets \((S,M)\), sans emprunter au vocabulaire biologique (où « héritabilité » a un sens statistique spécifique, historiquement ancré dans la génétique quantitative de Fisher). +On introduit deux métriques compatibles avec les objets \((S,M)\)\)), sans emprunter au vocabulaire biologique (où « héritabilité » a un sens statistique spécifique, historiquement ancré dans la génétique quantitative de Fisher). **Métrique sur séquences.** -On prend une distance d’édition (Levenshtein) \(d_S(S,S')\) ou une distance de Hamming si les longueurs sont fixées. +On prend une distance d’édition (Levenshtein) \(((d\_S(S,S')\)\)) ou une distance de Hamming si les longueurs sont fixées. **Métrique sur mémoires.** -On définit une distance \(L^1\) sur matrices de cooccurrence : -\[ -d_M(M,M')=\sum_{a,b\in\mathcal{L}} |M(a,b)-M'(a,b)|. +On définit une distance \(((L^1\) sur matrices de cooccurrence : \[ +d\_M(M,M')=\sum\_{a,b\in\mathcal{L}} |M(a,b)-M'(a,b)|. \] **Définition (indice d’héritabilité abstrait).** -Pour des poids \(\lambda\ge 0\) et une normalisation \(Z>0\) : -\[ -h(\Gamma,\Gamma') \;=\; 1 - \frac{d_M(M,M') + \lambda\, d_S(S,S')}{Z}. +Pour des poids \(\lambda\ge 0\) et une normalisation \(Z>0\) : \[ +h(\Gamma,\Gamma') \ ; =\ ; 1 - \frac{d\_M(M,M') + \lambda\, d\_S(S,S')}{Z}. \] On choisit \(Z\) comme borne supérieure théorique (ou empirique) pour garantir \(h\in[0,1]\). ### Bornes minimales sur la perte d’information en recombinaison -Ici, « information » est prise au sens formel (Shannon ou combinatoire), sans sémantique. Lorsque la recombinaison est un calcul déterministe ou stochastique, elle induit une application (ou noyau) \((\gamma_1,\gamma_2)\mapsto \Gamma'\), généralement **non injective**. +Ici, « information » est prise au sens formel (Shannon ou combinatoire), sans sémantique. Lorsque la recombinaison est un calcul déterministe ou stochastique, elle induit une application (ou noyau) \((\gamma\_1,\gamma\_2)\)\)mapsto \Gamma'\), généralement **non injective**. **Approche combinatoire (préimages).** -Pour une recombinaison déterministe \(g\), définissons la multiplicité : -\[ -\mu(\Gamma') = \#\{(\gamma_1,\gamma_2): g(\gamma_1,\gamma_2)=\Gamma'\}. +Pour une recombinaison déterministe \(((g\), définissons la multiplicité : \[ +\mu(\Gamma') = \#\{(\gamma\_1,\gamma\_2) : g(\gamma\_1,\gamma\_2)=\Gamma'\}. \] -Alors \(\log \mu(\Gamma')\) est une mesure de « perte d’identifiabilité » : plus \(\mu\) est grand, moins on peut reconstruire l’origine à partir du résultat. +Alors \(\log \mu(\Gamma')\)\)) est une mesure de « perte d’identifiabilité » : plus \(((\mu\) est grand, moins on peut reconstruire l’origine à partir du résultat. **Proposition 3 (borne inférieure triviale).** -Si \(g\) n’est pas injective, il existe \(\Gamma'\) tel que \(\mu(\Gamma')\ge 2\), donc \(\log\mu(\Gamma')\ge 1\) bit (en base 2). +Si \(g\) n’est pas injective, il existe \(\Gamma'\) tel que \(\mu(\Gamma')\)\)ge 2\), donc \(((\log\mu(\Gamma')\)\)ge 1\) bit (en base 2). -_Preuve._ Non‑injectivité \(\Rightarrow\) existence de deux antécédents distincts menant au même résultat. □ +**Preuve.** Non‑injectivité \(((\Rightarrow\) existence de deux antécédents distincts menant au même résultat. □ **Approche Shannon (entropie conditionnelle).** -Soient des variables aléatoires \((\Gamma_1,\Gamma_2)\) (parents) et \(\Gamma'\) (descendant) liées par un mécanisme de recombinaison. Shannon a montré que toute fonction déterministe \(Y=q(X)\) ne peut pas augmenter l’information au sens entropique : l’entropie ne croît pas sous application déterministe et les décompositions par entropie conditionnelle quantifient la perte. -En particulier, si \(\Gamma'\) est une fonction (déterministe) de \((\Gamma_1,\Gamma_2)\), alors +Soient des variables aléatoires \((\Gamma\_1,\Gamma\_2)\)\)) (parents) et \(((\Gamma'\) (descendant) liées par un mécanisme de recombinaison. Shannon a montré que toute fonction déterministe \(Y=q(X)\)\)) ne peut pas augmenter l’information au sens entropique : l’entropie ne croît pas sous application déterministe et les décompositions par entropie conditionnelle quantifient la perte. +En particulier, si \(((\Gamma'\) est une fonction (déterministe) de \((\Gamma\_1,\Gamma\_2)\)\)), alors \[ H(\Gamma') \le H(\Gamma_1,\Gamma_2), \qquad -H(\Gamma_1,\Gamma_2\,|\,\Gamma') = H(\Gamma_1,\Gamma_2)-I(\Gamma_1,\Gamma_2;\Gamma'). +H(\Gamma_1,\Gamma_2\,|\,\Gamma') = H(\Gamma_1,\Gamma_2)-I(\Gamma_1,\Gamma_2 ; \Gamma'). \] -La quantité \(H(\Gamma_1,\Gamma_2\,|\,\Gamma')\) mesure l’ambiguïté résiduelle (origine non reconstructible). +La quantité \(((H(\Gamma\_1,\Gamma\_2\,|\,\Gamma')\)\)) mesure l’ambiguïté résiduelle (origine non reconstructible). -Lorsque la recombinaison implique un paramètre interne \(K\) (point de coupure, masque), le mécanisme se formalise comme \(\Gamma'=g(\Gamma_1,\Gamma_2,K)\). Ignorer \(K\) revient à projeter (compression supplémentaire), augmentant en général l’ambiguïté sur les origines. +Lorsque la recombinaison implique un paramètre interne \(((K\) (point de coupure, masque), le mécanisme se formalise comme \(\Gamma'=g(\Gamma\_1,\Gamma\_2,K)\)\)). Ignorer \(((K\) revient à projeter (compression supplémentaire), augmentant en général l’ambiguïté sur les origines. ### Stabilité d’invariants \(A\) sous recombinaison On formalise une classe d’invariants « composables ». **Définition (invariant homomorphe de concaténation).** -Soit \((\mathcal{M},\oplus)\) un monoïde commutatif. Une application \(I:\mathcal{L}^\*\to \mathcal{M}\) est un homomorphisme si +Soit \((\mathcal{M},\oplus)\)\)) un monoïde commutatif. Une application \(((I : \mathcal{L}^\*\to \mathcal{M}\) est un homomorphisme si \[ -I(u\Vert v)=I(u)\oplus I(v). +I(u\Vert v)=I(u)\)\)oplus I(v). \] Exemples : vecteur de comptages de lettres (addition), comptage de digrammes internes (avec correction de jonction). **Proposition 4 (stabilité composable).** -Si \(I\) est un homomorphisme et si \(S'=S_{\gamma_1}\Vert S_{\gamma_2}\), alors \(I(S')=I(S_{\gamma_1})\oplus I(S_{\gamma_2})\). Donc \(I\) est stable sous recombinaison par concaténation (au sens « se compose sans perte »). +Si \(((I\) est un homomorphisme et si \(S'=S\_{\gamma\_1}\Vert S\_{\gamma\_2}\), alors \(I(S')=I(S\_{\gamma\_1})\)\)oplus I(S_{\gamma_2})\). Donc \(((I\) est stable sous recombinaison par concaténation (au sens « se compose sans perte »). -_Preuve._ Par définition d’homomorphisme. □ +**Preuve.** Par définition d’homomorphisme. □ Cette proposition donne une condition claire sur le type d’invariants qu’on a le droit d’attendre « stables » sous recombinaison : ceux qui dépendent additivement des fragments (ou qui se corrigent localement aux jonctions). @@ -1822,9 +1821,7 @@ Aucune hypothèse « adaptative » n’est requise. On décrit uniquement des m ### Modèles de sélection de fragments et épissage -On fixe une longueur \(|S|=n\). Trois familles standard (abstraites) : - -1) **épissage à marqueurs** : sélectionner des segments entre marqueurs (positions \(i,j\) satisfaisant une contrainte). +On fixe une longueur \(|S|=n\). Trois familles standard (abstraites) : 1) **épissage à marqueurs** : sélectionner des segments entre marqueurs (positions \(i,j\) satisfaisant une contrainte). 2) **épissage aléatoire** : choisir \(k\) intervalles disjoints au hasard (distribution sur tuples d’intervalles). 3) **épissage pondéré** : choisir des segments avec probabilité proportionnelle à un score local (fonction \(w\) sur positions), sans interprétation. @@ -1832,8 +1829,9 @@ On fixe une longueur \(|S|=n\). Trois familles standard (abstraites) : Deux modèles classiques : -- **crossover à un point** : choisir \(k\in\{1,\dots,n-1\}\), produire \(S' = S_1[1:k]\Vert S_2[k+1:n]\). -- **crossover uniforme** : choisir un masque \(m\in\{1,2\}^n\) et définir \(S'_t = S_{m_t,t}\). +- **crossover à un point** : choisir \(k\in\{1,\dots,n-1\}\), produire \(S' = S\_1[1 : k]\Vert S\_2[k+1 : n]\). + +- **crossover uniforme** : choisir un masque \(m\in\{1,2\}^n\) et définir \(S'\_t= S\_{m\_t,t}\). Ces schémas abstraits reflètent le fait empirique qu’en reproduction sexuée, la recombinaison réassortit des segments génétiques, thème central chez Maynard Smith. Sur le plan théorique, la littérature de génétique des populations discute leur effet sur les associations entre loci (déséquilibre de liaison) et la vitesse de production de combinaisons, avec des résultats classiques suivant les hypothèses (population finie vs infinie), notamment chez Felsenstein. @@ -1843,33 +1841,31 @@ Sur le plan théorique, la littérature de génétique des populations discute l La réparation \(\rho\) peut être : - **locale** (modifier un motif interdit en un motif autorisé), + - **globale** (réécrire pour satisfaire une grammaire), - **projective** (projection sur un ensemble admissible minimal). -La logique rejoint une idée générale en théorie des automates et de la computation : rendre un processus « réversible » exige de conserver l’historique; effacer l’historique est une opération logiquement irréversible (non‑injective), point discuté par Landauer et Bennett. +La logique rejoint une idée générale en théorie des automates et de la computation : rendre un processus « réversible » exige de conserver l’historique ; effacer l’historique est une opération logiquement irréversible (non‑injective), point discuté par Landauer et Bennett. Ici, on n’en tire pas une thèse physique additionnelle : on retient le fait structural que réparation/projection est typiquement non injective. ### Algorithmes et complexité -On donne des coûts asymptotiques usuels (où \(n=|S|\), \(|\mathcal{L}|=B\)) : +On donne des coûts asymptotiques usuels (où \(n=|S|\), \(|\mathcal{L}|=B\)) : **Extraction d’un segment** \(S[i : j]\) : \(O(j-i+1)\)\)). +**Multi‑segments** : \(((O(\sum\_p (j\_p-i\_p+1))\)\)). +**Recombinaison à un point** : \(((O(n)\)\)). +**Recombinaison uniforme** : \(((O(n)\)\)) (parcours + masque). +**Recalcul de \(((M\) depuis \(S\)** : \(O(n)\)\)). +**Distance \(((d\_M\)** (matrices denses) : \(O(B^2)\)\)) ; (sparse) : \(((O(\#\text{transitions distinctes})\)\)). +**Distance d’édition** \(((d\_S\) : \(O(n^2)\)\)) en général (DP), \(((O(n)\)\)) en Hamming si longueurs fixes. -**Extraction d’un segment** \(S[i:j]\) : \(O(j-i+1)\). -**Multi‑segments** : \(O(\sum_p (j_p-i_p+1))\). -**Recombinaison à un point** : \(O(n)\). -**Recombinaison uniforme** : \(O(n)\) (parcours + masque). -**Recalcul de \(M\) depuis \(S\)** : \(O(n)\). -**Distance \(d_M\)** (matrices denses) : \(O(B^2)\); (sparse) : \(O(\#\text{transitions distinctes})\). -**Distance d’édition** \(d_S\) : \(O(n^2)\) en général (DP), \(O(n)\) en Hamming si longueurs fixes. - -Pseudocode minimal (crossover à un point + mise à jour de \(M\)) : +Pseudocode minimal (crossover à un point + mise à jour de \(((M\)) : ```text -Input: S1, S2 (length n), cut k -S' = S1[1:k] concat S2[k+1:n] +Input : S1, S2 (length n), cut k +S' = S1[1 : k] concat S2[k+1 : n] Initialize M' = 0 -for t in 1..n-1: - M'[ S'[t], S'[t+1] ] += 1 -Output: (S', M') +for t in 1..n-1 : M'[ S'[t], S'[t+1] ] += 1 +Output : (S', M') ``` ## Gamètes non réutilisables, ressource consommée et flèche généalogique @@ -1878,18 +1874,17 @@ Le chapitre 4 a établi que la flèche du temps peut être reconstruite comme no ### Jetons de gamètes comme ressource non réutilisable -On associe à chaque individu \(i\) un multiensemble \(G_i\) de **gamètes‑jetons** (ressource finie). Un événement reproductif prend deux jetons \(\gamma^{(1)}\in G_p\) et \(\gamma^{(2)}\in G_q\), les **consomme** (irréversiblement), et produit un nouvel individu \(c\) avec génotype \(\Gamma_c\). +On associe à chaque individu \(i\) un multiensemble \(G\_i\) de **gamètes‑jetons** (ressource finie). Un événement reproductif prend deux jetons \(\gamma^{(1)}\in G\_p\) et \(\gamma^{(2)}\in G\_q\), les **consomme** (irréversiblement), et produit un nouvel individu \(c\) avec génotype \(\Gamma\_c\). -Formellement, l’événement est une transition : -\[ -(p,q,\gamma^{(1)},\gamma^{(2)})\;\longmapsto\; c +Formellement, l’événement est une transition : \[ +(p,q,\gamma^{(1)},\gamma^{(2)})\)\) ; \longmapsto\ ; c \] -avec mise à jour \(G_p\leftarrow G_p\setminus\{\gamma^{(1)}\}\), \(G_q\leftarrow G_q\setminus\{\gamma^{(2)}\}\). +avec mise à jour \(((G\_p\leftarrow G\_p\setminus\{\gamma^{(1)}\}\), \(G\_q\leftarrow G\_q\setminus\{\gamma^{(2)}\}\). **Proposition 5 (monotone de consommation).** -La quantité totale \(T=\sum_i |G_i|\) est un monotone décroissant strict à chaque reproduction (si aucun jeton n’est créé ex nihilo au même niveau). +La quantité totale \(T=\sum\_i |G\_i|\) est un monotone décroissant strict à chaque reproduction (si aucun jeton n’est créé ex nihilo au même niveau). -_Preuve._ Chaque événement retire au moins 2 jetons; donc \(T\) diminue strictement. □ +**Preuve.** Chaque événement retire au moins 2 jetons ; donc \(T\) diminue strictement. □ Comme au chapitre 4, l’existence d’un monotone strict interdit les cycles au niveau des événements. @@ -1900,15 +1895,15 @@ On définit un graphe orienté \(\mathcal{T}\) dont les nœuds sont les individu **Proposition 6 (acyclicité).** Sous la règle « gamètes non réutilisables » et une création de jetons strictement orientée (aucune ré‑utilisation), le graphe des événements reproductifs est acyclique. -_Preuve._ Une boucle impliquerait qu’un individu soit ancêtre de lui‑même, donc qu’une chaîne d’événements consomme des jetons tout en revenant à une configuration antérieure. Mais le monotone \(T\) diminue strictement à chaque événement (Proposition 5), donc une boucle est impossible. □ +**Preuve.** Une boucle impliquerait qu’un individu soit ancêtre de lui‑même, donc qu’une chaîne d’événements consomme des jetons tout en revenant à une configuration antérieure. Mais le monotone \(T\) diminue strictement à chaque événement (Proposition 5), donc une boucle est impossible. □ -Diagramme : +Diagramme : ```mermaid flowchart TD - P1["Parent p : Γ_p"] -->|γ_p = Frag(Γ_p)| G1["Gamète γ_p"] - P2["Parent q : Γ_q"] -->|γ_q = Frag(Γ_q)| G2["Gamète γ_q"] - G1 -->|Recombine| C["Enfant c : Γ_c"] + P1["Parent p : Γ\\_p"] -->|γ\\_p = Frag(Γ\\_p)| G1["Gamète γ\\_p"] + P2["Parent q : Γ\\_q"] -->|γ\\_q = Frag(Γ\\_q)| G2["Gamète γ\\_q"] + G1 -->|Recombine| C["Enfant c : Γ\\_c"] G2 -->|Recombine| C C -->|Frag| Gc["Gamètes de c (nouveaux jetons)"] subgraph Lineage["Lignée (DAG)"] @@ -1923,16 +1918,13 @@ Cette structure donne une flèche généalogique **sans agentivité** : ce n’e Le chapitre 5 a introduit le rôle des collisions (non‑injectivité) et des classes. Ici, la mémoire \(M\) capture l’historique **au niveau des classes**. -Deux conditions minimales ressortent : - -1) **Transmissibilité partielle de \(M\).** Il faut que la fragmentation transmette des sous‑matrices/cooccurrences (ou des segments permettant de les recalculer). +Deux conditions minimales ressortent : 1) **Transmissibilité partielle de \(M\).** Il faut que la fragmentation transmette des sous‑matrices/cooccurrences (ou des segments permettant de les recalculer). 2) **Accumulation sans boucles.** La lignée doit être un DAG (Proposition 6) ou, plus généralement, un ordre partiel d’événements (chapitre 4), afin que la mémoire agrégée ne soit pas recyclable à l’identique. -On peut formaliser une mémoire de lignée par agrégation pondérée : -\[ -M_{\mathcal{T}}=\sum_{i\in \mathcal{T}} \omega_i M_i, +On peut formaliser une mémoire de lignée par agrégation pondérée : \[ +M\_{\mathcal{T}}=\sum\_{i\in \mathcal{T}} \omega\_i M\_i, \] -où \(\omega_i\) pondère la contribution (descendance, profondeur, etc.). Cette somme n’introduit pas de sémantique : elle est une opération sur compteurs. +où \(\omega\_i\) pondère la contribution (descendance, profondeur, etc.). Cette somme n’introduit pas de sémantique : elle est une opération sur compteurs. ## Implications déduites strictement (lecture conditionnelle) @@ -1942,79 +1934,79 @@ On ne déduit ici que ce qui suit nécessairement des sections mathématiques. Dès qu’il existe (i) une partition en classes (chapitre 5), (ii) une fragmentation non triviale, et (iii) une recombinaison, l’espace des objets accessibles par itération des événements s’élargit combinatoirement : le nombre de séquences composées de fragments croît au moins multiplicativement avec le nombre de fragments disponibles. Cette diversification est une conséquence de la combinatoire des concaténations et masques, pas d’un objectif. 2) **Accumulation historique.** -L’existence d’un monotone de consommation (gamètes‑jetons) impose une orientation des événements, donc rend possible l’accumulation d’un registre \(M_{\mathcal{T}}\) qui ne peut pas être « déroulé » en sens inverse sans réintroduire des objets consommés. Ceci prolonge directement l’idée que la non‑injectivité et la perte d’antécédents rendent le passé non reconstructible à partir du présent (chapitre 4), idée également cohérente avec la notion d’irréversibilité logique discutée par Landauer et Bennett (non‑inversibilité à valeur unique). +L’existence d’un monotone de consommation (gamètes‑jetons) impose une orientation des événements, donc rend possible l’accumulation d’un registre \(M\_{\mathcal{T}}\) qui ne peut pas être « déroulé » en sens inverse sans réintroduire des objets consommés. Ceci prolonge directement l’idée que la non‑injectivité et la perte d’antécédents rendent le passé non reconstructible à partir du présent (chapitre 4), idée également cohérente avec la notion d’irréversibilité logique discutée par Landauer et Bennett (non‑inversibilité à valeur unique). 3) **Condition de possibilité de mécanismes auto‑constructifs.** Von Neumann a montré qu’un cadre formel (automates cellulaires) peut contenir des dispositifs de construction universelle et d’auto‑reproduction, en s’appuyant sur des descriptions transmissibles et des opérations de construction. Le présent chapitre n’affirme pas que de tels dispositifs apparaissent nécessairement, mais établit que nos opérateurs (fragmentation/recombinaison/réparation) constituent une grammaire minimale compatible avec ce type de phénomènes. -## Analyse philosophique finale : ontologie de l’héritage, limites et interdits +## Analyse philosophique finale : ontologie de l’héritage, limites et interdits **Ontologie minimale.** -L’héritage n’est pas ici l’héritage d’identités, mais l’héritage de **structures compressées** : segments \(S_\gamma\) et cooccurrences \(M_\gamma\). L’individu n’est pas une substance ; c’est un nœud dans un graphe d’événements portant un quadruplet transmissible. Cette lecture découle du fait que la non‑injectivité (collisions) rend l’identité fine non conservative, donc inapte à fonder une généalogie robuste au niveau des classes. +L’héritage n’est pas ici l’héritage d’identités, mais l’héritage de **structures compressées** : segments \(S\_\gamma\) et cooccurrences \(M\_\gamma\). L’individu n’est pas une substance ; c’est un nœud dans un graphe d’événements portant un quadruplet transmissible. Cette lecture découle du fait que la non‑injectivité (collisions) rend l’identité fine non conservative, donc inapte à fonder une généalogie robuste au niveau des classes. **Ce que le formalisme interdit.** -Il interdit toute attribution de but (la reproduction ne « vise » rien), toute lecture intentionnelle (il n’y a pas de « choix » intrinsèque), et toute assimilation de ces objets à des contenus sémantiques. Le mot « génotype » est une étiquette de convenance pour \(\Gamma\), non une importation biologique : l’objet est défini par ses composantes \((S,M,A,R)\), pas par un référent. +Il interdit toute attribution de but (la reproduction ne « vise » rien), toute lecture intentionnelle (il n’y a pas de « choix » intrinsèque), et toute assimilation de ces objets à des contenus sémantiques. Le mot « génotype » est une étiquette de convenance pour \(\Gamma\), non une importation biologique : l’objet est défini par ses composantes \((S,M,A,R)\)\)), pas par un référent. **Limites.** Deux limites sont structurelles : - La stabilité sous recombinaison n’est pas universelle : seuls certains invariants (homomorphes, locaux, ou conçus pour être composables) résistent à la recombinaison (Proposition 4). -- Les métriques \(d_S,d_M\) sont des choix : elles définissent une géométrie sur l’espace des génotypes, et différentes géométries conduisent à des notions différentes de proximité héréditaire. Il ne peut donc pas y avoir « une » héritabilité métrique sans convention explicite. + +- Les métriques \(((d\_S,d\_M\) sont des choix : elles définissent une géométrie sur l’espace des génotypes, et différentes géométries conduisent à des notions différentes de proximité héréditaire. Il ne peut donc pas y avoir « une » héritabilité métrique sans convention explicite. **Pont discipliné vers la génétique des populations (sans réduction).** La littérature classique en génétique évolutive met au centre le rôle de la recombinaison et discute ses avantages selon les hypothèses (modèles finis/infinis, déséquilibre de liaison, interférences entre loci). Maynard Smith a structuré le problème et Felsenstein a fourni des analyses influentes sur l’avantage de recombinaison dans des cadres où la dérive crée des associations entre loci. Nous n’en tirons aucune finalité : nous retenons uniquement que ces cadres établissent la pertinence mathématique d’opérations de recombinaison (mélange de segments) et d’effets de non‑injectivité (multiples origines possibles). -## Tableaux comparatifs +## Tableaux comparatifs — Ch. 6 | Objet / opération | Définition minimale | Propriété clé | Injectif ? | Coût calcul (typique) | -|---|---|---|---|---| -| Fragmentation \(\mathrm{Frag}\) | extraction de segments | réduction / sous‑structure | non (perte) | \(O(n)\) | -| Épissage \(\pi\) | sélection + concaténation | composition de fragments | non en général | \(O(n)\) | -| Recombinaison (concat) | \(S'=S_1\Vert S_2\) | associative, non commutative | non (origines ambiguës) | \(O(n)\) | -| Recombinaison (masque) | mélange positionnel | paramètre interne | non | \(O(n)\) | -| Réparation \(\rho\) | projection admissible | idempotence si projecteur | non | dépend contraintes | -| Mémoire \(M\) | cooccurrences | héritage de collisions | — | recalcul \(O(n)\) | +| --- | --- | --- | --- | --- | +| Fragmentation \(\mathrm{Frag}\) | extraction de segments | réduction / sous‑structure | non (perte) | \(O(n)\)\)) | +| Épissage \(((\pi\) | sélection + concaténation | composition de fragments | non en général | \(O(n)\)\)) | +| Recombinaison (concat) | \(((S'=S\_1\Vert S\_2\) | associative, non commutative | non (origines ambiguës) | \(O(n)\)\)) | +| Recombinaison (masque) | mélange positionnel | paramètre interne | non | \(((O(n)\)\)) | +| Réparation \(((\rho\) | projection admissible | idempotence si projecteur | non | dépend contraintes | +| Mémoire \(M\) | cooccurrences | héritage de collisions | — | recalcul \(O(n)\)\)) | | Métrique | Définition | Interprétation formelle | Complexité | -|---|---|---|---| -| \(d_S\) | distance d’édition | coût minimal de transformation de chaînes | \(O(n^2)\) | -| \(d_M\) | \(\sum|M-M'|\) | divergence de registres de transitions | \(O(B^2)\) dense / sparse sinon | -| \(h\) | normalisation de \(d_S,d_M\) | indice de ressemblance transmissible | coût des distances | +| --- | --- | --- | --- | +| \(((d\_S\) | distance d’édition | coût minimal de transformation de chaînes | \(O(n^2)\)\)) | +| \(((d\_M\) | \(\sum|M-M'|\) | divergence de registres de transitions | \(O(B^2)\)\)) dense / sparse sinon | +| \(((h\) | normalisation de \(d\_S,d\_M\) | indice de ressemblance transmissible | coût des distances | --- -# Chapitre 7 — Généalogies, lignées et accumulation d’histoire +## Chapitre 7 — Généalogies, lignées et accumulation d’histoire {#chapitre-7-genealogies-lignees-et-accumulation-dhistoire} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 7 -Hypothèses (H). +**Hypothèses (H).** -- événements reproductifs orientés, avec non‑réutilisation de ressources événementielles (DAG) ; +- événements reproductifs orientés, avec non‑réutilisation de ressources événementielles (DAG) - opérateurs d’agrégation/oubli explicités pour définir une histoire distribuée. -Résultats (E). +**Résultats (E).** -- dérivation d’un ordre généalogique via acyclicité et construction d’un registre \(M_{\mathcal{T}}\) cumulatif ; +- dérivation d’un ordre généalogique via acyclicité et construction d’un registre \(M\_{\mathcal{T}}\) cumulatif - introduction de métriques d’histoire et de repères stochastiques (processus de branchement/coalescents) lorsque la couche probabiliste est mobilisée. -Statut. +**Statut.** - noyau ensembliste pour l’ordre/DAG ; résultats probabilistes explicitement indexés par le modèle choisi. -Déclaration M0 (chapitre 7 — histoire distribuée). +> **Déclaration M0** (chapitre 7 — histoire distribuée). +> +> - projection : \(\Pi\) vers un observable (signature, classes, ou fragments) lorsqu’une lecture partielle est considérée +> - statut markovien : markovien sur \(Y\) si les mises à jour portent sur (DAG, registres) ; non markovien en général sur une projection omettant les registres +> - type : mémoire‑structure (registre transmissible/distribué), pas mémoire‑état. -- espace d’état : \(Y\) inclut la structure de filiation (DAG) et un registre cumulatif \(M_{\mathcal{T}}\) (agrégation, filtrage, oubli) ; -- projection : \(\Pi\) vers un observable (signature, classes, ou fragments) lorsqu’une lecture partielle est considérée ; -- statut markovien : markovien sur \(Y\) si les mises à jour portent sur (DAG, registres) ; non markovien en général sur une projection omettant les registres ; -- type : mémoire‑structure (registre transmissible/distribué), pas mémoire‑état. - -## Résumé exécutif +## Résumé exécutif — Ch. 7 Ce chapitre formalise l’**histoire** comme un objet mathématique dérivé d’événements reproductifs orientés, et non comme un paramètre présupposé. On part de primitives non sémantiques (individus porteurs d’un objet \(\Gamma\), événements, gamètes‑jetons, registre \(M\)) et l’on montre que, sous une règle minimale de **non‑réutilisation** de ressources événementielles, la structure globale des filiations devient un **graphe orienté acyclique (DAG)**. Cette acyclicité induit un ordre d’antériorité « généalogique » qui se superpose à l’ordre d’itération déjà reconstruit comme préordre/dérivé d’une action de monoïde (chapitre sur le temps comme ordre). -Sur ce DAG, on définit une **agrégation historique** \(M_{\mathcal{T}}\) (mémoire distribuée) comme un opérateur d’addition pondérée, de filtrage et d’oubli, et l’on étudie ses propriétés algébriques (associativité, commutativité, idempotence des filtres, monotonies). On introduit des **métriques** de croissance historique (complexité cumulée, entropie cumulative, diversité de lignées) et des bornes élémentaires (croissance au plus linéaire ou au plus exponentielle selon le régime de branchement, avec conditions explicites). +Sur ce DAG, on définit une **agrégation historique** \(M\_{\mathcal{T}}\) (mémoire distribuée) comme un opérateur d’addition pondérée, de filtrage et d’oubli, et l’on étudie ses propriétés algébriques (associativité, commutativité, idempotence des filtres, monotonies). On introduit des **métriques** de croissance historique (complexité cumulée, entropie cumulative, diversité de lignées) et des bornes élémentaires (croissance au plus linéaire ou au plus exponentielle selon le régime de branchement, avec conditions explicites). On relie ensuite ce formalisme à des modèles stochastiques établis : (i) les **processus de branchement** de type Galton–Watson et leur critère d’extinction/survie via fonction génératrice (résultat classique), et (ii) le **coalescent de Kingman** (processus de Markov sur partitions) qui décrit la généalogie « vue à rebours » de grands modèles de populations ; ces deux cadres fournissent des théorèmes consensuels sur la probabilité de survie, la profondeur attendue, et la structure statistique des lignées. @@ -2030,21 +2022,21 @@ On fixe un alphabet fini \(\mathcal{L}\) (classes de formes), et un espace de g **Individu.** Un individu est un élément d’un ensemble \(I\). À chaque individu \(i\in I\) est associé un quadruplet \[ -\Gamma_i = (S_i, M_i, A_i, R_i) +\Gamma\_i = (S\_i, M\_i, A\_i, R\_i) \] -où \(S_i \in \mathcal{L}^\*\) est une séquence finie, \(M_i\) un registre (par ex. cooccurrences), \(A_i\) un ensemble d’invariants dérivés, \(R_i\) un ensemble de règles admissibles (mutations, épissage, réparation). (Définitions : primitives du modèle de ce livre.) +où \(S\_i \in \mathcal{L}^\*\) est une séquence finie, \(M\_i\) un registre (par ex. cooccurrences), \(A\_i\) un ensemble d’invariants dérivés, \(R\_i\) un ensemble de règles admissibles (mutations, épissage, réparation). (Définitions : primitives du modèle de ce livre.) -**Gamète‑jeton.** À chaque individu \(i\), on associe un multiensemble fini \(G_i\) d’objets \(\gamma\) (gamètes). Un gamète est une sous‑structure \(\gamma=(S_\gamma,M_\gamma,A_\gamma)\) extraite de \(\Gamma_i\) par un opérateur de fragmentation \(\mathrm{Frag}\). +**Gamète‑jeton.** À chaque individu \(i\), on associe un multiensemble fini \(G\_i\) d’objets \(\gamma\) (gamètes). Un gamète est une sous‑structure \(\gamma=(S\_\gamma,M\_\gamma,A\_\gamma)\)\)) extraite de \(((\Gamma\_i\) par un opérateur de fragmentation \(\mathrm{Frag}\). **Événement reproductif.** Un événement est un quintuplet \[ -e = (p,q,\gamma_p,\gamma_q,c) +e = (p,q,\gamma\_p,\gamma\_q,c) \] -où \(p,q\in I\) sont les parents, \(\gamma_p\in G_p\), \(\gamma_q\in G_q\) les jetons consommés, et \(c\in I\) l’enfant produit. L’objet \(\Gamma_c\) résulte d’un opérateur \(\mathrm{Recombine}(\gamma_p,\gamma_q;\Theta)\) suivi d’une réparation éventuelle \(\rho\) (comme dans les chapitres précédents). +où \(p,q\in I\) sont les parents, \(\gamma\_p\in G\_p\), \(\gamma\_q\in G\_q\) les jetons consommés, et \(c\in I\) l’enfant produit. L’objet \(\Gamma\_c\) résulte d’un opérateur \(\mathrm{Recombine}(\gamma\_p,\gamma\_q ; \Theta)\)\)) suivi d’une réparation éventuelle \(((\rho\) (comme dans les chapitres précédents). ### Axiomes d’irréversibilité généalogique (non‑réutilisation) -**A0 (non‑réutilisation des jetons).** À chaque événement \(e=(p,q,\gamma_p,\gamma_q,c)\), les jetons \(\gamma_p,\gamma_q\) sont retirés de \(G_p,G_q\) et ne peuvent pas être réintroduits identiques (au même niveau d’analyse). +**A0 (non‑réutilisation des jetons).** À chaque événement \(e=(p,q,\gamma\_p,\gamma\_q,c)\)\)), les jetons \(((\gamma\_p,\gamma\_q\) sont retirés de \(G\_p,G\_q\) et ne peuvent pas être réintroduits identiques (au même niveau d’analyse). Cet axiome est la version minimale d’un **monotone de consommation** : la disponibilité de jetons diminue au fil des événements, imposant une flèche d’événements (au sens formel) comme dans une action de semi‑groupe non extensible en groupe. @@ -2053,13 +2045,13 @@ Cet axiome est la version minimale d’un **monotone de consommation** : la disp ```mermaid flowchart LR subgraph Individual["Individu i"] - Gi["G_i : multiensemble de gamètes-jetons"] - Gamma["Γ_i=(S_i,M_i,A_i,R_i)"] + Gi["G\\_i : multiensemble de gamètes-jetons"] + Gamma["Γ\\_i=(S\\_i,M\\_i,A\\_i,R\\_i)"] end Gamma -->|Frag| gamma["γ=(Sγ,Mγ,Aγ)"] Gi --> gamma - gamma -->|Recombine| Gammac["Γ_c"] - Gammac -->|Frag| Gc["G_c"] + gamma -->|Recombine| Gammac["Γ\\_c"] + Gammac -->|Frag| Gc["G\\_c"] ``` ## Lignée comme DAG d’événements @@ -2068,10 +2060,11 @@ On définit une lignée comme un graphe orienté construit par les événements ### Définition formelle -Soit \(E\) l’ensemble des événements. On construit un graphe orienté \(\mathcal{T}=(V,E_{\to})\) où : +Soit \(E\) l’ensemble des événements. On construit un graphe orienté \(\mathcal{T}=(V,E\_{\to})\)\)) où : -- \(V=I\) (les individus), -- pour chaque événement \(e=(p,q,\gamma_p,\gamma_q,c)\), on ajoute deux arêtes orientées \(p\to c\) et \(q\to c\). +- \(((V=I\) (les individus), + +- pour chaque événement \(e=(p,q,\gamma\_p,\gamma\_q,c)\)\)), on ajoute deux arêtes orientées \(((p\to c\) et \(q\to c\). On appelle \(\mathcal{T}\) la **lignée** (ou plus précisément un pedigree abstrait). Le graphe n’impose pas la bi‑parentalité : on peut généraliser à \(k\) parents par événement, mais on reste ici dans le cas \(2\) pour fixer les preuves. @@ -2081,18 +2074,18 @@ On formalise une grandeur monotone associée à la consommation. **Définition (stock total de jetons).** \[ -T = \sum_{i\in I} |G_i|. +T = \sum\_{i\in I} |G\_i|. \] **Proposition (monotonicité stricte).** Si chaque événement consomme au moins deux jetons et ne réintroduit pas les mêmes jetons, alors \(T\) décroît strictement après chaque événement (au niveau considéré). -_Preuve._ Un événement retire \(\gamma_p,\gamma_q\) des stocks. Sous A0, ces jetons ne sont pas remis. Donc \(T\) diminue d’au moins \(2\). □ +**Preuve.** Un événement retire \(\gamma\_p,\gamma\_q\) des stocks. Sous A0, ces jetons ne sont pas remis. Donc \(T\) diminue d’au moins \(2\). □ **Théorème (acyclicité).** Sous l’axiome A0 et la monotonicité de \(T\), le graphe \(\mathcal{T}\) est un DAG. -_Preuve._ Supposons un cycle orienté \(i_0\to i_1\to \cdots \to i_k=i_0\). Chaque arête correspond à un événement (direct ou indirect) qui consomme des jetons et fait décroître \(T\). En parcourant le cycle, \(T\) devrait décroître strictement et revenir à sa valeur initiale, contradiction. □ +**Preuve.** Supposons un cycle orienté \(i\_0\to i\_1\to \cdots \to i\_k=i\_0\). Chaque arête correspond à un événement (direct ou indirect) qui consomme des jetons et fait décroître \(T\). En parcourant le cycle, \(T\) devrait décroître strictement et revenir à sa valeur initiale, contradiction. □ Cette forme de preuve est exactement la logique « monotone strict ⇒ pas de cycles » (même squelette que dans les preuves par fonction de Lyapunov). Elle est cohérente avec la reconstruction du temps comme ordre : un monotone strict interdit les retours exacts. @@ -2101,13 +2094,14 @@ Cette forme de preuve est exactement la logique « monotone strict ⇒ pas de cy Dans un DAG \(\mathcal{T}\), on définit : - \(u\) est **ancêtre** de \(v\) si un chemin orienté \(u\to^\* v\) existe. -- la **profondeur** \(\mathrm{depth}(v)\) : longueur maximale d’un chemin orienté menant à \(v\). -- la **largeur** \(\mathrm{width}(\mathcal{T})\) : taille maximale d’un antichaîne (ensemble de nœuds incomparables) ; notion standard dans la théorie des posets/DAG (ici utilisée comme mesure « d’expansion parallèle »). + +- la **profondeur** \(\mathrm{depth}(v)\)\)) : longueur maximale d’un chemin orienté menant à \(((v\). +- la **largeur** \(\mathrm{width}(\mathcal{T})\)\)) : taille maximale d’un antichaîne (ensemble de nœuds incomparables) ; notion standard dans la théorie des posets/DAG (ici utilisée comme mesure « d’expansion parallèle »). Proposition élémentaire (ordre partiel des individus). -L’ancêtre/descendant induit un ordre partiel sur \(V\) (réflexif via chemin vide, transitif par concaténation des chemins, antisymétrique car DAG). +L’ancêtre/descendant induit un ordre partiel sur \(((V\) (réflexif via chemin vide, transitif par concaténation des chemins, antisymétrique car DAG). -_Preuve._ Dans un graphe sans cycles, l’existence de \(u\to^\* v\) et \(v\to^\* u\) implique un cycle si \(u\neq v\). □ +**Preuve.** Dans un graphe sans cycles, l’existence de \(u\to^\* v\) et \(v\to^\* u\) implique un cycle si \(u\neq v\). □ ### Schéma de lignée (DAG d’événements) @@ -2126,38 +2120,35 @@ flowchart TD ## Agrégation historique et métriques de complexité -Le DAG fournit l’ossature. L’« histoire » apparaît lorsque l’on définit des opérateurs d’agrégation des registres \(M_i\) le long des événements. +Le DAG fournit l’ossature. L’« histoire » apparaît lorsque l’on définit des opérateurs d’agrégation des registres \(M\_i\) le long des événements. -### Agrégation \(M_{\mathcal{T}}\) : somme pondérée, filtrage et oubli +### Agrégation \(M\_{\mathcal{T}}\) : somme pondérée, filtrage et oubli -Soit \(\omega:V\to \mathbb{R}_+\) une pondération (fonction arbitraire, par ex. profondeur, centralité, ou constante). +Soit \(\omega : V\to \mathbb{R}\_+\) une pondération (fonction arbitraire, par ex. profondeur, centralité, ou constante). **Définition (agrégation additive).** \[ -M_{\mathcal{T}} \;=\; \sum_{i\in V} \omega(i)\, M_i +M\_{\mathcal{T}} \ ; =\ ; \sum\_{i\in V} \omega(i)\)\), M_i \] -(la somme est point‑par‑point sur \(\mathcal{L}\times\mathcal{L}\)). +(la somme est point‑par‑point sur \(((\mathcal{L}\times\mathcal{L}\)). Propriétés (algèbre). -La somme est associative et commutative et définit un monoïde additif sur l’espace des registres \(\mathbb{R}_+^{\mathcal{L}\times\mathcal{L}}\). (Faits algébriques standards.) +La somme est associative et commutative et définit un monoïde additif sur l’espace des registres \(\mathbb{R}\_+^{\mathcal{L}\times\mathcal{L}}\). (Faits algébriques standards.) -**Définition (filtrage).** Un filtrage est un opérateur \(F\) agissant sur \(M\) en annulant certains coefficients : -\[ -(F_\theta M)(a,b)=M(a,b)\cdot \mathbf{1}_{M(a,b)\ge \theta}. +**Définition (filtrage).** Un filtrage est un opérateur \(F\) agissant sur \(M\) en annulant certains coefficients : \[ +(F\_\theta M)(a,b)=M(a,b)\)\)cdot \mathbf{1}_{M(a,b)\ge \theta}. \] -Propriété : \(F_\theta\) est idempotent (\(F_\theta\circ F_\theta=F_\theta\)). +Propriété : \(((F*\theta\) est idempotent (\(F\_\theta\circ F\_\theta=F\_\theta\)). **Définition (oubli/exponentiel).** -Pour \(\alpha\in(0,1)\), on définit une agrégation « à oubli » par une récurrence sur un ordre topologique du DAG : -\[ +Pour \(\alpha\in(0,1)\)\)), on définit une agrégation « à oubli » par une récurrence sur un ordre topologique du DAG : \[ M^{(t+1)}=\alpha M^{(t)} + \Delta M^{(t+1)}, \] -où \(\Delta M^{(t+1)}\) est la contribution des nouveaux nœuds/hyperarêtes. Cela définit une dynamique contractante sur l’espace des registres (pertinent lorsque l’histoire est « bornée »). +où \(((\Delta M^{(t+1)}\) est la contribution des nouveaux nœuds/hyperarêtes. Cela définit une dynamique contractante sur l’espace des registres (pertinent lorsque l’histoire est « bornée »). Lien avec l’entropie et l’information (mesures de Shannon). Shannon établit l’entropie \(H\) comme mesure de l’incertitude d’une variable discrète et introduit entropies jointes/conditionnelles dont la relation de chaîne permet de quantifier la perte lors d’une projection. -Ici, on peut associer au registre \(M\) une distribution normalisée \(p_M(a,b)=M(a,b)/\sum_{u,v} M(u,v)\) et définir l’entropie de transitions : -\[ +Ici, on peut associer au registre \(M\) une distribution normalisée \(p\_M(a,b)=M(a,b)/\sum\_{u,v} M(u,v)\)\)) et définir l’entropie de transitions : \[ H(M) = -\sum_{a,b} p_M(a,b)\log p_M(a,b). \] Elle quantifie la dispersion des transitions au niveau de classes (sans sémantique). @@ -2168,25 +2159,23 @@ On propose trois familles de métriques (toutes définies sur des objets mathém **Croissance de complexité de registre.** -- Support : \(\mathrm{supp}(M)=\{(a,b):M(a,b)>0\}\) -- Taille support : \(|\mathrm{supp}(M_{\mathcal{T}})|\) mesure la diversité de transitions observées. -- Normes : \(\|M_{\mathcal{T}}\|_1=\sum_{a,b} M_{\mathcal{T}}(a,b)\) (compte total), \(\|M_{\mathcal{T}}\|_0=|\mathrm{supp}|\) (diversité). +- Support : \(((\mathrm{supp}(M)=\{(a,b) : M(a,b)>0\}\) +- Taille support : \(|\mathrm{supp}(M\_{\mathcal{T}})|\) mesure la diversité de transitions observées. +- Normes : \(\|M\_{\mathcal{T}}\|\_1=\sum\_{a,b} M\_{\mathcal{T}}(a,b)\)\)) (compte total), \(((\|M\_{\mathcal{T}}\|\_0=|\mathrm{supp}|\) (diversité). **Entropie cumulative.** -- \(H(M_{\mathcal{T}})\) comme ci‑dessus. -- Entropie conditionnelle (si l’on découple états sources et transitions) : - \(H(B|A)\) mesure la dispersion des successeurs conditionnellement à la source, via standard Shannon. +- \(H(M\_{\mathcal{T}})\)\)) comme ci‑dessus. +- Entropie conditionnelle (si l’on découple états sources et transitions) : \(((H(B|A)\)\)) mesure la dispersion des successeurs conditionnellement à la source, via standard Shannon. **Diversité de lignées.** -On mesure la diversité par partition au niveau des descendants (par exemple via classes \(\Gamma\) projetées) ; techniquement, cela revient à une entropie de distribution de types. +On mesure la diversité par partition au niveau des descendants (par exemple via classes \(((\Gamma\) projetées) ; techniquement, cela revient à une entropie de distribution de types. Bornes élémentaires. -Dans le cas où l’on agrège simplement des cooccurrences et où chaque nouvel individu ajoute au plus \(|S_i|-1\) transitions, on obtient une borne triviale : -\[ -\|M_{\mathcal{T}}\|_1 \le \sum_{i\in V} \omega(i)\,(|S_i|-1). +Dans le cas où l’on agrège simplement des cooccurrences et où chaque nouvel individu ajoute au plus \(|S\_i|-1\) transitions, on obtient une borne triviale : \[ +\(\|M\_{\mathcal{T}}\|\_1 \le \sum\_{i\in V} \omega(i)\)\),(|S_i|-1)\). \] -Si \(\omega\equiv 1\) et \(|S_i|\le n_{\max}\), alors \(\|M_{\mathcal{T}}\|_1\le |V|\,(n_{\max}-1)\) (croissance au plus linéaire en nombre d’individus). +Si \(((\omega\equiv 1\) et \(|S\_i|\le n\_{\max}\), alors \(\|M\_{\mathcal{T}}\|\_1\le |V|\,(n\_{\max}-1)\)\)) (croissance au plus linéaire en nombre d’individus). À l’inverse, si le nombre d’individus croît exponentiellement (processus supercritique), la masse agrégée croît exponentiellement en espérance (section suivante). ### Structure d’atteignabilité temporelle : couches et accumulation @@ -2197,7 +2186,7 @@ On peut visualiser l’histoire comme accumulation par couches (antichaînes) da flowchart LR subgraph TimeLayers["Couches d'événements (ordre partiel)"] direction TB - L0["Couche 0: sources"] --> L1["Couche 1"] + L0["Couche 0 : sources"] --> L1["Couche 1"] L1 --> L2["Couche 2"] L2 --> L3["Couche 3"] end @@ -2205,7 +2194,7 @@ flowchart LR L1 --- M1["ΔM couche 1"] L2 --- M2["ΔM couche 2"] L3 --- M3["ΔM couche 3"] - M0 --> Agg["Agrégation: somme/oubli"] + M0 --> Agg["Agrégation : somme/oubli"] M1 --> Agg M2 --> Agg M3 --> Agg @@ -2217,18 +2206,18 @@ flowchart LR ### Processus de branchement de Galton–Watson Le modèle de Galton–Watson (historique) a été introduit dans le contexte de l’extinction de familles (noms), par Galton et Watson. -Formellement, si \(Z_n\) est la taille de la génération \(n\) et si chaque individu engendre un nombre i.i.d. d’enfants \(\xi\), on a : -\[ -Z_{n+1}=\sum_{k=1}^{Z_n} \xi_k^{(n)},\qquad Z_0=1. +Formellement, si \(((Z\_n\) est la taille de la génération \(n\) et si chaque individu engendre un nombre i.i.d. d’enfants \(\xi\), on a : \[ +Z\_{n+1}=\sum\_{k=1}^{Z\_n} \xi\_k^{(n)},\qquad Z\_0=1. \] -Résultats classiques (consensus) : +Résultats classiques (consensus) : - La probabilité d’extinction \(q\) est la plus petite solution dans \([0,1]\) de \[ q = \varphi(q), \] - où \(\varphi(s)=\mathbb{E}(s^\xi)\) est la fonction génératrice. -- Si \(m=\mathbb{E}[\xi]\le 1\), alors \(q=1\) (extinction presque sûre) ; si \(m>1\), alors \(q<1\) (survie avec probabilité positive). + où \(\varphi(s)=\mathbb{E}(s^\xi)\)\)) est la fonction génératrice. + +- Si \(((m=\mathbb{E}[\xi]\le 1\), alors \(q=1\) (extinction presque sûre) ; si \(m>1\), alors \(q<1\) (survie avec probabilité positive). Ces résultats fournissent une lecture quantitative de « survivre comme lignée » : l’acyclicité et l’accumulation ne garantissent pas l’expansion ; en régime sous‑critique, la lignée s’éteint presque sûrement. @@ -2237,9 +2226,9 @@ Ces résultats fournissent une lecture quantitative de « survivre comme lignée Pour un échantillon de \(n\) individus dans une grande population idéale (Wright–Fisher / Moran), Kingman introduit un processus de Markov continu sur l’ensemble des partitions de \(\{1,\dots,n\}\), décrivant les coalescences des lignées ancestrales lorsqu’on remonte le temps. Propriété centrale (consensus) : lorsque \(k\) lignées ancestrales sont présentes, le taux de coalescence est \[ -\lambda_k = \binom{k}{2}, +\lambda\_k = \binom{k}{2}, \] -et les temps d’attente entre coalescences successives sont exponentiels indépendants de paramètres \(\lambda_k\) (après un choix d’échelle). Cette structure (pure death process sur le nombre de blocs) est explicitement discutée dans les présentations standards du coalescent. +et les temps d’attente entre coalescences successives sont exponentiels indépendants de paramètres \(\lambda\_k\) (après un choix d’échelle). Cette structure (pure death process sur le nombre de blocs) est explicitement discutée dans les présentations standards du coalescent. Lien avec notre formalisme : le DAG « vers l’avant » (reproduction) devient, lorsqu’on le regarde sur un échantillon de feuilles, un arbre aléatoire « vers l’arrière » (coalescent). Ceci fournit des formules pour la profondeur attendue (temps jusqu’à MRCA) et pour la distribution de longueurs de branches. @@ -2257,9 +2246,7 @@ Le modèle distingue deux problèmes : **reconstruction de l’ossature** (le DA ### Reconstruction d’un DAG à partir de distances (heuristique) -Si l’on observe un ensemble d’individus \(V_{\text{obs}}\) avec des distances \(d_S\) (sur séquences) et/ou \(d_M\) (sur registres), une stratégie heuristique consiste à : - -1. construire un graphe de proximité (k‑NN, seuil), +Si l’on observe un ensemble d’individus \(V\_{\text{obs}}\) avec des distances \(d\_S\) (sur séquences) et/ou \(d\_M\) (sur registres), une stratégie heuristique consiste à : 1. construire un graphe de proximité (k‑NN, seuil), 2. imposer une orientation par un ordre externe (horloge interne, monotone, ou timestamps observés), 3. extraire un DAG minimal (par ex. arborescence couvrante minimale orientée, ou ensemble de parents minimisant une fonction de coût). @@ -2270,6 +2257,7 @@ Ce type de méthode est heuristique : sans hypothèses additionnelles, de nombre Lorsque la recombinaison est autorisée, l’histoire devient un graphe (ARG) plutôt qu’un arbre. Plusieurs problèmes naturels deviennent NP‑difficiles : - minimiser le nombre de recombinaisons dans un réseau phylogénétique, NP‑hard dans des formulations standard. + - construire un ARG minimal cohérent avec des données, NP‑hard dans des formulations minimales. Conséquence méthodologique (interne à l’ouvrage) : une théorie abstraite de l’histoire doit accepter que « l’histoire exacte » est souvent une classe d’histoires compatibles, plutôt qu’un objet unique reconstructible. @@ -2286,47 +2274,46 @@ Ici, on n’en déduit pas une physique de la lignée : on en tire une contraint On peut isoler trois conditions, chacune dérivée des constructions précédentes : - **Orientation événementielle** : existence d’un monotone strict (ici, consommation de jetons) ⇒ DAG ⇒ ordre historique (preuves ci‑dessus). + - **Non‑injectivité effective** : collisions au niveau des classes/observations ⇒ impossibilité de reconstruire le passé fin ⇒ l’histoire est irréductible à l’état présent (principe général, cohérent avec Landauer et avec la théorie de l’information de Shannon, où une projection déterministe détruit l’information conditionnelle). - **Séparation d’échelles** (argument de consensus) : pour voir une flèche à un niveau donné, il faut que la dynamique à ce niveau ne soit pas réversible « en pratique » (agrégation, dissipation, non‑injectivité). Cette idée est compatible avec le fait que des dynamiques microscopiques réversibles peuvent produire des irréversibilités macroscopiques via agrégation et perte d’information, point discuté classiquement en mécanique statistique et dans la lecture informationnelle de l’entropie. -### Implications strictement déduites (statut explicite) +### Implications strictement déduites (statut explicite) — Ch. 7 -Sans ajouter de spéculation, on peut affirmer : +Sans ajouter de spéculation, on peut affirmer : 1. **Disponibilité d’une mémoire distribuée.** +Dès qu’il existe un DAG d’événements et une variable additive \(M\_{\mathcal{T}}=\sum \omega(i)M\_i\), l’histoire devient un objet global distribué sur les nœuds, non réductible à un seul état local. -1. **Disponibilité d’une mémoire distribuée.** -Dès qu’il existe un DAG d’événements et une variable additive \(M_{\mathcal{T}}=\sum \omega(i)M_i\), l’histoire devient un objet global distribué sur les nœuds, non réductible à un seul état local. +1. **Possibilité d’augmentation de complexité historique.** +En régime où le nombre d’individus croît (p. ex. branchement supercritique \(m>1\)), les quantités cumulées (\(\|M\_{\mathcal{T}}\|\_1\), diversité de transitions, entropie) croissent typiquement avec la taille de la lignée ; Galton–Watson fournit le critère probabiliste minimal pour qu’une telle croissance soit possible avec probabilité non nulle. -2. **Possibilité d’augmentation de complexité historique.** -En régime où le nombre d’individus croît (p. ex. branchement supercritique \(m>1\)), les quantités cumulées (\(\|M_{\mathcal{T}}\|_1\), diversité de transitions, entropie) croissent typiquement avec la taille de la lignée; Galton–Watson fournit le critère probabiliste minimal pour qu’une telle croissance soit possible avec probabilité non nulle. +2. **Diversification sans finalité.** +La diversification découle de la combinatoire des recombinaisons de fragments et de l’expansion du DAG ; aucun objectif n’est requis pour obtenir une dispersion des types. -3. **Diversification sans finalité.** -La diversification découle de la combinatoire des recombinaisons de fragments et de l’expansion du DAG; aucun objectif n’est requis pour obtenir une dispersion des types. +## Analyse philosophique finale : ontologie des lignées, limites et interdits -## Analyse philosophique finale : ontologie des lignées, limites et interdits +### Ontologie minimale : histoire comme ordre d’événements -### Ontologie minimale : histoire comme ordre d’événements +Le chapitre montre que « l’histoire » n’est pas une donnée primitive : elle apparaît lorsque l’on remplace la notion d’état par celle d’**événement orienté**. Une lignée n’est pas une essence : c’est une structure d’ordre (DAG) munie de contenus transmissibles (\(\Gamma\)) et de cumulants (\(M\_{\mathcal{T}}\)). -Le chapitre montre que « l’histoire » n’est pas une donnée primitive : elle apparaît lorsque l’on remplace la notion d’état par celle d’**événement orienté**. Une lignée n’est pas une essence : c’est une structure d’ordre (DAG) munie de contenus transmissibles (\(\Gamma\)) et de cumulants (\(M_{\mathcal{T}}\)). +Cette ontologie est strictement structurale : être « dans » une histoire signifie être situé dans un poset d’événements et contribuer à un registre global. -Cette ontologie est strictement structurale : être « dans » une histoire signifie être situé dans un poset d’événements et contribuer à un registre global. +### Ce que le formalisme interdit — Ch. 7 -### Ce que le formalisme interdit - -- Il interdit toute **agentivité** : aucun individu n’« agit » au sens intentionnel; il ne fait que participer à des opérateurs admissibles. +- Il interdit toute **agentivité** : aucun individu n’« agit » au sens intentionnel ; il ne fait que participer à des opérateurs admissibles. - Il interdit toute **finalité** : la survie/expansion d’une lignée est un résultat contingent mesurable (ex. probabilité de survie en Galton–Watson), non un but. -- Il interdit l’**identité forte** : la non‑injectivité implique que plusieurs histoires distinctes peuvent être compatibles avec un même état présent; avec recombinaison, la pluralité d’ARG compatibles et la difficulté computationnelle rendent cette limite encore plus marquée. +- Il interdit l’**identité forte** : la non‑injectivité implique que plusieurs histoires distinctes peuvent être compatibles avec un même état présent ; avec recombinaison, la pluralité d’ARG compatibles et la difficulté computationnelle rendent cette limite encore plus marquée. ### Limites internes -- La notion d’agrégation \(M_{\mathcal{T}}\) dépend d’un choix de pondération \(\omega\) et d’opérateurs de filtrage/oubli : il n’existe pas de « mémoire historique unique » sans convention. +- La notion d’agrégation \(M\_{\mathcal{T}}\) dépend d’un choix de pondération \(\omega\) et d’opérateurs de filtrage/oubli : il n’existe pas de « mémoire historique unique » sans convention. - La reconstruction exacte des histoires peut être impossible (non identifiabilité) et/ou intractable (NP‑difficulté) dans des cadres riches (recombinaison). -## Tableaux comparatifs +## Tableaux comparatifs — Ch. 7 ### DAG et cycles : structures d’histoire | Structure | Définition | Propriété clé | Interprétation formelle | -|---|---|---|---| +| --- | --- | --- | --- | | DAG | graphe orienté sans cycles | ordre partiel ancêtre/descendant | histoire irréversible (événements non recyclables) | | Graphe avec cycles | existence de boucle orientée | retour possible | absence de flèche d’événements au niveau considéré | | Arbre (cas particulier de DAG) | DAG avec un parent (ou deux) et sans recombinaison | MRCA bien défini | généalogie sans recombinaison | @@ -2335,122 +2322,121 @@ Cette ontologie est strictement structurale : être « dans » une histoire sig ### Modèles stochastiques : branchement vs coalescent | Modèle | « Sens du temps » | Objet aléatoire | Résultat canonique | -|---|---|---|---| -| Galton–Watson | vers l’avant | tailles \(Z_n\), arbre de descendance | extinction \(q\) solution \(q=\varphi(q)\); \(q=1\) si \(m\le1\) | -| Coalescent de Kingman | vers l’arrière | partition/ arbre de coalescence d’un échantillon | taux \(\binom{k}{2}\) pour \(k\) lignées; pure death process | -| Coalescent avec recombinaison | vers l’arrière | ARG | structure plus complexe; inférence difficile | +| --- | --- | --- | --- | +| Galton–Watson | vers l’avant | tailles \(Z\_n\), arbre de descendance | extinction \(q\) solution \(q=\varphi(q)\)\)) ; \(((q=1\) si \(m\le1\) | +| Coalescent de Kingman | vers l’arrière | partition/ arbre de coalescence d’un échantillon | taux \(\binom{k}{2}\) pour \(k\) lignées ; pure death process | +| Coalescent avec recombinaison | vers l’arrière | ARG | structure plus complexe ; inférence difficile | ### Métriques d’histoire | Métrique | Définition | Coût de calcul (typique) | Commentaire | -|---|---|---|---| -| \(\|M_{\mathcal{T}}\|_1\) | somme des compteurs | \(O(|\mathcal{L}|^2)\) dense | « volume » de transitions | -| \(|\mathrm{supp}(M_{\mathcal{T}})|\) | nombre de transitions distinctes | sparse \(O(\#\text{non‑zéros})\) | diversité structurale | -| \(H(M_{\mathcal{T}})\) | entropie Shannon sur transitions | \(O(\#\text{non‑zéros})\) | dispersion sans sémantique | -| profondeur/largeur | invariants DAG | \(O(|V|+|E|)\) | structure temporelle | +| --- | --- | --- | --- | +| \(\|M\_{\mathcal{T}}\|\_1\) | somme des compteurs | \(O(|\mathcal{L}|^2)\)\)) dense | « volume » de transitions | +| \(((|\mathrm{supp}(M\_{\mathcal{T}})|\) | nombre de transitions distinctes | sparse \(O(\#\text{non‑zéros})\)\)) | diversité structurale | +| \(((H(M\_{\mathcal{T}})\)\)) | entropie Shannon sur transitions | \(((O(\#\text{non‑zéros})\)\)) | dispersion sans sémantique | +| profondeur/largeur | invariants DAG | \(((O(|V|+|E|)\)\)) | structure temporelle | --- -# Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques +## Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques {#chapitre-8-stabilisation-contraintes-sur-lavenir-et-emergence-de-proprietes-epistemiques} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 8 -Hypothèses (H). +**Hypothèses (H).** -- cadre discret fini pour la stabilisation en temps fini ; ou cadre compact/continu pour des résultats asymptotiques ; +- cadre discret fini pour la stabilisation en temps fini ; ou cadre compact/continu pour des résultats asymptotiques - choix déclaré d’une granularité/description lorsqu’on parle de contraintes sur l’avenir à un niveau donné. -Résultats (E). +**Résultats (E).** -- définitions de stabilisation, bassins, verrous et contraintes sur l’avenir ; +- définitions de stabilisation, bassins, verrous et contraintes sur l’avenir - articulation entre stabilisation et propriétés épistémiques dérivées (réduction d’incertitude) sans sujet, avec quantification optionnelle indexée. -Statut. +**Statut.** - noyau ensembliste pour les implications combinatoires ; couches [M]/[P] uniquement lorsque une mesure ou un noyau est déclaré. -## Résumé exécutif +## Résumé exécutif — Ch. 8 -Ce chapitre reconstruit la notion de **stabilisation** comme propriété formelle d’une dynamique (discrète ou continue) sur un espace de configurations, puis en déduit une notion de **contrainte sur l’avenir** : la dynamique, en convergeant vers des ensembles invariants attractifs, réduit effectivement l’ensemble des futurs accessibles à partir d’un ensemble initial d’états (incertitude, agrégation, ou classe). Dans le cadre discret fini, cette réduction est absolue : toute orbite tombe en temps fini dans un cycle, et l’espace se partitionne en bassins qui déterminent des « destinées » asymptotiques. Dans le cadre compact métrique/topologique, on remplace l’argument de finitude par la compacité et la notion d’\(\omega\)-limite : les ensembles limites sont non vides, compacts et invariants, et les attracteurs se définissent par attraction d’un voisinage. +Ce chapitre reconstruit la notion de **stabilisation** comme propriété formelle d’une dynamique (discrète ou continue) sur un espace de configurations, puis en déduit une notion de **contrainte sur l’avenir** : la dynamique, en convergeant vers des ensembles invariants attractifs, réduit effectivement l’ensemble des futurs accessibles à partir d’un ensemble initial d’états (incertitude, agrégation, ou classe). Dans le cadre discret fini, cette réduction est absolue : toute orbite tombe en temps fini dans un cycle, et l’espace se partitionne en bassins qui déterminent des « destinées » asymptotiques. Dans le cadre compact métrique/topologique, on remplace l’argument de finitude par la compacité et la notion d’\(((\omega\)-limite : les ensembles limites sont non vides, compacts et invariants, et les attracteurs se définissent par attraction d’un voisinage. -On formalise ensuite des mécanismes de **verrouillage** : frontières de bassins, barrières de transition et mesures de « force de verrouillage » (taille de bassin, probabilité d’évasion, temps moyen d’évasion). Sous bruit, les bassins deviennent des régions métastables, et les questions se déplacent vers la robustesse (stabilité structurelle) et les transitions rares. Les repères de consensus mobilisés sont : stabilité de Lyapunov (définitions canonisées), stabilité structurelle en dimension 2 (Peixoto) et cadres hyperboliques (programme de Smale). +On formalise ensuite des mécanismes de **verrouillage** : frontières de bassins, barrières de transition et mesures de « force de verrouillage » (taille de bassin, probabilité d’évasion, temps moyen d’évasion). Sous bruit, les bassins deviennent des régions métastables, et les questions se déplacent vers la robustesse (stabilité structurelle) et les transitions rares. Les repères de consensus mobilisés sont : stabilité de Lyapunov (définitions canonisées), stabilité structurelle en dimension 2 (Peixoto) et cadres hyperboliques (programme de Smale). -Enfin, on définit des **propriétés épistémiques dérivées** sans invoquer de sujet : un objet/variable dérivée est dite « épistémique » lorsqu’elle (i) est une contrainte stable/transmissible sur la dynamique, (ii) réduit formellement l’incertitude sur des états futurs (via entropie conditionnelle ou information mutuelle au sens de Shannon), et (iii) reste opératoire sous perturbations admissibles. Shannon fournit le langage minimal (entropie, conditionnement) et Jaynes formalise le rôle des contraintes comme base d’estimation maximale d’entropie (sans hypothèse sémantique), tandis que Landauer apporte la contrainte thermodynamique sur les opérations logiquement irréversibles qui « effacent » des distinctions (borne \(kT\) / \(kT\ln 2\) par bit). +Enfin, on définit des **propriétés épistémiques dérivées** sans invoquer de sujet : un objet/variable dérivée est dite « épistémique » lorsqu’elle (i) est une contrainte stable/transmissible sur la dynamique, (ii) réduit formellement l’incertitude sur des états futurs (via entropie conditionnelle ou information mutuelle au sens de Shannon), et (iii) reste opératoire sous perturbations admissibles. Shannon fournit le langage minimal (entropie, conditionnement) et Jaynes formalise le rôle des contraintes comme base d’estimation maximale d’entropie (sans hypothèse sémantique), tandis que Landauer apporte la contrainte thermodynamique sur les opérations logiquement irréversibles qui « effacent » des distinctions (borne \(kT\) / \(kT\ln 2\) par bit). ## Primitives, axiomes et définitions de stabilisation -On fixe des primitives non sémantiques déjà admises dans l’ouvrage : un espace de configurations \(X\), une dynamique (itération ou flot), des classes (quotients/projections), et des registres transmissibles (génotypes abstraits \(\Gamma\) et mémoires \(M\)). Aucune finalité n’est supposée. +On fixe des primitives non sémantiques déjà admises dans l’ouvrage : un espace de configurations \(X\), une dynamique (itération ou flot), des classes (quotients/projections), et des registres transmissibles (génotypes abstraits \(\Gamma\) et mémoires \(M\)). Aucune finalité n’est supposée. ### Primitives -- **Configurations** : ensemble \(X\) (fini, dénombrable ou compact métrique selon le cadre). -- **Dynamique discrète** : application \(f:X\to X\), itérée \(f^{(n)}\). -- **Dynamique continue (semi-flot)** : famille \(\{\Phi_t\}_{t\ge 0}\) satisfaisant \(\Phi_0=\mathrm{Id}\) et \(\Phi_{t+s}=\Phi_t\circ\Phi_s\); on distingue le cas réversible (flot, \(t\in\mathbb{R}\)) du cas irréversible (semi-groupe). Cette distinction est centrale dans la théorie des systèmes dynamiques différentiables (conjugaison, robustesse), telle que synthétisée par Smale. -- **Classes / compression** : projection \(q:X\to A\) (partition en fibres) ou quotient \(\pi:X\to X/{\sim}\) compatible avec \(f\) (système facteur). -- **Génotype abstrait** : un quadruplet \(\Gamma=(S,M,A,R)\) avec séquence \(S\) sur un alphabet fini, mémoire \(M\) (cooccurrences), invariants \(A\) et règles \(R\) (fragmentation/recombinaison/réparation). (Construction interne à l’ouvrage, non empirique par elle-même.) -- **Registres** : \(M\) est un opérateur de comptage discret (par ex. transitions entre classes), susceptible d’agrégation au sein d’une lignée (chapitres précédents du manuscrit). +- **Configurations** : ensemble \(X\) (fini, dénombrable ou compact métrique selon le cadre). +- **Dynamique discrète** : application \(f : X\to X\), itérée \(f^{(n)}\). +- **Dynamique continue (semi-flot)** : famille \(\{\Phi\_t\}\_{t\ge 0}\) satisfaisant \(\Phi\_0=\mathrm{Id}\) et \(\Phi\_{t+s}=\Phi\_t\circ\Phi\_s\) ; on distingue le cas réversible (flot, \(t\in\mathbb{R}\)) du cas irréversible (semi-groupe). Cette distinction est centrale dans la théorie des systèmes dynamiques différentiables (conjugaison, robustesse), telle que synthétisée par Smale. +- **Classes / compression** : projection \(q : X\to A\) (partition en fibres) ou quotient \(\pi : X\to X/{\sim}\) compatible avec \(f\) (système facteur). +- **Génotype abstrait** : un quadruplet \(\Gamma=(S,M,A,R)\)\)) avec séquence \(((S\) sur un alphabet fini, mémoire \(M\) (cooccurrences), invariants \(A\) et règles \(R\) (fragmentation/recombinaison/réparation). (Construction interne à l’ouvrage, non empirique par elle-même.) +- **Registres** : \(M\) est un opérateur de comptage discret (par ex. transitions entre classes), susceptible d’agrégation au sein d’une lignée (chapitres précédents du manuscrit). ### Stabilisation dans le cadre discret fini **Définition (stabilisation forte, discret fini).** -Dans \(X\) fini, une orbite \((x_n)\) est dite stabilisée si elle devient périodique après un transitoire : il existe \(\mu\ge 0\) et \(p\ge 1\) tels que \(x_{n+p}=x_n\) pour tout \(n\ge \mu\). Cela équivaut à « l’\(\omega\)-comportement est un cycle ». (Ce fait découle du principe des tiroirs et de la structure des graphes fonctionnels.) +Dans \(X\) fini, une orbite \((x\_n)\)\)) est dite stabilisée si elle devient périodique après un transitoire : il existe \(((\mu\ge 0\) et \(p\ge 1\) tels que \(x\_{n+p}=x\_n\) pour tout \(n\ge \mu\). Cela équivaut à « l’\(\omega\)-comportement est un cycle ». (Ce fait découle du principe des tiroirs et de la structure des graphes fonctionnels.) **Proposition (stabilisation en temps fini).** -Si \(|X|=N\), toute orbite d’un système déterministe \(f:X\to X\) est stabilisée, avec \(\mu+p\le N\). +Si \(|X|=N\), toute orbite d’un système déterministe \(f : X\to X\) est stabilisée, avec \(\mu+p\le N\). -_Preuve (élémentaire)._ Les \(N+1\) termes \(x_0,\dots,x_N\) contiennent une répétition \(x_i=x_j\) avec \(i|itération| U1["F_n(U)"] + U0["Ensemble initial U"] -->|itération| U1["F\\_n(U)"] U1 --> A1["Attracteur A₁"] U1 --> A2["Attracteur A₂"] A1 --- Bnd["Barrière / frontière de bassin"] A2 --- Bnd end - note1["Verrouillage: F_n(U) ⊂ Nε(A₁) pour n grand"] --- U1 + note1["Verrouillage : F\\_n(U) ⊂ Nε(A₁) pour n grand"] --- U1 ``` ## Mesures, entropies et bornes de verrouillage @@ -2484,55 +2469,53 @@ Le verrouillage peut être quantifié de plusieurs façons, selon le cadre (disc ### Entropie structurelle des bassins (discret) -Soit \(X\) fini, et \(\{B(C_i)\}_{i=1}^K\) la partition de \(X\) par bassins de cycles (attracteurs discrets). Posons \(p_i=|B(C_i)|/|X|\). On définit l’entropie structurelle de bassins : -\[ -H_{\mathrm{bassins}}=-\sum_{i=1}^K p_i \log p_i. +Soit \(X\) fini, et \(\{B(C\_i)\)\)}_{i=1}^K\) la partition de \(((X\) par bassins de cycles (attracteurs discrets). Posons \(p\_i=|B(C\_i)|/|X|\). On définit l’entropie structurelle de bassins : \[ +H\_{\mathrm{bassins}}=-\sum\_{i=1}^K p\_i \log p\_i. \] **Proposition (bornes).** \[ -0 \le H_{\mathrm{bassins}} \le \log K, +0 \le H\_{\mathrm{bassins}} \le \log K, \] -avec \(H_{\mathrm{bassins}}=0\) ssi un bassin domine tout (\(p_i=1\) pour un \(i\)), et \(H_{\mathrm{bassins}}=\log K\) ssi \(p_i=1/K\). +avec \(H\_{\mathrm{bassins}}=0\) ssi un bassin domine tout (\(p\_i=1\) pour un \(i\)), et \(H\_{\mathrm{bassins}}=\log K\) ssi \(p\_i=1/K\). -_Preuve._ Propriété standard de l’entropie de Shannon appliquée à une distribution finie. Shannon introduit l’entropie comme mesure de l’incertitude d’une source discrète et en dérive les propriétés élémentaires (concavité, maxima sous contrainte). +**Preuve.** Propriété standard de l’entropie de Shannon appliquée à une distribution finie. Shannon introduit l’entropie comme mesure de l’incertitude d’une source discrète et en dérive les propriétés élémentaires (concavité, maxima sous contrainte). -Interprétation purement formelle : faible \(H_{\mathrm{bassins}}\) signifie forte dominance (verrouillage global), tandis qu’un \(H_{\mathrm{bassins}}\) élevé signifie pluralité de futurs asymptotiques selon l’état initial. +Interprétation purement formelle : faible \(H\_{\mathrm{bassins}}\) signifie forte dominance (verrouillage global), tandis qu’un \(H\_{\mathrm{bassins}}\) élevé signifie pluralité de futurs asymptotiques selon l’état initial. ### Entropie topologique et complexité interne d’un régime -L’entropie topologique \(h_{\mathrm{top}}(f)\) a été introduite par Adler–Konheim–McAndrew comme invariant de conjugaison topologique pour applications continues sur espaces compacts, mesurant une croissance exponentielle de complexité orbitale via raffinements de recouvrements ouverts. +L’entropie topologique \(h\_{\mathrm{top}}(f)\)\)) a été introduite par Adler–Konheim–McAndrew comme invariant de conjugaison topologique pour applications continues sur espaces compacts, mesurant une croissance exponentielle de complexité orbitale via raffinements de recouvrements ouverts. -La coexistence est importante : un système peut avoir (i) un petit nombre d’attracteurs dominants (verrouillage global fort) et (ii) une entropie topologique positive sur un attracteur chaotique (complexité interne élevée). Les deux quantités répondent à des questions différentes : « où finit-on ? » versus « à quel point la dynamique est-elle complexe sur le régime atteint ? ». +La coexistence est importante : un système peut avoir (i) un petit nombre d’attracteurs dominants (verrouillage global fort) et (ii) une entropie topologique positive sur un attracteur chaotique (complexité interne élevée). Les deux quantités répondent à des questions différentes : « où finit-on ? » versus « à quel point la dynamique est-elle complexe sur le régime atteint ? ». ### Probabilité de sortie et temps moyen d’évasion (cadre stochastique discret) -Pour modéliser le bruit, on considère une chaîne de Markov sur \(X\) avec matrice de transition \(P\). Un « bassin » devient une région \(B\subseteq X\) et l’« évasion » signifie frapper \(X\setminus B\). +Pour modéliser le bruit, on considère une chaîne de Markov sur \(((X\) avec matrice de transition \(P\). Un « bassin » devient une région \(B\subseteq X\) et l’« évasion » signifie frapper \(X\setminus B\). **Probabilité de sortie avant absorption.** -Soit \(h(x)\) la probabilité, en partant de \(x\in B\), d’atteindre un ensemble cible \(C\subseteq X\setminus B\) avant de sortir de \(B\) par un autre mécanisme (ou avant une absorption interne). Alors \(h\) satisfait un système linéaire harmonique sur \(B\) : -\[ -h(x)=\sum_{y\in X} P(x,y)\,h(y),\quad x\in B, +Soit \(h(x)\)\)) la probabilité, en partant de \(((x\in B\), d’atteindre un ensemble cible \(C\subseteq X\setminus B\) avant de sortir de \(B\) par un autre mécanisme (ou avant une absorption interne). Alors \(h\) satisfait un système linéaire harmonique sur \(B\) : \[ +h(x)=\sum\_{y\in X} P(x,y)\)\),h(y),\quad x\in B, \] -avec conditions au bord \(h|_C=1\) et \(h|_{X\setminus (B\cup C)}=0\). (Preuve élémentaire par propriété de Markov et loi des probabilités totales.) +avec conditions au bord \(((h|\_C=1\) et \(h|\_{X\setminus (B\cup C)}=0\). (Preuve élémentaire par propriété de Markov et loi des probabilités totales.) **Temps moyen d’évasion.** -Soit \(\tau_B=\inf\{n\ge 0: X_n\notin B\}\). La fonction \(u(x)=\mathbb{E}_x[\tau_B]\) vérifie +Soit \(\tau\_B=\inf\{n\ge 0 : X\_n\notin B\}\). La fonction \(u(x)=\mathbb{E}\_x[\tau\_B]\) vérifie \[ -u(x)=1+\sum_{y\in B} P(x,y)\,u(y),\quad x\in B, +u(x)=1+\sum\_{y\in B} P(x,y)\)\),u(y),\quad x\in B, \] -et \(u=0\) hors de \(B\). C’est encore un système linéaire, donc calculable en temps polynomial en \(|B|\) par inversion de matrice ou méthodes itératives (Gauss–Seidel). (Résultat de théorie élémentaire des chaînes de Markov finies.) +et \(((u=0\) hors de \(B\). C’est encore un système linéaire, donc calculable en temps polynomial en \(|B|\) par inversion de matrice ou méthodes itératives (Gauss–Seidel). (Résultat de théorie élémentaire des chaînes de Markov finies.) -Ces formules fournissent des **métriques de verrouillage** concrètes : un bassin fortement verrouillé a une faible probabilité d’évasion (sur un horizon donné) et/ou un temps moyen d’évasion élevé. +Ces formules fournissent des **métriques de verrouillage** concrètes : un bassin fortement verrouillé a une faible probabilité d’évasion (sur un horizon donné) et/ou un temps moyen d’évasion élevé. ### Tableau comparatif des métriques de verrouillage | Cadre | Mesure de verrouillage | Définition | Calcul/estimation | -|---|---|---|---| -| Discret déterministe | taille de bassin | \(|B(C)|/|X|\) | exact en \(O(|X|)\) avec graphe fonctionnel | -| Discret déterministe | entropie de bassins | \(H_{\mathrm{bassins}}(p_i)\) | exact une fois \(p_i\) connus (Shannon) | -| Compact continu | attraction uniforme | \(\sup_{x\in U}\mathrm{dist}(f^{(n)}(x),A)\to 0\) | analyse théorique / bornes | -| Stochastique (Markov) | prob. d’évasion | solution harmonique \(h=Ph\) sur \(B\) | système linéaire | +| --- | --- | --- | --- | +| Discret déterministe | taille de bassin | \(|B(C)|/|X|\) | exact en \(O(|X|)\)\)) avec graphe fonctionnel | +| Discret déterministe | entropie de bassins | \(((H\_{\mathrm{bassins}}(p\_i)\)\)) | exact une fois \(((p\_i\) connus (Shannon) | +| Compact continu | attraction uniforme | \(\sup\_{x\in U}\mathrm{dist}(f^{(n)}(x),A)\)\)to 0\) | analyse théorique / bornes | +| Stochastique (Markov) | prob. d’évasion | solution harmonique \(((h=Ph\) sur \(B\) | système linéaire | | Stochastique (Markov) | temps moyen d’évasion | \(u=1+Pu\) sur \(B\) | système linéaire | ## Robustesse sous bruit et stabilité structurelle des régimes @@ -2547,16 +2530,16 @@ La stabilité de Lyapunov fournit un critère minimal de robustesse locale : res Deux repères de consensus encadrent ce chapitre. -- **Peixoto (surfaces)** : sur une surface compacte, les champs de vecteurs structurellement stables (au sens \(C^1\)) forment un ensemble ouvert et dense, et admettent une caractérisation qualitative (pas de connexions selle‑selle, ensembles non errants hyperboliques, etc.). Cela signifie qu’en dimension 2, un « régime » typique est qualitativement robuste. -- **Smale (programme hyperbolique)** : la stabilité structurelle est liée à l’hyperbolicité et à la conjugaison topologique; Smale formalise un cadre global (Axiom A, décomposition spectrale) où les propriétés qualitatives persistent sous perturbations. +- **Peixoto (surfaces)** : sur une surface compacte, les champs de vecteurs structurellement stables (au sens \(C^1\)) forment un ensemble ouvert et dense, et admettent une caractérisation qualitative (pas de connexions selle‑selle, ensembles non errants hyperboliques, etc.). Cela signifie qu’en dimension 2, un « régime » typique est qualitativement robuste. +- **Smale (programme hyperbolique)** : la stabilité structurelle est liée à l’hyperbolicité et à la conjugaison topologique ; Smale formalise un cadre global (Axiom A, décomposition spectrale) où les propriétés qualitatives persistent sous perturbations. -Ces résultats justifient une distinction interne au chapitre : un attracteur n’est « contraignant pour l’avenir » de manière durable que s’il est **robuste** (au moins localement, idéalement structurellement). +Ces résultats justifient une distinction interne au chapitre : un attracteur n’est « contraignant pour l’avenir » de manière durable que s’il est **robuste** (au moins localement, idéalement structurellement). ### Entropie, irréversibilité et structures dissipatives (ancrage thermodynamique) Prigogine rappelle, dans sa leçon Nobel, l’usage des fonctions de Lyapunov en thermodynamique de stabilité et la centralité de la production d’entropie (signe non négatif) pour l’orientation irréversible, tout en distinguant les situations où une fonction de potentiel (Lyapunov) existe ou non. -Ce point sert ici uniquement comme correspondance de consensus : dans des systèmes physiques ouverts loin de l’équilibre, des « régimes organisés » peuvent persister (structures dissipatives), ce qui correspond formellement à l’existence d’ensembles invariants attirants sous contrainte dissipative. +Ce point sert ici uniquement comme correspondance de consensus : dans des systèmes physiques ouverts loin de l’équilibre, des « régimes organisés » peuvent persister (structures dissipatives), ce qui correspond formellement à l’existence d’ensembles invariants attirants sous contrainte dissipative. ## Propriétés épistémiques dérivées @@ -2564,43 +2547,42 @@ On introduit maintenant « épistémique » comme **adjectif dérivé** et non c ### Définition formelle d’une propriété épistémique dérivée -Soit \((X_t)_{t\ge 0}\) une dynamique (déterministe ou stochastique) sur \(X\), et soit \(D_t = D(X_t)\) une variable dérivée (par exemple : étiquette de bassin, classe, invariant calculé à partir d’un génotype \(\Gamma\)). On dit que \(D\) possède une propriété épistémique dérivée à l’horizon \(\tau\) s’il existe un gain strict de prévisibilité : -\[ -H(X_{t+\tau}\mid D_t)\ <\ H(X_{t+\tau}). +Soit \((X\_t)\_{t\ge 0}\) une dynamique (déterministe ou stochastique) sur \(X\), et soit \(D\_t = D(X\_t)\)\)) une variable dérivée (par exemple : étiquette de bassin, classe, invariant calculé à partir d’un génotype \(((\Gamma\)). On dit que \(D\) possède une propriété épistémique dérivée à l’horizon \(\tau\) s’il existe un gain strict de prévisibilité : \[ +H(X\_{t+\tau}\mid D\_t)\)\) <\ H(X_{t+\tau}). \] Équivalemment, l’information mutuelle satisfait \[ -I(D_t; X_{t+\tau})\ >\ 0. +I(D_t ; X_{t+\tau})\ >\ 0. \] Ces quantités (entropie, conditionnement, information mutuelle) sont introduites dans le cadre de Shannon comme mesures formelles de l’incertitude et de la réduction d’incertitude (indépendamment de toute sémantique). -**Remarque de méthode.** Cette définition ne dit pas que « le système connaît » quoi que ce soit; elle dit qu’il existe une variable dérivée stable qui **porte** une contrainte suffisante pour réduire l’ensemble des futurs accessibles. +**Remarque de méthode.** Cette définition ne dit pas que « le système connaît » quoi que ce soit ; elle dit qu’il existe une variable dérivée stable qui **porte** une contrainte suffisante pour réduire l’ensemble des futurs accessibles. ### Variables épistémiques typiques : étiquette de bassin et invariants transmissibles **Exemple 1 (étiquette de bassin).** -Dans un système discret fini déterministe, définissons \(D(x)=i\) si \(x\in B(C_i)\). Alors \(D(f^{(n)}(x))=D(x)\) pour tout \(n\) (l’orbite ne quitte pas son bassin). De plus, \(D\) prédit l’attracteur final; à horizon \(\tau\) grand, il prédit que \(X_{t+\tau}\) appartient au cycle \(C_{D_t}\). Donc \(H(X_{t+\tau}\mid D_t)\) est strictement plus petit qu’en l’absence de \(D_t\) dès que plusieurs bassins existent et que l’incertitude initiale couvre plusieurs bassins. (Preuve directe par définition des bassins.) +Dans un système discret fini déterministe, définissons \(((D(x)=i\) si \(x\in B(C\_i)\)\)). Alors \(((D(f^{(n)}(x))=D(x)\)\)) pour tout \(((n\) (l’orbite ne quitte pas son bassin). De plus, \(D\) prédit l’attracteur final ; à horizon \(\tau\) grand, il prédit que \(X\_{t+\tau}\) appartient au cycle \(C\_{D\_t}\). Donc \(H(X\_{t+\tau}\mid D\_t)\)\)) est strictement plus petit qu’en l’absence de \(((D\_t\) dès que plusieurs bassins existent et que l’incertitude initiale couvre plusieurs bassins. (Preuve directe par définition des bassins.) **Exemple 2 (registre transmissible).** -Soit un génotype abstrait \(\Gamma=(S,M,A,R)\) transmis partiellement dans une lignée (chapitres précédents). Une variable dérivée \(D(\Gamma)\) peut être un invariant de second ordre (attracteur dans l’espace quotient des classes, statistique stable de transitions, etc.). Si \(D\) est stable sous recombinaison/réparation (homomorphisme ou invariant robuste) et influence la dynamique (construit un bassin dominant pour la descendance), alors \(D\) devient une contrainte transmissible qui réduit l’incertitude sur les régimes atteints par les descendants (réduction de la diversité des futurs). Cette « épistémicité » est structurelle : transmission + stabilité + pouvoir de contrainte. +Soit un génotype abstrait \(\Gamma=(S,M,A,R)\)\)) transmis partiellement dans une lignée (chapitres précédents). Une variable dérivée \(((D(\Gamma)\)\)) peut être un invariant de second ordre (attracteur dans l’espace quotient des classes, statistique stable de transitions, etc.). Si \(((D\) est stable sous recombinaison/réparation (homomorphisme ou invariant robuste) et influence la dynamique (construit un bassin dominant pour la descendance), alors \(D\) devient une contrainte transmissible qui réduit l’incertitude sur les régimes atteints par les descendants (réduction de la diversité des futurs). Cette « épistémicité » est structurelle : transmission + stabilité + pouvoir de contrainte. ### Conditions nécessaires et suffisantes (propositions élémentaires) **Proposition (nécessité minimale).** -Si \(D_t\) est presque sûrement constant (aucune variation), alors \(I(D_t;X_{t+\tau})=0\) et aucune propriété épistémique dérivée n’apparaît. +Si \(D\_t\) est presque sûrement constant (aucune variation), alors \(I(D\_t ; X\_{t+\tau})=0\) et aucune propriété épistémique dérivée n’apparaît. -_Preuve._ Si \(D_t\equiv c\), alors \(H(X_{t+\tau}\mid D_t)=H(X_{t+\tau}\mid c)=H(X_{t+\tau})\). □ +**Preuve.** Si \(D\_t\equiv c\), alors \(H(X\_{t+\tau}\mid D\_t)=H(X\_{t+\tau}\mid c)=H(X\_{t+\tau})\)\)). □ **Proposition (suffisance simple via attracteurs dominants).** -Supposons qu’il existe deux bassins \(B_1,B_2\) de mesures positives (ou de tailles positives en discret) et que l’incertitude initiale place une masse non nulle sur chacun. Alors la variable \(D(x)=\mathbf{1}_{x\in B_1}\) satisfait \(I(D_t; \text{attracteur final})>0\) et donc réduit l’incertitude sur un futur suffisamment tardif. +Supposons qu’il existe deux bassins \(((B\_1,B\_2\) de mesures positives (ou de tailles positives en discret) et que l’incertitude initiale place une masse non nulle sur chacun. Alors la variable \(D(x)=\mathbf{1}\_{x\in B\_1}\) satisfait \(I(D\_t ; \text{attracteur final})>0\) et donc réduit l’incertitude sur un futur suffisamment tardif. -_Preuve._ \(D\) détermine quel attracteur final sera atteint (par définition des bassins), et comme \(D\) n’est pas constante (probabilités non triviales), l’information mutuelle est positive. □ +**Preuve.** \(D\) détermine quel attracteur final sera atteint (par définition des bassins), et comme \(D\) n’est pas constante (probabilités non triviales), l’information mutuelle est positive. □ ### Jaynes : contraintes et prédiction minimale biaisée Jaynes formalise l’idée qu’une description par contraintes partielles (moments, invariants) induit une distribution de probabilité « la moins biaisée » compatible avec ces contraintes via le principe de maximum d’entropie. Cela fournit un pont formel entre « contrainte stable » et « prédiction distribuationnelle », sans invocation sémantique. -Dans notre langage, si un invariant \(D\) est transmissible et stable, alors la classe des futurs compatibles avec \(D\) est restreinte; le maximum d’entropie donne alors une manière canonique (au sens de Jaynes) d’assigner des probabilités sur ces futurs lorsque l’on ne conserve que \(D\) comme contrainte. +Dans notre langage, si un invariant \(D\) est transmissible et stable, alors la classe des futurs compatibles avec \(D\) est restreinte ; le maximum d’entropie donne alors une manière canonique (au sens de Jaynes) d’assigner des probabilités sur ces futurs lorsque l’on ne conserve que \(D\) comme contrainte. ### Diagramme : génotype → invariant → attracteur → contrainte sur l’avenir @@ -2609,12 +2591,12 @@ flowchart TD Gamma["Γ=(S,M,A,R)"] --> D["Invariant dérivé D(Γ)"] D --> Basin["Bassin/Region verrouillée B(D)"] Basin --> Attr["Régime stable / attracteur"] - D --> Pred["Réduction d’incertitude sur futurs: H(Futur|D) < H(Futur)"] + D --> Pred["Réduction d’incertitude sur futurs : H(Futur|D) < H(Futur)"] ``` ## Conséquences strictement déduites (lecture conditionnelle) -Les conclusions suivantes ne supposent ni « sujet », ni téléologie; elles suivent des constructions mathématiques précédentes. +Les conclusions suivantes ne supposent ni « sujet », ni téléologie ; elles suivent des constructions mathématiques précédentes. **Disponibilité de formes persistantes qui contraignent les futurs.** L’existence d’attracteurs (discrets ou topologiques) implique qu’il existe des régimes invariants atteints à partir de voisinages : à grande échelle, l’ensemble des futurs accessibles se réduit aux régimes attractifs. La dynamique produit donc des « formes persistantes » (au sens invariant) capables de canaliser les trajectoires. @@ -2629,14 +2611,15 @@ Si le verrouillage exige des opérations non injectives (effacement, projection) ### Ontologie des contraintes -Le chapitre autorise une thèse philosophique minimale (et non circulaire) : ce qui « persiste » et « agit sur l’avenir » n’est pas l’état individuel, mais une **structure d’invariance et d’attraction** (attracteur + bassin, ou invariant stable) qui réduit l’espace des possibles. L’ontologie n’est pas celle d’entités substantielles, mais celle de **contraintes dynamiques**. +Le chapitre autorise une thèse philosophique minimale (et non circulaire) : ce qui « persiste » et « agit sur l’avenir » n’est pas l’état individuel, mais une **structure d’invariance et d’attraction** (attracteur + bassin, ou invariant stable) qui réduit l’espace des possibles. L’ontologie n’est pas celle d’entités substantielles, mais celle de **contraintes dynamiques**. Cette ontologie est compatible avec deux repères classiques : - La stabilité (Lyapunov) comme définition de ce qui résiste aux perturbations locales. + - La stabilité structurelle (Peixoto/Smale) comme définition de ce qui résiste aux perturbations des lois elles-mêmes. -### Ce que le formalisme interdit +### Ce que le formalisme interdit — Ch. 8 - Il interdit de traiter « connaissance » comme primitive : les propriétés épistémiques sont définies **a posteriori** comme réduction d’incertitude sur l’avenir via variables dérivées, sans sémantique. - Il interdit d’identifier « attracteur » à « optimum » (aucune fonction de coût n’est postulée) et interdit toute téléologie implicite. @@ -2644,53 +2627,53 @@ Cette ontologie est compatible avec deux repères classiques : ### Limites internes (à assumer explicitement) -- **Dépendance au niveau de description.** Les bassins, entropies structurelles et variables \(D\) dépendent du choix de projection \(q\) et de la granularité temporelle; changer de niveau de description peut transformer des transitions rares en transitions fréquentes (ou inversement). +- **Dépendance au niveau de description.** Les bassins, entropies structurelles et variables \(D\) dépendent du choix de projection \(q\) et de la granularité temporelle ; changer de niveau de description peut transformer des transitions rares en transitions fréquentes (ou inversement). - **Pluralité des notions d’attracteur.** Il existe plusieurs définitions non équivalentes (topologique, mesurée, Milnor attractor). Le chapitre se limite à une définition topologique standard et à des critères robustes (Lyapunov, stabilité structurelle) reconnus. - **Les structures dissipatives ne sont pas un axiome.** Le lien avec Prigogine est une correspondance empirique consensuelle : il illustre que des régimes attractifs peuvent exister loin de l’équilibre et que l’entropie/production d’entropie jouent un rôle structurant, mais cela ne remplace pas les démonstrations abstraites du chapitre. ### Tableau de synthèse : stabilisation et épistémicité dérivée | Notion | Définition formelle | Condition clé | Statut | -|---|---|---|---| +| --- | --- | --- | --- | | Stabilisation (discret fini) | transitoire + cycle | finitude + déterminisme | démontré (élémentaire) | -| Stabilisation (compact) | \(\omega(x)\) non vide, invariant | compacité + continuité | démontré (élémentaire) | -| Robustesse locale | stabilité de Lyapunov | \(\varepsilon\)-\(\delta\) | consensus (Lyapunov) | +| Stabilisation (compact) | \(\omega(x)\)\)) non vide, invariant | compacité + continuité | démontré (élémentaire) | +| Robustesse locale | stabilité de Lyapunov | \(((\varepsilon\)-\(\delta\) | consensus (Lyapunov) | | Robustesse structurelle | conjugaison sous perturbation | hyperbolicité / critères | consensus (Peixoto/Smale) | -| Contrainte sur l’avenir | \(F_n(U)\to A\) ou \(U\subset B(A)\) | attracteur + bassin | déduit | -| Propriété épistémique dérivée | \(H(Futur|D) < H(Futur)\) | \(I(D;Futur)>0\) + stabilité | défini (Shannon) | -| Coût minimal d’effacement | \(E_{\min}\ge kT\ln 2\ \Delta b\) | logique irréversible | consensus (Landauer) | +| Contrainte sur l’avenir | \(F\_n(U)\)\)to A\) ou \(((U\subset B(A)\)\)) | attracteur + bassin | déduit | +| Propriété épistémique dérivée | \(((H(Futur|D) < H(Futur)\)\)) | \(((I(D ; Futur)>0\) + stabilité | défini (Shannon) | +| Coût minimal d’effacement | \(E\_{\min}\ge kT\ln 2\ \Delta b\) | logique irréversible | consensus (Landauer) | --- -# Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification +## Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification {#chapitre-9-selection-structurelle-invariants-et-dynamique-de-complexification} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 9 -Hypothèses (H). +**Hypothèses (H).** -- existence de reproduction/variation et d’une notion de viabilité (contraintes) ; +- existence de reproduction/variation et d’une notion de viabilité (contraintes) - introduction d’une re‑pondération \(w\) (fitness structurelle) comme paramètre de modèle, sans finalité. -Résultats (E). +**Résultats (E).** -- reconstruction de la sélection comme effet de re‑pondération des distributions (opérateur \(S_w\)) ; -- décomposition de l’évolution moyenne par l’équation de Price (covariance + transformation intra‑lignées) ; +- reconstruction de la sélection comme effet de re‑pondération des distributions (opérateur \(S\_w\)) +- décomposition de l’évolution moyenne par l’équation de Price (covariance + transformation intra‑lignées) - définition de métriques de complexité et conditions explicites sous lesquelles une complexification est possible. -Statut. +**Statut.** - les énoncés sur distributions et modèles de population relèvent d’une couche probabiliste déclarée ; aucune optimisation n’est postulée. -## Résumé exécutif +## Résumé exécutif — Ch. 9 -Ce chapitre formalise la **sélection** comme un phénomène purement structural : un **opérateur** agissant sur des distributions de génotypes \(\Gamma\), sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de non‑injectivité) et des lignées orientées (DAG d’événements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une **tendance différentielle** à produire des descendants admissibles (au sens des contraintes \(R\)), ce qui se traduit mathématiquement par une **re‑pondération** des distributions par une fonction de poids \(w(\Gamma)\) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie. +Ce chapitre formalise la **sélection** comme un phénomène purement structural : un **opérateur** agissant sur des distributions de génotypes \(\Gamma\), sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de non‑injectivité) et des lignées orientées (DAG d’événements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une **tendance différentielle** à produire des descendants admissibles (au sens des contraintes \(R\)), ce qui se traduit mathématiquement par une **re‑pondération** des distributions par une fonction de poids \(w(\Gamma)\)\)) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie. -Deux résultats structurants sont établis. D’abord, l’opérateur de sélection \(S_w\) conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) **augmente la moyenne** \(\mathbb{E}[w]\) d’une manière mesurable (inégalité élémentaire via la variance). Ensuite, l’**équation de Price** fournit une identité générale de variation des moyennes : le changement d’une quantité moyenne (trait, invariant, complexité) se décompose en un terme de **covariance** entre variation et fitness, plus un terme de transformation « intra‑lignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique. +Deux résultats structurants sont établis. D’abord, l’opérateur de sélection \(((S\_w\) conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) **augmente la moyenne** \(\mathbb{E}[w]\) d’une manière mesurable (inégalité élémentaire via la variance). Ensuite, l’**équation de Price** fournit une identité générale de variation des moyennes : le changement d’une quantité moyenne (trait, invariant, complexité) se décompose en un terme de **covariance** entre variation et fitness, plus un terme de transformation « intra‑lignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique. -La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines **mesures de complexité** (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, (iii) profondeur logique de Bennett pour distinguer l’aléatoire « shallow » du complexe « deep » (résultat d’une longue histoire causale/computationnelle). -On montre que la complexification **n’est pas un monotone universel** : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets d’oubli, de bruit, et de coût d’effacement (Landauer) lorsqu’on considère l’implémentabilité physique des opérations irréversibles. +La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines **mesures de complexité** (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, (iii) profondeur logique de Bennett pour distinguer l’aléatoire « shallow » du complexe « deep » (résultat d’une longue histoire causale/computationnelle). +On montre que la complexification **n’est pas un monotone universel** : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets d’oubli, de bruit, et de coût d’effacement (Landauer) lorsqu’on considère l’implémentabilité physique des opérations irréversibles. -Enfin, on place ces définitions dans des modèles canoniques de consensus : Wright‑Fisher/Wright (population génétique), Moran (naissances‑morts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (Lieberman–Hauert–Nowak) où la structure d’interaction modifie probabilités de fixation et temps d’absorption. +Enfin, on place ces définitions dans des modèles canoniques de consensus : Wright‑Fisher/Wright (population génétique), Moran (naissances‑morts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (Lieberman–Hauert–Nowak) où la structure d’interaction modifie probabilités de fixation et temps d’absorption. Les implications sont strictement déduites : si un modèle possède (a) reproduction partielle, (b) héritage de contraintes (invariants) et (c) sélection structurale (re‑pondération par \(w\)), alors il existe des régimes où certains invariants s'accumulent et où des trajectoires historiques de complexité croissante sont possibles (probabilistiquement), sans présupposer finalité ni « progrès ». ## Cadre formel minimal @@ -2698,7 +2681,7 @@ Les implications sont strictement déduites : si un modèle possède (a) reprodu On fixe un cadre qui ne présuppose ni biologie empirique ni intention. **Espaces et objets.** -On dispose d’un espace \(X\) de configurations (discret fini, ou compact métrique selon les besoins), et d’une dynamique \(f:X\to X\) (ou un semi‑flot). L’ouvrage a déjà établi que l’itération induit une structure d’ordre (préordre, puis ordre sur classes) et que l’évolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.) +On dispose d’un espace \(X\) de configurations (discret fini, ou compact métrique selon les besoins), et d’une dynamique \(f : X\to X\) (ou un semi‑flot). L’ouvrage a déjà établi que l’itération induit une structure d’ordre (préordre, puis ordre sur classes) et que l’évolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.) **Classes et génotypes.** On considère un espace de génotypes \(\mathcal{G}\), dont un élément est un quadruplet @@ -2706,30 +2689,30 @@ On considère un espace de génotypes \(\mathcal{G}\), dont un élément est un \Gamma=(S,M,A,R), \] où \(S\) est une séquence sur un alphabet fini \(\mathcal{L}\), \(M\) est un registre de cooccurrences (compteurs non négatifs), \(A\) un ensemble d’invariants dérivés, et \(R\) un ensemble de règles admissibles (fragmentation, recombinaison, réparation). -Le passage \(X\to \mathcal{L}\) (classes) est interprété comme compression/non‑injectivité (fibres et partitions), mais cela n’est pas requis pour définir la sélection ; cela est utilisé pour relier sélection et mémoire \(M\). +Le passage \(X\to \mathcal{L}\) (classes) est interprété comme compression/non‑injectivité (fibres et partitions), mais cela n’est pas requis pour définir la sélection ; cela est utilisé pour relier sélection et mémoire \(M\). **Populations comme distributions.** -Une population est une mesure de probabilité \(p\) sur \(\mathcal{G}\) (cas discret : \(p\in\Delta(\mathcal{G})\), simplex). Le « temps » au niveau populationnel est un index d’itération d’un opérateur sur distributions. +Une population est une mesure de probabilité \(p\) sur \(\mathcal{G}\) (cas discret : \(p\in\Delta(\mathcal{G})\)\)), simplex). Le « temps » au niveau populationnel est un index d’itération d’un opérateur sur distributions. **Reproduction/variation comme noyau de transition.** -On encode reproduction, recombinaison et mutation par un noyau \(K\) : -\[ -K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum_{\Gamma'} K(\Gamma'\mid \Gamma)=1. +On encode reproduction, recombinaison et mutation par un noyau \(((K\) : \[ +K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum\_{\Gamma'} K(\Gamma'\mid \Gamma)=1. \] Ainsi, l’étape de variation (sans sélection) est simplement \[ -p^{\text{var}}(\Gamma') = \sum_{\Gamma} p(\Gamma)\,K(\Gamma'\mid \Gamma). +p^{\text{var}}(\Gamma') = \sum\_{\Gamma} p(\Gamma)\)\),K(\Gamma'\mid \Gamma). \] C’est une mise à jour de Markov (linéaire sur le simplex). **Fitness structurelle non téléologique.** -On définit une fonction \(w:\mathcal{G}\to\mathbb{R}_+\) comme une **intensité différentielle de reproduction admissible**, par exemple : +On définit une fonction \(((w : \mathcal{G}\to\mathbb{R}\_+\) comme une **intensité différentielle de reproduction admissible**, par exemple : - \(w(\Gamma)=\mathbb{E}[\#\text{descendants admissibles}\mid \Gamma]\), ou -- \(w(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma)\), ou -- \(w(\Gamma)=\mathbb{P}(\text{conserver un invariant }A_0\mid\Gamma)\). -Aucune de ces définitions n’implique un but : \(w\) est un paramètre de la dynamique effective. +- \(w(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma)\)\)), ou +- \(((w(\Gamma)=\mathbb{P}(\text{conserver un invariant }A\_0\mid\Gamma)\)\)). + +Aucune de ces définitions n’implique un but : \(((w\) est un paramètre de la dynamique effective. ## Sélection structurelle et invariants sélectionnés @@ -2738,65 +2721,64 @@ Aucune de ces définitions n’implique un but : \(w\) est un paramètre de la **Définition (opérateur de sélection).** Soit \(p\) une distribution sur \(\mathcal{G}\), et \(w\ge 0\) une fonction non identiquement nulle. On définit \[ -(S_w p)(\Gamma) \;=\; \frac{w(\Gamma)\,p(\Gamma)}{\langle w,p\rangle}, +(S\_w p)(\Gamma) \ ; =\ ; \frac{w(\Gamma)\)\),p(\Gamma)}{\langle w,p\rangle}, \quad \text{où}\quad \langle w,p\rangle=\sum_{\Gamma} w(\Gamma)p(\Gamma). \] -C’est la re‑pondération standard « proportionnelle à \(w\) » (forme canonique de la sélection). +C’est la re‑pondération standard « proportionnelle à \(((w\) » (forme canonique de la sélection). **Proposition (bien‑définition).** -Si \(\langle w,p\rangle>0\), alors \(S_w p\) est une distribution (non négative et de somme 1). +Si \(\langle w,p\rangle>0\), alors \(S\_w p\) est une distribution (non négative et de somme 1). -_Preuve._ \(w(\Gamma)p(\Gamma)\ge 0\). La somme vaut \(\sum_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1\). □ +**Preuve.** \(w(\Gamma)p(\Gamma)\)\)ge 0\). La somme vaut \(((\sum\_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1\). □ Cette opération est la version abstraite (et non téléologique) du mécanisme « les types à plus grand taux de reproduction deviennent plus fréquents ». -### Sélection + variation : dynamique composée +### Sélection + variation : dynamique composée Le modèle minimal de sélection‑variation est alors \[ -p_{t+1} \;=\; K\big(S_w p_t\big), +p\_{t+1} \ ; =\ ; K\big(S\_w p\_t\big), \] -où \(K\) est l’opérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement : +où \(K\) est l’opérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement : - **sélection** (non linéaire, re‑normalisation), + - **variation** (linéaire, mélange). -### Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple) +### Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple) Un fait classique (et ici démontré explicitement) est que, lorsque \(w\) ne dépend pas de \(p\) (pas de dépendance fréquentielle), la sélection seule augmente la moyenne de \(w\). -**Proposition (augmentation de la moyenne de \(w\) sous \(S_w\)).** -Supposons \(w:\mathcal{G}\to\mathbb{R}_+\) indépendante de \(p\). Alors +**Proposition (augmentation de la moyenne de \(w\) sous \(S\_w\)).** +Supposons \(w : \mathcal{G}\to\mathbb{R}*+\) indépendante de \(p\). Alors \[ -\mathbb{E}_{S_w p}[w] \;\ge\; \mathbb{E}_{p}[w], +\mathbb{E}\_{S\_w p}[w] \ge \mathbb{E}\_{p}[w], \] avec égalité ssi \(w\) est constante \(p\)-presque partout. -_Preuve._ +**Preuve.** On calcule \[ -\mathbb{E}_{S_w p}[w]=\sum_{\Gamma} w(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} +\(\mathbb{E}\_{S\_w p}[w]=\sum\_{\Gamma} w(\Gamma)\)\)frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]}\) = \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}. \] -Or \(\mathbb{E}_p[w^2]=\mathrm{Var}_p(w)+\mathbb{E}_p[w]^2\), donc +Or \(((\mathbb{E}\_p[w^2]=\mathrm{Var}\_p(w)+\mathbb{E}\_p[w]^2\), donc \[ -\frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}=\mathbb{E}_p[w]+\frac{\mathrm{Var}_p(w)}{\mathbb{E}_p[w]} -\ge \mathbb{E}_p[w]. +\frac{\mathbb{E}\_p[w^2]}{\mathbb{E}\_p[w]}=\mathbb{E}\_p[w]+\frac{\mathrm{Var}\_p(w)}{\mathbb{E}\_p[w]} +\ge \mathbb{E}\_p[w]. \] -Égalité ssi \(\mathrm{Var}_p(w)=0\), i.e. \(w\) constante sur le support. □ +Égalité ssi \(\mathrm{Var}\_p(w)=0\), i.e. \(w\) constante sur le support. □ -Cette proposition est un énoncé strictement mathématique : il ne dit pas que « l’évolution progresse », il dit que l’opérateur \(S_w\) concentre la masse sur les régions de plus grand \(w\). +Cette proposition est un énoncé strictement mathématique : il ne dit pas que « l’évolution progresse », il dit que l’opérateur \(S\_w\) concentre la masse sur les régions de plus grand \(w\). -### Équation de Price : invariants sélectionnés par covariance +### Équation de Price : invariants sélectionnés par covariance -La question centrale de ce chapitre est : **quels invariants sont sélectionnés** ? -On répond sans métaphore par l’équation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec \(w\), modulé par ce qui se transforme pendant la reproduction. +La question centrale de ce chapitre est : **quels invariants sont sélectionnés** ? On répond sans métaphore par l’équation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec \(w\), modulé par ce qui se transforme pendant la reproduction. **Énoncé (forme générale, un pas).** -Soit une population d’individus \(i\) (ou de génotypes \(\Gamma\)) avec une quantité \(z\) (trait, invariant, complexité) et un nombre de descendants \(w\) (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \(\bar z\) entre deux générations se décompose en : -\[ -\Delta \bar z \;=\; \frac{\mathrm{Cov}(w,z)}{\bar w} \;+\; \frac{\mathbb{E}[w\,\Delta z]}{\bar w}, +Soit une population d’individus \(i\) (ou de génotypes \(\Gamma\)) avec une quantité \(z\) (trait, invariant, complexité) et un nombre de descendants \(w\) (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \(\bar z\) entre deux générations se décompose en : \[ +\Delta \bar z \ ; =\ ; \frac{\mathrm{Cov}(w,z)}{\bar w} \ ; +\ ; \frac{\mathbb{E}[w\,\Delta z]}{\bar w}, \] où \(\Delta z\) est le changement de \(z\) entre parent et descendant (terme « transmission/transformations internes »). Price montre explicitement que la variation attribuable à la sélection s’exprime comme un terme de covariance, et il illustre la transparence de cette écriture. (La version 1972 étend ce formalisme et discute des cas plus complexes, notamment quand la structure de sélection n’est pas une simple sélection « génétique » au sens standard.) @@ -2810,43 +2792,43 @@ Ainsi, un invariant « sélectionné » est un invariant \(z\) dont la covarianc ## Dynamique de complexification et métriques de complexité -Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle \(C\) sur \(\Gamma\) (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous l’action conjointe variation‑sélection‑héritage. +Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle \(C\) sur \(\Gamma\) (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous l’action conjointe variation‑sélection‑héritage. ### Trois familles de métriques (consensus) **Entropie structurelle (Shannon).** Pour une distribution \(p\) sur \(\mathcal{G}\), l’entropie de Shannon \[ -H(p)=-\sum_{\Gamma} p(\Gamma)\log p(\Gamma) +H(p)=-\sum\_{\Gamma} p(\Gamma)\)\)log p(\Gamma) \] mesure la dispersion des types possibles. Shannon introduit l’entropie comme mesure d’incertitude d’une source discrète et en établit les propriétés élémentaires et le rôle des conditionnements. -Dans notre cadre, \(H(p_t)\) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes. +Dans notre cadre, \(((H(p\_t)\)\)) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes. **Complexité algorithmique (Kolmogorov).** Kolmogorov distingue explicitement une approche combinatoire, probabiliste et algorithmique de « quantité d’information », en reliant la mesure à des descriptions minimales (approche par fonctions récursives). -On note \(K(\Gamma)\) la longueur de la plus courte description (programme) produisant \(\Gamma\) sur une machine universelle. On note (consensus en théorie) : \(K\) n’est pas calculable en général, mais sert de référence conceptuelle pour la compressibilité. +On note \(((K(\Gamma)\)\)) la longueur de la plus courte description (programme) produisant \(((\Gamma\) sur une machine universelle. On note (consensus en théorie) : \(K\) n’est pas calculable en général, mais sert de référence conceptuelle pour la compressibilité. **Profondeur logique (Bennett).** -Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir d’un programme (presque) le plus court, avec un paramètre de signification. -Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis qu’un objet compressible mais difficile à générer peut être « deep ». +Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir d’un programme (presque) le plus court, avec un paramètre de signification. +Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis qu’un objet compressible mais difficile à générer peut être « deep ». ### Complexification comme dérive positive d’une fonctionnelle -Soit \(C:\mathcal{G}\to\mathbb{R}\) une mesure de complexité (au choix : \(K\), profondeur, taille de support de \(M\), etc.). Définissons la moyenne populationnelle +Soit \(C : \mathcal{G}\to\mathbb{R}\) une mesure de complexité (au choix : \(K\), profondeur, taille de support de \(M\), etc.). Définissons la moyenne populationnelle \[ -\bar C_t = \mathbb{E}_{p_t}[C]. +\bar C\_t = \mathbb{E}\_{p\_t}[C]. \] **Proposition (variation de \(\bar C\) sous sélection pure).** -Sous sélection seule \(p' = S_w p\), +Sous sélection seule \(p' = S\_w p\), \[ \bar C' - \bar C -= \frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}. += \frac{\mathrm{Cov}\_p(w,C)}{\mathbb{E}\_p[w]}. \] -_Preuve._ +**Preuve.** \[ -\bar C'=\sum_\Gamma C(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} +\bar C'=\sum\_\Gamma C(\Gamma)\)\)frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} =\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}. \] Donc @@ -2858,34 +2840,35 @@ Donc \] □ -Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à \(w\). +Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à \(((w\). ### Conditions nécessaires pour une dynamique de complexification -En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) : +En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) : -- **Variation** : la dynamique doit explorer des génotypes de \(C\) différents (sinon covariance nulle). -- **Héritabilité** : les opérations de reproduction doivent préserver suffisamment \(C\) (ou le reconstruire) pour que l’avantage corrélé à \(w\) ne soit pas détruit; sinon le terme \(\mathbb{E}[w\Delta C]\) compense négativement. -- **Corrélation structurale** : il faut une covariance positive durable \(\mathrm{Cov}(w,C)>0\). +- **Variation** : la dynamique doit explorer des génotypes de \(C\) différents (sinon covariance nulle). + +- **Héritabilité** : les opérations de reproduction doivent préserver suffisamment \(C\) (ou le reconstruire) pour que l’avantage corrélé à \(w\) ne soit pas détruit ; sinon le terme \(\mathbb{E}[w\Delta C]\) compense négativement. +- **Corrélation structurale** : il faut une covariance positive durable \(\mathrm{Cov}(w,C)>0\). Le formalisme de Jaynes, qui reconstruit des distributions à partir de contraintes par maximum d’entropie, fournit un langage canonique pour dire que « conserver une contrainte \(D\) » réduit l’incertitude sur les états possibles (donc sur les futurs), sans sémantique. Ici, cette remarque sert uniquement à justifier qu’une contrainte transmissible peut être traitée comme paramètre de prédiction probabiliste, sans postuler de sujet. -## Modèles de sélection : processus stochastiques, fixation et sélection sur graphes +## Modèles de sélection : processus stochastiques, fixation et sélection sur graphes Cette section relie les définitions abstraites à des modèles de consensus qui fournissent des résultats quantitatifs. -### Moran, Wright et Kimura : fixation sous dérive et sélection +### Moran, Wright et Kimura : fixation sous dérive et sélection **Moran (naissances/morts individuelles).** -Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences. +Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire ; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences. **Wright (populations mendéliennes).** Wright (1931) est l’une des sources fondatrices de la génétique des populations et discute explicitement dérive, sélection, structure, et effectifs (modèle large). **Kimura (probabilité de fixation).** -Kimura dérive une formule générale de probabilité de fixation \(u(p)\) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). -Dans le cas de sélection génique constante (avantage sélectif \(s\)), il obtient explicitement +Kimura dérive une formule générale de probabilité de fixation \(u(p)\)\)) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). +Dans le cas de sélection génique constante (avantage sélectif \(((s\)), il obtient explicitement \[ u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}}, \] @@ -2896,26 +2879,23 @@ u=\frac{1-e^{-2s}}{1-e^{-4Ns}}, avec approximation \(u\approx \frac{2s}{1-e^{-4Ns}}\) lorsque \(|s|\) est petit, et \(u\to \tfrac{1}{2N}\) quand \(s\to 0\) (neutralité). **Interprétation structurale (non téléologique).** -La fixation n’est pas un « but » : c’est l’absorption d’un processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection **et** de chance. +La fixation n’est pas un « but » : c’est l’absorption d’un processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection **et** de chance. -### Sélection sur graphes d’interaction : structure comme modulateur de sélection +### Sélection sur graphes d’interaction : structure comme modulateur de sélection -Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer l’effet de sélection. -Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité qu’un mutant « prenne le dessus » (fixe) et donc le taux d’évolution. +Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui ; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer l’effet de sélection. +Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité qu’un mutant « prenne le dessus » (fixe) et donc le taux d’évolution. -Point méthodologique pour l’ouvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles : - -1) sélection par re‑pondération \(w(\Gamma)\) dans une population homogène ; -2) sélection induite par **contraintes de communication** entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique. +Point méthodologique pour l’ouvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles : 1) sélection par re‑pondération \(w(\Gamma)\)\)) dans une population homogène ; 2) sélection induite par **contraintes de communication** entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique. Des travaux ultérieurs (consensus en modélisation) notent que les probabilités de fixation et temps d’absorption ne se ferment analytiquement que pour certaines classes de graphes, et que le calcul exact devient souvent algorithmique (systèmes linéaires, méthodes numériques). ### Branching processes multi‑types avec sélection (critère spectral) -Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le **processus de branchement multi‑types** : chaque type engendre une distribution d’enfants de différents types; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multi‑types et leurs critères de super‑criticité. -Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne \(M\) (Perron–Frobenius). +Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le **processus de branchement multi‑types** : chaque type engendre une distribution d’enfants de différents types ; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multi‑types et leurs critères de super‑criticité. +Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne \(((M\) (Perron–Frobenius). -Dans le langage du chapitre, un type \(\Gamma\) avec \(w(\Gamma)\) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la **survivabilité** des lignées. +Dans le langage du chapitre, un type \(\Gamma\) avec \(w(\Gamma)\)\)) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la **survivabilité** des lignées. ## Algorithmes, simulations et coût computationnel @@ -2923,30 +2903,32 @@ Cette section propose des schémas minimalistes, compatibles avec le formalisme ### Schéma générique sélection‑variation‑reproduction -On suppose une population de taille \(N\) représentée par \(\Gamma^{(1)},\dots,\Gamma^{(N)}\). +On suppose une population de taille \(((N\) représentée par \(\Gamma^{(1)},\dots,\Gamma^{(N)}\). -1) **Évaluation structurale** : calculer un score \(w_i=w(\Gamma^{(i)})\). -2) **Sélection** (roulette‑wheel) : tirer des parents avec probabilité \(w_i/\sum_j w_j\). -3) **Reproduction/variation** : produire un enfant via fragmentation/recombinaison/mutation (noyau \(K\)). -4) **Mise à jour de la mémoire** : mettre à jour \(M\) (cooccurrences, héritage partiel). +1) **Évaluation structurale** : calculer un score \(w\_i=w(\Gamma^{(i)})\)\)). +2) **Sélection** (roulette‑wheel) : tirer des parents avec probabilité \(((w\_i/\sum\_j w\_j\). +3) **Reproduction/variation** : produire un enfant via fragmentation/recombinaison/mutation (noyau \(K\)). +4) **Mise à jour de la mémoire** : mettre à jour \(M\) (cooccurrences, héritage partiel). 5) **Boucle**. -Complexité : +Complexité : -- calcul des poids : dépend de \(w\) (souvent \(O(\mathrm{size}(\Gamma))\)); -- sélection par cumul : \(O(N)\) par génération (ou \(O(\log N)\) avec arbre de Fenwick); -- reproduction : souvent linéaire en longueur de séquence (concaténation/crossover \(O(n)\)). +- calcul des poids : dépend de \(w\) (souvent \(O(\mathrm{size}(\Gamma))\)\))) + +- sélection par cumul : \(((O(N)\)\)) par génération (ou \(((O(\log N)\)\)) avec arbre de Fenwick) +- reproduction : souvent linéaire en longueur de séquence (concaténation/crossover \(((O(n)\)\))). ### Estimation de fitness structurelle -Le chapitre ne fixe pas une forme unique de \(w\). Deux familles naturelles (toutes deux non téléologiques) : +Le chapitre ne fixe pas une forme unique de \(((w\). Deux familles naturelles (toutes deux non téléologiques) : -- **Fitness de viabilité** : \(w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\ \text{admissible})\). -- **Fitness de robustesse** : \(w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit})\), ce qui se relie aux probabilités d’évasion/temps moyen d’évasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins). +- **Fitness de viabilité** : \(w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\)\) \text{admissible})\). -Ces constructions ne disent pas « pourquoi » un type est viable; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif. +- **Fitness de robustesse** : \(((w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit})\)\)), ce qui se relie aux probabilités d’évasion/temps moyen d’évasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins). -### Diagramme de flux : accumulation vs effacement +Ces constructions ne disent pas « pourquoi » un type est viable ; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif. + +### Diagramme de flux : accumulation vs effacement ```mermaid flowchart TD @@ -2960,23 +2942,23 @@ flowchart TD Agg -->|accumule| Comp["Potentiel de complexification (support/entropie/profondeur)"] ``` -Deux effets peuvent coexister : la sélection peut réduire la diversité de population (entropie \(H(p)\)) tout en favorisant, à l’échelle des lignées, l’accumulation d’un registre \(M_{\mathcal{T}}\) et l’augmentation de la profondeur logique de certains objets (complexification). +Deux effets peuvent coexister : la sélection peut réduire la diversité de population (entropie \(((H(p)\)\))) tout en favorisant, à l’échelle des lignées, l’accumulation d’un registre \(((M\_{\mathcal{T}}\) et l’augmentation de la profondeur logique de certains objets (complexification). ## Implications déduites et analyse philosophique -### Conséquences strictement déduites (lecture conditionnelle) +### Conséquences strictement déduites (lecture conditionnelle) — Ch. 9 (2) Les implications ci‑dessous sont des conséquences logiques des définitions, pas des hypothèses additionnelles. **Disponibilité d’une sélection non téléologique.** -Dès qu’un système possède (i) une reproduction/variation (noyau \(K\)) et (ii) une différence systématique de production de descendants admissibles (fonction \(w\)), alors la dynamique des distributions inclut une étape de re‑pondération équivalente à \(S_w\). Il y a donc sélection structurelle dès que le système n’est pas neutre au sens où tous les types n’ont pas le même « taux de continuation » (fitness structurelle). +Dès qu’un système possède (i) une reproduction/variation (noyau \(K\)) et (ii) une différence systématique de production de descendants admissibles (fonction \(w\)), alors la dynamique des distributions inclut une étape de re‑pondération équivalente à \(S\_w\). Il y a donc sélection structurelle dès que le système n’est pas neutre au sens où tous les types n’ont pas le même « taux de continuation » (fitness structurelle). **Sélection d’invariants par covariance.** -L’équation de Price montre que l’accroissement moyen d’une quantité \(z\) à travers une génération est gouverné par une covariance avec \(w\) et par un terme de transformation interne; ainsi, toute accumulation durable d’un invariant exige une covariance positive persistante et une transmission non destructrice. +L’équation de Price montre que l’accroissement moyen d’une quantité \(z\) à travers une génération est gouverné par une covariance avec \(w\) et par un terme de transformation interne ; ainsi, toute accumulation durable d’un invariant exige une covariance positive persistante et une transmission non destructrice. **Possibilité de complexité croissante sans “progrès”.** Si l’on choisit \(C\) comme mesure de complexité (support de \(M\), profondeur logique de Bennett, etc.), la condition minimale pour une dérive positive est \(\mathrm{Cov}(w,C)>0\) (sélection) et un terme \(\mathbb{E}[w\,\Delta C]\) non trop négatif (héritage). Price donne précisément le schéma de cette décomposition. -Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à l’aléatoire : « deep » signifie « résultat d’un long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel. +Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à l’aléatoire : « deep » signifie « résultat d’un long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel. **Contraintes physiques minimales (implémentabilité).** Si le système réalise des opérations logiquement irréversibles (projections, effacements) pour maintenir certains régimes (standardisation, réparation projective), alors, dans une implémentation thermodynamique donnée, Landauer fournit une borne minimale associée à l’effacement de distinctions. Cela ne fonde pas la sélection, mais borne le coût de certaines opérations de stabilisation/effacement dans des instanciations physiques. @@ -2988,60 +2970,60 @@ Philosophiquement, deux points sont licites (et deux sont interdits). **Ce qui devient structurellement dicible.** 1) La sélection n’est pas un “principe finaliste” mais un **effet de re‑pondération** dans un espace de transformations où tous les types n’ont pas la même continuation. La sélection est donc une propriété de l’**opérateur d’évolution**, pas une intention. -2) Un invariant sélectionné n’est pas une essence : c’est une quantité dont la covariance avec \(w\) est positive et transmissible (Price), donc un corrélat stable de persistance. +2) Un invariant sélectionné n’est pas une essence : c’est une quantité dont la covariance avec \(w\) est positive et transmissible (Price), donc un corrélat stable de persistance. **Ce que le formalisme interdit.** -1) Il interdit de confondre « fitness » avec « optimalité » ou « but » : \(w\) est un paramètre de reproduction/persistance, et non une fonction objectif métaphysique. -2) Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, d’où la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie). +1) Il interdit de confondre « fitness » avec « optimalité » ou « but » : \(w\) est un paramètre de reproduction/persistance, et non une fonction objectif métaphysique. +2) Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, d’où la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie). -### Tableaux comparatifs +### Tableaux comparatifs — Ch. 9 | Objet | Définition formelle | Rôle dans la dynamique | Risque de confusion à éviter | -|---|---|---|---| -| Sélection \(S_w\) | \(p(\Gamma)\mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]}\) | concentration sur grands \(w\) | “choix”, “but” | -| Variation \(K\) | noyau markovien \(K(\Gamma'|\Gamma)\) | exploration/mutation/recombinaison | “création orientée” | -| Invariant sélectionné \(z\) | \(\mathrm{Cov}(w,z)>0\) (+ transmission) | augmentation moyenne | “essence” | +| --- | --- | --- | --- | +| Sélection \(S\_w\) | \(p(\Gamma)\)\)mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]}\) | concentration sur grands \(((w\) | “choix”, “but” | +| Variation \(K\) | noyau markovien \(K(\Gamma'|\Gamma)\)\)) | exploration/mutation/recombinaison | “création orientée” | +| Invariant sélectionné \(((z\) | \(\mathrm{Cov}(w,z)>0\) (+ transmission) | augmentation moyenne | “essence” | | Fixation | absorption stochastique | domination d’un type | “victoire recherchée” | | Modèle | Type | Résultat canonique (consensus) | Source | -|---|---|---|---| +| --- | --- | --- | --- | | Moran | birth–death (finie) | dynamique stochastique des fréquences | Moran (1958) | | Fixation diffusion | approx. continue | \(u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}}\) (genic selection) | Kimura (1962) | | Sélection/covariance | identité | décomposition par covariance + transmission | Price (1970) | -| Graphes | population structurée | fixation dépend de la topologie; amplificateurs/suppresseurs | Lieberman et al. (2005) | +| Graphes | population structurée | fixation dépend de la topologie ; amplificateurs/suppresseurs | Lieberman et al. (2005) | | Métrique de complexité | Ce qu’elle mesure | Propriété structurante | Source | -|---|---|---|---| -| \(H(p)\) (Shannon) | dispersion des types | conditionnement, bornes, codage | Shannon (1948) | -| \(K(\Gamma)\) (Kolmogorov) | compressibilité intrinsèque | distingue structure vs aléa (en principe) | Kolmogorov (1968) | -| Profondeur logique \(D\) (Bennett) | longueur d’histoire computationnelle | “deep” ≠ “random” | Bennett (1988) | +| --- | --- | --- | --- | +| \(H(p)\)\)) (Shannon) | dispersion des types | conditionnement, bornes, codage | Shannon (1948) | +| \(((K(\Gamma)\)\)) (Kolmogorov) | compressibilité intrinsèque | distingue structure vs aléa (en principe) | Kolmogorov (1968) | +| Profondeur logique \(((D\) (Bennett) | longueur d’histoire computationnelle | “deep” ≠ “random” | Bennett (1988) | --- -# Chapitre 10 — Attracteurs, cycles et ensembles invariants +## Chapitre 10 — Attracteurs, cycles et ensembles invariants {#chapitre-10-attracteurs-cycles-et-ensembles-invariants} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 10 -Hypothèses (H). +**Hypothèses (H).** -- cadre discret fini pour la structure “transitoire + cycle” ; +- cadre discret fini pour la structure “transitoire + cycle” - ou cadre topologique/métrique (compacité, continuité) pour les attracteurs définis par limites. -Résultats (E). +**Résultats (E).** -- synthèse structurale des attracteurs, bassins, stabilité/robustesse et quantificateurs associés (indexés) ; +- synthèse structurale des attracteurs, bassins, stabilité/robustesse et quantificateurs associés (indexés) - clarification du statut des bifurcations et des changements de bassins comme phénomènes dépendant d’hypothèses de régularité. -Statut. +**Statut.** - noyau ensembliste pour les garanties combinatoires ; couches topologique/métrique et quantifications uniquement si déclarées. -## Résumé exécutif +## Résumé exécutif — Ch. 10 -Ce chapitre établit, sous hypothèses minimales, la structure des comportements à long terme des systèmes dynamiques, d’abord dans un cadre **discret fini**, puis dans des cadres **topologiques/métriques** plus généraux. Dans le cadre discret \((X,f)\) avec \(X\) fini, l’itération d’une application \(f:X\to X\) impose qu’à partir de tout état initial l’orbite devienne **pré‑périodique** : un transitoire suivi d’un **cycle** (preuve par principe des tiroirs). Cette propriété permet une description globale par **graphe fonctionnel** : chaque composante contient exactement **un cycle dirigé**, et tous les autres états s’y déversent via des arborescences. On en déduit des définitions formelles de **point fixe**, **cycle**, **ensemble invariant**, **attracteur discret** et **bassin**, ainsi que des algorithmes de calcul linéaires pour cycles et bassins. +Ce chapitre établit, sous hypothèses minimales, la structure des comportements à long terme des systèmes dynamiques, d’abord dans un cadre **discret fini**, puis dans des cadres **topologiques/métriques** plus généraux. Dans le cadre discret \((X,f)\)\)) avec \(((X\) fini, l’itération d’une application \(f : X\to X\) impose qu’à partir de tout état initial l’orbite devienne **pré‑périodique** : un transitoire suivi d’un **cycle** (preuve par principe des tiroirs). Cette propriété permet une description globale par **graphe fonctionnel** : chaque composante contient exactement **un cycle dirigé**, et tous les autres états s’y déversent via des arborescences. On en déduit des définitions formelles de **point fixe**, **cycle**, **ensemble invariant**, **attracteur discret** et **bassin**, ainsi que des algorithmes de calcul linéaires pour cycles et bassins. -Dans un cadre métrique/topologique, on remplace la finitude brute par la notion de **limite** : ensembles \(\omega(x)\), invariance et attraction au sens de la distance à un ensemble. On introduit les définitions classiques de **stabilité** (Lyapunov) et d’**attracteur topologique**, notamment via la notion de **trapping region** (région piège) et l’intersection décroissante des itérés, qui fournit un attracteur sous hypothèses de piégeage. Les théorèmes structurants cités comme consensus comprennent : (i) la stabilité de Lyapunov (définitions canoniques), (ii) la frontière dimensionnelle Poincaré–Bendixson en dimension 2 (absence d’attracteurs chaotiques pour les flots plans sous hypothèses standard), (iii) la stabilité structurelle dans la tradition Smale (hyperbolicité, conjugaison topologique, persistance qualitative). +Dans un cadre métrique/topologique, on remplace la finitude brute par la notion de **limite** : ensembles \(\omega(x)\)\)), invariance et attraction au sens de la distance à un ensemble. On introduit les définitions classiques de **stabilité** (Lyapunov) et d’**attracteur topologique**, notamment via la notion de **trapping region** (région piège) et l’intersection décroissante des itérés, qui fournit un attracteur sous hypothèses de piégeage. Les théorèmes structurants cités comme consensus comprennent : (i) la stabilité de Lyapunov (définitions canoniques), (ii) la frontière dimensionnelle Poincaré–Bendixson en dimension 2 (absence d’attracteurs chaotiques pour les flots plans sous hypothèses standard), (iii) la stabilité structurelle dans la tradition Smale (hyperbolicité, conjugaison topologique, persistance qualitative). On formalise ensuite **robustesse** et **bifurcations**, en particulier la bifurcation de Hopf (naissance d’une orbite périodique à partir d’un équilibre sous conditions standard) à partir d’une traduction de l’article original. On discute les changements soudains de bassins et d’attracteurs (crises) via un article classique de Grebogi–Ott–Yorke. @@ -3049,153 +3031,148 @@ Enfin, on introduit des **mesures structurelles** (taille des bassins, dominance ## Cadre discret fini -On se place dans un cadre minimal : un ensemble fini d’états et une règle déterministe d’évolution. +On se place dans un cadre minimal : un ensemble fini d’états et une règle déterministe d’évolution. ### Définitions formelles -Soit \(X\) un ensemble fini non vide, \(|X|=N\), et \(f:X\to X\) une application. +Soit \(((X\) un ensemble fini non vide, \(|X|=N\), et \(f : X\to X\) une application. -**Orbite.** À partir de \(x\in X\), on définit \(x_0=x\) et \(x_{t+1}=f(x_t)\). L’orbite est \((x_t)_{t\ge 0}\). +**Orbite.** À partir de \(x\in X\), on définit \(x\_0=x\) et \(x\_{t+1}=f(x\_t)\)\)). L’orbite est \((((x\_t)\_{t\ge 0}\). -**Point fixe.** \(x^\*\in X\) est un point fixe si \(f(x^\*)=x^\*\). +**Point fixe.** \(x^*\in X\) est un point fixe si \(f(x^*)=x^*\). **Point périodique et cycle.** \(x\in X\) est périodique de période \(p\ge 1\) si \(f^{(p)}(x)=x\) et \(p\) est minimal. Le **cycle** associé est \[ -C(x)=\{x,f(x),\dots,f^{(p-1)}(x)\}. +C(x)=\{x,f(x),\dots,f^{(p-1)}(x)\)\)}. \] -**Ensemble invariant.** Un sous‑ensemble \(S\subseteq X\) est (positivement) invariant si \(f(S)\subseteq S\). Il est invariant au sens fort si \(f(S)=S\). Un cycle est invariant au sens fort. +**Ensemble invariant.** Un sous‑ensemble \(((S\subseteq X\) est (positivement) invariant si \(f(S)\)\)subseteq S\). Il est invariant au sens fort si \(((f(S)=S\). Un cycle est invariant au sens fort. -**Attracteur discret (définition minimale pour le fini).** Dans le cadre déterministe fini, on appelle attracteur discret tout cycle (y compris le cas \(p=1\)). Cette convention n’introduit aucune métrique : elle identifie l’objet asymptotique de toute trajectoire dans l’espace fini. +**Attracteur discret (définition minimale pour le fini).** Dans le cadre déterministe fini, on appelle attracteur discret tout cycle (y compris le cas \(p=1\)). Cette convention n’introduit aucune métrique : elle identifie l’objet asymptotique de toute trajectoire dans l’espace fini. **Bassin d’un cycle.** Pour un cycle \(C\), le bassin est \[ -B(C)=\{x\in X:\exists t\ge 0,\ f^{(t)}(x)\in C\}. +B(C)=\{x\in X : \exists t\ge 0,\ f^{(t)}(x)\)\)in C\}. \] ### Pré‑périodicité forcée et borne temporelle -**Proposition (pré‑périodicité).** Pour tout \(x\in X\), il existe \(\mu\ge 0\) et \(p\ge 1\) tels que \(x_{t+p}=x_t\) pour tout \(t\ge\mu\). On peut choisir \(\mu+p\le N\). +**Proposition (pré‑périodicité).** Pour tout \(((x\in X\), il existe \(\mu\ge 0\) et \(p\ge 1\) tels que \(x\_{t+p}=x\_t\) pour tout \(t\ge\mu\). On peut choisir \(\mu+p\le N\). -**Démonstration (principe des tiroirs).** Les \(N+1\) termes \(x_0,\dots,x_N\) appartiennent à \(X\) de taille \(N\), donc il existe \(0\le i orb["Orbite (f^t(x))_{t≥0}"] - orb --> rep["Répétition forcée (∃i orb["Orbite (f^t(x))\\_{t≥0}"] + orb --> rep["Répétition forcée (∃i cyc["Cycle C (ensemble invariant)"] x --> bas["Bassin B(C)"] bas --> cyc - cyc --> inv["Invariance: f(C)=C"] + cyc --> inv["Invariance : f(C)=C"] ``` ### Calcul effectif des cycles et bassins Dans un graphe fonctionnel fini, on peut calculer en temps linéaire les sommets cycliques en éliminant itérativement les sommets de degré entrant nul (topologie inverse), puis en reconstruisant les bassins par parcours inverse depuis les cycles. -- Temps : \(O(N)\) (construction des degrés entrants + élimination + parcours). -- Espace : \(O(N)\) (stockage de \(f\) et des antécédents). +- Temps : \(O(N)\)\)) (construction des degrés entrants + élimination + parcours). +- Espace : \(((O(N)\)\)) (stockage de \(((f\) et des antécédents). -Ce fait sert de repère méthodologique : dans le cadre fini, la structure asymptotique n’est pas seulement théorique, elle est aussi calculable de façon efficace. +Ce fait sert de repère méthodologique : dans le cadre fini, la structure asymptotique n’est pas seulement théorique, elle est aussi calculable de façon efficace. ## Extension topologique et métrique -Le passage du discret fini au continu ne change pas la logique : il remplace la répétition brute par des notions de limite (compacité), de voisinage et de stabilité. +Le passage du discret fini au continu ne change pas la logique : il remplace la répétition brute par des notions de limite (compacité), de voisinage et de stabilité. ### \(\omega\)-limites et invariance sur compacts -Soit \((X,d)\) compact métrique et \(f:X\to X\) continue. +Soit \((X,d)\)\)) compact métrique et \(((f : X\to X\) continue. -**Définition (\(\omega\)-limite).** \(\omega(x)\) est l’ensemble des valeurs d’adhérence de \(\{f^{(n)}(x)\}\) : -\[ -\omega(x)=\bigcap_{m\ge 0}\overline{\{f^{(n)}(x):n\ge m\}}. +**Définition (\(\omega\)-limite).** \(\omega(x)\)\)) est l’ensemble des valeurs d’adhérence de \(((\{f^{(n)}(x)\)\)}\) : \[ +\omega(x)=\bigcap_{m\ge 0}\overline{\{f^{(n)}(x) : n\ge m\}}. \] -**Proposition (consensus standard, preuve élémentaire).** Pour tout \(x\), \(\omega(x)\) est non vide, compact, et invariant \(f(\omega(x))=\omega(x)\). +**Proposition (consensus standard, preuve élémentaire).** Pour tout \(((x\), \(\omega(x)\)\)) est non vide, compact, et invariant \(((f(\omega(x))=\omega(x)\)\)). -**Démonstration.** La compacité assure l’existence de sous‑suites convergentes, donc \(\omega(x)\neq\varnothing\); c’est un fermé dans un compact, donc compact. L’invariance suit de la continuité : si \(f^{(n_k)}(x)\to y\), alors \(f^{(n_k+1)}(x)=f(f^{(n_k)}(x))\to f(y)\), d’où \(f(y)\in\omega(x)\). L’inclusion réciproque découle du fait que tout point limite est aussi limite d’une suite décalée. □ +**Démonstration.** La compacité assure l’existence de sous‑suites convergentes, donc \(((\omega(x)\)\)neq\varnothing\) ; c’est un fermé dans un compact, donc compact. L’invariance suit de la continuité : si \(((f^{(n\_k)}(x)\)\)to y\), alors \(((f^{(n\_k+1)}(x)=f(f^{(n\_k)}(x))\)\)to f(y)\), d’où \(((f(y)\)\)in\omega(x)\). L’inclusion réciproque découle du fait que tout point limite est aussi limite d’une suite décalée. □ ### Définition topologique d’attracteur et existence via trapping region -La notion d’« attracteur » admet plusieurs variantes; ici, on retient une définition topologique standard via voisinage attiré. +La notion d’« attracteur » admet plusieurs variantes ; ici, on retient une définition topologique standard via voisinage attiré. -**Définition (attracteur topologique).** Un compact non vide \(A\subseteq X\) est un attracteur si : +**Définition (attracteur topologique).** Un compact non vide \(((A\subseteq X\) est un attracteur si : 1) \(f(A)=A\) ; 2) il existe un ouvert \(U\supseteq A\) tel que \(\mathrm{dist}(f^{(n)}(x),A)\)\)to 0\) pour tout \(((x\in U\). -1) \(f(A)=A\) ; -2) il existe un ouvert \(U\supseteq A\) tel que \(\mathrm{dist}(f^{(n)}(x),A)\to 0\) pour tout \(x\in U\). +Le **bassin** est \(B(A)=\{x : \mathrm{dist}(f^{(n)}(x),A)\)\)to 0\}\). -Le **bassin** est \(B(A)=\{x:\mathrm{dist}(f^{(n)}(x),A)\to 0\}\). +Une manière constructive d’obtenir un attracteur est d’exhiber une **région piège** (« trapping region ») ; cette approche apparaît notamment dans la littérature sur attracteurs et quasi‑attracteurs. -Une manière constructive d’obtenir un attracteur est d’exhiber une **région piège** (« trapping region ») ; cette approche apparaît notamment dans la littérature sur attracteurs et quasi‑attracteurs. - -**Proposition (existence d’un attracteur à partir d’une trapping region).** Soit \(U\subseteq X\) un ouvert dont l’adhérence \(\overline U\) est compacte et tel que \(f(\overline U)\subseteq U\). Alors +**Proposition (existence d’un attracteur à partir d’une trapping region).** Soit \(((U\subseteq X\) un ouvert dont l’adhérence \(\overline U\) est compacte et tel que \(f(\overline U)\)\)subseteq U\). Alors \[ -A:=\bigcap_{n\ge 0} f^{(n)}(\overline U) +A : =\bigcap_{n\ge 0} f^{(n)}(\overline U) \] -est un compact non vide invariant, et toute orbite partant dans \(\overline U\) reste dans \(\overline U\) et approche \(A\) (au sens de la distance à \(A\)). -(Ce résultat est un standard dans la théorie qualitative; on le formule ici en version minimale et on le rattache au vocabulaire « trapping region » utilisé dans la littérature sur attracteurs.) +est un compact non vide invariant, et toute orbite partant dans \(((\overline U\) reste dans \(\overline U\) et approche \(A\) (au sens de la distance à \(A\)). +(Ce résultat est un standard dans la théorie qualitative ; on le formule ici en version minimale et on le rattache au vocabulaire « trapping region » utilisé dans la littérature sur attracteurs.) -**Démonstration (élémentaire).** Les ensembles \(f^{(n)}(\overline U)\) sont non vides, compacts, emboîtés décroissants, donc leur intersection \(A\) est non vide et compacte (propriété standard des compacts). L’invariance \(f(A)=A\) suit de la continuité et de l’identité \(f(f^{(n)}(\overline U))=f^{(n+1)}(\overline U)\). L’attraction découle du fait que la distance à l’intersection d’une suite décroissante de compacts tend vers 0 le long des itérés (argument par contradiction utilisant la compacité). □ +**Démonstration (élémentaire).** Les ensembles \(f^{(n)}(\overline U)\)\)) sont non vides, compacts, emboîtés décroissants, donc leur intersection \(((A\) est non vide et compacte (propriété standard des compacts). L’invariance \(f(A)=A\) suit de la continuité et de l’identité \(f(f^{(n)}(\overline U))=f^{(n+1)}(\overline U)\)\)). L’attraction découle du fait que la distance à l’intersection d’une suite décroissante de compacts tend vers 0 le long des itérés (argument par contradiction utilisant la compacité). □ ### Stabilité de Lyapunov (robustesse locale) Les définitions canonisées de Lyapunov posent la robustesse locale des équilibres (et, par extension, d’ensembles invariants). -**Définition (Lyapunov).** Un équilibre \(x^\*\) est stable si -\(\forall\varepsilon>0\ \exists\delta>0\) tel que \(\|x(0)-x^\*\|<\delta\Rightarrow \|x(t)-x^\*\|<\varepsilon\) pour tout \(t\ge 0\). Il est asymptotiquement stable si, en plus, \(x(t)\to x^\*\) quand \(t\to\infty\). +**Définition (Lyapunov).** Un équilibre \(((x^\*\) est stable si +\(\forall\varepsilon>0\ \exists\delta>0\) tel que \(\|x(0)-x^\*\|<\delta\Rightarrow \|x(t)-x^\*\|<\varepsilon\) pour tout \(t\ge 0\). Il est asymptotiquement stable si, en plus, \(x(t)\)\)to x^\*\) quand \(((t\to\infty\). -Cette stabilité est distincte de l’attraction : attraction signifie « convergence vers », stabilité signifie « rester proche sous perturbation ». +Cette stabilité est distincte de l’attraction : attraction signifie « convergence vers », stabilité signifie « rester proche sous perturbation ». ### Frontière Poincaré–Bendixson (dimension 2) et impossibilité d’attracteurs étranges -En dimension 2 (flots sur le plan/surfaces sous hypothèses standard), le théorème de Poincaré–Bendixson impose que les ensembles \(\omega\)-limites compacts non vides ne peuvent pas supporter une dynamique « étrange » au sens chaotique : ils sont essentiellement équilibres et orbites périodiques (éventuellement avec connexions). Le résultat est traditionnellement attribué à Poincaré et Bendixson; une source primaire est l’article de Bendixson (1901), qui développe la théorie qualitative des courbes intégrales près des singularités. +En dimension 2 (flots sur le plan/surfaces sous hypothèses standard), le théorème de Poincaré–Bendixson impose que les ensembles \(\omega\)-limites compacts non vides ne peuvent pas supporter une dynamique « étrange » au sens chaotique : ils sont essentiellement équilibres et orbites périodiques (éventuellement avec connexions). Le résultat est traditionnellement attribué à Poincaré et Bendixson ; une source primaire est l’article de Bendixson (1901), qui développe la théorie qualitative des courbes intégrales près des singularités. -### Attracteurs étranges : définition opérationnelle et jalons +### Attracteurs étranges : définition opérationnelle et jalons -Le terme « attracteur étrange » n’a pas une définition unique universelle; on adopte ici une définition opérationnelle : - -Un attracteur \(A\) est dit **étrange** si (i) il est attractif (au sens topologique), (ii) la dynamique restreinte à \(A\) n’est pas périodique et présente une sensibilité/instabilité orbitale (au sens de séparation d’orbites), et (iii) l’ensemble \(A\) présente typiquement une géométrie non régulière (souvent fractale) ou une structure d’étirement‑repliement. +Le terme « attracteur étrange » n’a pas une définition unique universelle ; on adopte ici une définition opérationnelle : Un attracteur \(A\) est dit **étrange** si (i) il est attractif (au sens topologique), (ii) la dynamique restreinte à \(A\) n’est pas périodique et présente une sensibilité/instabilité orbitale (au sens de séparation d’orbites), et (iii) l’ensemble \(A\) présente typiquement une géométrie non régulière (souvent fractale) ou une structure d’étirement‑repliement. Trois jalons de consensus illustrent ce type d’objet : - Lorenz (1963) montre qu’un système différentiel dissipatif simple peut produire une dynamique non périodique associée à un attracteur (paradigme du « Lorenz attractor »). + - Hénon (1976) exhibe une application bidimensionnelle dissipative présentant un attracteur étrange pour certains paramètres. - Ruelle–Takens (1971) proposent un mécanisme de transition vers la turbulence où des attracteurs plus complexes que les cycles apparaissent dans des systèmes dissipatifs. -### Smale : hyperbolicité et organisation qualitative +### Smale : hyperbolicité et organisation qualitative -Smale (1967) synthétise la théorie moderne des systèmes dynamiques différentiables : ensembles non errants, hyperbolicité (Axiom A), conjugaison topologique et stabilité structurelle. -Dans le cadre de ce chapitre, cela fournit un repère consensuel : certaines classes d’invariants (hyperboliques) ont des propriétés de robustesse fortes, tandis que des régimes non hyperboliques peuvent bifurquer fréquemment. +Smale (1967) synthétise la théorie moderne des systèmes dynamiques différentiables : ensembles non errants, hyperbolicité (Axiom A), conjugaison topologique et stabilité structurelle. +Dans le cadre de ce chapitre, cela fournit un repère consensuel : certaines classes d’invariants (hyperboliques) ont des propriétés de robustesse fortes, tandis que des régimes non hyperboliques peuvent bifurquer fréquemment. -## Robustesse, bifurcations et stabilité structurelle +## Robustesse, bifurcations et stabilité structurelle — Ch. 10 ### Définitions formelles de robustesse -Soit une famille \(\{f_\lambda\}\) (applications ou flots) dépendant d’un paramètre \(\lambda\). +Soit une famille \(\{f\_\lambda\}\) (applications ou flots) dépendant d’un paramètre \(\lambda\). -**Robustesse d’un invariant.** Un invariant \(A_\lambda\) est robuste si, pour \(\lambda'\) proche, il existe un invariant \(A_{\lambda'}\) « du même type » (par ex. conjugué topologiquement ou proche en distance de Hausdorff). +**Robustesse d’un invariant.** Un invariant \(A\_\lambda\) est robuste si, pour \(\lambda'\) proche, il existe un invariant \(A\_{\lambda'}\) « du même type » (par ex. conjugué topologiquement ou proche en distance de Hausdorff). **Stabilité structurelle (idée standard).** Un système \(f\) est structurellement stable si toute perturbation suffisamment petite (dans une topologie \(C^r\) sur les champs de vecteurs/difféomorphismes) est topologiquement conjuguée à \(f\) sur l’ensemble pertinent (souvent l’ensemble non errant). Cette notion est centrale chez Smale. @@ -3204,32 +3181,32 @@ En dimension 2, un résultat classique de Peixoto établit l’ouverture et la d ### Bifurcation de Hopf (consensus, source primaire via traduction) La bifurcation de Hopf formalise la naissance (ou disparition) d’une orbite périodique à partir d’un équilibre lorsque une paire de valeurs propres complexes franchit l’axe imaginaire sous conditions de non dégénérescence. L’article original de Hopf (1942) est accessible via une traduction reproduite dans un volume de référence. -Dans le cadre de ce chapitre, on retient l’énoncé suivant comme consensus (preuve omise) : **sous conditions standard**, il existe une bifurcation locale conduisant à un cycle limite dont la stabilité dépend du signe d’un coefficient de forme normale. +Dans le cadre de ce chapitre, on retient l’énoncé suivant comme consensus (preuve omise) : **sous conditions standard**, il existe une bifurcation locale conduisant à un cycle limite dont la stabilité dépend du signe d’un coefficient de forme normale. ### Changements de bassins et crises (attracteurs chaotiques) -Même lorsque l’invariant persiste, la **géométrie du bassin** peut changer brutalement. Grebogi–Ott–Yorke (1982) analysent des « crises » : collisions entre orbites périodiques instables et attracteurs chaotiques entraînant élargissement soudain, apparition ou destruction d’un attracteur et/ou de son bassin (route vers chaos, transitoires). -Ce point justifie une distinction fondamentale : **robustesse de l’attracteur** \(\neq\) **robustesse du bassin**. +Même lorsque l’invariant persiste, la **géométrie du bassin** peut changer brutalement. Grebogi–Ott–Yorke (1982) analysent des « crises » : collisions entre orbites périodiques instables et attracteurs chaotiques entraînant élargissement soudain, apparition ou destruction d’un attracteur et/ou de son bassin (route vers chaos, transitoires). +Ce point justifie une distinction fondamentale : **robustesse de l’attracteur** \(\neq\) **robustesse du bassin**. ## Mesures structurelles et calcul -Les attracteurs fournissent une organisation qualitative; on peut quantifier cette organisation par des métriques adaptées au cadre (discret/continu). +Les attracteurs fournissent une organisation qualitative ; on peut quantifier cette organisation par des métriques adaptées au cadre (discret/continu). ### Taille des bassins et dominance (discret fini) -Soient \(C_1,\dots,C_K\) les cycles, \(B_i=B(C_i)\), et \(p_i=|B_i|/|X|\). +Soient \(C\_1,\dots,C\_K\) les cycles, \(B\_i=B(C\_i)\)\)), et \(((p\_i=|B\_i|/|X|\). -- **Dominance** : \(D=\max_i p_i\in[1/K,1]\). -- **Nombre d’attracteurs** : \(K\). +- **Dominance** : \(D=\max\_i p\_i\in[1/K,1]\). +- **Nombre d’attracteurs** : \(K\). Ces quantités décrivent la concentration des destinées asymptotiques. ### Entropie structurelle des bassins (Shannon) On définit l’entropie structurelle des bassins \[ -H_{\text{bassins}}=-\sum_{i=1}^K p_i\log p_i, +H\_{\text{bassins}}=-\sum\_{i=1}^K p\_i\log p\_i, \] -avec bornes \(0\le H_{\text{bassins}}\le \log K\), atteintes respectivement en cas de bassin unique (dominance totale) et d’équilibre parfait. Ces propriétés sont des conséquences standards de l’entropie de Shannon appliquée à une distribution finie. +avec bornes \(0\le H\_{\text{bassins}}\le \log K\), atteintes respectivement en cas de bassin unique (dominance totale) et d’équilibre parfait. Ces propriétés sont des conséquences standards de l’entropie de Shannon appliquée à une distribution finie. ### Entropie topologique (AKM) : complexité orbitale interne @@ -3241,55 +3218,55 @@ Cette quantité capture une complexité orbitale pouvant être positive même lo Pour comparer des états représentés comme mots/séquences (par ex. classes morphologiques), on utilise des métriques combinatoires. Levenshtein (1965/1966) propose des modèles de canaux avec insertions/suppressions/réversions et introduit la distance d’édition comme métrique naturelle associée à ces opérations. Une fois une métrique fixée, on peut définir des voisinages discrets, étudier la sensibilité locale et construire des versions « épaisses » des bassins (stabilité par petites modifications). -### Calcul et estimation : exact vs échantillonné +### Calcul et estimation : exact vs échantillonné -- En discret fini, cycles et bassins se calculent exactement en \(O(N)\) (graphe fonctionnel). -- Dans de très grands espaces, on estime les \(p_i\) par échantillonnage : tirer des états selon une loi \(\nu\), itérer jusqu’à convergence au cycle, estimer les fréquences de cycles. Sous hypothèses i.i.d., la convergence est gouvernée par la loi des grands nombres (consensus probabiliste). +- En discret fini, cycles et bassins se calculent exactement en \(O(N)\)\)) (graphe fonctionnel). +- Dans de très grands espaces, on estime les \(((p\_i\) par échantillonnage : tirer des états selon une loi \(\nu\), itérer jusqu’à convergence au cycle, estimer les fréquences de cycles. Sous hypothèses i.i.d., la convergence est gouvernée par la loi des grands nombres (consensus probabiliste). ## Implications strictement déduites (lecture conditionnelle) Cette section tire des conséquences **uniquement** des résultats mathématiques établis ci‑dessus, sans postuler d’intention, de sémantique ou d’« optimisation ». -Dans un cadre discret fini (ou à description effectivement finie), l’itération impose l’existence de cycles et donc de régimes persistants (attracteurs discrets). Il en résulte une partition en bassins : une information complète sur l’état initial est, en général, **superflue** pour déterminer le long terme, car seule la classe « bassin » importe pour l’asymptote. Cette réduction est une conséquence logique de la structure des graphes fonctionnels. +Dans un cadre discret fini (ou à description effectivement finie), l’itération impose l’existence de cycles et donc de régimes persistants (attracteurs discrets). Il en résulte une partition en bassins : une information complète sur l’état initial est, en général, **superflue** pour déterminer le long terme, car seule la classe « bassin » importe pour l’asymptote. Cette réduction est une conséquence logique de la structure des graphes fonctionnels. -Dans un cadre compact, la compacité garantit l’existence d’ensembles \(\omega(x)\) invariants. Si, de plus, une région piège existe, l’intersection décroissante des itérés fournit un attracteur topologique qui attire un voisinage entier. +Dans un cadre compact, la compacité garantit l’existence d’ensembles \(\omega(x)\)\)) invariants. Si, de plus, une région piège existe, l’intersection décroissante des itérés fournit un attracteur topologique qui attire un voisinage entier. Ainsi, la disponibilité de régimes stables n’est pas une hypothèse supplémentaire : elle est structurellement compatible et souvent forcée par les contraintes (finitude ou piégeage). -Concernant la « réplication interne » (au sens formel : production d’une occurrence persistante d’une même sous‑structure), ce chapitre n’assume aucun mécanisme de reproduction. Il établit seulement une condition nécessaire : tout mécanisme de duplication stable exige l’existence de motifs **suffisamment persistants** (ensembles invariants attractifs ou métastables) pour ne pas être détruits immédiatement par la dynamique. Cette condition est purement logique : sans invariants persistants, aucune structure ne peut être copiée « de manière répétée » dans le temps. +Concernant la « réplication interne » (au sens formel : production d’une occurrence persistante d’une même sous‑structure), ce chapitre n’assume aucun mécanisme de reproduction. Il établit seulement une condition nécessaire : tout mécanisme de duplication stable exige l’existence de motifs **suffisamment persistants** (ensembles invariants attractifs ou métastables) pour ne pas être détruits immédiatement par la dynamique. Cette condition est purement logique : sans invariants persistants, aucune structure ne peut être copiée « de manière répétée » dans le temps. -Enfin, on note une contrainte importante (sans extrapolation) : dans les systèmes conservatifs mesurés à volume fini, la récurrence de Poincaré (1890) implique des retours, ce qui rend impossible une monotonie stricte sur les micro‑états; ainsi, les attracteurs globaux au sens dissipatif exigent typiquement une dissipation, une ouverture, ou un niveau de description agrégé. +Enfin, on note une contrainte importante (sans extrapolation) : dans les systèmes conservatifs mesurés à volume fini, la récurrence de Poincaré (1890) implique des retours, ce qui rend impossible une monotonie stricte sur les micro‑états ; ainsi, les attracteurs globaux au sens dissipatif exigent typiquement une dissipation, une ouverture, ou un niveau de description agrégé. Cette remarque est une contrainte de cohérence entre « attracteurs dissipatifs » et « récurrence conservatrice », et non une hypothèse de physique supplémentaire. ## Analyse philosophique finale ### Nécessité ontologique minimale des attracteurs -La construction mathématique impose une thèse ontologique minimale : dans un système gouverné par des transformations itérées, l’analyse du long terme se fait alors en termes d’**ensembles invariants** et de **classes asymptotiques** (cycles, \(\omega\)-limites). L’état instantané n’a pas de privilège ontologique dans la description du long terme : ce qui « persiste » est un invariant, et ce qui « structure » l’espace des possibles est la partition en bassins. +La construction mathématique impose une thèse ontologique minimale : dans un système gouverné par des transformations itérées, l’analyse du long terme se fait alors en termes d’**ensembles invariants** et de **classes asymptotiques** (cycles, \(((\omega\)-limites). L’état instantané n’a pas de privilège ontologique dans la description du long terme : ce qui « persiste » est un invariant, et ce qui « structure » l’espace des possibles est la partition en bassins. -Cette thèse ne dépend pas d’une interprétation; elle découle de la structure démontrée (pré‑périodicité en fini, invariance des \(\omega\)-limites sur compacts). +Cette thèse ne dépend pas d’une interprétation ; elle découle de la structure démontrée (pré‑périodicité en fini, invariance des \(\omega\)-limites sur compacts). ### Limites du formalisme (et ce qu’il interdit) Le chapitre impose plusieurs interdictions méthodologiques. -- Il interdit d’assimiler « attracteur » à « optimum » : aucune fonction de coût ni principe de minimisation n’a été postulé; un attracteur est défini par invariance et attraction, pas par optimalité. +- Il interdit d’assimiler « attracteur » à « optimum » : aucune fonction de coût ni principe de minimisation n’a été postulé ; un attracteur est défini par invariance et attraction, pas par optimalité. - Il interdit toute téléologie : la convergence est une propriété de la dynamique et de la structure de l’espace, non un « but ». - Il interdit toute interprétation sémantique prématurée : attracteurs et bassins peuvent ultérieurement être interprétés comme supports de contraintes opératoires, mais ils ne sont pas, en eux‑mêmes, des « connaissances » ou des « significations ». - Il interdit de conclure à la robustesse sans hypothèse : la robustesse exige des conditions supplémentaires (Lyapunov, hyperbolicité, stabilité structurelle), et les bassins peuvent changer qualitativement (bifurcations, crises). -### Tableaux comparatifs +### Tableaux comparatifs — Ch. 10 -| Notion | Discret fini \((X,f)\) | Continu/compact \((X,d,f)\) ou flot | -|---|---|---| -| Invariant | \(f(S)\subseteq S\) | \(f(S)\subseteq S\) ou \(\varphi_t(S)=S\) | -| Asymptote | cycle atteint en temps fini | \(\omega(x)\) (compact invariant) | +| Notion | Discret fini \((X,f)\)\)) | Continu/compact \((((X,d,f)\)\)) ou flot | +| --- | --- | --- | +| Invariant | \(((f(S)\)\)subseteq S\) | \(((f(S)\)\)subseteq S\) ou \(((\varphi\_t(S)=S\) | +| Asymptote | cycle atteint en temps fini | \(\omega(x)\)\)) (compact invariant) | | Attracteur | cycle (déf. minimale) | compact invariant attirant un voisinage (trapping region possible) | -| Bassin | atteignabilité vers un cycle | convergence \(\mathrm{dist}(f^n(x),A)\to 0\) | -| Chaos | possible (cartes) | typiquement ≥3D pour flots; exclu en plan (P–B) | -| Mesure de complexité | \(H_{\text{bassins}}\) (Shannon) | \(h_{\text{top}}\) (AKM), stabilité/hyperbolicité (Smale) | +| Bassin | atteignabilité vers un cycle | convergence \(((\mathrm{dist}(f^n(x),A)\)\)to 0\) | +| Chaos | possible (cartes) | typiquement ≥3D pour flots ; exclu en plan (P–B) | +| Mesure de complexité | \(((H\_{\text{bassins}}\) (Shannon) | \(h\_{\text{top}}\) (AKM), stabilité/hyperbolicité (Smale) | | Propriété | Attracteur (existence) | Attracteur robuste (qualitative) | -|---|---|---| +| --- | --- | --- | | Définition | invariance + attraction | persistance sous perturbation | | Outils | \(\omega\)-limites, trapping region | Lyapunov, hyperbolicité, stabilité structurelle | | Sensibilité des bassins | peut être élevée | peut rester fragile (crises possibles) | @@ -3313,25 +3290,25 @@ Dans un système itératif, les attracteurs et invariants ne sont pas une option --- -# Chapitre 11 — Reproduction partielle et transmission +## Chapitre 11 — Reproduction partielle et transmission {#chapitre-11-reproduction-partielle-et-transmission} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 11 -Hypothèses (H). +**Hypothèses (H).** -- cadre discret avec non‑injectivité et classes (perte d’identifiabilité) ; +- cadre discret avec non‑injectivité et classes (perte d’identifiabilité) - transmission définie comme préservation partielle d’invariants sous fragmentation/recombinaison admissible. -Résultats (E). +**Résultats (E).** -- formalisation de la reproduction partielle comme transmission de contraintes plutôt que conservation d’origines ; +- formalisation de la reproduction partielle comme transmission de contraintes plutôt que conservation d’origines - mise en évidence que la persistance longue dépend de la transmissibilité de contraintes, pas d’une identité fine. -Statut. +**Statut.** - noyau ensembliste ; les lectures informationnelles restent des correspondances déclarées, non des axiomes. -## Introduction +## Introduction — Ch. 11 Les chapitres précédents ont établi successivement : l’existence d’espaces de configurations, l’itération nécessaire, la formation de cycles invariants, la non-injectivité structurelle, la formation de classes, la normalisation, la sélection différentielle, la consommation irréversible et l’apparition d’une flèche effective. @@ -3342,6 +3319,7 @@ Le présent chapitre introduit une propriété nouvelle : la reproduction partie L’objectif est triple : - formaliser mathématiquement la reproduction partielle, + - montrer que la transmission implique, dans ce cadre, perte et fragmentation, - établir que la persistance longue exige recombinaison admissible plutôt que conservation d’origine. @@ -3349,22 +3327,21 @@ Aucune hypothèse biologique n’est posée. Les résultats utilisés relèvent ## Définition formelle de la reproduction partielle -On considère un espace d’états admissibles \(X\) et une dynamique admissible \(f: X \to X\). +On considère un espace d’états admissibles \(X\) et une dynamique admissible \(f : X \to X\). -### Définition +### Définition — Ch. 11 Une structure \(S \subseteq X\) est dite reproductible partiellement s’il existe : -- un opérateur de génération \(G: X \to \mathcal{P}(X)\), -- une application de projection \(P: X \to X\), +- un opérateur de génération \(G : X \to \mathcal{P}(X)\)\)), -tels que, pour certains états \(x\) contenant \(S\) (au sens structurel défini au chapitre 6), on ait : +- une application de projection \(((P : X \to X\), -\[ -\exists y \in G(x)\ \text{tel que}\ P(y) \sim S, +tels que, pour certains états \(x\) contenant \(S\) (au sens structurel défini au chapitre 6), on ait : \[ +\exists y \in G(x)\)\) \text{tel que}\ P(y) \sim S, \] -où \(\sim\) désigne une relation d’équivalence structurelle. +où \(((\sim\) désigne une relation d’équivalence structurelle. Autrement dit : un état peut engendrer un nouvel état contenant une structure équivalente, sans que l’état global soit identique. @@ -3372,13 +3349,13 @@ La reproduction partielle ne préserve donc pas l’identité fine, seulement un ## Fragmentation structurelle -### Définition +### Définition — Ch. 11 (2) -Une fragmentation est une application \(F: X \to X^k\) (pour un certain \(k \ge 1\)) qui associe à un état un ensemble fini de sous-structures. +Une fragmentation est une application \(F : X \to X^k\) (pour un certain \(k \ge 1\)) qui associe à un état un ensemble fini de sous-structures. La fragmentation est admissible si chaque composant reste valide sous les contraintes du système. -### Propriété +### Propriété — Ch. 11 Toute reproduction partielle dans un espace non injectif implique une fragmentation implicite. @@ -3393,13 +3370,13 @@ La fragmentation n’est donc pas accidentelle, mais structurellement nécessair ## Recombinaison admissible -### Définition +### Définition — Ch. 11 (3) -Une recombinaison est une opération \(R: X^k \to X\) telle que l’état recomposé respecte les contraintes admissibles. +Une recombinaison est une opération \(R : X^k \to X\) telle que l’état recomposé respecte les contraintes admissibles. ### Condition d’admissibilité -Pour tout \((x_1, \ldots, x_k)\) admissible, \(R(x_1, \ldots, x_k) \in X\). +Pour tout \((x\_1, \ldots, x\_k)\)\)) admissible, \(((R(x\_1, \ldots, x\_k) \in X\). Dans les automates cellulaires étudiés par von Neumann, une machine auto-reproductrice n’est pas une copie directe d’elle-même, mais une construction progressive à partir de fragments d’information interprétés localement. La reproductibilité dépend de règles locales de recomposition, non d’une duplication globale instantanée. @@ -3407,13 +3384,11 @@ La recombinaison admissible constitue donc le mécanisme fondamental de transmis ## Perte contrôlée et non-conservation de l’origine -### Définition +### Définition — Ch. 11 (4) On appelle perte contrôlée une réduction de description telle que la quantité d’information perdue est bornée par un invariant de classe. -Soit \(K(x)\) la complexité descriptive minimale (au sens de Kolmogorov). La reproduction partielle satisfait typiquement : - -\[ +Soit \(K(x)\)\)) la complexité descriptive minimale (au sens de Kolmogorov). La reproduction partielle satisfait typiquement : \[ K(\text{descendant}) \le K(\text{ancêtre}) + c, \] @@ -3423,23 +3398,21 @@ avec perte d’information fine non reconstruisible. L’origine exacte d’une structure n’est pas reconstructible à partir de ses descendants. -Il n’existe pas d’application inverse globale \(G^{-1}\) compatible avec la dynamique irréversible. +Il n’existe pas d’application inverse globale \(((G^{-1}\) compatible avec la dynamique irréversible. Ainsi, la transmission n’est pas conservation. Elle est stabilisation d’invariants sous perte. ## Transmission comme persistance de classe -### Définition +### Définition — Ch. 11 (5) -Une classe \(C\) est transmissible si : - -\[ -\forall x \in C,\ \exists y \in G(x)\ \text{tel que}\ y \in C. +Une classe \(C\) est transmissible si : \[ +\forall x \in C,\ \exists y \in G(x)\)\) \text{tel que}\ y \in C. \] Autrement dit, la classe se reproduit sous la dynamique générative. -### Propriété +### Propriété — Ch. 11 (2) Une classe transmissible correspond à un attracteur de second ordre (chapitre 5) dans l’espace des classes. @@ -3450,6 +3423,7 @@ Ainsi, la reproduction partielle opère non sur les états individuels, mais sur La transmission exige : - fragmentation, + - recombinaison, - perte d’information fine, - stabilité d’invariants, @@ -3464,13 +3438,14 @@ La reproduction parfaite serait incompatible avec la non-injectivité et l’irr Si l’on considère un système dynamique soumis à consommation irréversible, la persistance à long terme n’est possible que pour des structures capables : - de générer des structures équivalentes, + - de tolérer la perte, - de se recomposer localement, - de stabiliser leurs invariants. Cette propriété n’est pas propre au vivant biologique ; elle est formellement nécessaire à toute accumulation historique durable. -## Analyse philosophique +## Analyse philosophique — Ch. 11 La reproduction partielle dissocie identité et persistance. @@ -3481,39 +3456,37 @@ Elle devient un nœud dans un graphe de transmissions irréversibles. La notion d’« essence conservée » est remplacée par celle de « contrainte transmissible ». -## Conclusion +## Conclusion — Ch. 11 Le chapitre 11 établit que la transmission exige la perte d’identité fine. La reproduction partielle n’est pas une copie, mais une projection stabilisée d’invariants sous fragmentation et recombinaison admissible. -Il s’ensuit : - -La persistance longue ne dépend pas de la conservation de l’origine, mais de la transmissibilité de contraintes structurelles. +Il s’ensuit : La persistance longue ne dépend pas de la conservation de l’origine, mais de la transmissibilité de contraintes structurelles. Le chapitre suivant étendra cette logique à la formation de lignées et à l’accumulation généalogique de contraintes. --- -# Chapitre 12 — Généalogies et lignées de formes +## Chapitre 12 — Généalogies et lignées de formes {#chapitre-12-genealogies-et-lignees-de-formes} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 12 -Hypothèses (H). +**Hypothèses (H).** -- relation d’engendrement orientée reconstruite (pas de temps externe) ; +- relation d’engendrement orientée reconstruite (pas de temps externe) - objets transmissibles (attributs, classes, signatures) définis avant usage, sous non‑injectivité. -Résultats (E). +**Résultats (E).** -- construction de lignées comme graphes orientés (et variantes) et formalisation de l’héritage sous collisions ; +- construction de lignées comme graphes orientés (et variantes) et formalisation de l’héritage sous collisions - articulation avec sélection structurelle comme effet de filtrage sous contraintes, sans téléologie. -Statut. +**Statut.** - noyau ensembliste/combinatoire ; toute quantification est indexée par les choix déclarés. -## Introduction +## Introduction — Ch. 12 Ce chapitre introduit la notion de lignée comme une structure combinatoire orientée décrivant la transmission de formes sous contraintes d’irréversibilité et de non‑injectivité. Le point de départ est une exigence minimale : une relation d’engendrement doit être orientée, mais l’orientation ne peut pas être imposée par un « temps » externe ; elle doit être reconstruite à partir des règles mêmes qui produisent les occurrences. La formalisation s’effectue donc en deux temps : d’abord la construction d’un graphe orienté de lignée à partir d’événements d’engendrement ; ensuite l’introduction d’objets transmissibles (attributs, classes, signatures) qui survivent malgré les collisions et la perte d’inversibilité. @@ -3526,25 +3499,25 @@ Les termes chargés de connotations (lignée, héritage, sélection) sont d’ab ### Graphes orientés, multigraphes, hypergraphes **Définition (graphe orienté).** -Un graphe orienté est un couple \(G=(V,E)\) où \(V\) est un ensemble de sommets et \(E\subseteq V\times V\) un ensemble d’arêtes orientées. Une arête \((u,v)\in E\) est notée \(u\to v\). +Un graphe orienté est un couple \(((G=(V,E)\)\)) où \(((V\) est un ensemble de sommets et \(E\subseteq V\times V\) un ensemble d’arêtes orientées. Une arête \((u,v)\)\)in E\) est notée \(((u\to v\). **Définition (multigraphe orienté).** -Un multigraphe orienté autorise plusieurs arêtes distinctes de \(u\) vers \(v\). On le modélise par une multiplicité \(m:V\times V\to \mathbb{N}\). +Un multigraphe orienté autorise plusieurs arêtes distinctes de \(u\) vers \(v\). On le modélise par une multiplicité \(m : V\times V\to \mathbb{N}\). **Définition (hyperarête dirigée).** -Une hyperarête dirigée est une paire \((P,c)\) où \(P\) est un multiensemble fini de sommets (les entrées) et \(c\in V\) est un sommet (la sortie). On note \(P\Rightarrow c\). L’arité est \(|P|\). +Une hyperarête dirigée est une paire \((P,c)\)\)) où \(((P\) est un multiensemble fini de sommets (les entrées) et \(c\in V\) est un sommet (la sortie). On note \(P\Rightarrow c\). L’arité est \(|P|\). Le passage d’un hypergraphe à un graphe ordinaire se fait en remplaçant \(P\Rightarrow c\) par les arêtes \(p\to c\) pour \(p\in P\), ce qui conserve l’information d’ascendance mais pas nécessairement l’information d’arité. ### Degrés, parents, enfants **Définition (degré entrant et sortant).** -Le degré entrant de \(v\) est \(\deg^-(v)=|\{u\in V:u\to v\}|\). -Le degré sortant de \(v\) est \(\deg^+(v)=|\{u\in V:v\to u\}|\). +Le degré entrant de \(v\) est \(\deg^-(v)=|\{u\in V : u\to v\}|\). +Le degré sortant de \(v\) est \(\deg^+(v)=|\{u\in V : v\to u\}|\). **Définition (ensemble des parents et des enfants).** \[ -\mathrm{Par}(v)=\{u\in V:u\to v\},\qquad \mathrm{Enf}(v)=\{u\in V:v\to u\}. +\mathrm{Par}(v)=\{u\in V : u\to v\},\qquad \mathrm{Enf}(v)=\{u\in V : v\to u\}. \] Ces notions permettent de discuter de branchement, sans présumer d’un mécanisme de copie. @@ -3552,33 +3525,33 @@ Ces notions permettent de discuter de branchement, sans présumer d’un mécani ### Chemins, atteignabilité, ascendance **Définition (chemin orienté).** -Un chemin orienté de \(u\) vers \(v\) est une suite \((v_0,\dots,v_k)\) telle que \(v_0=u\), \(v_k=v\) et \(v_i\to v_{i+1}\) pour tout \(i\in\{0,\dots,k-1\}\). Sa longueur est \(k\). +Un chemin orienté de \(u\) vers \(v\) est une suite \((v\_0,\dots,v\_k)\)\)) telle que \(((v\_0=u\), \(v\_k=v\) et \(v\_i\to v\_{i+1}\) pour tout \(i\in\{0,\dots,k-1\}\). Sa longueur est \(k\). **Définition (atteignabilité).** On note \(u\to^\* v\) l’existence d’un chemin orienté de \(u\) vers \(v\). **Définition (relation d’ascendance).** -On définit \(\preceq_G\) par +On définit \(\preceq\_G\) par \[ -u\preceq_G v \quad \Longleftrightarrow \quad u\to^\* v. +u\preceq\_G v \quad \Longleftrightarrow \quad u\to^\* v. \] Cette relation est réflexive et transitive. **Définition (ancêtres et descendants).** \[ -\mathrm{Anc}(v)=\{u\in V:u\preceq_G v\},\qquad \mathrm{Desc}(u)=\{v\in V:u\preceq_G v\}. +\mathrm{Anc}(v)=\{u\in V : u\preceq\_G v\},\qquad \mathrm{Desc}(u)=\{v\in V : u\preceq\_G v\}. \] ### Cycles, DAG et ordre topologique **Définition (cycle orienté).** -Un cycle orienté est un chemin \((v_0,\dots,v_k)\) avec \(k\ge 1\) tel que \(v_0=v_k\) et \(v_0,\dots,v_{k-1}\) distincts. +Un cycle orienté est un chemin \((v\_0,\dots,v\_k)\)\)) avec \(((k\ge 1\) tel que \(v\_0=v\_k\) et \(v\_0,\dots,v\_{k-1}\) distincts. **Définition (DAG).** Un DAG est un graphe orienté sans cycle orienté. **Définition (ordre topologique).** -Un ordre topologique d’un DAG fini est une bijection \(\tau:V\to\{1,\dots,|V|\}\) telle que \(u\to v\Rightarrow \tau(u)<\tau(v)\). +Un ordre topologique d’un DAG fini est une bijection \(\tau : V\to\{1,\dots,|V|\}\) telle que \(u\to v\Rightarrow \tau(u)<\tau(v)\)\)). **Proposition (existence d’un ordre topologique).** Tout DAG fini admet un ordre topologique. @@ -3586,18 +3559,18 @@ Tout DAG fini admet un ordre topologique. ### Ordre partiel, antichaînes, générations **Proposition (ordre partiel induit).** -Si \(G\) est un DAG, alors \(\preceq_G\) est un ordre partiel (réflexif, antisymétrique, transitif). +Si \(((G\) est un DAG, alors \(\preceq\_G\) est un ordre partiel (réflexif, antisymétrique, transitif). **Définition (antichaîne).** -Un ensemble \(A\subseteq V\) est une antichaîne si, pour tout \(u\neq v\) dans \(A\), ni \(u\preceq_G v\) ni \(v\preceq_G u\). +Un ensemble \(A\subseteq V\) est une antichaîne si, pour tout \(u\neq v\) dans \(A\), ni \(u\preceq\_G v\) ni \(v\preceq\_G u\). **Définition (racines, profondeur, générations).** Un sommet \(r\) est une racine si \(\deg^-(r)=0\). La profondeur (dans un DAG) est \[ -\mathrm{depth}(v)=\max\{k:\exists (v_0,\dots,v_k)\ \text{chemin avec}\ v_k=v\}. +\mathrm{depth}(v)=\max\{k : \exists (v\_0,\dots,v\_k)\)\) \text{chemin avec}\ v_k=v\}. \] -La génération \(n\) est \(V_n=\{v\in V:\mathrm{depth}(v)=n\}\). +La génération \(((n\) est \(V\_n=\{v\in V : \mathrm{depth}(v)=n\}\). ## Construction d’un graphe orienté de lignée @@ -3605,7 +3578,8 @@ La génération \(n\) est \(V_n=\{v\in V:\mathrm{depth}(v)=n\}\). Pour obtenir un objet « généalogique », il faut distinguer deux niveaux : -- niveau des occurrences, qui sont singulières et ne se répètent pas ; +- niveau des occurrences, qui sont singulières et ne se répètent pas + - niveau des types (formes), qui peuvent réapparaître par collision ou normalisation. Le graphe de lignée portera sur les occurrences. @@ -3616,41 +3590,43 @@ On fixe un ensemble \(V\) d’occurrences. Une occurrence est un jeton abstrait **Définition (ensemble de types et étiquetage).** Soit \(X\) un ensemble de types. Un étiquetage est une application \[ -\ell:V\to X. +\ell : V\to X. \] -Deux occurrences distinctes \(v\neq v'\) peuvent partager le même type \(\ell(v)=\ell(v')\). +Deux occurrences distinctes \(v\neq v'\) peuvent partager le même type \(\ell(v)=\ell(v')\)\)). ### Événements d’engendrement comme hyperarêtes **Définition (événement d’engendrement).** -Un événement est une paire \((P,c)\) où : +Un événement est une paire \((((P,c)\)\)) où : -- \(P=(p_1,\dots,p_k)\in V^k\) est une liste d’occurrences parentales, -- \(c\in V\) est l’occurrence enfant, +- \(((P=(p\_1,\dots,p\_k)\)\)in V^k\) est une liste d’occurrences parentales, + +- \(((c\in V\) est l’occurrence enfant, - \(k\ge 1\) est l’arité. -L’ensemble des événements est \(\mathcal{E}\subseteq \bigsqcup_{k\ge 1} (V^k\times V)\). +L’ensemble des événements est \(\mathcal{E}\subseteq \bigsqcup\_{k\ge 1} (V^k\times V)\)\)). **Définition (hypergraphe d’engendrement).** -Le hypergraphe est \(\mathcal{H}=(V,\mathcal{E})\) dont les hyperarêtes sont \(P\Rightarrow c\). +Le hypergraphe est \(((\mathcal{H}=(V,\mathcal{E})\)\)) dont les hyperarêtes sont \(((P\Rightarrow c\). **Définition (graphe de lignée associé).** -Le graphe orienté associé est \(\mathcal{T}=(V,E)\) avec +Le graphe orienté associé est \(\mathcal{T}=(V,E)\)\)) avec \[ -E=\{(p_i,c): (P,c)\in\mathcal{E},\ P=(p_1,\dots,p_k),\ i\in\{1,\dots,k\}\}. +E=\{(p_i,c) : (P,c)\in\mathcal{E},\ P=(p_1,\dots,p_k),\ i\in\{1,\dots,k\}\}. \] **Définition (lignée).** -La lignée est la relation d’ascendance \(\preceq_{\mathcal{T}}\). Une branche est un chemin maximal (par inclusion). Une chaîne est un sous‑ensemble totalement ordonné pour \(\preceq_{\mathcal{T}}\). +La lignée est la relation d’ascendance \(((\preceq\_{\mathcal{T}}\). Une branche est un chemin maximal (par inclusion). Une chaîne est un sous‑ensemble totalement ordonné pour \(\preceq\_{\mathcal{T}}\). ### Représentation bipartite des événements Dans certains raisonnements, on conserve l’information d’arité. Une représentation standard consiste à introduire explicitement les événements comme nœuds d’un graphe bipartite. **Définition (graphe d’incidence bipartite).** -On définit un graphe orienté bipartite \(\mathcal{B}=(V\sqcup \mathcal{E},E_B)\) par : +On définit un graphe orienté bipartite \(\mathcal{B}=(V\sqcup \mathcal{E},E\_B)\)\)) par : + +- pour tout événement \(((e=(P,c)\)\)) et tout parent \(((p\in P\), une arête \(p\to e\) -- pour tout événement \(e=(P,c)\) et tout parent \(p\in P\), une arête \(p\to e\) ; - une arête \(e\to c\). **Proposition (équivalence d’ascendance).** @@ -3661,24 +3637,25 @@ Cette représentation évite d’attribuer au seul degré entrant d’un sommet ### Acyclicité par construction inductive **Axiome (création).** -Chaque occurrence \(c\in V\) admet au plus un événement créateur \(e_c\in\mathcal{E}\) tel que \(c\) soit l’enfant de \(e_c\). Les occurrences sans événement créateur sont des racines. +Chaque occurrence \(c\in V\) admet au plus un événement créateur \(e\_c\in\mathcal{E}\) tel que \(c\) soit l’enfant de \(e\_c\). Les occurrences sans événement créateur sont des racines. **Axiome (engendrement vers l’inédit).** Il existe une filtration \(V^{(0)}\subset V^{(1)}\subset \dots\) telle que : - \(V^{(0)}\) est l’ensemble des racines, -- si \((P,c)\) est le \(n\)-ième événement, alors \(P\subseteq V^{(n-1)}\) et \(c\in V^{(n)}\setminus V^{(n-1)}\). + +- si \((P,c)\)\)) est le \(((n\)-ième événement, alors \(P\subseteq V^{(n-1)}\) et \(c\in V^{(n)}\setminus V^{(n-1)}\). **Proposition (acyclicité).** Sous ces axiomes, \(\mathcal{T}\) est un DAG. -_Preuve._ -Toute arête \(p\to c\) va d’un sommet déjà présent dans \(V^{(n-1)}\) vers un sommet nouvellement introduit dans \(V^{(n)}\). La fonction \(\tau(c)=n\) est alors un ordre topologique : \(p\to c\Rightarrow \tau(p)<\tau(c)\). Un cycle orienté violerait cette strict inégalité. □ +**Preuve.** +Toute arête \(p\to c\) va d’un sommet déjà présent dans \(V^{(n-1)}\) vers un sommet nouvellement introduit dans \(V^{(n)}\). La fonction \(\tau(c)=n\) est alors un ordre topologique : \(p\to c\Rightarrow \tau(p)<\tau(c)\)\)). Un cycle orienté violerait cette strict inégalité. □ ### Monotone de lignée issu d’une ressource non réutilisable **Définition (jetons consommés).** -Soit \(\Omega\) un ensemble de jetons. À chaque événement \(e\in\mathcal{E}\), on associe un ensemble fini \(J(e)\subset\Omega\) de jetons consommés. +Soit \(((\Omega\) un ensemble de jetons. À chaque événement \(e\in\mathcal{E}\), on associe un ensemble fini \(J(e)\)\)subset\Omega\) de jetons consommés. **Axiome (non‑réutilisation).** \[ @@ -3686,51 +3663,52 @@ e\neq e' \Longrightarrow J(e)\cap J(e')=\varnothing. \] **Définition (coût).** -Le coût est \(w(e)=|J(e)|\in\mathbb{N}\). +Le coût est \(((w(e)=|J(e)|\in\mathbb{N}\). **Définition (coût cumulatif).** -On définit \(C:V\to\mathbb{N}\) par récurrence : +On définit \(C : V\to\mathbb{N}\) par récurrence : -- si \(v\) est une racine, \(C(v)=0\) ; -- si \(v\) est créé par \(e_v=(P,v)\), alors +- si \(v\) est une racine, \(C(v)=0\) + +- si \(v\) est créé par \(e\_v=(P,v)\)\)), alors \[ C(v)=\max_{p\in P} C(p) + w(e_v). \] **Proposition (monotonicité stricte).** -Si \(p\to v\) est une arête (avec \(p\in P\) pour l’événement créateur de \(v\)) et si \(w(e_v)\ge 1\), alors \(C(p) **Déclaration M0** (section — héritage d’attributs). +> +> - espace d’état : \(Y\) inclut la structure d’événements \(\mathcal{T}\), l’étiquetage transmissible \(a : V\to\mathcal{A}\) et les règles \(H\_e\) +> - projection : \(\bar{\sigma}=\sigma\circ \ell\) lorsqu’on observe des signatures plutôt que des occurrences +> - statut markovien : markovien sur \(Y\) si les mises à jour portent sur \((\mathcal{T},a)\)\)) ; non markovien possible sur une projection oubliant des attributs ou des règles +> - type : mémoire‑structure (contrainte/attribut transmissible), pas mémoire‑état. ### Attributs et règles d’héritage **Définition (espace d’attributs).** -Soit \(\mathcal{A}\) un ensemble d’attributs. +Soit \(((\mathcal{A}\) un ensemble d’attributs. **Définition (étiquetage d’attribut).** -Un étiquetage est \(a:V\to\mathcal{A}\). +Un étiquetage est \(a : V\to\mathcal{A}\). **Définition (règle d’héritage).** -Pour un événement \(e=(P,c)\) d’arité \(k\), une règle d’héritage est +Pour un événement \(e=(P,c)\)\)) d’arité \(((k\), une règle d’héritage est \[ -H_e:\mathcal{A}^k\to\mathcal{A} +H\_e : \mathcal{A}^k\to\mathcal{A} \] -telle que \(a(c)=H_e(a(p_1),\dots,a(p_k))\). +telle que \(a(c)=H\_e(a(p\_1),\dots,a(p\_k))\)\)). **Définition (collision d’héritage).** Il y a collision si @@ -3743,15 +3721,15 @@ La collision formelle suffit à exprimer la non‑reconstructibilité de l’ori ### Équivalences, signatures et grammaire de classes **Définition (équivalence sur les types).** -Soit \(\sim\) une équivalence sur \(X\). Elle induit une équivalence sur \(V\) par \(v\sim_V v'\iff \ell(v)\sim \ell(v')\). +Soit \(((\sim\) une équivalence sur \(X\). Elle induit une équivalence sur \(V\) par \(v\sim\_V v'\iff \ell(v)\)\)sim \ell(v')\). **Définition (signature).** -Une signature est une application \(\sigma:X\to\Sigma\) vers un ensemble fini \(\Sigma\) telle que \(x\sim y\Rightarrow \sigma(x)=\sigma(y)\). On définit \(\bar{\sigma}=\sigma\circ \ell:V\to\Sigma\). +Une signature est une application \(((\sigma : X\to\Sigma\) vers un ensemble fini \(\Sigma\) telle que \(x\sim y\Rightarrow \sigma(x)=\sigma(y)\)\)). On définit \(((\bar{\sigma}=\sigma\circ \ell : V\to\Sigma\). **Définition (compatibilité de l’héritage avec la signature).** -Pour chaque événement \(e\) d’arité \(k\), il existe une application \(\widehat{H}_e:\Sigma^k\to\Sigma\) telle que +Pour chaque événement \(e\) d’arité \(k\), il existe une application \(\widehat{H}\_e : \Sigma^k\to\Sigma\) telle que \[ -\bar{\sigma}(c)=\widehat{H}_e\big(\bar{\sigma}(p_1),\dots,\bar{\sigma}(p_k)\big). +\bar{\sigma}(c)=\widehat{H}\_e\big(\bar{\sigma}(p\_1),\dots,\bar{\sigma}(p\_k)\)\)big). \] Cette définition transforme l’héritage en une opération sur un alphabet fini, sans postuler un mécanisme de copie. @@ -3761,33 +3739,32 @@ Cette définition transforme l’héritage en une opération sur un alphabet fin ### Quotient de lignée et coalescence au niveau signature **Définition (quotient des occurrences par signature).** -On définit \(v\equiv v'\) par \(\bar{\sigma}(v)=\bar{\sigma}(v')\). Le quotient est \(V/{\equiv}\), naturellement indexé par \(\Sigma\). +On définit \(((v\equiv v'\) par \(\bar{\sigma}(v)=\bar{\sigma}(v')\)\)). Le quotient est \(((V/{\equiv}\), naturellement indexé par \(\Sigma\). **Définition (graphe de signatures).** -On définit \(G_\Sigma=(\Sigma,E_\Sigma)\) par +On définit \(G\_\Sigma=(\Sigma,E\_\Sigma)\)\)) par \[ (\alpha,\beta)\in E_\Sigma \Longleftrightarrow \exists u\to v\ \text{dans}\ \mathcal{T}\ \text{avec}\ \bar{\sigma}(u)=\alpha,\ \bar{\sigma}(v)=\beta. \] **Proposition (cycles possibles sur les classes).** -Il est possible que \(G_\Sigma\) contienne des cycles même si \(\mathcal{T}\) est un DAG. +Il est possible que \(((G\_\Sigma\) contienne des cycles même si \(\mathcal{T}\) est un DAG. Cette proposition formalise l’idée suivante : la lignée (sur occurrences) encode une antériorité irréversible, tandis que la dynamique sur classes (signatures) peut réutiliser une même classe, car une classe peut être atteinte à des instants distincts et depuis des histoires distinctes. ### Accumulateur d’histoire sur DAG **Définition (monoïde d’agrégation).** -Soit \((\mathcal{M},\oplus,0)\) un monoïde commutatif. +Soit \((\mathcal{M},\oplus,0)\)\)) un monoïde commutatif. **Définition (accumulateur local).** -Une application \(m:V\to\mathcal{M}\) fournit une contribution locale. +Une application \(((m : V\to\mathcal{M}\) fournit une contribution locale. **Définition (accumulateur historique).** -Sur le DAG \(\mathcal{T}\), on définit \(M:V\to\mathcal{M}\) par récurrence : -\[ -M(v)=m(v)\ \oplus\ \bigoplus_{u\in \mathrm{Par}(v)} \big(W(u,v)\odot M(u)\big), +Sur le DAG \(\mathcal{T}\), on définit \(M : V\to\mathcal{M}\) par récurrence : \[ +M(v)=m(v)\)\) \oplus\ \bigoplus_{u\in \mathrm{Par}(v)} \big(W(u,v)\odot M(u)\big), \] -où \(W(u,v)\) est un poids et \(\odot\) une action compatible. +où \(((W(u,v)\)\)) est un poids et \(((\odot\) une action compatible. **Proposition (bien‑définition).** Un ordre topologique de \(\mathcal{T}\) garantit la définition sans ambiguïté de \(M\). @@ -3795,10 +3772,10 @@ Un ordre topologique de \(\mathcal{T}\) garantit la définition sans ambiguïté ### Mémoire des collisions **Définition (collision informationnelle).** -Une collision au niveau signature est une paire d’occurrences \(v\neq v'\) telle que \(\bar{\sigma}(v)=\bar{\sigma}(v')\). +Une collision au niveau signature est une paire d’occurrences \(v\neq v'\) telle que \(\bar{\sigma}(v)=\bar{\sigma}(v')\)\)). **Proposition (héritage des collisions passées).** -Si \(\bar{\sigma}(v)=\bar{\sigma}(v')\) mais \(M(v)\neq M(v')\), alors la classe transmissible \(\bar{\sigma}\) ne suffit pas à déterminer l’histoire accumulée. La collision transforme des histoires distinctes en un même état observable au niveau classe, tout en laissant subsister une multiplicité d’histoires possibles au niveau des contraintes cumulées. +Si \(((\bar{\sigma}(v)=\bar{\sigma}(v')\)\)) mais \(((M(v)\)\)neq M(v')\), alors la classe transmissible \(((\bar{\sigma}\) ne suffit pas à déterminer l’histoire accumulée. La collision transforme des histoires distinctes en un même état observable au niveau classe, tout en laissant subsister une multiplicité d’histoires possibles au niveau des contraintes cumulées. Cette proposition, formulée sans lecture externe, capture l’idée que « la fusion devient un fait hérité » : la non‑injectivité n’efface pas le passé, elle le rend indistinct. @@ -3807,52 +3784,52 @@ Cette proposition, formulée sans lecture externe, capture l’idée que « la f Paramètres - Alphabet \(\Sigma=\{A,B,C\}\). -- Monoïde \(\mathcal{M}=\mathbb{N}^3\) avec addition composante par composante et neutre \((0,0,0)\). -- \(m(v)=e_{\bar{\sigma}(v)}\) où \(e_A=(1,0,0)\), \(e_B=(0,1,0)\), \(e_C=(0,0,1)\). -- \(W(u,v)=1\), \(\odot\) triviale. +- Monoïde \(\mathcal{M}=\mathbb{N}^3\) avec addition composante par composante et neutre \((0,0,0)\)\)). +- \(((m(v)=e\_{\bar{\sigma}(v)}\) où \(e\_A=(1,0,0)\)\)), \(((e\_B=(0,1,0)\)\)), \(((e\_C=(0,0,1)\)\)). +- \(((W(u,v)=1\), \(\odot\) triviale. DAG -- Sommets \(v_0,v_1,v_2,v_3\). -- Arêtes \(v_0\to v_2\), \(v_1\to v_2\), \(v_2\to v_3\). -- Signatures \(\bar{\sigma}(v_0)=A\), \(\bar{\sigma}(v_1)=B\), \(\bar{\sigma}(v_2)=A\), \(\bar{\sigma}(v_3)=C\). +- Sommets \(v\_0,v\_1,v\_2,v\_3\). +- Arêtes \(v\_0\to v\_2\), \(v\_1\to v\_2\), \(v\_2\to v\_3\). +- Signatures \(\bar{\sigma}(v\_0)=A\), \(\bar{\sigma}(v\_1)=B\), \(\bar{\sigma}(v\_2)=A\), \(\bar{\sigma}(v\_3)=C\). Calculs détaillés -- \(M(v_0)=m(v_0)=(1,0,0)\). -- \(M(v_1)=m(v_1)=(0,1,0)\). -- Parents de \(v_2\) : \(\mathrm{Par}(v_2)=\{v_0,v_1\}\). +- \(M(v\_0)=m(v\_0)=(1,0,0)\)\)). +- \(((M(v\_1)=m(v\_1)=(0,1,0)\)\)). +- Parents de \(((v\_2\) : \(\mathrm{Par}(v\_2)=\{v\_0,v\_1\}\). \[ - M(v_2)=m(v_2)\oplus M(v_0)\oplus M(v_1) + M(v\_2)=m(v\_2)\)\)oplus M(v_0)\oplus M(v_1) \] - \(m(v_2)=(1,0,0)\). - \(M(v_0)\oplus M(v_1)=(1,0,0)+(0,1,0)=(1,1,0)\). - Donc \(M(v_2)=(1,0,0)+(1,1,0)=(2,1,0)\). -- Parents de \(v_3\) : \(\mathrm{Par}(v_3)=\{v_2\}\). + \(((m(v\_2)=(1,0,0)\)\)). + \(((M(v\_0)\)\)oplus M(v_1)=(1,0,0)+(0,1,0)=(1,1,0)\). + Donc \(((M(v\_2)=(1,0,0)+(1,1,0)=(2,1,0)\)\)). +- Parents de \(((v\_3\) : \(\mathrm{Par}(v\_3)=\{v\_2\}\). \[ - M(v_3)=m(v_3)\oplus M(v_2) + M(v\_3)=m(v\_3)\)\)oplus M(v_2) \] - \(m(v_3)=(0,0,1)\). - Donc \(M(v_3)=(0,0,1)+(2,1,0)=(2,1,1)\). + \(((m(v\_3)=(0,0,1)\)\)). + Donc \(((M(v\_3)=(0,0,1)+(2,1,0)=(2,1,1)\)\)). Conclusion de l’exemple -La signature \(C\) n’informe pas sur la composition historique. L’accumulateur \(M\) encode une mémoire strictement croissante sur le DAG. La ré‑apparition de \(A\) illustre que des classes peuvent se répéter sans annuler l’histoire : c’est exactement le régime où des structures transmissibles persistent malgré les collisions. +La signature \(((C\) n’informe pas sur la composition historique. L’accumulateur \(M\) encode une mémoire strictement croissante sur le DAG. La ré‑apparition de \(A\) illustre que des classes peuvent se répéter sans annuler l’histoire : c’est exactement le régime où des structures transmissibles persistent malgré les collisions. ## Disparition des branches instables ### Filtre de viabilité et élagage **Définition (prédicat de viabilité).** -Un prédicat est \(P:V\to\{0,1\}\). Un sommet est viable si \(P(v)=1\). +Un prédicat est \(P : V\to\{0,1\}\). Un sommet est viable si \(P(v)=1\). **Définition (sous‑DAG viable).** \[ -V_P=\{v\in V:P(v)=1\},\qquad E_P=E\cap (V_P\times V_P). +V\_P=\{v\in V : P(v)=1\},\qquad E\_P=E\cap (V\_P\times V\_P). \] -Le sous‑graphe \(G_P=(V_P,E_P)\) est le résultat d’un élagage. +Le sous‑graphe \(G\_P=(V\_P,E\_P)\)\)) est le résultat d’un élagage. **Proposition (idempotence).** -\(\mathfrak{E}(\mathfrak{E}(\mathcal{T}))=\mathfrak{E}(\mathcal{T})\). +\(((\mathfrak{E}(\mathfrak{E}(\mathcal{T}))=\mathfrak{E}(\mathcal{T})\)\)). **Définition (branche stable).** Dans un DAG infini, une branche est stable si elle contient une infinité de sommets viables. @@ -3860,11 +3837,11 @@ Dans un DAG infini, une branche est stable si elle contient une infinité de som ### Modèle stochastique minimal : processus de branchement **Définition.** -Soit \(K\) une variable aléatoire à valeurs dans \(\mathbb{N}\). On définit +Soit \(((K\) une variable aléatoire à valeurs dans \(\mathbb{N}\). On définit \[ -Z_0=1,\qquad Z_{n+1}=\sum_{i=1}^{Z_n} K_i, +Z\_0=1,\qquad Z\_{n+1}=\sum\_{i=1}^{Z\_n} K\_i, \] -où \((K_i)\) sont i.i.d. de loi \(K\). +où \((K\_i)\)\)) sont i.i.d. de loi \(((K\). **Définition (moyenne).** \[ @@ -3881,20 +3858,21 @@ Ce résultat exprime la disparition des branches instables sans hypothèse d’o ### Mesures sur les générations **Définition (poids).** -Un poids est \(w:V\to \mathbb{R}_+\). Exemples formels : +Un poids est \(w : V\to \mathbb{R}\_+\). Exemples formels : -- \(w(v)=g(M(v))\) pour une fonction \(g\), -- \(w(v)=|\mathrm{Desc}(v)\cap V_{n+k}|\) (descendance à horizon \(k\)), -- \(w(v)=\mathbb{P}(P(v)=1 \mid \text{informations})\). +- \(w(v)=g(M(v))\)\)) pour une fonction \(((g\), + +- \(w(v)=|\mathrm{Desc}(v)\)\)cap V_{n+k}|\) (descendance à horizon \(((k\)), +- \(w(v)=\mathbb{P}(P(v)=1 \mid \text{informations})\)\)). **Définition (mesure normalisée).** -Sur \(V_n\), +Sur \(((V\_n\), \[ -\pi_n(v)=\frac{w(v)}{\sum_{u\in V_n} w(u)}. +\pi\_n(v)=\frac{w(v)}{\sum\_{u\in V\_n} w(u)}. \] **Proposition (sélection).** -La sélection est définie ici comme la concentration de \(\pi_n\) sur un sous‑ensemble strict de \(V_n\). La concentration résulte d’inégalités de poids, donc d’inégalités de croissance ou de viabilité, sans finalité. +La sélection est définie ici comme la concentration de \(\pi\_n\) sur un sous‑ensemble strict de \(V\_n\). La concentration résulte d’inégalités de poids, donc d’inégalités de croissance ou de viabilité, sans finalité. ### Effet de conditionnement @@ -3905,7 +3883,7 @@ Conditionner sur la non‑extinction modifie la distribution observée. Les hist Lecture informationnelle - \(\bar{\sigma}\) représente une compression en classes. -- \(G_\Sigma\) rend visible l’héritage des collisions : retours sur classes sans retour sur occurrences. +- \(G\_\Sigma\) rend visible l’héritage des collisions : retours sur classes sans retour sur occurrences. - \(M\) est une mémoire distribuée définie sur un DAG. Lecture cosmologique minimale @@ -3920,11 +3898,11 @@ Lecture relative à des systèmes de transmission concrets ## Références consensuelles utiles -- Reinhard Diestel, _Graph Theory_ (théorie des graphes). -- Theodore E. Harris, _The Theory of Branching Processes_ (processus de branchement). -- Krishna B. Athreya, Peter E. Ney, _Branching Processes_ (processus de branchement). +- Reinhard Diestel, *Graph Theory* (théorie des graphes). +- Theodore E. Harris, *The Theory of Branching Processes* (processus de branchement). +- Krishna B. Athreya, Peter E. Ney, *Branching Processes* (processus de branchement). -## Conclusion +## Conclusion — Ch. 12 Les graphes orientés de lignées ont été introduits explicitement comme l’image combinatoire d’événements d’engendrement sur un ensemble d’occurrences, distinct du niveau des types. Une règle minimale de création orientée rend le graphe acyclique, et la consommation irréversible fournit un monotone cumulatif quantifiant l’histoire. L’héritage est formalisé par des règles sur attributs, puis ramené à des signatures discrètes par quotient, ce qui rend la perte d’identifiabilité structurelle. L’accumulation structurale est définie par un accumulateur sur DAG, et l’héritage des collisions passées apparaît lorsque plusieurs histoires se projettent sur la même signature malgré des historiques cumulés distincts. Enfin, la disparition des branches instables et la sélection sans finalité se décrivent par filtrage de viabilité, dynamique de branchement et concentration de mesure. @@ -3932,27 +3910,27 @@ On obtient : certaines structures transmissibles persistent sous contraintes, in --- -# Chapitre 13 — Structures persistantes et verrouillage des futurs +## Chapitre 13 — Structures persistantes et verrouillage des futurs {#chapitre-13-structures-persistantes-et-verrouillage-des-futurs} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 13 -Hypothèses (H). +**Hypothèses (H).** -- un espace d’états \(X\) et une famille de transformations admissibles \(\mathcal{T}\) (cadre discret) ; -- une description \(\Pi\) et une règle de restriction associée, fixées indépendamment de l’effet observé ; +- un espace d’états \(X\) et une famille de transformations admissibles \(\mathcal{T}\) (cadre discret) +- une description \(\Pi\) et une règle de restriction associée, fixées indépendamment de l’effet observé - quantification optionnelle par \(\mu\), \(d\) ou un coût \(c\) déclarés (si mobilisés). -Résultats (E). +**Résultats (E).** -- définition du futur accessible \(\mathcal{F}(x)\) et du verrouillage comme réduction monotone de l’atteignabilité sous contraintes actives ; -- distinction de statut entre verrouillage ensembliste (structurel) et quantifications (indexées) ; +- définition du futur accessible \(\mathcal{F}(x)\)\)) et du verrouillage comme réduction monotone de l’atteignabilité sous contraintes actives +- distinction de statut entre verrouillage ensembliste (structurel) et quantifications (indexées) - discipline de robustesse sous changements de granularité/description lorsque des comparaisons sont revendiquées. -Statut. +**Statut.** - verrouillage ensembliste : couche [E] ; quantification : couche [M] (indexée) ; probabiliste : couche [P] uniquement si un noyau est déclaré. -## Introduction +## Introduction — Ch. 13 Le chapitre précédent a établi un formalisme de filiation au moyen de graphes orientés acycliques, ainsi que des opérateurs de transmission et de composition permettant de décrire, sans vocabulaire substantiel, la propagation de structures partielles à travers des événements de séparation et de collision. @@ -3962,38 +3940,37 @@ Le présent chapitre introduit le mécanisme par lequel ces structures transmiss Soit : -- $(X,\mathcal{B})$ un espace mesurable d’états (ou un espace topologique $X$ muni de sa tribu borélienne ; le choix dépendra des résultats mobilisés). -- $\mathcal{T}$ un ensemble de transformations admissibles $f : X \to X$ (temps discret). -- $\langle \mathcal{T}\rangle$ le semi-groupe engendré par $\mathcal{T}$ par composition. +- \((((X,\mathcal{B})\)\)) un espace mesurable d’états (ou un espace topologique \(((X\) muni de sa tribu borélienne ; le choix dépendra des résultats mobilisés). -Remarque (admissibilité) -Le choix de l’ensemble $\mathcal{T}$ est une hypothèse structurale : il encode ce qui est disponible (symétries, localité, ressources) et reste indépendant de toute finalité. Lorsque plusieurs choix raisonnables de $\mathcal{T}$ existent, les énoncés quantifiés sont compris comme relatifs à ce choix, et la robustesse s’évalue par variation contrôlée de $\mathcal{T}$ (et des opérateurs de compatibilité associés). +- \(\mathcal{T}\) un ensemble de transformations admissibles \(f : X \to X\) (temps discret). +- \(\langle \mathcal{T}\rangle\) le semi-groupe engendré par \(\mathcal{T}\) par composition. -Pour $x \in X$ et $n \in \mathbb{N}$, l’ensemble des états atteignables en $n$ étapes est : -\[ -\operatorname{Reach}_n(x) -= +## Remarque (admissibilité) -\{ f_n \circ \cdots \circ f_1(x) \;:\; f_1,\ldots,f_n \in \mathcal{T} \}. +Le choix de l’ensemble \(\mathcal{T}\) est une hypothèse structurale : il encode ce qui est disponible (symétries, localité, ressources) et reste indépendant de toute finalité. Lorsque plusieurs choix raisonnables de \(\mathcal{T}\) existent, les énoncés quantifiés sont compris comme relatifs à ce choix, et la robustesse s’évalue par variation contrôlée de \(\mathcal{T}\) (et des opérateurs de compatibilité associés). + +Pour \(x \in X\) et \(n \in \mathbb{N}\), l’ensemble des états atteignables en \(n\) étapes est : \[ +\operatorname{Reach}\_n(x) = +\{ f\_n \circ \cdots \circ f\_1(x) \ ; : \ ; f\_1,\ldots,f\_n \in \mathcal{T} \}. \] -Le futur accessible (ensemble des états atteignables à horizon fini quelconque) est : -\[ -\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x), +Le futur accessible (ensemble des états atteignables à horizon fini quelconque) est : \[ +\mathcal{F}(x)=\bigcup\_{n\ge 0}\operatorname{Reach}\_n(x), \qquad -\operatorname{Reach}_0(x)=\{x\}. +\operatorname{Reach}\_0(x)=\{x\}. \] -Si une mesure de référence $\mu$ est disponible (mesure de volume, mesure stationnaire, etc.), la “taille” du futur accessible peut être mesurée par $\mu(\mathcal{F}(x))$. Dans un cadre fini, on utilisera plutôt la cardinalité $|\mathcal{F}(x)|$. +Si une mesure de référence \(\mu\) est disponible (mesure de volume, mesure stationnaire, etc.), la “taille” du futur accessible peut être mesurée par \(\mu(\mathcal{F}(x))\)\)). Dans un cadre fini, on utilisera plutôt la cardinalité \(((|\mathcal{F}(x)|\). -Dans les chapitres précédents, une structure a été introduite sous des formes compatibles : partition ou quotient de $X$, sous-tribu informative, ensemble de contraintes locales transportables, ou collection de motifs partiels transmissibles. Le chapitre présent n’impose pas un choix unique ; il impose en revanche un ordre logique minimal, garantissant l’absence d’auto-justification. +Dans les chapitres précédents, une structure a été introduite sous des formes compatibles : partition ou quotient de \(X\), sous-tribu informative, ensemble de contraintes locales transportables, ou collection de motifs partiels transmissibles. Le chapitre présent n’impose pas un choix unique ; il impose en revanche un ordre logique minimal, garantissant l’absence d’auto-justification. -Hypothèse de base (structure comme information opératoire) +## Hypothèse de base (structure comme information opératoire) Une structure est représentée par : -- un opérateur de description $\Pi$ qui associe à un état $x$ une description $s=\Pi(x)$ dans un espace de descriptions $S$ ; -- une règle de restriction indexée par $s$, qui sélectionne soit un ensemble d’états admissibles, soit une relation de transitions admissibles, soit une sous-famille de transformations admissibles. +- un opérateur de description \(\Pi\) qui associe à un état \(x\) une description \(s=\Pi(x)\)\)) dans un espace de descriptions \(((S\) + +- une règle de restriction indexée par \(s\), qui sélectionne soit un ensemble d’états admissibles, soit une relation de transitions admissibles, soit une sous-famille de transformations admissibles. Cette dissociation impose l’ordre : description puis contrainte. La structure n’est pas définie comme “ce qui restreint”, mais comme une description préalable associée à une règle de restriction fixée indépendamment de l’effet constaté. @@ -4004,52 +3981,50 @@ Cette dissociation impose l’ordre : description puis contrainte. La structure Une contrainte admet plusieurs représentations équivalentes. Toutes seront utilisées, car elles correspondent à des points de vue complémentaires sur “ce qui est interdit”. Contrainte d’état -Un sous-ensemble $A \subseteq X$ ; l’état est admissible si $x\in A$. +Un sous-ensemble \(A \subseteq X\) ; l’état est admissible si \(x\in A\). Contrainte de transition -Une relation $R \subseteq X\times X$ ; une transition $x\to y$ est admissible si $(x,y)\in R$. +Une relation \(R \subseteq X\times X\) ; une transition \(x\to y\) est admissible si \((x,y)\)\)in R\). Contrainte fonctionnelle -Une application $g:X\to Y$ et une condition $g(x)\in C_Y$ (notamment $g(x)=0$ ou $g(x)\le 0$). Cela induit l’ensemble admissible $A=\{x: g(x)\in C_Y\}$. +Une application \(((g : X\to Y\) et une condition \(g(x)\)\)in C_Y\) (notamment \(((g(x)=0\) ou \(g(x)\)\)le 0\)). Cela induit l’ensemble admissible \(((A=\{x : g(x)\)\)in C_Y\}\). Contrainte de coût -Une fonction $c:X\times X\to [0,+\infty]$ et un seuil $\kappa$ ; $(x,y)$ est admissible si $c(x,y)\le \kappa$. Le cas $c(x,y)=+\infty$ encode l’interdiction stricte. +Une fonction \(((c : X\times X\to [0,+\infty]\) et un seuil \(\kappa\) ; \((x,y)\)\)) est admissible si \(((c(x,y)\)\)le \kappa\). Le cas \(((c(x,y)=+\infty\) encode l’interdiction stricte. Interconversions utiles (sans perte) -- D’une contrainte d’état $A$, on déduit la contrainte de transition $R_A=A\times A$. -- D’une contrainte fonctionnelle $g(x)\in C_Y$, on déduit la contrainte d’état $A=\{x: g(x)\in C_Y\}$. -- D’une contrainte de coût $c(x,y)\le \kappa$, on déduit la contrainte de transition $R=\{(x,y): c(x,y)\le \kappa\}$. +- D’une contrainte d’état \(A\), on déduit la contrainte de transition \(R\_A=A\times A\). +- D’une contrainte fonctionnelle \(g(x)\)\)in C_Y\), on déduit la contrainte d’état \(((A=\{x : g(x)\)\)in C_Y\}\). +- D’une contrainte de coût \(((c(x,y)\)\)le \kappa\), on déduit la contrainte de transition \(((R=\{(x,y) : c(x,y)\)\)le \kappa\}\). ### Définition d’une contrainte active Le qualificatif “active” désigne un effet effectif sur l’atteignabilité, et non l’existence nominale d’une règle. -Soit $(X,\mathcal{T})$ et deux ensembles de transformations admissibles $\mathcal{T}\supseteq \mathcal{T}'$. Le passage de $\mathcal{T}$ à $\mathcal{T}'$ est une activation de contrainte au point $x$ si : -\[ -\mathcal{F}_{\mathcal{T}'}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x), +Soit \((((X,\mathcal{T})\)\)) et deux ensembles de transformations admissibles \(((\mathcal{T}\supseteq \mathcal{T}'\). Le passage de \(\mathcal{T}\) à \(\mathcal{T}'\) est une activation de contrainte au point \(x\) si : \[ +\mathcal{F}\_{\mathcal{T}'}(x) \subsetneq \mathcal{F}\_{\mathcal{T}}(x), \] -où $\mathcal{F}_{\mathcal{T}}(x)$ désigne le futur accessible construit avec $\mathcal{T}$, et $\mathcal{F}_{\mathcal{T}'}(x)$ celui construit avec $\mathcal{T}'$. +où \(\mathcal{F}\_{\mathcal{T}}(x)\)\)) désigne le futur accessible construit avec \(((\mathcal{T}\), et \(\mathcal{F}\_{\mathcal{T}'}(x)\)\)) celui construit avec \(((\mathcal{T}'\). Une contrainte est globalement active si l’inclusion stricte vaut sur un ensemble d’états non négligeable (mesure non nulle, ou partie dense, selon le cadre retenu). ### Structures et activation -Soit $\Pi:X\to S$ une description, et soit $\mathcal{T}(s)\subseteq \mathcal{T}$ une famille de transformations admissibles indexée par $s\in S$. +Soit \(\Pi : X\to S\) une description, et soit \(\mathcal{T}(s)\)\)subseteq \mathcal{T}\) une famille de transformations admissibles indexée par \(((s\in S\). -Une structure $s$ est dite active au point $x$ si, pour $\Pi(x)=s$, on a : -\[ -\mathcal{F}_{\mathcal{T}(s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x). +Une structure \(s\) est dite active au point \(x\) si, pour \(\Pi(x)=s\), on a : \[ +\mathcal{F}\_{\mathcal{T}(s)}(x) \subsetneq \mathcal{F}\_{\mathcal{T}}(x). \] -Cette définition impose que $(\Pi,\mathcal{T}(\cdot))$ soit donné avant toute interprétation : la structure n’est pas “ce qui réduit”, elle est “ce qui est décrit” et “ce qui impose ensuite une restriction”. +Cette définition impose que \((\Pi,\mathcal{T}(\cdot))\)\)) soit donné avant toute interprétation : la structure n’est pas “ce qui réduit”, elle est “ce qui est décrit” et “ce qui impose ensuite une restriction”. ### Contraintes endogènes et ensembles invariants Il est pertinent de distinguer deux sources de contraintes. Contraintes exogènes -Restrictions prescrites sur $\mathcal{T}$ (interdictions, règles externes). +Restrictions prescrites sur \(((\mathcal{T}\) (interdictions, règles externes). Contraintes endogènes Restrictions produites par la structure interne de la dynamique : ensembles invariants, classes absorbantes, attracteurs, dissipation, non-injectivité, réduction effective de dimension. @@ -4060,63 +4035,57 @@ Le verrouillage des futurs relève principalement des contraintes endogènes. L ### Verrouillage comme réduction monotone des futurs accessibles -On modélise l’accumulation ou l’activation progressive de contraintes par une suite d’ensembles de transformations admissibles $(\mathcal{T}_t)_{t\in\mathbb{N}}$ telle que : -\[ -\mathcal{T}_{t+1}\subseteq \mathcal{T}_t +On modélise l’accumulation ou l’activation progressive de contraintes par une suite d’ensembles de transformations admissibles \((\mathcal{T}\_t)\_{t\in\mathbb{N}}\) telle que : \[ +\mathcal{T}\_{t+1}\subseteq \mathcal{T}\_t \quad \text{pour tout } t. \] -Le futur accessible à partir du temps $t$ est défini par : -\[ -\mathcal{F}^{(t)}(x) -= - -\bigcup_{n\ge 0} +Le futur accessible à partir du temps \(t\) est défini par : \[ +\mathcal{F}^{(t)}(x) = +\bigcup\_{n\ge 0} \left\{ -f_{t+n}\circ \cdots \circ f_{t+1}(x) -: -f_{t+k}\in \mathcal{T}_{t+k} +f\_{t+n}\circ \cdots \circ f\_{t+1}(x) : f\_{t+k}\in \mathcal{T}\_{t+k} \right\}. \] -Alors, pour tout $x$ : -\[ -\mathcal{F}^{(t+1)}(x)\subseteq \mathcal{F}^{(t)}(x), +Alors, pour tout \(x\) : \[ +\mathcal{F}^{(t+1)}(x)\)\)subseteq \mathcal{F}^{(t)}(x), \] -donc la famille $(\mathcal{F}^{(t)}(x))_t$ est décroissante. +donc la famille \((((\mathcal{F}^{(t)}(x))\_t\) est décroissante. -Le verrouillage correspond à la situation où l’inclusion est strictement décroissante sur une suite de temps, ou, de façon plus structurelle, lorsque l’intersection limite est strictement plus petite : -\[ -\mathcal{F}^{(\infty)}(x)=\bigcap_{t\ge 0}\mathcal{F}^{(t)}(x) +Le verrouillage correspond à la situation où l’inclusion est strictement décroissante sur une suite de temps, ou, de façon plus structurelle, lorsque l’intersection limite est strictement plus petite : \[ +\mathcal{F}^{(\infty)}(x)=\bigcap\_{t\ge 0}\mathcal{F}^{(t)}(x) \subsetneq \mathcal{F}^{(0)}(x). \] **Cas fini** -Si $X$ est fini, les ensembles $\mathcal{F}^{(t)}(x)$ sont des sous-ensembles d’un ensemble fini ; la décroissance est donc stationnaire en temps fini. Le verrouillage est alors un phénomène à horizon fini, détectable par stabilisation des ensembles atteignables. +Si \(X\) est fini, les ensembles \(\mathcal{F}^{(t)}(x)\)\)) sont des sous-ensembles d’un ensemble fini ; la décroissance est donc stationnaire en temps fini. Le verrouillage est alors un phénomène à horizon fini, détectable par stabilisation des ensembles atteignables. **Cas infini** -Si $X$ est infini, l’intersection peut être non vide tout en étant strictement plus petite que $\mathcal{F}^{(0)}(x)$ ; l’analyse se fait alors via la mesure, la topologie, ou des invariants dynamiques (dimension effective, entropie topologique, etc.). +Si \(((X\) est infini, l’intersection peut être non vide tout en étant strictement plus petite que \(\mathcal{F}^{(0)}(x)\)\)) ; l’analyse se fait alors via la mesure, la topologie, ou des invariants dynamiques (dimension effective, entropie topologique, etc.). ### Niveaux, quantification et robustesse du verrouillage Dans le cas fini, la stabilisation d’une famille décroissante est automatique ; on caractérise alors le verrouillage par (i) l’intensité de la réduction, (ii) sa vitesse, (iii) sa structure (goulots, fragmentation), et (iv) sa robustesse aux choix de mesure, de projection et d’admissibilité. Niveau 1 — verrouillage ensembliste (noyau) -Le verrouillage est une inclusion de futurs accessibles. On dira qu’il est strict en `t1→t2` s’il existe `x` tel que \(\mathcal{F}^{(t_2)}(x)\subsetneq \mathcal{F}^{(t_1)}(x)\). +Le verrouillage est une inclusion de futurs accessibles. On dira qu’il est strict en `t1→t2` s’il existe `x` tel que \(((\mathcal{F}^{(t\_2)}(x)\)\)subsetneq \mathcal{F}^{(t_1)}(x)\). Niveau 2 — verrouillage quantifié (mesurable) On fixe un quantificateur et on mesure la réduction, par exemple : -- réduction de futur accessible (cas fini) : \(L_{\mathcal{F}}(t,x)=|\mathcal{F}^{(0)}(x)|-|\mathcal{F}^{(t)}(x)|\) et \(l_{\mathcal{F}}(t,x)=L_{\mathcal{F}}(t,x)/|\mathcal{F}^{(0)}(x)|\) lorsque \(|\mathcal{F}^{(0)}(x)|>0\) ; -- réduction de futur accessible (cas mesuré) : \(L_{\mathcal{F}}^{\mu}(t,x)=\mu(\mathcal{F}^{(0)}(x))-\mu(\mathcal{F}^{(t)}(x))\) et \(l_{\mathcal{F}}^{\mu}(t,x)=L_{\mathcal{F}}^{\mu}(t,x)/\mu(\mathcal{F}^{(0)}(x))\) lorsque \(\mu(\mathcal{F}^{(0)}(x))>0\) ; -- vitesse de verrouillage (seuil \(\theta\in (0,1)\)) : \(\tau_{\theta}(x)=\inf\{t\ge 0 : l_{\mathcal{F}}(t,x)\ge \theta\}\) (ou la variante mesurée) ; -- quantificateurs structurels : nombre de composantes fortement connexes atteignables, distribution des bassins, goulots (coupes) dans le graphe d’atteignabilité, diamètre de \(\mathcal{F}^{(t)}(x)\) sous une quasi‑métrique de chemin lorsque l’on introduit un coût de transition. +- réduction de futur accessible (cas fini) : \(((L\_{\mathcal{F}}(t,x)=|\mathcal{F}^{(0)}(x)|-|\mathcal{F}^{(t)}(x)|\) et \(l\_{\mathcal{F}}(t,x)=L\_{\mathcal{F}}(t,x)/|\mathcal{F}^{(0)}(x)|\) lorsque \(|\mathcal{F}^{(0)}(x)|>0\) + +- réduction de futur accessible (cas mesuré) : \(L\_{\mathcal{F}}^{\mu}(t,x)=\mu(\mathcal{F}^{(0)}(x))-\mu(\mathcal{F}^{(t)}(x))\)\)) et \(((l\_{\mathcal{F}}^{\mu}(t,x)=L\_{\mathcal{F}}^{\mu}(t,x)/\mu(\mathcal{F}^{(0)}(x))\)\)) lorsque \(((\mu(\mathcal{F}^{(0)}(x))>0\) +- vitesse de verrouillage (seuil \(\theta\in (0,1)\)\))) : \(((\tau\_{\theta}(x)=\inf\{t\ge 0 : l\_{\mathcal{F}}(t,x)\)\)ge \theta\}\) (ou la variante mesurée) +- quantificateurs structurels : nombre de composantes fortement connexes atteignables, distribution des bassins, goulots (coupes) dans le graphe d’atteignabilité, diamètre de \(((\mathcal{F}^{(t)}(x)\)\)) sous une quasi‑métrique de chemin lorsque l’on introduit un coût de transition. Niveau 3 — verrouillage robuste (statut) Une conclusion quantifiée est dite robuste si elle persiste qualitativement sous : -- variations raisonnables de mesure \(\mu\), +- variations raisonnables de mesure \(((\mu\), + - variations de projection / quotient \(\Pi\), - variations de l’admissibilité \(\mathcal{T}\) dans une classe déclarée, - et, lorsque des contraintes héritées interviennent, variations de l’opérateur \(\operatorname{Comp}\) dans une famille explicitée. @@ -4126,6 +4095,7 @@ Une conclusion quantifiée est dite robuste si elle persiste qualitativement sou Les résultats centraux de ce chapitre sont accompagnés d’une note structurée : - Hypothèses : liste explicite (finitude/compacité, piégeage/dissipativité, admissibilité fixée, mesure \(\mu\), projection \(\Pi\), etc.) + - Conclusion : énoncé exact - Ruptures : ce qui n’est plus garanti si une hypothèse est retirée @@ -4137,26 +4107,27 @@ Bibliothèque minimale de ruptures (vocabulaire standard pour ce chapitre) - H‑Adm (admissibilité fixée) retirée : reconfiguration du futur accessible ; quantités non comparables sans aligner la classe d’admissibilité (même \(\mathcal{T}\), même \(\operatorname{Comp}\), même règle d’activation). - Changement de projection/quotient \(\Pi\) : non‑Markovianité apparente possible ; conclusions sur verrouillage observé susceptibles d’être des artefacts de représentation. -Déclaration M0 (projection / non‑Markovianité). - -- espace d’état : \(S\) (état complet), observable \(X=\Pi(S)\) ; -- projection : \(\Pi\) ; -- statut markovien : markovien sur \(S\) ; non markovien possible sur \(X\) ; -- type : mémoire‑état (variable cachée), pas mémoire‑structure. +> **Déclaration M0** (projection / non‑Markovianité). +> +> - espace d’état : \(S\) (état complet), observable \(X=\Pi(S)\)\)) +> - projection : \(((\Pi\) +> - statut markovien : markovien sur \(S\) ; non markovien possible sur \(X\) +> - type : mémoire‑état (variable cachée), pas mémoire‑structure. ### Estimation, bornes et substituts (quand le futur est intractable) -Le futur accessible complet \(\mathcal{F}^{(t)}(x)\) est souvent trop coûteux à calculer (voire non calculable selon la classe de transformations). Toute quantification proposée sur \(\mathcal{F}^{(t)}(x)\) est donc accompagnée : +Le futur accessible complet \(\mathcal{F}^{(t)}(x)\)\)) est souvent trop coûteux à calculer (voire non calculable selon la classe de transformations). Toute quantification proposée sur \(((\mathcal{F}^{(t)}(x)\)\)) est donc accompagnée : -- d’au moins un estimateur calculable ; -- d’au moins une borne (supérieure ou inférieure) ; +- d’au moins un estimateur calculable + +- d’au moins une borne (supérieure ou inférieure) - et d’une note de statut (dépendances aux choix). Estimateurs par échantillonnage de trajectoires -- Échantillonnage de chemins de longueur bornée \(n\le n_{\max}\) sous une politique déclarée (uniforme, filtrée par ressource, locale). -- Estimation de \(\mu(\mathcal{F}^{(t)}(x))\) par couverture empirique : fraction d’états visités (fini) ou volume discrétisé (continu) sous une maille déclarée. -- Estimation d’un temps caractéristique de verrouillage \(\tau_{\theta}\) par répétitions (mêmes choix d’exploration et de quantificateur). +- Échantillonnage de chemins de longueur bornée \(((n\le n\_{\max}\) sous une politique déclarée (uniforme, filtrée par ressource, locale). +- Estimation de \(\mu(\mathcal{F}^{(t)}(x))\)\)) par couverture empirique : fraction d’états visités (fini) ou volume discrétisé (continu) sous une maille déclarée. +- Estimation d’un temps caractéristique de verrouillage \(((\tau\_{\theta}\) par répétitions (mêmes choix d’exploration et de quantificateur). Bornes supérieures et inférieures @@ -4166,7 +4137,7 @@ Bornes supérieures et inférieures Métriques de substitution -- Diamètre de futur (selon une quasi‑distance déclarée) : \(\mathrm{diam}(\mathcal{F}^{(t)}(x))\). +- Diamètre de futur (selon une quasi‑distance déclarée) : \(\mathrm{diam}(\mathcal{F}^{(t)}(x))\)\)). - Conductance / coupe minimale du graphe atteignable (si pondération). - Nombre et tailles des composantes fortement connexes atteignables. - Variation de diamètre ou de fragmentation sous verrouillage. @@ -4176,38 +4147,33 @@ Chaque estimateur précise : (i) la dépendance à la politique d’exploration ### Verrouillage via ensembles invariants, classes absorbantes et attracteurs -Dans le cas déterministe $F:X\to X$ : +Dans le cas déterministe \(((F : X\to X\) : -- $A$ est positivement invariant si $F(A)\subseteq A$. -- $A$ est invariant si $F(A)=A$. -- $A$ est absorbant si pour tout $x\in X$, il existe $n$ tel que $F^n(x)\in A$. +- \(A\) est positivement invariant si \(F(A)\)\)subseteq A\). -Si un ensemble absorbant strict $A\subsetneq X$ existe, alors tout futur accessible à partir de n’importe quel état devient contenu dans $A$ après un temps fini dépendant de l’état initial. Le verrouillage est ici un fait ensembliste. +- \(((A\) est invariant si \(F(A)=A\). +- \(A\) est absorbant si pour tout \(x\in X\), il existe \(n\) tel que \(F^n(x)\)\)in A\). -Dans les systèmes dissipatifs (au sens standard), les attracteurs offrent une forme stabilisée du verrouillage : un attracteur $A$ est un ensemble compact invariant possédant un bassin $B(A)$ (ensemble d’états initiaux dont l’orbite approche $A$). Alors, pour $x\in B(A)$, l’adhérence de l’orbite est contenue dans $A$, ce qui implique une restriction durable des devenirs. +Si un ensemble absorbant strict \(((A\subsetneq X\) existe, alors tout futur accessible à partir de n’importe quel état devient contenu dans \(A\) après un temps fini dépendant de l’état initial. Le verrouillage est ici un fait ensembliste. + +Dans les systèmes dissipatifs (au sens standard), les attracteurs offrent une forme stabilisée du verrouillage : un attracteur \(A\) est un ensemble compact invariant possédant un bassin \(B(A)\)\)) (ensemble d’états initiaux dont l’orbite approche \(((A\)). Alors, pour \(x\in B(A)\)\)), l’adhérence de l’orbite est contenue dans \(((A\), ce qui implique une restriction durable des devenirs. Le verrouillage n’implique pas unicité. Plusieurs attracteurs et bassins peuvent coexister ; la réduction du futur dépend alors du bassin effectif dans lequel l’état initial se situe. ### Verrouillage relatif à une observable (réduction par projection) -Soit une application de réduction $\Pi:X\to S$ (projection, quotient, codage). Pour une dynamique $F:X\to X$, le processus réduit est : -\[ -S_{t+1}=\Pi(F(X_t)), +Soit une application de réduction \(\Pi : X\to S\) (projection, quotient, codage). Pour une dynamique \(F : X\to X\), le processus réduit est : \[ +S\_{t+1}=\Pi(F(X\_t)), \qquad -S_t=\Pi(X_t). +S\_t=\Pi(X\_t). \] -En général, il n’existe pas de $G:S\to S$ tel que $\Pi\circ F = G\circ \Pi$ : le système réduit n’est pas autonome. - -On définit néanmoins l’ensemble des futurs observables depuis une description $s\in S$ : -\[ -\mathcal{F}_S(s) -= +En général, il n’existe pas de \(G : S\to S\) tel que \(\Pi\circ F = G\circ \Pi\) : le système réduit n’est pas autonome. +On définit néanmoins l’ensemble des futurs observables depuis une description \(s\in S\) : \[ +\mathcal{F}\_S(s) = \{ -\Pi(x') -: -x'\in \mathcal{F}(x) +\Pi(x') : x'\in \mathcal{F}(x) \text{ pour un } x\in \Pi^{-1}(s) \}. \] @@ -4216,75 +4182,73 @@ Même si le futur microscopique est large, le futur observable peut être fortem Monotonie et comparaison sous projection -- Pour un état \(x\), l’image \(\Pi(\mathcal{F}(x))\) (futur microscopique projeté) est toujours incluse dans \(\mathcal{F}_S(\Pi(x))\), puisque \(\mathcal{F}_S\) est défini comme union sur la fibre \(\Pi^{-1}(s)\). -- Lorsque la réduction est compatible (cas rare) au sens où il existe \(G:S\to S\) tel que \(\Pi\circ F = G\circ \Pi\), la dynamique projetée est autonome et l’on peut comparer directement des futurs accessibles en \(S\). En dehors de ce cas, toute conclusion “au niveau \(S\)” doit rappeler la définition adoptée pour \(\mathcal{F}_S\). +- Pour un état \(x\), l’image \(\Pi(\mathcal{F}(x))\)\)) (futur microscopique projeté) est toujours incluse dans \(((\mathcal{F}\_S(\Pi(x))\)\)), puisque \(((\mathcal{F}\_S\) est défini comme union sur la fibre \(\Pi^{-1}(s)\)\)). +- Lorsque la réduction est compatible (cas rare) au sens où il existe \(((G : S\to S\) tel que \(\Pi\circ F = G\circ \Pi\), la dynamique projetée est autonome et l’on peut comparer directement des futurs accessibles en \(S\). En dehors de ce cas, toute conclusion “au niveau \(S\)” doit rappeler la définition adoptée pour \(\mathcal{F}\_S\). Artefacts de quotient (faux positifs / faux négatifs) - Identifier des états distincts peut produire un verrouillage artificiel (faux positif) si l’on confond une faible diversité descriptive avec une réduction effective des futurs microscopiques. -- À l’inverse, définir le futur d’une description comme une union sur toute la fibre \(\Pi^{-1}(s)\) peut masquer un verrouillage (faux négatif) : la fibre agrège des micro‑états soumis à des restrictions différentes. +- À l’inverse, définir le futur d’une description comme une union sur toute la fibre \(\Pi^{-1}(s)\)\)) peut masquer un verrouillage (faux négatif) : la fibre agrège des micro‑états soumis à des restrictions différentes. Double granularité (robustesse à la description) -Toute conclusion quantifiée sur verrouillage est vérifiée sur au moins deux granularités \(\Pi_1,\Pi_2\) déclarées pertinentes, où “pertinent” signifie : (i) invariance opérationnelle pour l’analyse visée, ou (ii) correspondance à une observation explicitée. +Toute conclusion quantifiée sur verrouillage est vérifiée sur au moins deux granularités \(((\Pi\_1,\Pi\_2\) déclarées pertinentes, où “pertinent” signifie : (i) invariance opérationnelle pour l’analyse visée, ou (ii) correspondance à une observation explicitée. Règle de cohérence : formuler d’abord sur l’état étendu lorsqu’un registre de contraintes intervient -Lorsque le verrouillage dépend d’un registre de contraintes \(K\) (contraintes héritées, consommation, compatibilité), l’énoncé principal est formulé sur l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) (chapitre 15), puis seulement projeté sur \(X\). +Lorsque le verrouillage dépend d’un registre de contraintes \(K\) (contraintes héritées, consommation, compatibilité), l’énoncé principal est formulé sur l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) (chapitre 15), puis seulement projeté sur \(((X\). Gabarit minimal -- espace étendu : \(y_t=(x_t,K_t)\) -- futur étendu : \(\mathcal{F}_Y(y)\) -- projection : \(\pi_X(y)=x\) -- énoncé de verrouillage : inclusion sur \(\mathcal{F}_Y\) +- espace étendu : \(y\_t=(x\_t,K\_t)\)\)) +- futur étendu : \(((\mathcal{F}\_Y(y)\)\)) +- projection : \(((\pi\_X(y)=x\) +- énoncé de verrouillage : inclusion sur \(\mathcal{F}\_Y\) - effet observé : inclusion (ou non) sur \(\mathcal{F}\) après projection, discutée séparément ## Dépendance au passé sans mémoire explicite Dans un système Markovien au niveau de l’état complet (ou d’une variable d’état suffisante), le futur ne dépend que du présent. La dépendance au passé apparaît lorsque : -- la variable suivie est une description partielle $\Pi(x)$ ; +- la variable suivie est une description partielle \(\Pi(x)\)\)) + - ou des variables internes de contrainte existent mais ne sont pas incluses dans l’observation. Deux mécanismes couvrent exhaustivement le cadre présent. Dans les deux cas, la dépendance au passé au niveau observé ne suffit pas, à elle seule, à conclure à une mémoire transmissible : elle peut provenir d’un état incomplet (variable cachée) ou d’un registre interne non observé, et se reformule sur un espace d’état étendu où la dynamique est fermée. -Déclaration M0 (section — dépendance au passé). - -- mécanisme A (réduction) : mémoire‑état (variable cachée) ; espace d’état complet \(S\), observable \(X=\Pi(S)\) ; markovien sur \(S\), non markovien possible sur \(X\) ; -- mécanisme B (variable interne \(m\)) : espace étendu \(Y=X\times M\) ; markovien sur \(Y\) ; type mémoire‑état si \(m\) est interne non transmissible, et mémoire‑structure si \(m\) est un registre transmissible \(K\). +> **Déclaration M0** (section — dépendance au passé). +> +> - mécanisme A (réduction) : mémoire‑état (variable cachée) ; espace d’état complet \(((S\), observable \(X=\Pi(S)\)\)) ; markovien sur \(((S\), non markovien possible sur \(X\) +> - mécanisme B (variable interne \(m\)) : espace étendu \(Y=X\times M\) ; markovien sur \(Y\) ; type mémoire‑état si \(m\) est interne non transmissible, et mémoire‑structure si \(m\) est un registre transmissible \(K\). ### Mécanisme A : non-Markovianité induite par réduction (système caché) -Soit $(X_t)_{t\ge 0}$ une chaîne de Markov sur $X$ de noyau $K(x,\mathrm{d}x')$. Soit $\Pi:X\to S$ et $S_t=\Pi(X_t)$. +Soit \((X\_t)\_{t\ge 0}\) une chaîne de Markov sur \(X\) de noyau \(K(x,\mathrm{d}x')\)\)). Soit \(((\Pi : X\to S\) et \(S\_t=\Pi(X\_t)\)\)). -En général, $(S_t)$ n’est pas Markovien. Il existe un noyau effectif dépendant de l’histoire : -\[ -\mathbb{P}(S_{t+1}\in \cdot \mid S_0,\ldots,S_t) -= - -\mathcal{K}_t(S_0,\ldots,S_t;\cdot). +En général, \((((S\_t)\)\)) n’est pas Markovien. Il existe un noyau effectif dépendant de l’histoire : \[ +\mathbb{P}(S_{t+1}\in \cdot \mid S_0,\ldots,S_t) = +\mathcal{K}_t(S_0,\ldots,S_t ; \cdot). \] -Raison structurelle -La connaissance de $S_t$ fixe seulement la fibre $\Pi^{-1}(S_t)$, mais pas la distribution conditionnelle de $X_t$ sur cette fibre ; cette distribution dépend de l’histoire. Ainsi, la loi de $S_{t+1}$ dépend de l’histoire sans qu’une variable “mémoire” explicite ne soit introduite dans $S_t$. +## Raison structurelle -Cas limite où le processus réduit redevient Markovien -Le processus réduit est Markovien si la partition induite par $\Pi$ est compatible avec le noyau (lumpabilité), c’est-à-dire si tous les états d’une même cellule induisent la même loi sur les cellules futures. En dehors de ce cas, la dépendance au passé est générique. +La connaissance de \(((S\_t\) fixe seulement la fibre \(\Pi^{-1}(S\_t)\)\)), mais pas la distribution conditionnelle de \(((X\_t\) sur cette fibre ; cette distribution dépend de l’histoire. Ainsi, la loi de \(S\_{t+1}\) dépend de l’histoire sans qu’une variable “mémoire” explicite ne soit introduite dans \(S\_t\). + +## Cas limite où le processus réduit redevient Markovien + +Le processus réduit est Markovien si la partition induite par \(\Pi\) est compatible avec le noyau (lumpabilité), c’est-à-dire si tous les états d’une même cellule induisent la même loi sur les cellules futures. En dehors de ce cas, la dépendance au passé est générique. ### Mécanisme B : variables internes de contrainte non observées (hystérésis) -Soit une dynamique augmentée sur $X\times M$ : -\[ -(x_{t+1},m_{t+1})=\Psi(x_t,m_t), +Soit une dynamique augmentée sur \(X\times M\) : \[ +(x\_{t+1},m\_{t+1})=\Psi(x\_t,m\_t), \] -où $M$ représente un registre interne de contrainte (paramètre lent, ressource consommée, défaut cumulé, variable dissipative, etc.). +où \(M\) représente un registre interne de contrainte (paramètre lent, ressource consommée, défaut cumulé, variable dissipative, etc.). -Si seule la composante $x_t$ est observée, la dynamique apparente sur $X$ n’est pas autonome : -\[ -x_{t+1}=\pi_X(\Psi(x_t,m_t)). +Si seule la composante \(x\_t\) est observée, la dynamique apparente sur \(X\) n’est pas autonome : \[ +x\_{t+1}=\pi\_X(\Psi(x\_t,m\_t)). \] -Deux histoires différentes peuvent mener au même $x_t$ avec des valeurs différentes de $m_t$. Or $m_t$ restreint les transitions futures ; les futurs accessibles depuis $x_t$ dépendent donc du passé, sans que cette dépendance ne soit portée par une variable explicite dans l’espace observé. +Deux histoires différentes peuvent mener au même \(x\_t\) avec des valeurs différentes de \(m\_t\). Or \(m\_t\) restreint les transitions futures ; les futurs accessibles depuis \(x\_t\) dépendent donc du passé, sans que cette dépendance ne soit portée par une variable explicite dans l’espace observé. ### Correspondance entre les deux mécanismes @@ -4294,8 +4258,9 @@ Tout processus réduit non Markovien peut être réalisé comme la projection d La robustesse cumulative formalise le fait que certaines contraintes persistantes deviennent progressivement moins sensibles : -- aux fluctuations d’état dans un voisinage ; -- aux perturbations (déterministes ou stochastiques) ; +- aux fluctuations d’état dans un voisinage + +- aux perturbations (déterministes ou stochastiques) - aux recompositions via collisions. Elle repose sur deux mécanismes non exclusifs : l’emboîtement de régions admissibles et la contraction (au sens métrique ou probabiliste), auxquels s’ajoute un mécanisme de redondance interne. @@ -4304,35 +4269,33 @@ Elle repose sur deux mécanismes non exclusifs : l’emboîtement de régions ad Les notions standards suivantes sont toutes pertinentes et non redondantes : -- stabilité de Lyapunov autour d’un ensemble invariant ; -- attractivité ; -- stabilité asymptotique ; -- stabilité structurelle (conjugaison sous perturbations) ; +- stabilité de Lyapunov autour d’un ensemble invariant + +- attractivité +- stabilité asymptotique +- stabilité structurelle (conjugaison sous perturbations) - robustesse probabiliste (persistance en probabilité sous bruit faible). Le chapitre n’en privilégie aucune par principe : elles servent d’outillage pour caractériser différents régimes de persistance. ### Emboîtement d’ensembles admissibles -On modélise l’accumulation de contraintes par une suite d’ensembles admissibles $(A_t)_{t\ge 0}$ telle que : -\[ -A_{t+1}\subseteq A_t\subseteq X, +On modélise l’accumulation de contraintes par une suite d’ensembles admissibles \((A\_t)\_{t\ge 0}\) telle que : \[ +A\_{t+1}\subseteq A\_t\subseteq X, \qquad -x_t\in A_t \Rightarrow x_{t+1}\in A_{t+1}. +x\_t\in A\_t \Rightarrow x\_{t+1}\in A\_{t+1}. \] -Toute trajectoire admissible est confinée dans : -\[ -A_{\infty}=\bigcap_{t\ge 0}A_t. +Toute trajectoire admissible est confinée dans : \[ +A\_{\infty}=\bigcap\_{t\ge 0}A\_t. \] Interprétation strictement mathématique -Même si $A_t$ reste large pour des temps initiaux, l’intersection peut être strictement plus petite, éventuellement de dimension effective plus faible. La robustesse cumulative se lit alors comme une concentration progressive des trajectoires ou des mesures images sur $A_{\infty}$. +Même si \(A\_t\) reste large pour des temps initiaux, l’intersection peut être strictement plus petite, éventuellement de dimension effective plus faible. La robustesse cumulative se lit alors comme une concentration progressive des trajectoires ou des mesures images sur \(A\_{\infty}\). ### Contraction et perte effective de degrés de liberté -Dans un espace métrique $(X,d)$, une condition suffisante de robustesse est l’existence d’une contraction locale ou en moyenne : -\[ +Dans un espace métrique \((X,d)\)\)), une condition suffisante de robustesse est l’existence d’une contraction locale ou en moyenne : \[ d(F(x),F(y))\le \lambda\,d(x,y), \qquad 0\le \lambda < 1, @@ -4348,11 +4311,12 @@ Dans les systèmes où coexistent directions contractantes et expansives, la th Un mécanisme complémentaire, distinct de la contraction, est la redondance : une contrainte macroscopique peut admettre de nombreuses réalisations microscopiques connectées par les transformations admissibles. -Formellement, si une contrainte macroscopique correspond à une fibre $A=\Pi^{-1}(s)$, la robustesse dépend : +Formellement, si une contrainte macroscopique correspond à une fibre \(((A=\Pi^{-1}(s)\)\)), la robustesse dépend : -- de la taille de $A$ (nombre ou mesure de réalisations) ; -- de la connectivité de $A$ sous les transformations admissibles (possibilité de “changer de réalisation” tout en conservant $s$) ; -- de l’existence d’un bassin (au sens ensembliste ou probabiliste) qui renvoie vers $A$ après perturbation. +- de la taille de \(((A\) (nombre ou mesure de réalisations) + +- de la connectivité de \(A\) sous les transformations admissibles (possibilité de “changer de réalisation” tout en conservant \(s\)) +- de l’existence d’un bassin (au sens ensembliste ou probabiliste) qui renvoie vers \(A\) après perturbation. Ce mécanisme explique une robustesse qui n’est pas due à la rigidité, mais à la multiplicité des réalisations. @@ -4362,19 +4326,16 @@ Les chapitres antérieurs ont introduit des graphes orientés de filiation et de ### Espace des contraintes et ordre naturel -Soit $\mathfrak{C}$ un ensemble de contraintes élémentaires. On considère l’ensemble des collections : -\[ +Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. On considère l’ensemble des collections : \[ \mathcal{P}(\mathfrak{C}) \] muni de l’ordre par inclusion. -À toute collection $K\subseteq \mathfrak{C}$, on associe : +À toute collection \(K\subseteq \mathfrak{C}\), on associe : -- un ensemble admissible $A(K)\subseteq X$ (intersection des contraintes d’état induites) ; -- une relation admissible $R(K)\subseteq X\times X$ (intersection des contraintes de transition induites) ; +- un ensemble admissible \(A(K)\)\)subseteq X\) (intersection des contraintes d’état induites) -avec cohérence monotone : -\[ +- une relation admissible \(((R(K)\)\)subseteq X\times X\) (intersection des contraintes de transition induites) ; avec cohérence monotone : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1), @@ -4386,19 +4347,16 @@ La lecture est purement ordinale : “plus de contraintes” implique “moins d ### Transport le long d’une arête -Soit un graphe orienté acyclique $G=(V,E)$. À chaque arête $e=(u\to v)$, on associe un opérateur de transmission : -\[ -\tau_e:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}). +Soit un graphe orienté acyclique \(((G=(V,E)\)\)). À chaque arête \(((e=(u\to v)\)\)), on associe un opérateur de transmission : \[ +\tau_e : \mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}). \] -Le nœud $v$ hérite de $u$ le long de $e$ si : -\[ -\tau_e(K_u)\subseteq K_v. +Le nœud \(((v\) hérite de \(u\) le long de \(e\) si : \[ +\tau\_e(K\_u)\)\)subseteq K_v. \] Propriété de monotonicité attendue -Il est naturel d’exiger : -\[ +Il est naturel d’exiger : \[ K_1\subseteq K_2 \Rightarrow \tau_e(K_1)\subseteq \tau_e(K_2), @@ -4407,27 +4365,24 @@ afin de préserver l’ordre “plus de contraintes” le long des transmissions ### Collisions et compatibilité -Si $v$ possède des prédécesseurs $u_1,\ldots,u_k$, les contraintes candidates transmises sont : -\[ -\widetilde{K}_v -= - -\bigcup_{i=1}^k \tau_{(u_i\to v)}(K_{u_i}). +Si \(((v\) possède des prédécesseurs \(u\_1,\ldots,u\_k\), les contraintes candidates transmises sont : \[ +\widetilde{K}\_v = +\bigcup\_{i=1}^k \tau\_{(u\_i\to v)}(K\_{u\_i}). \] -L’union peut créer des incompatibilités (ensemble admissible vide, relation admissible vide). On introduit un opérateur de compatibilité : -\[ -\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}) +L’union peut créer des incompatibilités (ensemble admissible vide, relation admissible vide). On introduit un opérateur de compatibilité : \[ +\operatorname{Comp} : \mathcal{P}(\mathfrak{C})\)\)to \mathcal{P}(\mathfrak{C}) \] tel que : -- $\operatorname{Comp}(K)\subseteq K$ ; -- $A(\operatorname{Comp}(K))\neq \varnothing$ et/ou $R(\operatorname{Comp}(K))\neq \varnothing$ ; -- si $K$ est déjà compatible, $\operatorname{Comp}(K)=K$. +- \(((\operatorname{Comp}(K)\)\)subseteq K\) + +- \(((A(\operatorname{Comp}(K))\)\)neq \varnothing\) et/ou \(((R(\operatorname{Comp}(K))\)\)neq \varnothing\) +- si \(((K\) est déjà compatible, \(\operatorname{Comp}(K)=K\). Règle minimale de composition \[ -K_v \supseteq \operatorname{Comp}(\widetilde{K}_v). +K\_v \supseteq \operatorname{Comp}(\widetilde{K}\_v). \] Aucune optimisation n’est requise : seule la satisfaisabilité est imposée. @@ -4445,64 +4400,57 @@ Statut des résultats (invariant vs dépendant) Noyau d’axiomes minimal \(A0\) (pour revendiquer “invariant”) - \(A0.1\) (bien‑typé) : \(\operatorname{Comp}\) agit sur l’espace des contraintes et retourne une collection de contraintes. -- \(A0.2\) (compatibilité déclarée) : il existe un prédicat de satisfaisabilité \(\mathrm{Sat}\) (global) ou \(\mathrm{Sat}_r\) (local) tel que la sortie \(\operatorname{Comp}(K)\) soit compatible au sens déclaré. -- \(A0.3\) (monotonie, si utilisée) : lorsqu’un résultat invoque des points fixes ou une convergence par ordre, la monotonie requise (de \(\operatorname{Comp}\) ou de l’opérateur global \(F(K)=\operatorname{Comp}(K\cup \Phi(\cdot))\)) est posée comme hypothèse, jamais présumée. -- \(A0.4\) (idempotence/extensivité, si utilisées) : ces propriétés ne sont exigées que lorsqu’un résultat les emploie (logique de fermeture) ; elles ne sont pas implicites. +- \(A0.2\) (compatibilité déclarée) : il existe un prédicat de satisfaisabilité \(\mathrm{Sat}\) (global) ou \(\mathrm{Sat}\_r\) (local) tel que la sortie \(\operatorname{Comp}(K)\)\)) soit compatible au sens déclaré. +- \(((A0.3\) (monotonie, si utilisée) : lorsqu’un résultat invoque des points fixes ou une convergence par ordre, la monotonie requise (de \(\operatorname{Comp}\) ou de l’opérateur global \(F(K)=\operatorname{Comp}(K\cup \Phi(\cdot))\)\))) est posée comme hypothèse, jamais présumée. +- \(((A0.4\) (idempotence/extensivité, si utilisées) : ces propriétés ne sont exigées que lorsqu’un résultat les emploie (logique de fermeture) ; elles ne sont pas implicites. - \(A0.5\) (changement de granularité, si revendiqué) : si un résultat est annoncé stable sous projection/quotient, l’hypothèse correspondante est déclarée (commutation exacte ou contrôle explicite de l’écart). Classes canoniques de compatibilités (à nommer et à limiter) -- **Classe fermeture** \(\mathcal{C}_{\mathrm{closure}}\) : compatibilités de type fermeture (monotonie + idempotence ; extensivité selon convention). Elles sont le régime naturel pour les arguments de points fixes et d’auto‑stabilisation par ordre. -- **Classe réparation minimale** \(\mathcal{C}_{\mathrm{repair\_min}}\) : \(\operatorname{Comp}\) “répare” en supprimant un minimum de contraintes pour rétablir \(\mathrm{Sat}\), selon un critère de minimalité déclaré (inclusion, cardinalité, coût de vérification, etc.). Cela introduit un choix donc un biais à déclarer. -- **Classe locale** \(\mathcal{C}_{\mathrm{local},r}\) : compatibilités approximatives \(\operatorname{Comp}_r\) maintenant une cohérence locale \(\mathrm{Sat}_r\) (paramètre \(r\) ou autre budget). Les résultats sont soit robustes sur un intervalle de \(r\), soit indexés par \(r\). -- **Classe choix** \(\mathcal{C}_{\mathrm{choice}}\) : \(\operatorname{Comp}\) choisit explicitement une solution parmi plusieurs satisfaisables. C’est une source directe de biais (et donc de sélection) : la politique de choix est déclarée et testée en robustesse. +- **Classe fermeture** \(\mathcal{C}\_{\mathrm{closure}}\) : compatibilités de type fermeture (monotonie + idempotence ; extensivité selon convention). Elles sont le régime naturel pour les arguments de points fixes et d’auto‑stabilisation par ordre. +- **Classe réparation minimale** \(\mathcal{C}\_{\mathrm{repair_min}}\) : \(\operatorname{Comp}\) “répare” en supprimant un minimum de contraintes pour rétablir \(\mathrm{Sat}\), selon un critère de minimalité déclaré (inclusion, cardinalité, coût de vérification, etc.). Cela introduit un choix donc un biais à déclarer. +- **Classe locale** \(\mathcal{C}\_{\mathrm{local},r}\) : compatibilités approximatives \(\operatorname{Comp}\_r\) maintenant une cohérence locale \(\mathrm{Sat}\_r\) (paramètre \(r\) ou autre budget). Les résultats sont soit robustes sur un intervalle de \(r\), soit indexés par \(r\). +- **Classe choix** \(\mathcal{C}\_{\mathrm{choice}}\) : \(\operatorname{Comp}\) choisit explicitement une solution parmi plusieurs satisfaisables. C’est une source directe de biais (et donc de sélection) : la politique de choix est déclarée et testée en robustesse. Politique d’introduction - Un nouveau type de compatibilité est introduit seulement s’il relève d’une classe canonique ci‑dessus, ou s’il justifie l’ajout d’une nouvelle classe par une motivation structurale et par au moins un résultat invariant non trivial. -- Toute compatibilité paramétrée est décrite comme une famille \((\operatorname{Comp}_{\theta})_{\theta}\) ; ses résultats ne sont dits “structurels” que s’ils persistent sur un ensemble non trivial de paramètres. +- Toute compatibilité paramétrée est décrite comme une famille \((\operatorname{Comp}\_{\theta})\_{\theta}\) ; ses résultats ne sont dits “structurels” que s’ils persistent sur un ensemble non trivial de paramètres. -Critère de robustesse à \(\operatorname{Comp}\) -Un phénomène est déclaré “structurel” vis‑à‑vis de la compatibilité s’il persiste sur plusieurs classes canoniques, ou sur une région non triviale de paramètres, ou sous variation de politique dans \(\mathcal{C}_{\mathrm{choice}}\). Sinon, il est traité comme dépendant d’instanciation. +## Critère de robustesse à \(\operatorname{Comp}\) + +Un phénomène est déclaré “structurel” vis‑à‑vis de la compatibilité s’il persiste sur plusieurs classes canoniques, ou sur une région non triviale de paramètres, ou sous variation de politique dans \(\mathcal{C}\_{\mathrm{choice}}\). Sinon, il est traité comme dépendant d’instanciation. ### Verrouillage induit par héritage -Déclaration M0 (section — héritage comme registre transmissible). - -- espace d’état : \(Y=X\times\mathcal{P}(\mathfrak{C})\) avec \(y=(x,K)\) ; -- projection : \(s=\Pi(x)\) si lecture sur une description \(S\), et \(\Pi_X(x,K)=x\) ; -- statut markovien : markovien sur \(Y\) si \(K\) est mis à jour explicitement ; non markovien possible sur une projection omettant \(K\) ; -- type : mémoire‑structure (registre transmissible \(K\)), pas mémoire‑état. +> **Déclaration M0** (section — héritage comme registre transmissible). +> +> - statut markovien : markovien sur \(Y\) si \(K\) est mis à jour explicitement ; non markovien possible sur une projection omettant \(K\) +> - type : mémoire‑structure (registre transmissible \(K\)), pas mémoire‑état. Une contrainte héritée devient facteur de verrouillage dès qu’elle restreint l’atteignabilité des descendants. -On associe à $K$ un ensemble de transformations admissibles induites, par exemple : -\[ -\mathcal{T}(K) -= - -\{ f\in\mathcal{T} : -\forall x\in A(K),\ (x,f(x))\in R(K) +On associe à \(K\) un ensemble de transformations admissibles induites, par exemple : \[ +\mathcal{T}(K) = +\{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\)\)in R(K) \}. \] -Le futur accessible depuis le nœud $v$ est alors : -\[ -\mathcal{F}_{\mathcal{T}(K_v)}(x_v). +Le futur accessible depuis le nœud \(((v\) est alors : \[ +\mathcal{F}\_{\mathcal{T}(K\_v)}(x\_v). \] Forme explicite de “le passé agit sans être représenté” -Il peut exister deux nœuds $v$ et $v'$ tels que $\Pi(x_v)=\Pi(x_{v'})$ (même description observable) mais $K_v\neq K_{v'}$ (contraintes héritées différentes). Alors, en général : -\[ -\mathcal{F}_{\mathcal{T}(K_v)}(x_v) +Il peut exister deux nœuds \(v\) et \(v'\) tels que \(\Pi(x\_v)=\Pi(x\_{v'})\)\)) (même description observable) mais \(((K\_v\neq K\_{v'}\) (contraintes héritées différentes). Alors, en général : \[ +\mathcal{F}\_{\mathcal{T}(K\_v)}(x\_v) \neq -\mathcal{F}_{\mathcal{T}(K_{v'})}(x_{v'}). +\mathcal{F}\_{\mathcal{T}(K\_{v'})}(x\_{v'}). \] -Le passé agit via la variable de contrainte $K$, sans que la description observée $\Pi(x)$ porte une mémoire explicite de ce passé. +Le passé agit via la variable de contrainte \(K\), sans que la description observée \(\Pi(x)\)\)) porte une mémoire explicite de ce passé. ### Stabilisation -Une contrainte $c\in\mathfrak{C}$ est stabilisée le long d’une suite de descendants $(v_n)$ si, à partir d’un rang, $c\in K_{v_n}$ pour tout $n$ ultérieur. Plus généralement, un sous-ensemble $K^\star$ est stabilisé si $K^\star\subseteq K_{v_n}$ à partir d’un rang. +Une contrainte \(((c\in\mathfrak{C}\) est stabilisée le long d’une suite de descendants \((v\_n)\)\)) si, à partir d’un rang, \(((c\in K\_{v\_n}\) pour tout \(n\) ultérieur. Plus généralement, un sous-ensemble \(K^\star\) est stabilisé si \(K^\star\subseteq K\_{v\_n}\) à partir d’un rang. La stabilisation est le passage d’un verrouillage local (lié à un événement de transmission ou de collision) à un verrouillage durable (lié à la persistance de contraintes au long cours). @@ -4510,9 +4458,10 @@ La stabilisation est le passage d’un verrouillage local (lié à un événemen Les constructions précédentes conduisent à une proposition strictement ensembliste : -- une structure devient contrainte active dès qu’elle réduit le futur accessible ; -- toute accumulation monotone de contraintes produit une réduction monotone des futurs accessibles ; -- toute réduction par projection, ou tout oubli de variables internes de contrainte, induit une dépendance au passé au niveau des descriptions ; +- une structure devient contrainte active dès qu’elle réduit le futur accessible + +- toute accumulation monotone de contraintes produit une réduction monotone des futurs accessibles +- toute réduction par projection, ou tout oubli de variables internes de contrainte, induit une dépendance au passé au niveau des descriptions - l’héritage de contraintes sur un graphe orienté suffit à faire varier l’ensemble des futurs accessibles sans modifier nécessairement la description observée. La phrase « le passé agit sans être représenté » est donc un énoncé technique : la variable descriptive peut rester constante tandis que l’ensemble admissible des transformations change, via des contraintes héritées ou cachées. @@ -4521,14 +4470,15 @@ La phrase « le passé agit sans être représenté » est donc un énoncé tech Les notions mobilisées ici appartiennent à des cadres standard : -- systèmes dynamiques (invariance, classes absorbantes, attracteurs, stabilité) ; -- chaînes de Markov et modèles cachés (réduction non Markovienne, compatibilité de partitions, lumpabilité) ; -- théorie de l’information (projection, perte d’information, suffisance) ; +- systèmes dynamiques (invariance, classes absorbantes, attracteurs, stabilité) + +- chaînes de Markov et modèles cachés (réduction non Markovienne, compatibilité de partitions, lumpabilité) +- théorie de l’information (projection, perte d’information, suffisance) - semi-groupes d’opérateurs (cadre temps continu, dissipation). Aucune hypothèse non standard n’est requise pour établir les résultats ensemblistes du chapitre. -## Conclusion +## Conclusion — Ch. 13 Le verrouillage des futurs a été défini comme une propriété d’atteignabilité : des structures persistantes, lorsqu’elles se traduisent en contraintes actives, réduisent l’espace des trajectoires futures. La dépendance au passé a été formalisée sans variable de mémoire explicite, par réduction non Markovienne ou par variables internes non observées. Enfin, l’héritage sur graphes orientés a été articulé à ces notions pour produire un mécanisme de verrouillage durable. @@ -4536,27 +4486,27 @@ Le chapitre suivant pourra exploiter ce cadre pour étudier une sélection struc --- -# Chapitre 14 — Sélection structurelle sans optimisation +## Chapitre 14 — Sélection structurelle sans optimisation {#chapitre-14-selection-structurelle-sans-optimisation} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 14 -Hypothèses (H). +**Hypothèses (H).** -- un espace d’états \(X\), une admissibilité \(\mathcal{T}\) et un espace de contraintes \(\mathfrak{C}\) ; -- un opérateur de compatibilité \(\operatorname{Comp}\) choisi (classe/politique/paramètres déclarés) ; +- un espace d’états \(X\), une admissibilité \(\mathcal{T}\) et un espace de contraintes \(\mathfrak{C}\) +- un opérateur de compatibilité \(\operatorname{Comp}\) choisi (classe/politique/paramètres déclarés) - couche probabiliste optionnelle : noyau \(P\) déclaré lorsque des énoncés stochastiques sont formulés. -Résultats (E). +**Résultats (E).** -- reconstruction de la sélection comme filtrage induit par la compatibilité et la géométrie de l’admissible, sans optimisation ; -- séparation explicite entre satisfaisabilité (\(\operatorname{Comp}_{\mathrm{sat}}\)) et choix (\(\operatorname{Comp}_{\mathrm{choice}}\)) ; +- reconstruction de la sélection comme filtrage induit par la compatibilité et la géométrie de l’admissible, sans optimisation +- séparation explicite entre satisfaisabilité (\(\operatorname{Comp}\_{\mathrm{sat}}\)) et choix (\(\operatorname{Comp}\_{\mathrm{choice}}\)) - observables et tests de robustesse indexés par \(\Pi\), \(\mu\) et \(P\) lorsque ces objets sont mobilisés. -Statut. +**Statut.** - noyau ensembliste : couche [E] ; résultats mesurés/probabilistes : couches [M]/[P] indexées. -## Introduction +## Introduction — Ch. 14 Les chapitres précédents ont construit, sans hypothèse téléologique, une dynamique de formes reposant sur quatre ingrédients abstraits : un espace d’états admissibles, une famille de transformations admissibles, une irréversibilité cumulée (au sens d’une consommation non récupérable), et une transmission partielle décrite par des graphes orientés de filiation. Le chapitre 13 a ajouté un mécanisme de verrouillage des futurs : certaines structures, lorsqu’elles s’énoncent comme contraintes actives, réduisent l’ensemble des trajectoires accessibles. @@ -4571,16 +4521,12 @@ Les énoncés ensemblistes de ce chapitre ne supposent aucun noyau de transition ### Espace d’états, transformations et atteignabilité -Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) une famille de transformations admissibles \(f : X \to X\). Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble des états atteignables en \(n\) étapes est : - -\[ -\operatorname{Reach}_n(x)=\{ f_n\circ\cdots\circ f_1(x) : f_1,\ldots,f_n\in\mathcal{T}\}. +Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) une famille de transformations admissibles \(f : X \to X\). Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble des états atteignables en \(n\) étapes est : \[ +\operatorname{Reach}\_n(x)=\{ f\_n\circ\cdots\circ f\_1(x) : f\_1,\ldots,f\_n\in\mathcal{T}\}. \] -Le futur accessible est : - -\[ -\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x). +Le futur accessible est : \[ +\mathcal{F}(x)=\bigcup\_{n\ge 0}\operatorname{Reach}\_n(x). \] Ces objets ont été introduits pour rendre explicite la dépendance de l’évolution à l’ensemble des transformations admissibles, sans présupposer de métrique ni de finalité. @@ -4589,49 +4535,40 @@ Ces objets ont été introduits pour rendre explicite la dépendance de l’évo Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : -- un ensemble admissible d’états \(A(K)\subseteq X\), -- une relation admissible de transitions \(R(K)\subseteq X\times X\), +- un ensemble admissible d’états \(A(K)\)\)subseteq X\), -avec monotonie par inclusion : +- une relation admissible de transitions \(((R(K)\)\)subseteq X\times X\), -\[ +avec monotonie par inclusion : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] Définition (compatibilité). -Une collection \(K\) est dite compatible si \(A(K)\neq\varnothing\) et si \(R(K)\) autorise au moins une transition depuis \(A(K)\), c’est-à-dire : - -\[ +Une collection \(((K\) est dite compatible si \(A(K)\)\)neq\varnothing\) et si \(((R(K)\)\)) autorise au moins une transition depuis \(((A(K)\)\)), c’est-à-dire : \[ \exists x\in A(K),\ \exists y\in X,\ (x,y)\in R(K). \] Cette définition est minimale : la compatibilité n’est pas une propriété sémantique, seulement la non-contradiction opérationnelle. Définition (transformations induites). -La famille de transformations admissibles sous contraintes \(K\) est définie par : - -\[ -\mathcal{T}(K)=\{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\in R(K)\}. +La famille de transformations admissibles sous contraintes \(((K\) est définie par : \[ +\mathcal{T}(K)=\{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\)\)in R(K)\}. \] -Ainsi, les contraintes agissent comme un filtre sur \(\mathcal{T}\). +Ainsi, les contraintes agissent comme un filtre sur \(((\mathcal{T}\). ### Occurrences, graphes de filiation et transmission de contraintes -Le chapitre 12 a introduit un graphe orienté acyclique \(G=(V,E)\) (éventuellement enrichi en hyperarêtes), où chaque sommet \(v\in V\) représente une occurrence (un état situé dans une trajectoire), et chaque arête \(u\to v\) représente une relation d’engendrement admissible. +Le chapitre 12 a introduit un graphe orienté acyclique \(G=(V,E)\)\)) (éventuellement enrichi en hyperarêtes), où chaque sommet \(((v\in V\) représente une occurrence (un état situé dans une trajectoire), et chaque arête \(u\to v\) représente une relation d’engendrement admissible. -On note \(x_v\in X\) l’état associé au sommet \(v\), et \(K_v\subseteq\mathfrak{C}\) la collection de contraintes portée par \(v\) (contraintes actives, héritées, ou produites par compatibilité). +On note \(x\_v\in X\) l’état associé au sommet \(v\), et \(K\_v\subseteq\mathfrak{C}\) la collection de contraintes portée par \(v\) (contraintes actives, héritées, ou produites par compatibilité). -Pour chaque arête \(e=(u\to v)\), on suppose donné un opérateur de transmission : - -\[ -\tau_e:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), +Pour chaque arête \(e=(u\to v)\)\)), on suppose donné un opérateur de transmission : \[ +\tau_e : \mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), \] -monotone pour l’inclusion. La mise en commun de contraintes lors d’une collision (plusieurs parents) est suivie d’un opérateur de compatibilité \(\operatorname{Comp}\) produisant une sous-collection compatible : - -\[ -\widetilde{K}_v=\bigcup_{u\to v}\tau_{(u\to v)}(K_u),\qquad K_v \supseteq \operatorname{Comp}(\widetilde{K}_v). +monotone pour l’inclusion. La mise en commun de contraintes lors d’une collision (plusieurs parents) est suivie d’un opérateur de compatibilité \(((\operatorname{Comp}\) produisant une sous-collection compatible : \[ +\widetilde{K}*v=\bigcup\_{u\to v}\tau\_{(u\to v)}(K\_u),\qquad K\_v \supseteq \operatorname{Comp}(\widetilde{K}\_v). \] L’opérateur \(\operatorname{Comp}\) n’optimise rien : il réalise une fermeture par satisfaisabilité (éviter l’ensemble vide). @@ -4639,20 +4576,21 @@ L’opérateur \(\operatorname{Comp}\) n’optimise rien : il réalise une ferme Remarque (compatibilité : satisfaisabilité vs choix) Selon l’instanciation, \(\operatorname{Comp}\) peut se situer dans deux régimes conceptuellement distincts : -- \(\operatorname{Comp}_{\mathrm{sat}}\) : maintien de satisfaisabilité sans préférence (suppression minimale de contradictions locales, ou règle déterminée). -- \(\operatorname{Comp}_{\mathrm{choice}}\) : choix parmi plusieurs sous‑collections satisfaisables. +- \(\operatorname{Comp}\_{\mathrm{sat}}\) : maintien de satisfaisabilité sans préférence (suppression minimale de contradictions locales, ou règle déterminée). + +- \(\operatorname{Comp}\_{\mathrm{choice}}\) : choix parmi plusieurs sous‑collections satisfaisables. Dans le second cas, le critère de choix (s’il existe) est déclaré et appartient à une classe non téléologique (coût de vérification, stabilité historique, localité, contraintes d’architecture). Un biais de compatibilité est un biais de sélection : s’il existe, il est explicite et fait l’objet d’un test de robustesse. Discipline (statut des résultats) -Dans la suite, lorsqu’un passage dépend de la **classe** de compatibilité (fermeture, réparation minimale, cohérence locale \(\operatorname{Comp}_r\), choix), ou d’une **politique** de choix, ou d’un **paramètre**, cette dépendance est explicitement annoncée et l’énoncé est indexé en conséquence (cf. chapitre 13, collisions et compatibilité). +Dans la suite, lorsqu’un passage dépend de la **classe** de compatibilité (fermeture, réparation minimale, cohérence locale \(\operatorname{Comp}\_r\), choix), ou d’une **politique** de choix, ou d’un **paramètre**, cette dépendance est explicitement annoncée et l’énoncé est indexé en conséquence (cf. chapitre 13, collisions et compatibilité). ## Rejet de la téléologie et définition opérationnelle de la sélection ### Rejet formel de l’optimisation comme primitive Définition (optimisation explicite). -On dit qu’une dynamique introduit une optimisation explicite si elle suppose donnée une fonction \(U:X\to\mathbb{R}\) (ou \(U:S\to\mathbb{R}\) sur un espace de descriptions), et si les transitions admissibles sont sélectionnées en vue de maximiser \(U\) (localement ou globalement). +On dit qu’une dynamique introduit une optimisation explicite si elle suppose donnée une fonction \(U : X\to\mathbb{R}\) (ou \(U : S\to\mathbb{R}\) sur un espace de descriptions), et si les transitions admissibles sont sélectionnées en vue de maximiser \(U\) (localement ou globalement). Le cadre de l’ouvrage exclut une telle primitive. Les objets admis sont : admissibilité, compatibilité, transmission, consommation irréversible, verrouillage des futurs. Par construction, aucun \(U\) n’est requis. @@ -4661,10 +4599,8 @@ Le cadre de l’ouvrage exclut une telle primitive. Les objets admis sont : admi Définition (filtre de sélection). Soit \(\Omega\) l’ensemble des trajectoires candidates (au sens d’enchaînements de transformations dans \(\mathcal{T}\)) depuis un état initial \(x\). Soit \(\mathcal{A}\subseteq\Omega\) l’ensemble des trajectoires admissibles au regard des contraintes actives (compatibilité locale, transitions autorisées, contraintes héritées). -La sélection ensembliste est l’application : - -\[ -\operatorname{Sel}:\Omega \mapsto \mathcal{A}, +La sélection ensembliste est l’application : \[ +\operatorname{Sel} : \Omega \mapsto \mathcal{A}, \] c’est-à-dire la restriction de l’ensemble des trajectoires possibles aux trajectoires admissibles. @@ -4675,63 +4611,56 @@ Cette définition ne produit pas une préférence ; elle produit une éliminatio Pour comparer quantitativement des régimes, une mesure (ou probabilité) sur les trajectoires est pertinente. -Soit \(\mathbb{P}\) une loi a priori sur \(\Omega\) (issue, par exemple, d’un choix stochastique de transformations dans \(\mathcal{T}\), ou d’un bruit sur les transitions). La sélection probabiliste est le conditionnement sur l’admissibilité : - -\[ -\mathbb{P}_{\text{sel}}(\cdot)=\mathbb{P}(\cdot \mid \mathcal{A}). +Soit \(\mathbb{P}\) une loi a priori sur \(\Omega\) (issue, par exemple, d’un choix stochastique de transformations dans \(\mathcal{T}\), ou d’un bruit sur les transitions). La sélection probabiliste est le conditionnement sur l’admissibilité : \[ +\mathbb{P}\_{\text{sel}}(\cdot)=\mathbb{P}(\cdot \mid \mathcal{A}). \] Lorsque \(\mathbb{P}(\mathcal{A})=0\), l’ensemble admissible est vide au sens probabiliste : il n’existe pas de trajectoire réalisable sous la loi considérée. Dans ce formalisme, “sélection” signifie : renormalisation sur le sous-ensemble admissible. -Encadré (exploration vs sélection) -Une dominance observée peut provenir du mécanisme d’exploration (noyau \(P\), politique d’application des transformations, filtrage par ressource) plutôt que de la structure de l’espace admissible. On distingue donc : - -- topologie du graphe d’atteignabilité : attracteurs, bassins, composantes fortement connexes, goulots ; -- mécanisme d’exploration : \(P\) (ou loi a priori sur \(\Omega\)), politiques et contraintes de ressource ; -- test de robustesse : variation de \(P\) dans une famille \(\mathcal{P}\) déclarée, en vérifiant la stabilité qualitative des conclusions. +> **Encadré** (exploration vs sélection). +> +> Une dominance observée peut provenir du mécanisme d’exploration (noyau \(P\), politique d’application des transformations, filtrage par ressource) plutôt que de la structure de l’espace admissible. On distingue donc : +> +> - topologie du graphe d’atteignabilité : attracteurs, bassins, composantes fortement connexes, goulots +> - mécanisme d’exploration : \(P\) (ou loi a priori sur \(\Omega\)), politiques et contraintes de ressource +> - test de robustesse : variation de \(P\) dans une famille \(\mathcal{P}\) déclarée, en vérifiant la stabilité qualitative des conclusions. ## Sélection par compatibilité ### Viabilité et compatibilité : une même notion à deux niveaux Définition (viabilité locale). -Un état \(x\in X\) est viable sous contraintes \(K\) si : - -\[ -x\in A(K)\quad \text{et}\quad \exists f\in\mathcal{T}(K)\ \text{tel que}\ f(x)\in A(K'). +Un état \(x\in X\) est viable sous contraintes \(K\) si : \[ +x\in A(K)\)\)quad \text{et}\quad \exists f\in\mathcal{T}(K)\ \text{tel que}\ f(x)\in A(K'). \] -Cette définition explicite qu’une compatibilité statique (être dans \(A(K)\)) n’est pas suffisante : il faut aussi une possibilité de continuation. +Cette définition explicite qu’une compatibilité statique (être dans \(((A(K)\)\))) n’est pas suffisante : il faut aussi une possibilité de continuation. Définition (chemin compatible). -Une trajectoire \(x_0\to x_1\to\cdots\to x_n\) est compatible si, pour une suite de contraintes \((K_t)\), on a : - -\[ +Une trajectoire \(((x\_0\to x\_1\to\cdots\to x\_n\) est compatible si, pour une suite de contraintes \((K\_t)\)\)), on a : \[ x_t\in A(K_t),\quad (x_t,x_{t+1})\in R(K_t),\quad K_{t+1}\supseteq \operatorname{Comp}\Big(\bigcup \tau(K_t)\Big). \] -Ici, \(\tau\) désigne l’ensemble des transmissions actives à l’étape. +Ici, \(((\tau\) désigne l’ensemble des transmissions actives à l’étape. ### Lemmes de filtrage Lemme (monotonie de la sélection en contrainte). -Si \(K_1\subseteq K_2\), alors l’ensemble des trajectoires compatibles sous \(K_2\) est inclus dans celui sous \(K_1\). +Si \(K\_1\subseteq K\_2\), alors l’ensemble des trajectoires compatibles sous \(K\_2\) est inclus dans celui sous \(K\_1\). Démonstration. -Par monotonie, \(A(K_2)\subseteq A(K_1)\) et \(R(K_2)\subseteq R(K_1)\), donc toute trajectoire satisfaisant les contraintes plus fortes satisfait aussi les contraintes plus faibles. +Par monotonie, \(A(K\_2)\)\)subseteq A(K_1)\) et \(((R(K\_2)\)\)subseteq R(K_1)\), donc toute trajectoire satisfaisant les contraintes plus fortes satisfait aussi les contraintes plus faibles. Conclusion : augmenter les contraintes ne peut qu’éliminer des trajectoires. Lemme (compatibilité comme géométrie d’ensemble). -Dans un espace mesurable, la “force” d’un filtre peut être mesurée par la diminution de mesure : - -\[ +Dans un espace mesurable, la “force” d’un filtre peut être mesurée par la diminution de mesure : \[ \Delta(K)=\mu(A(\varnothing))-\mu(A(K)). \] -Dans un espace fini, on remplace \(\mu\) par la cardinalité. La sélection, vue comme filtrage, se quantifie alors par une réduction de “volume” admissible. +Dans un espace fini, on remplace \(((\mu\) par la cardinalité. La sélection, vue comme filtrage, se quantifie alors par une réduction de “volume” admissible. La dépendance au volume et à la connectivité est une première manifestation du caractère géométrique. @@ -4740,17 +4669,17 @@ La dépendance au volume et à la connectivité est une première manifestation ### Définition de transmissibilité Définition (transmissibilité d’une description). -Soit \(\Pi:X\to S\) une projection vers un espace de descriptions \(S\). Une description \(s\in S\) est transmissible si, pour toute occurrence \(v\) telle que \(\Pi(x_v)=s\), il existe au moins un descendant \(w\) accessible depuis \(v\) dans le graphe de filiation, tel que \(\Pi(x_w)=s\) (ou appartienne à un voisinage fixé de \(s\), si \(S\) est topologique). +Soit \(\Pi : X\to S\) une projection vers un espace de descriptions \(S\). Une description \(s\in S\) est transmissible si, pour toute occurrence \(v\) telle que \(\Pi(x\_v)=s\), il existe au moins un descendant \(w\) accessible depuis \(v\) dans le graphe de filiation, tel que \(\Pi(x\_w)=s\) (ou appartienne à un voisinage fixé de \(s\), si \(S\) est topologique). Cette définition est structurelle : elle n’utilise ni objectif ni récompense. Définition (transmissibilité sous contraintes héritées). -Une contrainte \(c\in\mathfrak{C}\) est transmissible le long d’une arête \(e\) si \(c\in K\Rightarrow c\in \tau_e(K)\). Elle est transmissible sur un sous-graphe si elle est transmissible le long de toutes ses arêtes. +Une contrainte \(c\in\mathfrak{C}\) est transmissible le long d’une arête \(e\) si \(c\in K\Rightarrow c\in \tau\_e(K)\)\)). Elle est transmissible sur un sous-graphe si elle est transmissible le long de toutes ses arêtes. ### Proposition de disparition Proposition (extinction en modèle probabiliste). -Soit une dynamique stochastique sur un ensemble fini de classes \(S\), modélisée par une matrice de transition \(P=(p_{ij})\) avec \(p_{ij}\ge 0\) et \(\sum_j p_{ij}=1\). Soit \(B\subseteq S\) l’ensemble des classes compatibles et transmissibles (au sens où elles possèdent au moins une sortie dans \(B\)). Alors l’ensemble \(S\setminus B\) est transitoire au sens de Markov : la probabilité d’y rester indéfiniment est nulle, et la masse finit par se concentrer sur les classes récurrentes incluses dans \(B\). +Soit une dynamique stochastique sur un ensemble fini de classes \(((S\), modélisée par une matrice de transition \(P=(p\_{ij})\)\)) avec \(((p\_{ij}\ge 0\) et \(\sum\_j p\_{ij}=1\). Soit \(B\subseteq S\) l’ensemble des classes compatibles et transmissibles (au sens où elles possèdent au moins une sortie dans \(B\)). Alors l’ensemble \(S\setminus B\) est transitoire au sens de Markov : la probabilité d’y rester indéfiniment est nulle, et la masse finit par se concentrer sur les classes récurrentes incluses dans \(B\). Interprétation technique. Les classes non transmissibles n’ont pas de cycles internes ni de retours compatibles : elles ne peuvent pas porter de régime stationnaire. Leur “disparition” signifie : absence dans le support des mesures limites (stationnaires, quasi-stationnaires, ou limites conditionnées). @@ -4763,21 +4692,17 @@ Pour parler de “dominance” sans optimisation, il faut une notion quantitativ ### Opérateur de transition restreint et Perron-Frobenius -Soit \(B\subseteq S\) l’ensemble des classes compatibles. On définit la matrice restreinte \(P_B\) en ne conservant que les transitions à l’intérieur de \(B\). Deux situations se présentent. +Soit \(B\subseteq S\) l’ensemble des classes compatibles. On définit la matrice restreinte \(P\_B\) en ne conservant que les transitions à l’intérieur de \(B\). Deux situations se présentent. Cas sans absorption externe -Si \(P_B\) est stochastique (chaque ligne somme à 1), alors une distribution stationnaire \(\pi\) satisfait : - -\[ -\pi=\pi P_B,\qquad \sum_{i\in B}\pi_i=1,\quad \pi_i\ge 0. +Si \(P\_B\) est stochastique (chaque ligne somme à 1), alors une distribution stationnaire \(\pi\) satisfait : \[ +\pi=\pi P\_B,\qquad \sum\_{i\in B}\pi\_i=1,\quad \pi\_i\ge 0. \] Lorsque le sous-système est irréductible et apériodique (conditions standard), \(\pi\) est unique et décrit un régime dominant au sens probabiliste : la distribution des classes converge vers \(\pi\) indépendamment de l’état initial (dans \(B\)). Cas avec fuite (filtrage fort, verrouillage) -Si des transitions sortent de \(B\) (événements incompatibles, consommation empêchant la continuation), la dynamique sur \(B\) peut être modélisée par une matrice sous-stochastique \(Q\) (lignes de somme \(\le 1\)). La théorie standard des distributions quasi-stationnaires montre qu’il existe des distributions \(\nu\) sur \(B\) telles que : - -\[ +Si des transitions sortent de \(B\) (événements incompatibles, consommation empêchant la continuation), la dynamique sur \(B\) peut être modélisée par une matrice sous-stochastique \(Q\) (lignes de somme \(\le 1\)). La théorie standard des distributions quasi-stationnaires montre qu’il existe des distributions \(\nu\) sur \(B\) telles que : \[ \nu Q = \lambda \nu,\qquad 0<\lambda<1, \] @@ -4795,23 +4720,22 @@ Dans les deux cas, la dominance dépend de la géométrie des régions admissibl ### Définition de stabilisation (rappel) -Une contrainte \(c\in\mathfrak{C}\) est stabilisée le long d’une lignée si, à partir d’un rang, elle est présente dans toutes les occurrences ultérieures. Une collection \(K^\star\) est stabilisée si \(K^\star\subseteq K_v\) pour toutes les occurrences suffisamment tardives d’une lignée. +Une contrainte \(c\in\mathfrak{C}\) est stabilisée le long d’une lignée si, à partir d’un rang, elle est présente dans toutes les occurrences ultérieures. Une collection \(K^\star\) est stabilisée si \(K^\star\subseteq K\_v\) pour toutes les occurrences suffisamment tardives d’une lignée. ### Proposition de stabilisation par filtrage monotone On suppose : -- monotonie d’héritage : pour toute arête \(u\to v\), \(\tau_{(u\to v)}(K_u)\subseteq K_v\), -- compatibilité non expansive : \(\operatorname{Comp}(K)\subseteq K\), +- monotonie d’héritage : pour toute arête \(u\to v\), \(\tau\_{(u\to v)}(K\_u)\)\)subseteq K_v\), + +- compatibilité non expansive : \(((\operatorname{Comp}(K)\)\)subseteq K\), - verrouillage : l’ensemble des transitions admissibles se réduit le long des trajectoires (au sens du chapitre 13). -Alors, le long de toute trajectoire admissible, la suite \((K_t)\) est croissante pour l’inclusion (ou, plus exactement, non décroissante après fermeture compatible), et donc admet une limite ensembliste : - -\[ +Alors, le long de toute trajectoire admissible, la suite \((((K\_t)\)\)) est croissante pour l’inclusion (ou, plus exactement, non décroissante après fermeture compatible), et donc admet une limite ensembliste : \[ K_\infty=\bigcup_{t\ge 0}K_t. \] -Dans le cas où \(\mathfrak{C}\) est fini (ou où seules un nombre fini de contraintes sont activables à résolution finie), la stabilisation se produit en un temps fini : il existe \(T\) tel que \(K_t=K_T\) pour tout \(t\ge T\). Dans un cadre infini, la stabilisation peut être asymptotique. +Dans le cas où \(((\mathfrak{C}\) est fini (ou où seules un nombre fini de contraintes sont activables à résolution finie), la stabilisation se produit en un temps fini : il existe \(T\) tel que \(K\_t=K\_T\) pour tout \(t\ge T\). Dans un cadre infini, la stabilisation peut être asymptotique. Ce résultat est une propriété combinatoire d’emboîtement : il n’a pas besoin d’une fonction objectif. @@ -4838,21 +4762,19 @@ Les conclusions des niveaux 2–3 acquièrent un statut robuste lorsqu’elles p Observables (avec statut d’indexation) - Observables structurelles (invariantes) : existence d’ensembles invariants/attracteurs ensemblistes, composantes fortement connexes atteignables, goulots, fragmentation. -- Observables mesurées (indexées par \(\mu\)) : volumes de bassins, densités atteignables, \(D_{\mu}(S)\) ou variantes. -- Observables stochastiques (indexées par \(P\)) : temps d’absorption, poids stationnaire/quasi‑stationnaire, spectre dominant (quand défini). +- Observables mesurées (indexées par \(\mu\)) : volumes de bassins, densités atteignables, \(D\_{\mu}(S)\)\)) ou variantes. +- Observables stochastiques (indexées par \(((P\)) : temps d’absorption, poids stationnaire/quasi‑stationnaire, spectre dominant (quand défini). Chaque observable porte explicitement son indexation : sans \(\mu\) ou sans \(P\), elle n’a pas de statut quantitatif. ### Critère ensembliste -La sélection dépend d’ensembles admissibles \(A(K)\) et de relations admissibles \(R(K)\). Deux systèmes ayant même couple \((A,R)\) (à isomorphisme près) induisent les mêmes filtrages de trajectoires, indépendamment de toute interprétation. +La sélection dépend d’ensembles admissibles \(A(K)\)\)) et de relations admissibles \(((R(K)\)\)). Deux systèmes ayant même couple \((((A,R)\)\)) (à isomorphisme près) induisent les mêmes filtrages de trajectoires, indépendamment de toute interprétation. ### Critère métrique ou de mesure -Dans un espace muni d’une mesure \(\mu\), l’intensité de la sélection se lit comme réduction de mesure des ensembles atteignables : - -\[ -\mu(\mathcal{F}_{\mathcal{T}(K)}(x)) \le \mu(\mathcal{F}_{\mathcal{T}}(x)). +Dans un espace muni d’une mesure \(((\mu\), l’intensité de la sélection se lit comme réduction de mesure des ensembles atteignables : \[ +\mu(\mathcal{F}\_{\mathcal{T}(K)}(x)) \le \mu(\mathcal{F}\_{\mathcal{T}}(x)). \] Dans un espace fini, le même énoncé vaut pour les cardinalités. @@ -4863,13 +4785,13 @@ Dans un modèle probabiliste sur classes, les régimes dominants sont détermin Ces trois critères sont cohérents : ensemble admissible, volume accessible, et spectre principal sont trois expressions d’une même dépendance à la forme des contraintes. -## Portée minimale (lecture conditionnelle) +## Portée minimale (lecture conditionnelle) — Ch. 14 Une dynamique de transformations admissibles, soumise à des contraintes héritées et à une consommation irréversible, produit une sélection structurelle dès qu’elle élimine des trajectoires incompatibles. La sélection ne requiert ni intention, ni objectif, ni notion de bénéfice : elle est l’effet d’un espace de possibles restreint, dans lequel seules certaines structures sont transmissibles et stabilisables. La conséquence minimale est la suivante : dès que la transmission est possible, l’espace des lignées se stratifie en sous-graphes de persistance et sous-graphes d’extinction. Les régimes dominants sont ceux qui correspondent à des sous-graphes fortement connectés, à de grands bassins, ou à un spectre principal favorable, selon le régime (déterministe, stochastique, ou mixte). -## Analyse philosophique +## Analyse philosophique — Ch. 14 Le terme “sélection” est souvent associé à une lecture finaliste (comme si une entité choisissait). Le cadre présent le rend superflu : la sélection est un filtrage imposé par la compatibilité et la transmissibilité. @@ -4886,7 +4808,7 @@ Décrire pourquoi certaines structures persistent n’implique aucune justificat La sélection structurelle sans optimisation constitue ainsi une catégorie logique : elle explique des distributions et des dominances comme conséquences d’une géométrie de contraintes, sans introduire de finalité dans les primitives. -## Conclusion +## Conclusion — Ch. 14 La sélection structurelle a été reconstruite comme un mécanisme de filtrage et de conditionnement imposé par la compatibilité, l’héritage et le verrouillage des futurs. Les structures non transmissibles disparaissent au sens strict : elles ne peuvent pas appartenir au support des mesures limites ni aux composantes récurrentes des dynamiques restreintes. Les régimes dominants sont déterminés par des propriétés géométriques (bassins, connectivité, volume admissible) et, dans les modèles probabilistes, par le spectre d’opérateurs non négatifs. @@ -4894,27 +4816,27 @@ Ainsi, la formule “la sélection est géométrique” admet un contenu précis --- -# Chapitre 15 — Structures contraignant leur propre évolution +## Chapitre 15 — Structures contraignant leur propre évolution {#chapitre-15-structures-contraignant-leur-propre-evolution} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 15 -Hypothèses (H). +**Hypothèses (H).** -- passage à un espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) et règle d’actualisation \(\Phi\) posée comme paramètre de modèle ; -- opérateur \(\operatorname{Comp}\) et admissibilité \(\mathcal{T}(K)\) déclarés (classe et paramètres annoncés) ; +- passage à un espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) et règle d’actualisation \(((\Phi\) posée comme paramètre de modèle +- opérateur \(\operatorname{Comp}\) et admissibilité \(\mathcal{T}(K)\)\)) déclarés (classe et paramètres annoncés) - stabilisation : régimes et paquets d’hypothèses (H22‑PF/TR/RB/CT) explicités lorsque revendiqués. -Résultats (E). +**Résultats (E).** -- définition d’auto‑stabilisation non réflexive via boucles de contraintes (points fixes/cycles) ; -- taxonomie des régimes de stabilisation (S1/S2/S3) et dépendances locales ; +- définition d’auto‑stabilisation non réflexive via boucles de contraintes (points fixes/cycles) +- taxonomie des régimes de stabilisation (S1/S2/S3) et dépendances locales - définition de quasi‑invariance et de limites de transformation comme invariants d’intersection/conditionnement. -Statut. +**Statut.** - noyau ensembliste pour les définitions/implications ; quantifications et conclusions probabilistes seulement sous indexation déclarée. -## Introduction +## Introduction — Ch. 15 Les chapitres précédents ont établi un cadre où l’évolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes d’équivalence, transmission partielle (graphe orienté de filiation) et, plus récemment, sélection structurelle comme filtrage par compatibilité. Le chapitre 13 a formalisé le verrouillage des futurs comme réduction monotone de l’atteignabilité, et le chapitre 14 a reformulé la sélection comme effet géométrique (volume, connectivité, spectre d’un opérateur restreint) sans optimisation. @@ -4923,82 +4845,73 @@ Le présent chapitre introduit un seuil logique : certaines structures ne se con On définit : - l’espace étendu où les contraintes deviennent des variables d’état, + - les boucles de contraintes comme propriétés d’un opérateur d’actualisation, - les régimes quasi-invariants comme invariance asymptotique ou conditionnelle, - les limites de transformation comme intersections de familles admissibles, - les niveaux d’organisation comme tours de quotients stabilisés. -## Cadre et notations +## Cadre et notations — Ch. 15 ### Espace d’états et transformations admissibles -Soit \(X\) un ensemble d’états, fini ou muni d’une structure mesurable ou topologique. Soit \(\mathcal{T}\) une famille de transformations admissibles \(f:X\to X\) (temps discret). Pour \(x\in X\), le futur accessible (atteignabilité) est : - -\[ -\mathcal{F}_{\mathcal{T}}(x)=\bigcup_{n\ge 0}\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}. +Soit \(((X\) un ensemble d’états, fini ou muni d’une structure mesurable ou topologique. Soit \(\mathcal{T}\) une famille de transformations admissibles \(f : X\to X\) (temps discret). Pour \(x\in X\), le futur accessible (atteignabilité) est : \[ +\mathcal{F}\_{\mathcal{T}}(x)=\bigcup\_{n\ge 0}\{f\_n\circ\cdots\circ f\_1(x) : f\_1,\ldots,f\_n\in\mathcal{T}\}. \] ### Contraintes élémentaires et familles induites Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : -- un ensemble admissible d’états \(A(K)\subseteq X\), -- une relation admissible de transitions \(R(K)\subseteq X\times X\), +- un ensemble admissible d’états \(A(K)\)\)subseteq X\), -avec monotonie : +- une relation admissible de transitions \(((R(K)\)\)subseteq X\times X\), -\[ +avec monotonie : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] -On définit la famille de transformations admissibles induite par \(K\) : - -\[ -\mathcal{T}(K)=\{f\in\mathcal{T}: \forall x\in A(K),\ (x,f(x))\in R(K)\}. +On définit la famille de transformations admissibles induite par \(((K\) : \[ +\mathcal{T}(K)=\{f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\)\)in R(K)\}. \] -Une collection \(K\) est dite compatible si \(A(K)\neq\varnothing\) et si au moins une transition est réalisable depuis \(A(K)\) : - -\[ +Une collection \(((K\) est dite compatible si \(A(K)\)\)neq\varnothing\) et si au moins une transition est réalisable depuis \(((A(K)\)\)) : \[ \exists x\in A(K),\ \exists y\in X,\ (x,y)\in R(K). \] -Pour éliminer les contradictions, on suppose donné un opérateur de compatibilité : - -\[ -\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), +Pour éliminer les contradictions, on suppose donné un opérateur de compatibilité : \[ +\operatorname{Comp} : \mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), \] -tel que \(\operatorname{Comp}(K)\subseteq K\), et \(\operatorname{Comp}(K)\) soit compatible dès que cela est possible (au sens où il existe une sous-collection compatible). Cette définition est minimale : aucune optimalité n’est requise, seulement la satisfaisabilité. +tel que \(((\operatorname{Comp}(K)\)\)subseteq K\), et \(((\operatorname{Comp}(K)\)\)) soit compatible dès que cela est possible (au sens où il existe une sous-collection compatible). Cette définition est minimale : aucune optimalité n’est requise, seulement la satisfaisabilité. Remarque (calculabilité et coût de satisfaisabilité) -Le rôle de \(\operatorname{Comp}\) est de maintenir une forme de satisfaisabilité : l’existence d’une sous‑collection compatible. Selon l’instanciation des contraintes, décider ou construire une telle sous‑collection peut être coûteux, voire indécidable ; ce point doit être assumé comme hypothèse, et non traité comme un détail “gratuit”. +Le rôle de \(((\operatorname{Comp}\) est de maintenir une forme de satisfaisabilité : l’existence d’une sous‑collection compatible. Selon l’instanciation des contraintes, décider ou construire une telle sous‑collection peut être coûteux, voire indécidable ; ce point doit être assumé comme hypothèse, et non traité comme un détail “gratuit”. Deux statuts doivent donc être distingués : -- statut fort : on suppose un prédicat global de satisfaisabilité \(\mathrm{Sat}(K)\) effectif, et \(\operatorname{Comp}\) garantissant \(\mathrm{Sat}(\operatorname{Comp}(K))\) lorsqu’une sous‑collection compatible existe ; -- statut faible : on remplace \(\mathrm{Sat}\) par une cohérence locale \(\mathrm{Sat}_r\) et \(\operatorname{Comp}\) par une approximation \(\operatorname{Comp}_r\), sans garantie générale (les conclusions deviennent conditionnelles à l’approximation). +- statut fort : on suppose un prédicat global de satisfaisabilité \(\mathrm{Sat}(K)\)\)) effectif, et \(((\operatorname{Comp}\) garantissant \(\mathrm{Sat}(\operatorname{Comp}(K))\)\)) lorsqu’une sous‑collection compatible existe + +- statut faible : on remplace \(((\mathrm{Sat}\) par une cohérence locale \(\mathrm{Sat}\_r\) et \(\operatorname{Comp}\) par une approximation \(\operatorname{Comp}\_r\), sans garantie générale (les conclusions deviennent conditionnelles à l’approximation). Ce changement de statut affecte directement les garanties de points fixes, la robustesse et l’existence de régions piégées (selon les hypothèses retenues plus loin). Discipline (classe et paramètres) -Lorsque l’on raisonne en régime de fermeture/point fixe, la monotonie/idempotence requises situent \(\operatorname{Comp}\) dans une classe de fermeture \(\mathcal{C}_{\mathrm{closure}}\) (ou, plus généralement, exigent la monotonie de l’opérateur global de mise à jour). Lorsque l’on travaille avec une cohérence locale \(\mathrm{Sat}_r\), la dépendance au paramètre \(r\) est traitée comme une famille \((\operatorname{Comp}_r)_r\) : les énoncés sont soit robustes sur un intervalle de \(r\), soit explicitement indexés. +Lorsque l’on raisonne en régime de fermeture/point fixe, la monotonie/idempotence requises situent \(\operatorname{Comp}\) dans une classe de fermeture \(\mathcal{C}\_{\mathrm{closure}}\) (ou, plus généralement, exigent la monotonie de l’opérateur global de mise à jour). Lorsque l’on travaille avec une cohérence locale \(\mathrm{Sat}\_r\), la dépendance au paramètre \(r\) est traitée comme une famille \((\operatorname{Comp}\_r)\_r\) : les énoncés sont soit robustes sur un intervalle de \(r\), soit explicitement indexés. ### Description structurelle -Soit \(\Pi:X\to S\) une application de description vers un espace \(S\) (ensemble fini, espace mesurable, ou espace topologique). Une « structure » sera ici une valeur \(s\in S\) ou une cellule \(\Pi^{-1}(s)\subseteq X\). Les niveaux d’organisation seront traités plus loin comme des compositions de telles descriptions. +Soit \(\Pi : X\to S\) une application de description vers un espace \(S\) (ensemble fini, espace mesurable, ou espace topologique). Une « structure » sera ici une valeur \(s\in S\) ou une cellule \(\Pi^{-1}(s)\)\)subseteq X\). Les niveaux d’organisation seront traités plus loin comme des compositions de telles descriptions. ## Auto-stabilisation non réflexive ### Espace étendu des états et des contraintes -Le verrouillage des futurs et l’héritage de contraintes montrent que l’évolution effective dépend non seulement de \(x\in X\), mais aussi d’un registre de contraintes actives. On définit donc l’espace étendu : - -\[ +Le verrouillage des futurs et l’héritage de contraintes montrent que l’évolution effective dépend non seulement de \(((x\in X\), mais aussi d’un registre de contraintes actives. On définit donc l’espace étendu : \[ Y = X \times \mathcal{P}(\mathfrak{C}). \] -Un élément \(y=(x,K)\in Y\) encode un état \(x\) et une collection \(K\) de contraintes actives. +Un élément \(y=(x,K)\)\)in Y\) encode un état \(((x\) et une collection \(K\) de contraintes actives. ### Règle d’actualisation des contraintes @@ -5011,59 +4924,47 @@ Définition (règle d’actualisation). Une règle d’actualisation est une application \[ -\Phi: Y \to \mathcal{P}(\mathfrak{C}) +\Phi : Y \to \mathcal{P}(\mathfrak{C}) \] -telle que, pour tout \((x,K)\), la collection mise à jour soit : - -\[ +telle que, pour tout \((x,K)\)\)), la collection mise à jour soit : \[ K^+ = \operatorname{Comp}(K \cup \Phi(x,K)). \] Interprétation technique. -\(\Phi(x,K)\) représente l’ensemble des contraintes nouvellement activées par la situation \((x,K)\) : consommation irréversible cumulée, incompatibilités révélées par transitions réalisées, contraintes héritées d’un graphe de filiation, ou activation endogène par entrée dans un régime invariant. Le formalisme ne présuppose pas la nature de ces mécanismes : il exige seulement que \(\Phi\) soit donné avant l’analyse. +\(((\Phi(x,K)\)\)) représente l’ensemble des contraintes nouvellement activées par la situation \((((x,K)\)\)) : consommation irréversible cumulée, incompatibilités révélées par transitions réalisées, contraintes héritées d’un graphe de filiation, ou activation endogène par entrée dans un régime invariant. Le formalisme ne présuppose pas la nature de ces mécanismes : il exige seulement que \(((\Phi\) soit donné avant l’analyse. ### Dynamique augmentée On suppose que l’évolution de \(x\) dépend de \(K\) par restriction de la famille de transformations. Deux cas, exhaustifs dans ce cadre, sont utiles. Cas déterministe conditionné (choix de transformation fixé). -On fixe un sélecteur \(\sigma:Y\to \mathcal{T}\) tel que \(\sigma(x,K)\in \mathcal{T}(K)\) lorsque cela est possible, et on définit : - -\[ +On fixe un sélecteur \(\sigma : Y\to \mathcal{T}\) tel que \(\sigma(x,K)\)\)in \mathcal{T}(K)\) lorsque cela est possible, et on définit : \[ x^+ = \sigma(x,K)(x),\qquad K^+ = \operatorname{Comp}(K\cup\Phi(x,K)). \] Cas stochastique conditionné (loi sur les transformations). -On fixe une loi \(\mathbb{P}(\cdot\mid x,K)\) supportée sur \(\mathcal{T}(K)\), puis \(x^+=f(x)\) avec \(f\sim \mathbb{P}(\cdot\mid x,K)\), et \(K^+\) comme ci-dessus. +On fixe une loi \(((\mathbb{P}(\cdot\mid x,K)\)\)) supportée sur \(((\mathcal{T}(K)\)\)), puis \(((x^+=f(x)\)\)) avec \(((f\sim \mathbb{P}(\cdot\mid x,K)\)\)), et \(((K^+\) comme ci-dessus. -Dans les deux cas, on obtient une dynamique sur \(Y\) : - -\[ -\Psi:Y\to Y,\qquad \Psi(x,K)=(x^+,K^+). +Dans les deux cas, on obtient une dynamique sur \(Y\) : \[ +\Psi : Y\to Y,\qquad \Psi(x,K)=(x^+,K^+). \] ### Définition d’auto-stabilisation non réflexive Définition (auto-stabilisation). -Une description \(s\in S\) est dite auto-stabilisante (non réflexive) s’il existe une collection \(K_s\subseteq\mathfrak{C}\) compatible et un ensemble non négligeable \(B_s\subseteq \Pi^{-1}(s)\) tels que, pour tout \(x\in B_s\), en posant \(K_0=K_s\), la dynamique augmentée vérifie : - -1. persistance descriptive : - \[ - \Pi(x_t)=s\ \text{pour tout } t\ge 0; - \] -2. stabilité des contraintes (au moins au sens de la limite) : - \[ - K_s \subseteq K_t\ \text{pour tout } t,\quad \text{et}\quad \exists K_\infty\ \text{tel que}\ K_t\uparrow K_\infty; - \] +Une description \(s\in S\) est dite auto-stabilisante (non réflexive) s’il existe une collection \(K\_s\subseteq\mathfrak{C}\) compatible et un ensemble non négligeable \(B\_s\subseteq \Pi^{-1}(s)\)\)) tels que, pour tout \(((x\in B\_s\), en posant \(K\_0=K\_s\), la dynamique augmentée vérifie : 1. persistance descriptive : \[ + \Pi(x\_t)=s\ \text{pour tout } t\ge 0 ; \] +2. stabilité des contraintes (au moins au sens de la limite) : \[ + K\_s \subseteq K\_t\ \text{pour tout } t,\quad \text{et}\quad \exists K\_\infty\ \text{tel que}\ K\_t\uparrow K\_\infty ; \] 3. activité : la restriction est effective, c’est-à-dire \[ - \mathcal{F}_{\mathcal{T}(K_s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x). + \mathcal{F}\_{\mathcal{T}(K\_s)}(x) \subsetneq \mathcal{F}\_{\mathcal{T}}(x). \] Remarques. -- La condition \(K_t\uparrow K_\infty\) est entendue au sens d’inclusion non décroissante (éventuellement après application de \(\operatorname{Comp}\)). +- La condition \(K\_t\uparrow K\_\infty\) est entendue au sens d’inclusion non décroissante (éventuellement après application de \(\operatorname{Comp}\)). - La persistance peut être remplacée par une quasi-persistance (définie plus loin) lorsque des fuites rares ou un bruit sont présents. - Aucune intention n’est postulée : la stabilité est un fait de fermeture de la dynamique dans \(Y\). @@ -5071,9 +4972,10 @@ Remarques. Sans critères observables explicites, l’auto-stabilisation reste difficile à falsifier. Dans une instanciation donnée, on évalue donc au minimum : -- invariance d’une région \(U\subseteq Y\) : proposer \(U\) et tester \(\Psi(U)\subseteq U\) (région piégée) ; -- régime du registre \(K_t\) : convergence vers un point fixe, ou apparition d’un cycle/quasi‑cycle (selon un critère et une distance déclarés sur l’espace des contraintes) ; -- effet sur le futur accessible : vérifier un verrouillage strict (ensembliste ou quantifié) entre \(\mathcal{F}_{\mathcal{T}}(x)\) et \(\mathcal{F}_{\mathcal{T}(K)}(x)\). +- invariance d’une région \(U\subseteq Y\) : proposer \(U\) et tester \(\Psi(U)\)\)subseteq U\) (région piégée) + +- régime du registre \(((K\_t\) : convergence vers un point fixe, ou apparition d’un cycle/quasi‑cycle (selon un critère et une distance déclarés sur l’espace des contraintes) +- effet sur le futur accessible : vérifier un verrouillage strict (ensembliste ou quantifié) entre \(\mathcal{F}\_{\mathcal{T}}(x)\)\)) et \(((\mathcal{F}\_{\mathcal{T}(K)}(x)\)\)). ## Boucles de contraintes @@ -5082,7 +4984,7 @@ Sans critères observables explicites, l’auto-stabilisation reste difficile à Lorsque l’actualisation est monotone (activation cumulée), la notion de boucle pertinente est le point fixe. Définition (point fixe de contrainte). -Une collection \(K^\star\subseteq\mathfrak{C}\) est un point fixe de la mise à jour si, pour un ensemble \(E\subseteq X\), +Une collection \(((K^\star\subseteq\mathfrak{C}\) est un point fixe de la mise à jour si, pour un ensemble \(E\subseteq X\), \[ \forall x\in E,\quad \operatorname{Comp}(K^\star\cup\Phi(x,K^\star))=K^\star. @@ -5091,7 +4993,7 @@ Une collection \(K^\star\subseteq\mathfrak{C}\) est un point fixe de la mise à Dans ce cas, la contrainte est stabilisée : aucune nouvelle contrainte ne peut être activée (dans \(E\)) sans contradiction. Proposition (existence en cas fini de contraintes). -Si \(|\mathfrak{C}|<\infty\) et si la suite \((K_t)\) est non décroissante pour l’inclusion, alors elle se stabilise en temps fini : il existe \(T\) tel que \(K_t=K_T\) pour tout \(t\ge T\). +Si \(|\mathfrak{C}|<\infty\) et si la suite \((K\_t)\)\)) est non décroissante pour l’inclusion, alors elle se stabilise en temps fini : il existe \(((T\) tel que \(K\_t=K\_T\) pour tout \(t\ge T\). Démonstration. @@ -5099,7 +5001,7 @@ Démonstration. - Chaque étape peut ajouter au moins une contrainte nouvelle ou stabiliser. - Le nombre maximal d’ajouts stricts est \(M\). - Donc au plus \(M\) étapes strictement croissantes ; au-delà, stabilisation. -Conclusion : il existe \(T\le M\) tel que \(K_T=K_{T+1}=\cdots\). +Conclusion : il existe \(T\le M\) tel que \(K\_T=K\_{T+1}=\cdots\). Cette proposition est combinatoire et ne dépend d’aucune interprétation. @@ -5107,51 +5009,51 @@ Cette proposition est combinatoire et ne dépend d’aucune interprétation. La stabilisation en temps fini repose sur la finitude de \(\mathfrak{C}\). Dans un cadre infini, l’existence de points fixes devient un résultat non trivial qui peut être garanti sous hypothèses d’ordre. -On munit \(\mathcal{P}(\mathfrak{C})\) de l’ordre par inclusion, ce qui en fait un treillis complet. Soit \(F:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C})\) un opérateur de mise à jour de contraintes (opérateur « effectif » d’actualisation, obtenu en fixant un régime d’évolution). Si \(F\) est monotone, alors il admet des points fixes ; plus précisément, \(F\) admet un plus petit et un plus grand point fixe (théorème de Tarski). +On munit \(\mathcal{P}(\mathfrak{C})\)\)) de l’ordre par inclusion, ce qui en fait un treillis complet. Soit \(((F : \mathcal{P}(\mathfrak{C})\)\)to \mathcal{P}(\mathfrak{C})\) un opérateur de mise à jour de contraintes (opérateur « effectif » d’actualisation, obtenu en fixant un régime d’évolution). Si \(((F\) est monotone, alors il admet des points fixes ; plus précisément, \(F\) admet un plus petit et un plus grand point fixe (théorème de Tarski). -Dans le cas cumulatif \(K\subseteq F(K)\) (activation sans relâchement), l’itération \(K_{t+1}=F(K_t)\) depuis \(\varnothing\) construit le plus petit point fixe, ce qui justifie l’usage de « points fixes » comme notion structurante même lorsque \(\mathfrak{C}\) est infini. +Dans le cas cumulatif \(K\subseteq F(K)\)\)) (activation sans relâchement), l’itération \(((K\_{t+1}=F(K\_t)\)\)) depuis \(((\varnothing\) construit le plus petit point fixe, ce qui justifie l’usage de « points fixes » comme notion structurante même lorsque \(\mathfrak{C}\) est infini. ### Régions piégées dans l’espace étendu \(Y\) (attracteurs de second ordre) -La notion de point fixe de contraintes décrit une stabilisation de \(K\). Une stabilisation complète de la paire \((x,K)\) s’exprime naturellement par une région piégée dans \(Y\). +La notion de point fixe de contraintes décrit une stabilisation de \(K\). Une stabilisation complète de la paire \((x,K)\)\)) s’exprime naturellement par une région piégée dans \(((Y\). Définition (région piégée). -Un ensemble \(U\subseteq Y\) est une région piégée si \(\Psi(U)\subseteq U\). +Un ensemble \(U\subseteq Y\) est une région piégée si \(\Psi(U)\)\)subseteq U\). -Si \(Y\) est fini (ou, plus généralement, si \(U\) est non vide compact dans un cadre topologique où \(\Psi\) est continue), l’intersection décroissante +Si \(((Y\) est fini (ou, plus généralement, si \(U\) est non vide compact dans un cadre topologique où \(\Psi\) est continue), l’intersection décroissante \[ -A=\bigcap_{n\ge 0}\Psi^{(n)}(U) +A=\bigcap\_{n\ge 0}\Psi^{(n)}(U) \] est non vide et invariante. Elle décrit un attracteur de second ordre dans \(Y\) : un régime stable pour l’état et les contraintes. ### Boucles non monotones (cas avec relâchement) -Si \(\operatorname{Comp}\) ou \(\Phi\) peut retirer des contraintes (par incompatibilité révélée, changement de régime, bascule de réalisation microscopique), alors des cycles \(K_0\to K_1\to\cdots\to K_0\) deviennent possibles. +Si \(\operatorname{Comp}\) ou \(\Phi\) peut retirer des contraintes (par incompatibilité révélée, changement de régime, bascule de réalisation microscopique), alors des cycles \(K\_0\to K\_1\to\cdots\to K\_0\) deviennent possibles. Définition (cycle de contraintes). -Une suite finie distincte \((K_0,\ldots,K_{p-1})\) est un cycle si +Une suite finie distincte \((K\_0,\ldots,K\_{p-1})\)\)) est un cycle si \[ K_{t+1}=\operatorname{Comp}(K_t\cup\Phi(x_t,K_t)),\quad K_p=K_0, \] -pour une trajectoire \((x_t)\). +pour une trajectoire \((((x\_t)\)\)). Dans le cadre présent, on ne postule pas l’existence de tels cycles ; on les traite comme un cas possible lorsque l’actualisation n’est pas monotone. Détection, statut et interprétation. -Un cycle se détecte par simulation de la mise à jour (sur \(Y\), ou sur \(K\) lorsqu’elle est fermée), en recherchant un \(p>1\) tel que \(K_{t+p}=K_t\) après un transitoire. Sans hypothèses de monotonie, ce régime a un statut faible : observation conditionnelle à l’instanciation et au protocole d’exploration. Un cycle de contraintes correspond alors à une stabilisation non ponctuelle mais récurrente : la restriction imposée au futur est périodique plutôt que fixe. +Un cycle se détecte par simulation de la mise à jour (sur \(((Y\), ou sur \(K\) lorsqu’elle est fermée), en recherchant un \(p>1\) tel que \(K\_{t+p}=K\_t\) après un transitoire. Sans hypothèses de monotonie, ce régime a un statut faible : observation conditionnelle à l’instanciation et au protocole d’exploration. Un cycle de contraintes correspond alors à une stabilisation non ponctuelle mais récurrente : la restriction imposée au futur est périodique plutôt que fixe. ## Hypothèses et régimes de stabilisation (paquets H22) ### Paquets d’hypothèses standard -On note \(\mathcal{K}=\mathcal{P}(\mathfrak{C})\) l’espace des registres de contraintes. +On note \(\mathcal{K}=\mathcal{P}(\mathfrak{C})\)\)) l’espace des registres de contraintes. H22‑PF (point fixe, ordre/monotonie) -- \(\mathcal{K}\) est un treillis complet (ordre par inclusion). -- l’opérateur global de mise à jour \(F:\mathcal{K}\to\mathcal{K}\) est monotone (isotone). +- \(((\mathcal{K}\) est un treillis complet (ordre par inclusion). +- l’opérateur global de mise à jour \(F : \mathcal{K}\to\mathcal{K}\) est monotone (isotone). - si \(F\) est construit à partir de \(\operatorname{Comp}\), alors \(\operatorname{Comp}\) est monotone et compatible au sens déclaré (chapitre 13, collisions et compatibilité). - optionnel : idempotence/extensivité lorsque l’on raisonne en logique de fermeture. @@ -5160,21 +5062,21 @@ Conclusion typique : existence d’au moins un point fixe (Tarski) et, dans cert H22‑TR (région piégée en espace étendu) - espace étendu \(Y=X\times\mathcal{K}\). -- existence d’un ensemble \(U\subseteq Y\) tel que \(\Psi(U)\subseteq U\). +- existence d’un ensemble \(U\subseteq Y\) tel que \(\Psi(U)\)\)subseteq U\). -Conclusion typique : l’évolution \((x_t,K_t)\) reste dans un domaine contrôlé, condition de possibilité pour parler de stabilisation ou de récurrence sans “fuite”. +Conclusion typique : l’évolution \((((x\_t,K\_t)\)\)) reste dans un domaine contrôlé, condition de possibilité pour parler de stabilisation ou de récurrence sans “fuite”. H22‑RB (robustesse sous perturbations/approximations) -- variations contrôlées de \(\operatorname{Comp}\) ou de \(\Phi\) (familles déclarées), ou -- cohérence locale \(\mathrm{Sat}_r\) et opérateur \(\operatorname{Comp}_r\) monotone, avec statut déclaré. +- variations contrôlées de \(((\operatorname{Comp}\) ou de \(\Phi\) (familles déclarées), ou +- cohérence locale \(\mathrm{Sat}\_r\) et opérateur \(\operatorname{Comp}\_r\) monotone, avec statut déclaré. Conclusion typique : stabilité qualitative des diagnostics sous ces variations (sinon, propriété dépendante d’instanciation). H22‑CT (contraction/vitesse, si revendiquée) -- existence d’une distance \(d_{\mathcal{K}}\) sur \(\mathcal{K}\). -- contraction locale d’une application de mise à jour dans \(d_{\mathcal{K}}\), avec un facteur \(q<1\). +- existence d’une distance \(d\_{\mathcal{K}}\) sur \(\mathcal{K}\). +- contraction locale d’une application de mise à jour dans \(d\_{\mathcal{K}}\), avec un facteur \(q<1\). Conclusion typique : vitesse de convergence contrôlée. @@ -5188,7 +5090,7 @@ Régime S1 (point fixe / limite en inclusion) Régime S2 (cycle / invariant non ponctuel) - applicable lorsque la monotonie échoue ou lorsque des relâchements/substitutions sont possibles. -- \(K_t\) peut entrer dans un cycle \(K_{t+p}=K_t\) ; l’objet invariant pertinent est alors une orbite périodique (ou un ensemble invariant), pas un point fixe. +- \(K\_t\) peut entrer dans un cycle \(K\_{t+p}=K\_t\) ; l’objet invariant pertinent est alors une orbite périodique (ou un ensemble invariant), pas un point fixe. Régime S3 (quasi‑stationnaire / métastable) @@ -5211,10 +5113,10 @@ La persistance stricte (invariance) est trop forte dès qu’un bruit, une rédu ### Quasi-invariance ensembliste (déterministe) Définition (ensemble quasi-invariant). -Soit \(F:X\to X\) une dynamique déterministe. Un ensemble \(B\subseteq X\) est quasi-invariant à tolérance \(\varepsilon\) sur un horizon \(n\) si +Soit \(F : X\to X\) une dynamique déterministe. Un ensemble \(B\subseteq X\) est quasi-invariant à tolérance \(\varepsilon\) sur un horizon \(n\) si \[ -\#\{x\in B : F^n(x)\notin B\}\ \le\ \varepsilon\,\#B +\#\{x\in B : F^n(x)\)\)notin B\}\ \le\ \varepsilon\,\#B \] dans un cadre fini, ou @@ -5229,7 +5131,7 @@ Cette définition est exhaustive au regard du choix d’un critère de fuite : c ### Quasi-stationnarité (stochastique avec fuite) -Dans un modèle de transitions sur un ensemble \(B\) avec fuite (matrice sous-stochastique \(Q\)), une distribution quasi-stationnaire \(\nu\) satisfait +Dans un modèle de transitions sur un ensemble \(((B\) avec fuite (matrice sous-stochastique \(Q\)), une distribution quasi-stationnaire \(\nu\) satisfait \[ \nu Q = \lambda\,\nu,\qquad 0<\lambda<1, @@ -5239,14 +5141,15 @@ et décrit un régime stable conditionnellement à la non-sortie de \(B\). Ce r ### Quasi-invariance dans l’espace étendu \(Y\) -Dans \(Y=X\times\mathcal{P}(\mathfrak{C})\), un régime quasi-invariant peut concerner : +Dans \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)), un régime quasi-invariant peut concerner : -- la description \(s=\Pi(x)\), -- les contraintes \(K\), -- ou la paire \((s,K)\). +- la description \(((s=\Pi(x)\)\)), + +- les contraintes \(((K\), +- ou la paire \((s,K)\)\)). Définition (quasi-invariance de paire). -Un ensemble \(D\subseteq S\times\mathcal{P}(\mathfrak{C})\) est quasi-invariant si, à partir d’une mesure initiale supportée sur \(D\), la probabilité (ou mesure) de sortie de \(D\) reste inférieure à un seuil \(\varepsilon\) sur l’horizon considéré. +Un ensemble \(((D\subseteq S\times\mathcal{P}(\mathfrak{C})\)\)) est quasi-invariant si, à partir d’une mesure initiale supportée sur \(((D\), la probabilité (ou mesure) de sortie de \(D\) reste inférieure à un seuil \(\varepsilon\) sur l’horizon considéré. Cela permet de traiter les « régimes quasi-invariants » du plan comme objets mathématiques, sans vocabulaire substantiel. @@ -5256,33 +5159,27 @@ Le verrouillage des futurs peut être lu comme une diminution de l’ensemble de ### Intersection limite des familles admissibles -Pour une trajectoire \((x_t,K_t)\), on définit la famille admissible à l’instant \(t\) : - -\[ -\mathcal{T}_t=\mathcal{T}(K_t). +Pour une trajectoire \((x\_t,K\_t)\)\)), on définit la famille admissible à l’instant \(((t\) : \[ +\mathcal{T}\_t=\mathcal{T}(K\_t). \] -Dans le cas monotone \(K_{t+1}\supseteq K_t\), on a \(\mathcal{T}_{t+1}\subseteq \mathcal{T}_t\). On définit alors la limite : - -\[ -\mathcal{T}_\infty = \bigcap_{t\ge 0} \mathcal{T}_t. +Dans le cas monotone \(K\_{t+1}\supseteq K\_t\), on a \(\mathcal{T}\_{t+1}\subseteq \mathcal{T}\_t\). On définit alors la limite : \[ +\mathcal{T}\_\infty = \bigcap\_{t\ge 0} \mathcal{T}\_t. \] Définition (limite de transformation). -On appelle limite de transformation l’ensemble \(\mathcal{T}_\infty\), interprété comme le résidu des transformations compatibles avec les contraintes stabilisées. +On appelle limite de transformation l’ensemble \(\mathcal{T}\_\infty\), interprété comme le résidu des transformations compatibles avec les contraintes stabilisées. Propriété (stabilisation en cas fini de contraintes). -Si \(|\mathfrak{C}|<\infty\) et si \(K_t\) stabilise à \(K_T\), alors \(\mathcal{T}_\infty=\mathcal{T}(K_T)\) et la limite est atteinte en temps fini. +Si \(|\mathfrak{C}|<\infty\) et si \(K\_t\) stabilise à \(K\_T\), alors \(\mathcal{T}\_\infty=\mathcal{T}(K\_T)\)\)) et la limite est atteinte en temps fini. ### Limite par observable (frontière effective) -Si l’analyse porte sur une description \(s=\Pi(x)\), la limite de transformation peut être relative : des transformations distinctes au niveau de \(X\) peuvent être indiscernables au niveau de \(S\). On définit alors la famille effective sur \(S\) : - -\[ -\mathcal{G}_t(s)=\{\Pi(f(x)) : x\in \Pi^{-1}(s),\ f\in \mathcal{T}_t\}. +Si l’analyse porte sur une description \(((s=\Pi(x)\)\)), la limite de transformation peut être relative : des transformations distinctes au niveau de \(((X\) peuvent être indiscernables au niveau de \(S\). On définit alors la famille effective sur \(S\) : \[ +\mathcal{G}\_t(s)=\{\Pi(f(x)) : x\in \Pi^{-1}(s),\ f\in \mathcal{T}\_t\}. \] -Une frontière effective apparaît lorsque \(\mathcal{G}_t(s)\) se stabilise alors que \(\mathcal{T}_t\) continue de se réduire à l’échelle microscopique. Cela formalise une limite de transformation au niveau descriptif. +Une frontière effective apparaît lorsque \(\mathcal{G}\_t(s)\)\)) se stabilise alors que \(((\mathcal{T}\_t\) continue de se réduire à l’échelle microscopique. Cela formalise une limite de transformation au niveau descriptif. ## Niveaux d’organisation @@ -5294,22 +5191,22 @@ Définition (tour de descriptions). Une tour de descriptions est une suite \[ -X \xrightarrow{\Pi_1} S_1 \xrightarrow{\Pi_2} S_2 \xrightarrow{\Pi_3} \cdots \xrightarrow{\Pi_m} S_m, +X \xrightarrow{\Pi\_1} S\_1 \xrightarrow{\Pi\_2} S\_2 \xrightarrow{\Pi\_3} \cdots \xrightarrow{\Pi\_m} S\_m, \] -où chaque \(\Pi_{k+1}:S_k\to S_{k+1}\) est une réduction (quotient, projection, agrégation). On note \(\Pi^{(k)}=\Pi_k\circ\cdots\circ\Pi_1 : X\to S_k\). +où chaque \(\Pi\_{k+1} : S\_k\to S\_{k+1}\) est une réduction (quotient, projection, agrégation). On note \(\Pi^{(k)}=\Pi\_k\circ\cdots\circ\Pi\_1 : X\to S\_k\). Cette liste de transformations est exhaustive au regard du mécanisme considéré : toute hiérarchie d’observables est une composition de réductions. ### Niveau comme description autonome (approximation de fermeture) -Un niveau \(S_k\) est dit quasi-autonome si la dynamique induite sur \(S_k\) est approximativement fermée, au sens suivant. +Un niveau \(S\_k\) est dit quasi-autonome si la dynamique induite sur \(S\_k\) est approximativement fermée, au sens suivant. Définition (fermeture approximative). -Il existe une application \(G_k:S_k\to S_k\) telle que +Il existe une application \(G\_k : S\_k\to S\_k\) telle que \[ -\Pi^{(k)}\circ F \approx G_k\circ \Pi^{(k)}, +\Pi^{(k)}\circ F \approx G\_k\circ \Pi^{(k)}, \] où \(\approx\) signifie égalité sauf sur un ensemble de mesure au plus \(\varepsilon\), ou en probabilité au moins \(1-\varepsilon\), selon le cadre. @@ -5318,18 +5215,19 @@ Ce critère est standard : il formalise qu’une description est suffisante pour ### Relation avec auto-stabilisation et verrouillage -Lorsque \((\Pi^{(k)}(x_t),K_t)\) est quasi-invariant et que \(K_t\) se stabilise, le niveau \(S_k\) devient un niveau d’organisation effectif : la description est stable, et les transformations futures sont confinées dans une sous-dynamique. +Lorsque \((\Pi^{(k)}(x\_t),K\_t)\)\)) est quasi-invariant et que \(((K\_t\) se stabilise, le niveau \(S\_k\) devient un niveau d’organisation effectif : la description est stable, et les transformations futures sont confinées dans une sous-dynamique. Proposition (niveau comme condition de possibilité). -Si un niveau \(S_k\) est quasi-autonome et si les contraintes associées se stabilisent vers \(K_\infty\), alors l’ensemble des futurs descriptifs accessibles depuis une description initiale \(s\in S_k\) est contenu dans un sous-ensemble strict \(\mathcal{F}_{S_k}(s)\subsetneq S_k\), dès que la contrainte est active. +Si un niveau \(S\_k\) est quasi-autonome et si les contraintes associées se stabilisent vers \(K\_\infty\), alors l’ensemble des futurs descriptifs accessibles depuis une description initiale \(s\in S\_k\) est contenu dans un sous-ensemble strict \(\mathcal{F}\_{S\_k}(s)\)\)subsetneq S_k\), dès que la contrainte est active. Cette proposition reformule, au niveau des descriptions, le verrouillage des futurs : la structure décrite ne se contente pas de persister, elle restreint les descriptions futures possibles. -## Portée minimale (lecture conditionnelle) +## Portée minimale (lecture conditionnelle) — Ch. 15 Dans un cadre formel où : -- certaines descriptions \(s=\Pi(x)\) sont transmissibles, +- certaines descriptions \(((s=\Pi(x)\)\)) sont transmissibles, + - les contraintes se cumulent ou se stabilisent, - la dynamique est restreinte par compatibilité et héritage, @@ -5337,7 +5235,7 @@ il existe des structures qui deviennent des conditions de possibilité : leur ma Le contenu est modal : il concerne des ensembles d’états atteignables et des futurs accessibles, non des finalités. -## Analyse philosophique +## Analyse philosophique — Ch. 15 Trois distinctions permettent d’éviter l’ambiguïté. @@ -5345,40 +5243,40 @@ Condition de possibilité versus cause Une cause est un événement situé dans une trajectoire. Une condition de possibilité est une restriction durable sur l’ensemble des trajectoires admissibles. Le chapitre traite des secondes. Stabilité versus identité -L’auto-stabilisation formalisée ici porte sur une description et un registre de contraintes, non sur la conservation d’un individu. La stabilité est une propriété d’orbite dans l’espace étendu \(Y\). +L’auto-stabilisation formalisée ici porte sur une description et un registre de contraintes, non sur la conservation d’un individu. La stabilité est une propriété d’orbite dans l’espace étendu \(((Y\). Futur possible versus futur réalisé Le verrouillage concerne l’ensemble des futurs accessibles ; il ne sélectionne pas une trajectoire unique. La distinction entre “impossible” et “non réalisé” est ici mathématique : l’impossible correspond à l’absence d’atteignabilité sous les transformations admissibles. -## Conclusion +## Conclusion — Ch. 15 -Le chapitre a défini un mécanisme d’auto-stabilisation non réflexive en introduisant l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) et une règle explicite d’actualisation des contraintes. Les boucles de contraintes ont été traitées comme points fixes (cas monotone) ou cycles (cas non monotone). Les régimes quasi-invariants ont été définis en versions ensembliste et probabiliste, et les limites de transformation ont été formalisées par intersection d’ensembles admissibles. Enfin, les niveaux d’organisation ont été introduits comme tours de descriptions quasi-autonomes, stabilisées par verrouillage. +Le chapitre a défini un mécanisme d’auto-stabilisation non réflexive en introduisant l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) et une règle explicite d’actualisation des contraintes. Les boucles de contraintes ont été traitées comme points fixes (cas monotone) ou cycles (cas non monotone). Les régimes quasi-invariants ont été définis en versions ensembliste et probabiliste, et les limites de transformation ont été formalisées par intersection d’ensembles admissibles. Enfin, les niveaux d’organisation ont été introduits comme tours de descriptions quasi-autonomes, stabilisées par verrouillage. Il s’ensuit : certaines structures deviennent des conditions de possibilité, car elles restreignent durablement l’espace de leurs propres transformations futures, sans qu’aucune optimisation ni finalité ne soit postulée. --- -# Chapitre 16 — Interprétation épistémique minimale +## Chapitre 16 — Interprétation épistémique minimale {#chapitre-16-interpretation-epistemique-minimale} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 16 -Hypothèses (H). +**Hypothèses (H).** -- fermeture prédictive sur l’état étendu \(Y\) (Markovianité au niveau complet \((x,K)\)) ; -- lecture sur observable partielle : projection \(\Pi\) déclarée, avec statut (dépendant/robuste) explicite ; +- fermeture prédictive sur l’état étendu \(((Y\) (Markovianité au niveau complet \((x,K)\)\))) +- lecture sur observable partielle : projection \(((\Pi\) déclarée, avec statut (dépendant/robuste) explicite - couche probabiliste optionnelle : noyau \(P\) déclaré lorsqu’on parle de lois conditionnelles du futur. -Résultats (E). +**Résultats (E).** -- définition de la connaissance comme classe d’équivalence prédictive (ensembliste/probabiliste) ou comme résidu de contraintes stabilisées transmissibles ; -- critère de stabilité sous changements de description (raffinement/coarsening) lorsque une robustesse est revendiquée ; +- définition de la connaissance comme classe d’équivalence prédictive (ensembliste/probabiliste) ou comme résidu de contraintes stabilisées transmissibles +- critère de stabilité sous changements de description (raffinement/coarsening) lorsque une robustesse est revendiquée - correspondances inter‑disciplinaires annoncées comme dictionnaire, sans rétro‑inférence vers le noyau. -Statut. +**Statut.** - noyau ensembliste (classes/futurs) ; couche [P] uniquement si \(P\) est déclaré ; ponts énergétiques annoncés comme optionnels et indexés. -## Introduction +## Introduction — Ch. 16 Les chapitres précédents ont construit un cadre où l’évolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes d’équivalence, transmission partielle sur graphes orientés, verrouillage des futurs, sélection structurelle sans optimisation et, enfin, auto-stabilisation non réflexive dans l’espace étendu états–contraintes. @@ -5386,8 +5284,9 @@ Le présent chapitre introduit tardivement le terme « connaissance ». La conna On obtient : -- des trajectoires différentes deviennent indistinguables pour le futur dès lors qu’elles induisent le même futur accessible (ou la même loi du futur) ; -- l’objet qui capture cette indistinguabilité est une classe d’équivalence sur les histoires ; +- des trajectoires différentes deviennent indistinguables pour le futur dès lors qu’elles induisent le même futur accessible (ou la même loi du futur) + +- l’objet qui capture cette indistinguabilité est une classe d’équivalence sur les histoires - lorsqu’une collection de contraintes se stabilise et se transmet, elle réalise une compression opérationnelle des histoires en un objet prédictif, au sens où elle suffit à déterminer l’ensemble des futurs admissibles. La connaissance, dans ce sens minimal, est ce qui reste d’une histoire lorsqu’on ne conserve que ce qui contraint encore le futur. @@ -5396,89 +5295,81 @@ La connaissance, dans ce sens minimal, est ce qui reste d’une histoire lorsqu Dans ce chapitre, « connaissance » est un alias tardif entièrement défini par les constructions qui suivent. Il peut être remplacé sans perte par : -- « classe d’équivalence prédictive » (définie par futur accessible / loi de futur) ; +- « classe d’équivalence prédictive » (définie par futur accessible / loi de futur) + - ou « registre de contraintes stabilisées transmissibles » (défini par \(K\), \(\Phi\), \(\operatorname{Comp}\) et la filiation). Les lectures cognitives, biologiques, physiques ou computationnelles, lorsqu’elles sont proposées, sont explicitement signalées comme interprétations optionnelles indexées par leurs hypothèses d’instanciation ; elles n’altèrent pas le noyau minimal. -## Cadre et notations +## Cadre et notations — Ch. 16 ### États, transformations et futur accessible -Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) un ensemble de transformations admissibles \(f:X\to X\). +Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) un ensemble de transformations admissibles \(f : X\to X\). -Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble atteignable en \(n\) étapes est : -\[ -\operatorname{Reach}_n(x)=\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}. +Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble atteignable en \(n\) étapes est : \[ +\operatorname{Reach}*n(x)=\{f\_n\circ\cdots\circ f\_1(x) : f\_1,\ldots,f\_n\in\mathcal{T}\}. \] -Le futur accessible (atteignabilité à horizon fini quelconque) est : -\[ -\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x). +Le futur accessible (atteignabilité à horizon fini quelconque) est : \[ +\mathcal{F}(x)=\bigcup\_{n\ge 0}\operatorname{Reach}\_n(x). \] ### Contraintes et dynamique conditionnée Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : -- un ensemble admissible \(A(K)\subseteq X\), -- une relation admissible \(R(K)\subseteq X\times X\), +- un ensemble admissible \(A(K)\)\)subseteq X\), -avec monotonie par inclusion : -\[ +- une relation admissible \(((R(K)\)\)subseteq X\times X\), + +avec monotonie par inclusion : \[ K_1\subseteq K_2\Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] -La famille de transformations admissibles induite par \(K\) est : -\[ -\mathcal{T}(K)=\{f\in\mathcal{T}:\forall x\in A(K),\ (x,f(x))\in R(K)\}. +La famille de transformations admissibles induite par \(((K\) est : \[ +\mathcal{T}(K)=\{f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\)\)in R(K)\}. \] -Un opérateur de compatibilité \(\operatorname{Comp}\) est supposé donné : -\[ -\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), +Un opérateur de compatibilité \(((\operatorname{Comp}\) est supposé donné : \[ +\operatorname{Comp} : \mathcal{P}(\mathfrak{C})\)\)to\mathcal{P}(\mathfrak{C}), \] -tel que \(\operatorname{Comp}(K)\subseteq K\), et tel que \(\operatorname{Comp}(K)\) soit compatible dès lors qu’une sous-collection compatible existe. Cette définition ne contient aucune optimisation : il s’agit uniquement d’éviter la contradiction opérationnelle. +tel que \(((\operatorname{Comp}(K)\)\)subseteq K\), et tel que \(((\operatorname{Comp}(K)\)\)) soit compatible dès lors qu’une sous-collection compatible existe. Cette définition ne contient aucune optimisation : il s’agit uniquement d’éviter la contradiction opérationnelle. ### Espace étendu et actualisation des contraintes -Comme au chapitre 15, on introduit l’espace étendu : -\[ +Comme au chapitre 15, on introduit l’espace étendu : \[ Y=X\times \mathcal{P}(\mathfrak{C}), \] -dont un élément \(y=(x,K)\) encode un état et ses contraintes actives. +dont un élément \(((y=(x,K)\)\)) encode un état et ses contraintes actives. -On suppose donnée une règle d’actualisation : -\[ -\Phi:Y\to \mathcal{P}(\mathfrak{C}), +On suppose donnée une règle d’actualisation : \[ +\Phi : Y\to \mathcal{P}(\mathfrak{C}), \] -et une mise à jour : -\[ +et une mise à jour : \[ K^+=\operatorname{Comp}(K\cup \Phi(x,K)). \] -L’évolution de \(x\) dépend de \(K\) via une restriction de \(\mathcal{T}\). Dans une version stochastique (commode pour l’énoncé d’objets prédictifs), on suppose une loi conditionnelle \(\mathbb{P}(\cdot\mid x,K)\) supportée sur \(\mathcal{T}(K)\). +L’évolution de \(((x\) dépend de \(K\) via une restriction de \(\mathcal{T}\). Dans une version stochastique (commode pour l’énoncé d’objets prédictifs), on suppose une loi conditionnelle \(\mathbb{P}(\cdot\mid x,K)\)\)) supportée sur \(((\mathcal{T}(K)\)\)). -La dynamique est alors : -\[ +La dynamique est alors : \[ (x_{t+1},K_{t+1})=\Psi(x_t,K_t), \] -où \(\Psi\) résume le mécanisme « choisir une transformation admissible sous \(K_t\), l’appliquer, puis actualiser \(K\) ». +où \(((\Psi\) résume le mécanisme « choisir une transformation admissible sous \(K\_t\), l’appliquer, puis actualiser \(K\) ». ### Histoires et futurs -On note une histoire (temps discret) : -\[ -h_t=(x_0,x_1,\ldots,x_t), +On note une histoire (temps discret) : \[ +h\_t=(x\_0,x\_1,\ldots,x\_t), \] -ou, dans l’espace étendu : -\[ -\tilde{h}_t=((x_0,K_0),(x_1,K_1),\ldots,(x_t,K_t)). +ou, dans l’espace étendu : \[ +\tilde{h}\_t=((x\_0,K\_0),(x\_1,K\_1),\ldots,(x\_t,K\_t)). \] Pour distinguer l’approche déterministe et probabiliste, deux objets de futur seront utilisés : -- futur ensembliste : \(\mathcal{F}(x)\) ou \(\mathcal{F}_{\mathcal{T}(K)}(x)\) ; -- futur probabiliste : la loi conditionnelle du futur \((X_{t+1},X_{t+2},\ldots)\) sachant l’histoire. +- futur ensembliste : \(\mathcal{F}(x)\)\)) ou \(((\mathcal{F}\_{\mathcal{T}(K)}(x)\)\)) + +- futur probabiliste : la loi conditionnelle du futur \((((X\_{t+1},X\_{t+2},\ldots)\)\)) sachant l’histoire. Ces deux notions sont compatibles : l’approche probabiliste raffine l’approche ensembliste lorsqu’une loi a priori sur les transformations (ou un bruit) est fixée. @@ -5489,8 +5380,9 @@ Ces deux notions sont compatibles : l’approche probabiliste raffine l’approc Définition (principe minimal). On appellera « connaissance » un objet qui : -- est déterminé par l’histoire passée ; -- est plus pauvre que l’histoire (compression) ; +- est déterminé par l’histoire passée + +- est plus pauvre que l’histoire (compression) - conserve exactement ce qui est pertinent pour le futur, au sens où deux histoires qui produisent le même objet de connaissance induisent le même futur (ensembliste ou probabiliste). Ce principe ne suppose pas de sujet : il définit une propriété relationnelle entre passé et futur, à l’intérieur du système. @@ -5498,28 +5390,27 @@ Ce principe ne suppose pas de sujet : il définit une propriété relationnelle Critère de non-trivialité (usage du mot « connaissance ») Les relations d’équivalence ci-dessous existent même dans des cas dégénérés. Pour éviter qu’une contrainte stabilisée sans effet, ou qu’une variable constante, soit appelée « connaissance », on réserve ce terme aux cas où l’effet prédictif est strict : -- en version ensembliste : existence d’un verrouillage strict (réduction non nulle du futur accessible) ; -- en version probabiliste : gain prédictif strict pour un horizon déclaré (par exemple \(I(Z_t;X_{t+1:t+n})>0\), ou \(H(X_{t+1:t+n}\mid Z_t) < H(X_{t+1:t+n})\)). +- en version ensembliste : existence d’un verrouillage strict (réduction non nulle du futur accessible) + +- en version probabiliste : gain prédictif strict pour un horizon déclaré (par exemple \(((I(Z\_t ; X\_{t+1 : t+n})>0\), ou \(H(X\_{t+1 : t+n}\mid Z\_t) < H(X\_{t+1 : t+n})\)\))). ### Définition ensembliste (équivalence par futur accessible) -Soit une dynamique conditionnée par contraintes sur l’espace étendu \(Y\). Pour une histoire étendue \(\tilde{h}_t\), on note \(y_t=(x_t,K_t)\) son dernier état. +Soit une dynamique conditionnée par contraintes sur l’espace étendu \(((Y\). Pour une histoire étendue \(\tilde{h}\_t\), on note \(y\_t=(x\_t,K\_t)\)\)) son dernier état. -On définit le futur accessible sous contraintes à partir de \(y_t\) par : -\[ -\mathcal{F}_Y(y_t)=\bigcup_{n\ge 0}\{y_{t+n}:\exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}. +On définit le futur accessible sous contraintes à partir de \(((y\_t\) par : \[ +\mathcal{F}\_Y(y\_t)=\bigcup\_{n\ge 0}\{y\_{t+n} : \exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}. \] Définition (équivalence prédictive ensembliste). -Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont dites équivalentes, noté \(\tilde{h}_t\sim_{\mathrm{ens}}\tilde{h}'_t\), si leurs derniers états \(y_t\) et \(y'_t\) induisent le même futur accessible : -\[ -\mathcal{F}_Y(y_t)=\mathcal{F}_Y(y'_t). +Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont dites équivalentes, noté \(\tilde{h}_t\sim\_{\mathrm{ens}}\tilde{h}'_t\), si leurs derniers états \(y\_t\) et \(y'\_t\) induisent le même futur accessible : \[ +\mathcal{F}\_Y(y\_t)=\mathcal{F}\_Y(y'\_t). \] -La classe d’équivalence \([\tilde{h}_t]_{\mathrm{ens}}\) est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre l’ensemble des futurs admissibles ». +La classe d’équivalence \([\tilde{h}_t]\_{\mathrm{ens}}\) est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre l’ensemble des futurs admissibles ». Définition (connaissance ensembliste minimale). -La connaissance ensembliste associée à une histoire est la classe d’équivalence \([\tilde{h}_t]_{\mathrm{ens}}\). +La connaissance ensembliste associée à une histoire est la classe d’équivalence \([\tilde{h}_t]\_{\mathrm{ens}}\). Cette définition est interne au système : elle n’utilise aucune sémantique et ne suppose aucun observateur. @@ -5527,34 +5418,31 @@ Cette définition est interne au système : elle n’utilise aucune sémantique Soit maintenant une version stochastique, où la dynamique sur \(Y\) induit une loi \(\mathbb{P}\) sur les trajectoires. -Définition (équivalence prédictive probabiliste). -Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont équivalentes, noté \(\tilde{h}_t\sim_{\mathrm{prob}}\tilde{h}'_t\), si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) : -\[ -\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}_t\big) -= +## Définition (équivalence prédictive probabiliste) -\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'_t\big). +Deux histoires étendues \(\tilde{h}\_t\) et \(\tilde{h}'\_t\) sont équivalentes, noté \(\tilde{h}\_t\sim\_{\mathrm{prob}}\tilde{h}'\_t\), si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) : \[ +\mathbb{P}\big((Y\_{t+1},Y\_{t+2},\ldots)\)\)in \cdot\ \big|\ \tilde{h}\_t\big) = +\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'\_t\big). \] -La classe \([\tilde{h}_t]_{\mathrm{prob}}\) est un objet de connaissance au sens probabiliste. +La classe \((([\tilde{h}\_t]\_{\mathrm{prob}}\) est un objet de connaissance au sens probabiliste. Remarque de consensus. Cette notion est standard : elle est équivalente à la notion de statistique suffisante pour la prédiction du futur, et se relie aux constructions de filtrations et de conditionnements en probabilités. La formulation ici évite toute référence à une tâche ou à une fonction objectif : seule la loi du futur importe. -### Mesures d’information prédictive (sans critère de tâche) +## Mesures d’information prédictive (sans critère de tâche) -Pour quantifier le contenu prédictif d’une variable interne \(Z_t=g(\tilde{h}_t)\), on peut utiliser des objets standard de théorie de l’information. +Pour quantifier le contenu prédictif d’une variable interne \(Z_t=g(\tilde{h}_t)\)\)), on peut utiliser des objets standard de théorie de l’information. Définition (entropie conditionnelle). -Pour des variables aléatoires \(U,V\), l’entropie conditionnelle est \(H(U\mid V)\). +Pour des variables aléatoires \(((U,V\), l’entropie conditionnelle est \(H(U\mid V)\)\)). Définition (information mutuelle). -L’information mutuelle est : -\[ -I(U;V)=H(U)-H(U\mid V). +L’information mutuelle est : \[ +I(U ; V)=H(U)-H(U\mid V). \] -Dans le cadre présent, si l’on fixe un horizon \(n\) et \(U=X_{t+1:t+n}\) (bloc futur), on peut quantifier l’information prédictive portée par \(Z_t\) via \(I(Z_t;X_{t+1:t+n})\). Aucun « bénéfice » n’est invoqué : seule la dépendance statistique est mesurée. +Dans le cadre présent, si l’on fixe un horizon \(((n\) et \(U=X\_{t+1 : t+n}\) (bloc futur), on peut quantifier l’information prédictive portée par \(Z\_t\) via \(I(Z\_t ; X\_{t+1 : t+n})\)\)). Aucun « bénéfice » n’est invoqué : seule la dépendance statistique est mesurée. ## Connaissance comme contrainte stabilisée transmissible @@ -5562,28 +5450,25 @@ Le plan impose une définition : « connaissance comme contrainte stabilisée tr ### Définition (contrainte stabilisée) -Soit une trajectoire \((x_t,K_t)\) dans \(Y\). Une collection \(K^\star\subseteq\mathfrak{C}\) est dite stabilisée le long de la trajectoire s’il existe \(T\) tel que : -\[ -K^\star\subseteq K_t \quad \text{pour tout } t\ge T, +Soit une trajectoire \((((x\_t,K\_t)\)\)) dans \(((Y\). Une collection \(K^\star\subseteq\mathfrak{C}\) est dite stabilisée le long de la trajectoire s’il existe \(T\) tel que : \[ +K^\star\subseteq K\_t \quad \text{pour tout } t\ge T, \] -et si la suite \((K_t)\) admet une limite en inclusion : -\[ +et si la suite \((K\_t)\)\)) admet une limite en inclusion : \[ K_t\uparrow K_\infty=\bigcup_{t\ge 0}K_t \quad \text{(éventuellement après application de }\operatorname{Comp}\text{).} \] -Dans le cas \(|\mathfrak{C}|<\infty\) et d’une actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15). +Dans le cas \(((|\mathfrak{C}|<\infty\) et d’une actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15). Statut (renvoi explicite). -La stabilisation au sens ci-dessus correspond au régime S1 (point fixe / limite en inclusion) et suppose une actualisation monotone (H22‑PF, et souvent H22‑TR pour exclure la fuite en espace étendu). En l’absence de ces hypothèses, le registre peut relever d’un régime S2 (cycle) ou S3 (métastable) : dans ce cas, l’unité pertinente n’est plus un \(K_\infty\) unique, et les définitions qui suivent doivent être relues comme dépendantes d’un régime de stabilisation (voir chapitre 15, “Boucles de contraintes” et “Hypothèses et régimes de stabilisation (paquets H22)”). +La stabilisation au sens ci-dessus correspond au régime S1 (point fixe / limite en inclusion) et suppose une actualisation monotone (H22‑PF, et souvent H22‑TR pour exclure la fuite en espace étendu). En l’absence de ces hypothèses, le registre peut relever d’un régime S2 (cycle) ou S3 (métastable) : dans ce cas, l’unité pertinente n’est plus un \(K\_\infty\) unique, et les définitions qui suivent doivent être relues comme dépendantes d’un régime de stabilisation (voir chapitre 15, “Boucles de contraintes” et “Hypothèses et régimes de stabilisation (paquets H22)”). ### Définition (transmissibilité de contrainte sur graphe) -Soit un graphe orienté acyclique \(G=(V,E)\) de filiation (chapitre 12). À chaque sommet \(v\) est associée une occurrence \(y_v=(x_v,K_v)\). À chaque arête \(e=(u\to v)\) est associé un opérateur de transmission \(\tau_e\). +Soit un graphe orienté acyclique \(G=(V,E)\)\)) de filiation (chapitre 12). À chaque sommet \(((v\) est associée une occurrence \(y\_v=(x\_v,K\_v)\)\)). À chaque arête \(((e=(u\to v)\)\)) est associé un opérateur de transmission \(((\tau\_e\). -Une contrainte élémentaire \(c\in\mathfrak{C}\) est transmissible sur une arête \(e\) si : -\[ -c\in K \Rightarrow c\in \tau_e(K). +Une contrainte élémentaire \(c\in\mathfrak{C}\) est transmissible sur une arête \(e\) si : \[ +c\in K \Rightarrow c\in \tau\_e(K). \] Une collection \(K^\star\) est transmissible sur un sous-graphe si chaque \(c\in K^\star\) est transmissible sur toutes les arêtes de ce sous-graphe. @@ -5592,39 +5477,41 @@ Une collection \(K^\star\) est transmissible sur un sous-graphe si chaque \(c\in Hypothèses minimales : -- la dynamique dans \(Y\) est Markovienne (au niveau complet \((x,K)\)) ; -- l’évolution de \(x\) dépend de \(K\) uniquement via \(\mathcal{T}(K)\) ; -- le mécanisme d’actualisation \(K^+=\operatorname{Comp}(K\cup \Phi(x,K))\) est donné et ne dépend pas du futur. +- la dynamique dans \(Y\) est Markovienne (au niveau complet \((x,K)\)\))) + +- l’évolution de \(((x\) dépend de \(K\) uniquement via \(\mathcal{T}(K)\)\)) +- le mécanisme d’actualisation \(((K^+=\operatorname{Comp}(K\cup \Phi(x,K))\)\)) est donné et ne dépend pas du futur. Note de statut. -Ces hypothèses garantissent la fermeture prédictive sur l’état étendu \(y_t=(x_t,K_t)\) ; elles ne garantissent pas la stabilisation de \(K_t\). Les conditions suffisantes pour une stabilisation S1 (H22‑PF, souvent H22‑TR), ainsi que les alternatives S2/S3, sont traitées au chapitre 15. +Ces hypothèses garantissent la fermeture prédictive sur l’état étendu \(((y\_t=(x\_t,K\_t)\)\)) ; elles ne garantissent pas la stabilisation de \(((K\_t\). Les conditions suffisantes pour une stabilisation S1 (H22‑PF, souvent H22‑TR), ainsi que les alternatives S2/S3, sont traitées au chapitre 15. Alors : -- le futur ensembliste accessible depuis \(y_t=(x_t,K_t)\) dépend uniquement de \(y_t\), et non de l’histoire complète ; -- de même, le futur probabiliste (loi conditionnelle) dépend uniquement de \(y_t\). +- le futur ensembliste accessible depuis \(y\_t=(x\_t,K\_t)\)\)) dépend uniquement de \(((y\_t\), et non de l’histoire complète -Autrement dit, dans l’espace étendu \(Y\), \(y_t\) est une statistique suffisante au sens prédictif : l’histoire se résume sans perte (pour le futur) à l’état étendu présent. +- de même, le futur probabiliste (loi conditionnelle) dépend uniquement de \(y\_t\). + +Autrement dit, dans l’espace étendu \(Y\), \(y\_t\) est une statistique suffisante au sens prédictif : l’histoire se résume sans perte (pour le futur) à l’état étendu présent. Conséquence (connaissance comme résidu). -Si \(K_t\) se stabilise vers \(K_\infty\) au sens S1 (sous H22‑PF et, si nécessaire, H22‑TR), et si \(K_\infty\) est transmissible le long des arêtes d’un sous-graphe de filiation, alors la composante \(K_\infty\) constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant qu’il est prédictif (il détermine \(\mathcal{T}(K_\infty)\) et donc l’atteignabilité), réalise une notion minimale de connaissance. Sa réutilisabilité exige en outre une robustesse au sens H22‑RB sous les perturbations, projections et approximations déclarées (sinon, artefact d’instanciation). +Si \(K\_t\) se stabilise vers \(K\_\infty\) au sens S1 (sous H22‑PF et, si nécessaire, H22‑TR), et si \(K\_\infty\) est transmissible le long des arêtes d’un sous-graphe de filiation, alors la composante \(K\_\infty\) constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant qu’il est prédictif (il détermine \(\mathcal{T}(K\_\infty)\)\)) et donc l’atteignabilité), réalise une notion minimale de connaissance. Sa réutilisabilité exige en outre une robustesse au sens H22‑RB sous les perturbations, projections et approximations déclarées (sinon, artefact d’instanciation). Cette proposition ne requiert aucune sémantique : la “connaissance” est un registre de restrictions stabilisées qui suffisent à prédire les futurs admissibles au sens du modèle. ### Lien avec le verrouillage des futurs -Le chapitre 13 a défini le verrouillage comme une décroissance de l’atteignabilité. Dans le cadre présent, si \(K_t\uparrow K_\infty\), alors \(\mathcal{T}(K_t)\) est décroissante et : -\[ +Le chapitre 13 a défini le verrouillage comme une décroissance de l’atteignabilité. Dans le cadre présent, si \(((K\_t\uparrow K\_\infty\), alors \(\mathcal{T}(K\_t)\)\)) est décroissante et : \[ \mathcal{T}(K_\infty)=\bigcap_{t\ge 0}\mathcal{T}(K_t), \] -d’où une limite de transformation. Le registre \(K_\infty\) encode donc explicitement le mécanisme par lequel le passé réduit l’espace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : l’une en terme de futur, l’autre en terme de contrainte stabilisée. +d’où une limite de transformation. Le registre \(((K\_\infty\) encode donc explicitement le mécanisme par lequel le passé réduit l’espace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : l’une en terme de futur, l’autre en terme de contrainte stabilisée. ## Absence de sujet Le plan exige « absence de sujet ». Cela signifie ici : -- aucune entité “sait” ; -- aucune intention n’oriente les transitions ; +- aucune entité “sait” + +- aucune intention n’oriente les transitions - aucun vocabulaire de représentation n’est posé comme causal. Cette absence est garantie par construction : la connaissance est une classe d’équivalence sur les histoires (définie par des futurs), ou un registre de contraintes stabilisées (défini par une actualisation et une transmissibilité). Dans les deux cas, l’objet est une propriété de la dynamique. @@ -5638,11 +5525,11 @@ La définition dérivée obtenue est compatible avec plusieurs cadres standards, ### Statistique et apprentissage -La notion de connaissance comme classe d’équivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable \(Z_t\) est “suffisante” si elle conserve toute l’information nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive. +La notion de connaissance comme classe d’équivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable \(Z\_t\) est “suffisante” si elle conserve toute l’information nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive. ### Théorie de l’information -La quantification du contenu prédictif par \(I(Z_t;X_{t+1:t+n})\) est standard et ne dépend pas d’un critère de tâche. Une lecture ensembliste existe également : une variable \(Z_t\) est prédictive (au sens minimal) si, en fixant \(Z_t\), l’ensemble des futurs accessibles se restreint (cardinalité ou mesure), ce qui relie directement l’épistémique au verrouillage des futurs. La notion pertinente est l’information prédictive, non une information définie par la performance sur une tâche. En particulier, la théorie ne requiert aucune tâche externe ; elle caractérise un couplage statistique entre états internes et futurs. +La quantification du contenu prédictif par \(I(Z\_t ; X\_{t+1 : t+n})\)\)) est standard et ne dépend pas d’un critère de tâche. Une lecture ensembliste existe également : une variable \(((Z\_t\) est prédictive (au sens minimal) si, en fixant \(Z\_t\), l’ensemble des futurs accessibles se restreint (cardinalité ou mesure), ce qui relie directement l’épistémique au verrouillage des futurs. La notion pertinente est l’information prédictive, non une information définie par la performance sur une tâche. En particulier, la théorie ne requiert aucune tâche externe ; elle caractérise un couplage statistique entre états internes et futurs. Note (pont optionnel). La lecture prédictive (lois conditionnelles) et la lecture géométrique (restriction d’atteignabilité) sont internes au cadre. Tout pont vers une lecture énergétique (coût/dissipation) est optionnel et déclaré : il dépend d’un choix de coût, d’une indexation (métrique/mesure) et, le cas échéant, d’un modèle d’implémentation ; aucune équivalence générale n’est postulée. @@ -5673,19 +5560,19 @@ La définition de connaissance est minimale et dépend de choix explicites. Dépendance au modèle de futur -- En version ensembliste : \(\sim_{\mathrm{ens}}\) dépend du choix d’admissibilité (contraintes, transformations). -- En version probabiliste : \(\sim_{\mathrm{prob}}\) dépend de la loi \(\mathbb{P}\) sur les transformations et des variables observées. +- En version ensembliste : \(\sim\_{\mathrm{ens}}\) dépend du choix d’admissibilité (contraintes, transformations). +- En version probabiliste : \(\sim\_{\mathrm{prob}}\) dépend de la loi \(\mathbb{P}\) sur les transformations et des variables observées. Dépendance à la description -Si l’on observe uniquement \(s=\Pi(x)\) au lieu de \((x,K)\), la connaissance devient relative à \(\Pi\) : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Autrement dit, le processus peut être non markovien en \(s\) tout en restant markovien sur l’état étendu \((x,K)\) (où la dynamique est fermée). Cela n’invalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que l’observable oublie. +Si l’on observe uniquement \(s=\Pi(x)\)\)) au lieu de \((((x,K)\)\)), la connaissance devient relative à \(((\Pi\) : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Autrement dit, le processus peut être non markovien en \(s\) tout en restant markovien sur l’état étendu \((x,K)\)\)) (où la dynamique est fermée). Cela n’invalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que l’observable oublie. Stabilité sous raffinement/coarsening (robustesse). -Lorsqu’une notion de connaissance est revendiquée comme stable au‑delà d’une observable \(\Pi\), la stabilité est vérifiée sous changements bornés de description : au minimum sur deux granularités \(\Pi_1,\Pi_2\) déclarées, et, lorsque pertinent, sous morphismes de facteurs (commutation avec la dynamique ou contrôle explicite de l’écart). À défaut, l’énoncé est annoncé comme indexé par \(\Pi\) et ne se propage pas comme résultat générique (cf. chap. 13, “Double granularité”, et protocole de robustesse). +Lorsqu’une notion de connaissance est revendiquée comme stable au‑delà d’une observable \(((\Pi\), la stabilité est vérifiée sous changements bornés de description : au minimum sur deux granularités \(\Pi\_1,\Pi\_2\) déclarées, et, lorsque pertinent, sous morphismes de facteurs (commutation avec la dynamique ou contrôle explicite de l’écart). À défaut, l’énoncé est annoncé comme indexé par \(\Pi\) et ne se propage pas comme résultat générique (cf. chap. 13, “Double granularité”, et protocole de robustesse). Caractère non unique des représentations internes -Plusieurs variables \(Z_t\) peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes d’équivalence, mais sa représentation peut ne pas être unique. +Plusieurs variables \(Z\_t\) peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes d’équivalence, mais sa représentation peut ne pas être unique. -## Analyse philosophique +## Analyse philosophique — Ch. 16 L’introduction dérivée de la connaissance modifie trois oppositions classiques. @@ -5698,11 +5585,12 @@ La connaissance est définie par la conservation de ce qui détermine le futur a Sujet versus structure L’absence de sujet n’élimine pas la possibilité d’un sujet ; elle montre que la notion de connaissance peut être construite sans lui. Si un sujet apparaît dans un prolongement, il apparaît comme une structure particulière au sein de \(X\), portant un registre \(K\) et une description \(\Pi\), et non comme une primitive transcendantale. -## Conclusion +## Conclusion — Ch. 16 Le terme « connaissance » a été introduit tardivement et défini de manière dérivée, sans être posé comme cause. Deux définitions minimales ont été construites : -- une définition ensembliste : connaissance comme classe d’équivalence d’histoires induisant le même futur accessible ; +- une définition ensembliste : connaissance comme classe d’équivalence d’histoires induisant le même futur accessible + - une définition probabiliste : connaissance comme classe d’équivalence d’histoires induisant la même loi conditionnelle du futur. Le lien avec les chapitres précédents est direct : lorsque des contraintes se stabilisent et se transmettent, elles constituent un résidu du passé qui continue à restreindre les transformations admissibles et donc les futurs accessibles. En ce sens précis, la connaissance est un résidu nécessaire : l’histoire se compresse en contraintes prédictives, sans sujet, sans sémantique, et sans finalité. @@ -5724,21 +5612,21 @@ Règle. - Cette table est une aide de lecture historique ; elle n’ajoute aucun axiome et ne justifie aucun énoncé du noyau. | Terme NCI | Terme canonique (ouvrage) | Couche | Note de décontamination | -|---|---|---|---| +| --- | --- | --- | --- | | NCI | — | — | acronyme historique ; ne définit aucun objet formel. | -| Néon | contrainte stabilisée ; registre \(K\) stabilisé | [E] | évite l’unité “substantielle” : renvoie à une contrainte/registre défini et à son effet sur \(\mathcal{T}(K)\). | +| Néon | contrainte stabilisée ; registre \(K\) stabilisé | [E] | évite l’unité “substantielle” : renvoie à une contrainte/registre défini et à son effet sur \(\mathcal{T}(K)\)\)). | | vortex | cycle ; composante fortement connexe ; récurrence | [E] | évite l’import thermodynamique : renvoie à une structure d’atteignabilité (sans “flux” implicite). | | bit utile | classe d’équivalence prédictive | [E] (puis [P]) | évite finalité/optimisation : renvoie à l’indistinguabilité prédictive (chap. 16). | | entropie produite | instanciation thermo (hors noyau) | [M]/[P] | n’apparaît qu’avec dictionnaire physique et hypothèses additionnelles déclarées. | -| detailed balance | réversibilité (statut probabiliste) | [P] | n’apparaît qu’avec noyau \(P\) et mesure stationnaire déclarés. | +| detailed balance | réversibilité (statut probabiliste) | [P] | n’apparaît qu’avec noyau \(((P\) et mesure stationnaire déclarés. | ### Table synthétique des dépendances (audit) Le tableau ci-dessous sert à auditer rapidement le statut d’un résultat : dépendances aux hypothèses structurales et aux couches (\(\mu\), \(P\), \(\Pi\), \(\operatorname{Comp}\)). | Résultat (référence) | Hypothèses structurales (exemples) | dépend de \(\mu\) | dépend de \(P\) | dépend de \(\Pi\) | dépend de \(\operatorname{Comp}\) | -|---|---|---|---|---|---| -| Verrouillage ensembliste (chap. 13) | admissibilité décroissante \(\mathcal{T}_{t+1}\subseteq\mathcal{T}_t\) | non | non | non | non | +| --- | --- | --- | --- | --- | --- | +| Verrouillage ensembliste (chap. 13) | admissibilité décroissante \(\mathcal{T}\_{t+1}\subseteq\mathcal{T}\_t\) | non | non | non | non | | Verrouillage quantifié (chap. 13) | idem + quantificateur déclaré | oui | non | oui (si observable) | non | | Verrouillage robuste (chap. 13) | idem + variations contrôlées déclarées | oui | non | oui | oui (si contraintes héritées) | | Sélection ensembliste (chap. 14) | compatibilité + admissibilité | non | non | non | oui | @@ -5753,6 +5641,7 @@ Le tableau ci-dessous sert à auditer rapidement le statut d’un résultat : d Voir aussi la section « Statut des énoncés » en fermeture. Dans 13–16 : - Définition / Proposition / Théorème : blocs techniques. + - Interprétation : explicitement optionnelle et séparée. Aucune interprétation n’est insérée dans un bloc démonstratif. @@ -5767,7 +5656,8 @@ Règles. - Un terme technique canonique par concept : les synonymes rejetés sont explicitement listés et ne réapparaissent pas dans le noyau. - Tout résultat est indexé par une couche de validité, compatible avec la stratification introduite en début d’ouvrage : - - [E] ensembliste + +- [E] ensembliste - [M] métrique/mesurée - [P] probabiliste - [D] décisionnelle (optionnelle) @@ -5799,21 +5689,21 @@ Glossaire normatif (structure). Glossaire normatif (minimal). | Terme canonique | Définition (renvoi) | Couche | Dépendances (hypothèses / paramètres) | Renvois internes | Synonymes rejetés | -|---|---|---|---|---|---| -| état | élément \(x\in X\). | [E] | \(X\) déclaré. | chap. 1, chap. 4 (axiomes) | | -| transformation admissible | application \(f:X\to X\) appartenant à une admissibilité \(\mathcal{T}\) déclarée. | [E] | admissibilité \(\mathcal{T}\) fixée (H‑Adm). | chap. 1, chap. 13–15 | | -| atteignabilité | relation “atteignable en \(n\) étapes” via composition d’éléments de \(\mathcal{T}\). | [E] | admissibilité \(\mathcal{T}\), horizon \(n\). | chap. 13–15 | | -| futur accessible | \(\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x)\). | [E] | admissibilité \(\mathcal{T}\), état \(x\). | chap. 13–15 | cône de futur ; espace des futurs ; futur possible | -| contrainte | règle restreignant \(A(K)\subseteq X\) et/ou \(R(K)\subseteq X\times X\), induisant \(\mathcal{T}(K)\subseteq\mathcal{T}\). | [E] | espace des contraintes \(\mathfrak{C}\), sémantique (état/transition) déclarée. | chap. 13–15 | | -| compatibilité | non‑contradiction opérationnelle : \(A(K)\neq\varnothing\) et continuation possible via \(R(K)\). | [E] | \(\mathfrak{C}\), \(A(\cdot)\), \(R(\cdot)\) déclarés. | chap. 14–15 | | -| verrouillage (niveaux) | réduction monotone des futurs accessibles : niveau 1 ensembliste ; niveau 2 quantifié (indexé) ; niveau 3 robuste (statut). | [E]/[M] | quantification indexée par \(\mu/d/c\) (couches [M]) ; robustesse par familles déclarées. | chap. 13 | | -| sélection (niveaux) | filtrage par admissibilité/compatibilité (ensembliste), puis dominance mesurée (indexée par \(\mu\)) ou stochastique (indexée par \(P\)). | [E]/[M]/[P] | \(\mu\) (mesure), \(P\) (noyau) déclarés lorsque utilisés. | chap. 14 | | -| auto‑stabilisation (régimes) | boucles de contraintes en espace étendu \(Y\) : S1 (point fixe), S2 (cycle), S3 (métastable). | [E] (puis [M]/[P] si quantifié) | dépendances H22 (ordre/monotonie, piégeage, robustesse, contraction) déclarées lorsque revendiquées. | chap. 15 | | -| transmission | opérateurs \(\tau_e\) transportant des contraintes/structures le long d’arêtes de filiation (éventuellement hyperarêtes). | [E] | graphe de filiation \(G=(V,E)\), opérateurs \(\tau_e\) déclarés. | chap. 12, chap. 14–15 | | -| mémoire transmissible | registre \(K\) de contraintes, opératoire (\(\mathcal{T}(K)\subseteq\mathcal{T}\)), stabilisable (S1/S2/S3) et transmissible le long d’une filiation. | [E] (puis [P] si Markov) | espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\), mise à jour \(G\), transmission \(\tau_e\), régimes H22 si stabilisation revendiquée. | chap. 13, chap. 15–16 | dépendance au passé | -| variable cachée | composante \(H\) de l’état telle que \((X,H)\) ferme la dynamique (markovien) alors que \(X\) seul présente une dépendance au passé. | [P] (pont [E]) | projection \(\Pi\), état complet \(S\) ou espace étendu \(Y=X\times H\). | chap. 13 | mémoire transmissible | -| ancrage / irréversibilité logique | perte d’identifiabilité/non‑injectivité (et, en instanciation physique, borne de Landauer). | [E] (ponts [M]/[P] optionnels) | couche physico‑thermodynamique annoncée comme optionnelle. | chap. 5, chap. 8 | | -| classe d’équivalence prédictive | quotient sur histoires/états par indistinguabilité des futurs (ensembles ou lois conditionnelles). | [E] (puis [P] si loi du futur) | horizon, projection \(\Pi\), noyau \(P\) si mobilisé. | chap. 16 | | +| --- | --- | --- | --- | --- | --- | +| état | élément \(x\in X\). | [E] | \(X\) déclaré. | chap. 1, chap. 4 (axiomes) | | +| transformation admissible | application \(f : X\to X\) appartenant à une admissibilité \(\mathcal{T}\) déclarée. | [E] | admissibilité \(\mathcal{T}\) fixée (H‑Adm). | chap. 1, chap. 13–15 | | +| atteignabilité | relation “atteignable en \(n\) étapes” via composition d’éléments de \(\mathcal{T}\). | [E] | admissibilité \(\mathcal{T}\), horizon \(n\). | chap. 13–15 | | +| futur accessible | \(\mathcal{F}(x)=\bigcup\_{n\ge 0}\operatorname{Reach}\_n(x)\)\)). | [E] | admissibilité \(((\mathcal{T}\), état \(x\). | chap. 13–15 | cône de futur ; espace des futurs ; futur possible | +| contrainte | règle restreignant \(A(K)\)\)subseteq X\) et/ou \(((R(K)\)\)subseteq X\times X\), induisant \(((\mathcal{T}(K)\)\)subseteq\mathcal{T}\). | [E] | espace des contraintes \(((\mathfrak{C}\), sémantique (état/transition) déclarée. | chap. 13–15 | | +| compatibilité | non‑contradiction opérationnelle : \(A(K)\)\)neq\varnothing\) et continuation possible via \(((R(K)\)\)). | [E] | \(((\mathfrak{C}\), \(A(\cdot)\)\)), \(((R(\cdot)\)\)) déclarés. | chap. 14–15 | | +| verrouillage (niveaux) | réduction monotone des futurs accessibles : niveau 1 ensembliste ; niveau 2 quantifié (indexé) ; niveau 3 robuste (statut). | [E]/[M] | quantification indexée par \(((\mu/d/c\) (couches [M]) ; robustesse par familles déclarées. | chap. 13 | | +| sélection (niveaux) | filtrage par admissibilité/compatibilité (ensembliste), puis dominance mesurée (indexée par \(\mu\)) ou stochastique (indexée par \(P\)). | [E]/[M]/[P] | \(\mu\) (mesure), \(P\) (noyau) déclarés lorsque utilisés. | chap. 14 | | +| auto‑stabilisation (régimes) | boucles de contraintes en espace étendu \(Y\) : S1 (point fixe), S2 (cycle), S3 (métastable). | [E] (puis [M]/[P] si quantifié) | dépendances H22 (ordre/monotonie, piégeage, robustesse, contraction) déclarées lorsque revendiquées. | chap. 15 | | +| transmission | opérateurs \(\tau\_e\) transportant des contraintes/structures le long d’arêtes de filiation (éventuellement hyperarêtes). | [E] | graphe de filiation \(G=(V,E)\)\)), opérateurs \(((\tau\_e\) déclarés. | chap. 12, chap. 14–15 | | +| mémoire transmissible | registre \(K\) de contraintes, opératoire (\(\mathcal{T}(K)\)\)subseteq\mathcal{T}\)), stabilisable (S1/S2/S3) et transmissible le long d’une filiation. | [E] (puis [P] si Markov) | espace étendu \(((Y=X\times\mathcal{P}(\mathfrak{C})\)\)), mise à jour \(((G\), transmission \(\tau\_e\), régimes H22 si stabilisation revendiquée. | chap. 13, chap. 15–16 | dépendance au passé | +| variable cachée | composante \(H\) de l’état telle que \((X,H)\)\)) ferme la dynamique (markovien) alors que \(((X\) seul présente une dépendance au passé. | [P] (pont [E]) | projection \(\Pi\), état complet \(S\) ou espace étendu \(Y=X\times H\). | chap. 13 | mémoire transmissible | +| ancrage / irréversibilité logique | perte d’identifiabilité/non‑injectivité (et, en instanciation physique, borne de Landauer). | [E] (ponts [M]/[P] optionnels) | couche physico‑thermodynamique annoncée comme optionnelle. | chap. 5, chap. 8 | | +| classe d’équivalence prédictive | quotient sur histoires/états par indistinguabilité des futurs (ensembles ou lois conditionnelles). | [E] (puis [P] si loi du futur) | horizon, projection \(\Pi\), noyau \(P\) si mobilisé. | chap. 16 | | Protocole de conformité (relecture mécanique). @@ -5834,7 +5724,7 @@ Artefacts attendus dans le manuscrit. - **Index des symboles** : symbole, type, sens, première introduction, renvois. - **Table des hypothèses (paquets)** : identifiants stables pour des familles d’hypothèses récurrentes (par exemple : paquets H22 pour les régimes de stabilisation ; noyau d’axiomes A0 pour revendiquer des résultats invariants vis‑à‑vis de \(\operatorname{Comp}\)). - **Registre des choix quantitatifs** : identifiants `Q1`, `Q2`, … pour les choix \(\mu, P, d, c, L\) lorsque des quantités sont introduites. -- **Protocole de robustesse** : familles de variations \( \mathcal{M},\mathcal{P},\mathcal{D},\mathcal{C}_{\mathrm{cost}},\mathcal{L} \) et statut annoncé (robuste / dépendant). +- **Protocole de robustesse** : familles de variations \( \mathcal{M},\mathcal{P},\mathcal{D},\mathcal{C}\_{\mathrm{cost}},\mathcal{L} \) et statut annoncé (robuste / dépendant). Table des hypothèses (bibliothèque minimale et paquets). @@ -5844,15 +5734,15 @@ Bibliothèque minimale (hypothèses atomiques). - H‑D (dénombrable) : \(X\) est dénombrable. - H‑Cpt (compacité) : \(X\) est compact (topologie déclarée). - H‑Met (métrique/quasi‑métrique) : \(X\) est muni d’une distance \(d\) (ou quasi‑distance) déclarée. -- H‑Det (déterminisme) : la dynamique est une fonction \(f:X\to X\). +- H‑Det (déterminisme) : la dynamique est une fonction \(f : X\to X\). - H‑Rel (relation) : la dynamique est une relation \(R\subseteq X\times X\). - H‑Cont (continuité) : \(f\) est continue (dans la topologie déclarée). -- H‑Diss (piégeage/dissipativité) : il existe une région piégée \(B\) telle que les trajectoires pertinentes entrent dans \(B\) et \(f(B)\subseteq B\). -- H‑Adm (admissibilité fixée) : une admissibilité \(\mathcal{T}\) (ou \(T\)) est fixée. +- H‑Diss (piégeage/dissipativité) : il existe une région piégée \(B\) telle que les trajectoires pertinentes entrent dans \(B\) et \(f(B)\)\)subseteq B\). +- H‑Adm (admissibilité fixée) : une admissibilité \(((\mathcal{T}\) (ou \(T\)) est fixée. - H‑AdmLoc (localité) : \(\mathcal{T}\) satisfait une localité structurelle déclarée. - H‑Res (ressource) : \(\mathcal{T}\) est filtrée par un budget de ressource déclaré. -- H‑P (noyau) : un noyau de transition \(P(\cdot\mid\cdot)\) est déclaré (couche [P]). -- H‑Stat (stationnarité) : une mesure stationnaire \(\pi\) existe pour \(P\) (couche [P]). +- H‑P (noyau) : un noyau de transition \(P(\cdot\mid\cdot)\)\)) est déclaré (couche [P]). +- H‑Stat (stationnarité) : une mesure stationnaire \(((\pi\) existe pour \(P\) (couche [P]). Paquets (hypothèses récurrentes). @@ -5862,13 +5752,13 @@ Paquets (hypothèses récurrentes). Index des symboles (minimal, noyau 13–16). | Symbole | Type | Sens | Introduction | Renvois | -|---|---|---|---|---| -| \(Y=X\times\mathcal{P}(\mathfrak{C})\) | espace d’état étendu | état + registre de contraintes | chap. 15 | chap. 16 (prédiction) | -| \(\mathfrak{C}\) | ensemble | espace des contraintes élémentaires | chap. 15 | chap. 16 | -| \(K\in\mathcal{P}(\mathfrak{C})\) | registre | collection de contraintes actives | chap. 15 | chap. 16 | -| \(\Phi:Y\to\mathcal{P}(\mathfrak{C})\) | opérateur | règle d’actualisation des contraintes | chap. 15 | chap. 16 | -| \(\operatorname{Comp}\) | opérateur | compatibilité / fermeture choisie | chap. 13 | chap. 14–15 | -| \(\Pi:X\to S\) | description | observable/projection vers un espace \(S\) | chap. 13 | chap. 15–16 | +| --- | --- | --- | --- | --- | +| \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) | espace d’état étendu | état + registre de contraintes | chap. 15 | chap. 16 (prédiction) | +| \(((\mathfrak{C}\) | ensemble | espace des contraintes élémentaires | chap. 15 | chap. 16 | +| \(K\in\mathcal{P}(\mathfrak{C})\)\)) | registre | collection de contraintes actives | chap. 15 | chap. 16 | +| \(((\Phi : Y\to\mathcal{P}(\mathfrak{C})\)\)) | opérateur | règle d’actualisation des contraintes | chap. 15 | chap. 16 | +| \(((\operatorname{Comp}\) | opérateur | compatibilité / fermeture choisie | chap. 13 | chap. 14–15 | +| \(\Pi : X\to S\) | description | observable/projection vers un espace \(S\) | chap. 13 | chap. 15–16 | | \(\mu\) | mesure | quantification (taille, volume, fréquence) | chap. 13–14 | chap. 14 (sélection mesurée) | | \(P\) | noyau | transitions probabilistes conditionnelles | chap. 14 | chap. 16 (loi du futur) | @@ -5900,24 +5790,25 @@ Registre des choix quantitatifs (format minimal). Protocole de robustesse (statut annoncé). -- Variation de \(\mu\) dans une famille \(\mathcal{M}\) ; variation de \(P\) dans \(\mathcal{P}\) ; variation de \(d\) dans \(\mathcal{D}\) ; variation de \(c\) dans \(\mathcal{C}_{\mathrm{cost}}\) (si une quantification par coût est revendiquée) ; variation de \(L\) dans \(\mathcal{L}\) (si [D]). +- Variation de \(\mu\) dans une famille \(\mathcal{M}\) ; variation de \(P\) dans \(\mathcal{P}\) ; variation de \(d\) dans \(\mathcal{D}\) ; variation de \(c\) dans \(\mathcal{C}\_{\mathrm{cost}}\) (si une quantification par coût est revendiquée) ; variation de \(L\) dans \(\mathcal{L}\) (si [D]). - Classement : **robuste** (stabilité sur une région non triviale) ou **dépendant** (sensibilité forte aux choix). ### Validation éditoriale (navigabilité scientifique) Une version est considérée navigable si : -- chaque résultat structurant a une entrée dans l’index des dépendances ; -- chaque symbole réutilisé hors de sa section d’introduction figure dans l’index des symboles ; -- chaque terme technique appartient au glossaire normatif et reste stable dans le noyau ; -- aucune conclusion quantitative n’est présentée sans indexation (\(\mu,P,d,c,L\)) et sans couche ; +- chaque résultat structurant a une entrée dans l’index des dépendances + +- chaque symbole réutilisé hors de sa section d’introduction figure dans l’index des symboles +- chaque terme technique appartient au glossaire normatif et reste stable dans le noyau +- aucune conclusion quantitative n’est présentée sans indexation (\(\mu,P,d,c,L\)) et sans couche - aucune inférence de couche implicite n’est introduite ([P]/[D] → [E]). --- -# Fermeture +## Fermeture {#fermeture} -## Introduction +## Introduction — Ch. 16 (2) La construction part d’un espace de configurations et d’un ensemble de transformations admissibles, puis dérive, par étapes nécessaires, les notions de non-injectivité, de classes, de stabilisation, de consommation irréversible, de transmission partielle et de sélection structurelle, jusqu’à rendre possible une lecture épistémique minimale. @@ -5957,89 +5848,90 @@ La connaissance n’a pas été posée comme primitive. Elle a été dérivée c Trois niveaux ont été distingués, et leur mélange a été évité. -Énoncés définitionnels +**Énoncés définitionnels** Ils introduisent les objets (atteignabilité, compatibilité, contraintes, graphes, quasi-invariance, équivalences prédictives). Leur validité est conventionnelle, au sens où ils fixent le langage et les opérations. -Énoncés logiques et combinatoires +**Énoncés logiques et combinatoires** Ils expriment des conséquences nécessaires de définitions monotones ou finies (stabilisation en temps fini lorsque l’espace des contraintes est fini, décroissance d’ensembles atteignables sous restriction, extinction de classes transientes dans des chaînes finies). Leur statut est démonstratif. -Énoncés de portées minimales +**Énoncés de portées minimales** Ils relient les résultats formels à des lectures générales (interprétatives ou philosophiques) sous forme conditionnelle : si un système satisfait les hypothèses, alors tel type de persistance, de verrouillage ou de filtration doit apparaître. Ce sont des implications, non des proclamations ontologiques. ## Limites du cadre Les limites définissent les conditions de validité. -Dépendance à l’admissibilité +**Dépendance à l'admissibilité** Le futur accessible dépend de l’ensemble des transformations admissibles. Toute application à un domaine exige de rendre explicite ce choix, ainsi que la règle d’actualisation des contraintes. -Choix de la variable d’état +**Choix de la variable d’état** La connaissance minimale est définie sur l’état étendu états–contraintes (où la dynamique est fermée). Une projection trop grossière peut induire une non-Markovianité apparente : la dépendance au passé observée est alors déplacée vers des variables cachées, c’est-à-dire vers des composantes d’état omises par la description. -Cadre discret +**Cadre discret** La construction a été menée en temps discret. Le passage au temps continu est prospectif : il requiert des hypothèses additionnelles (topologie, action de semi‑groupe, régularité, dissipativité/piégeage, et, dès qu’une quantification est revendiquée, une métrique ou une mesure) et modifie le statut de plusieurs résultats (convergence asymptotique au lieu de stabilisation en temps fini, disparition de garanties combinatoires comme les cycles). Discipline (continuisation, sans sur‑promesse). Toute mention de continuisation est formulée comme programme de recherche conditionnel, et inclut explicitement : -- les hypothèses additionnelles requises ; -- les résultats du discret qui survivent sous ces hypothèses ; -- les résultats qui échouent ou changent de nature ; +- les hypothèses additionnelles requises + +- les résultats du discret qui survivent sous ces hypothèses +- les résultats qui échouent ou changent de nature - la couche mobilisée (en particulier : les opérateurs de transfert relèvent d’une couche mesurée/probabiliste et ne sont pas une conséquence du noyau ensembliste). -Quantification de la “taille” des futurs +**Quantification de la “taille” des futurs** La réduction de futur a été formulée en termes ensemblistes et, lorsque nécessaire, en termes de mesure ou de cardinalité. La comparaison quantitative entre régimes dépend du choix d’une mesure de référence et de son invariance éventuelle. -Neutralité sémantique +**Neutralité sémantique** La lecture épistémique minimale ne dit pas ce qu’une structure « signifie » ; elle dit ce qu’elle « contraint encore ». Toute sémantique additionnelle doit être posée comme couche explicite. ## Perspectives de développement Les prolongements naturels respectent la méthode : ajouter des couches seulement lorsqu’elles sont nécessaires et définies. -Extension opératorielle +**Extension opératorielle** Formaliser le passage au temps continu et aux opérateurs de transfert pour articuler verrouillage, quasi-stationnarité et spectre dans des espaces non finis, en évitant toute sur‑promesse. Repères (dictionnaire minimal discret ↔ continu). -- **temps et dynamique** : itération \(x_{n+1}=f(x_n)\) ↔ semi‑groupe \(x(t)=T_t(x(0))\), avec \(T_{t+s}=T_t\circ T_s\), \(T_0=\mathrm{Id}\) ; -- **admissibilité** : ensemble de transformations admissibles \(\mathcal{T}\) ↔ famille de générateurs admissibles (ou famille de semi‑groupes admissibles) ; -- **futur accessible** : \(\mathcal{F}_n(x)\) ↔ \(\mathcal{F}_{[0,\tau]}(x)=\{T_t(x):0\le t\le\tau\}\) (ou atteignabilité sous contrôle) ; -- **verrouillage** : décroissance d’ensembles de futurs accessibles / restrictions de transitions ↔ piégeage, contraction d’ensembles atteignables, ou décroissance d’un fonctionnel monotone sous hypothèses de dissipativité ; +- **temps et dynamique** : itération \(x\_{n+1}=f(x\_n)\)\)) ↔ semi‑groupe \(((x(t)=T\_t(x(0))\)\)), avec \(((T\_{t+s}=T\_t\circ T\_s\), \(T_0=\mathrm{Id}\) +- **admissibilité** : ensemble de transformations admissibles \(\mathcal{T}\) ↔ famille de générateurs admissibles (ou famille de semi‑groupes admissibles) +- **futur accessible** : \(\mathcal{F}_n(x)\)\)) ↔ \(((\mathcal{F}_{[0,\tau]}(x)=\{T_t(x) : 0\le t\le\tau\}\) (ou atteignabilité sous contrôle) +- **verrouillage** : décroissance d’ensembles de futurs accessibles / restrictions de transitions ↔ piégeage, contraction d’ensembles atteignables, ou décroissance d’un fonctionnel monotone sous hypothèses de dissipativité - **auto‑stabilisation** : point fixe d’opérateurs (discret) ↔ invariance sous flot / point fixe fonctionnel (continu). Résultats transférables (sous hypothèses explicites). -- **invariance, attracteurs, piégeage** : sous hypothèses de semi‑groupe continu et d’ensemble piégé compact (dissipativité/absorption), les notions d’invariance et d’attracteurs se transportent partiellement ; sans compacité/piégeage, aucune garantie générale n’est annoncée ; -- **verrouillage** : sous dissipativité et existence d’un fonctionnel monotone ou d’une contraction, le verrouillage se lit comme réduction du futur atteignable sur des horizons croissants ; la stabilisation “en temps fini” devient typiquement convergence asymptotique ; -- **points fixes (contraintes)** : sous structure d’ordre/treillis et monotonie (ou contraction selon le cadre), l’existence de points fixes se transporte, au prix d’hypothèses de complétude/continuité et d’une calculabilité plus délicate ; +- **invariance, attracteurs, piégeage** : sous hypothèses de semi‑groupe continu et d’ensemble piégé compact (dissipativité/absorption), les notions d’invariance et d’attracteurs se transportent partiellement ; sans compacité/piégeage, aucune garantie générale n’est annoncée +- **verrouillage** : sous dissipativité et existence d’un fonctionnel monotone ou d’une contraction, le verrouillage se lit comme réduction du futur atteignable sur des horizons croissants ; la stabilisation “en temps fini” devient typiquement convergence asymptotique +- **points fixes (contraintes)** : sous structure d’ordre/treillis et monotonie (ou contraction selon le cadre), l’existence de points fixes se transporte, au prix d’hypothèses de complétude/continuité et d’une calculabilité plus délicate - **opérateurs de transfert** : (Perron–Frobenius/Koopman) exigent une structure mesurée et appartiennent à une couche mesurée/probabiliste ; leurs propriétés spectrales nécessitent des hypothèses fortes et sont annoncées comme telles. Résultats non transférables ou changeant de nature (points d’attention). -- **cycles garantis par finitude** : en continu/infini, il n’y a pas de garantie de cycles ; au mieux, des formes de récurrence sous hypothèses spécifiques (préservation de mesure, finitude de mesure) ; -- **stationnarité en temps fini** : les arguments combinatoires de stabilisation en temps fini deviennent convergence asymptotique ou métastabilité ; -- **quantification sans indexation** : toute “taille du futur” en continu est indexée par une métrique \(d\) ou une mesure \(\mu\) déclarée ; +- **cycles garantis par finitude** : en continu/infini, il n’y a pas de garantie de cycles ; au mieux, des formes de récurrence sous hypothèses spécifiques (préservation de mesure, finitude de mesure) +- **stationnarité en temps fini** : les arguments combinatoires de stabilisation en temps fini deviennent convergence asymptotique ou métastabilité +- **quantification sans indexation** : toute “taille du futur” en continu est indexée par une métrique \(d\) ou une mesure \(\mu\) déclarée - **calculabilité** : la continuisation peut rendre l’atteignabilité plus délicate ; le statut reste programmatique tant qu’un protocole d’approximation et de robustesse n’est pas posé. Jalons (structure du programme de recherche). -- formaliser un cadre continu minimal (espace \(X\), famille de semi‑groupes admissibles \((T_t)\), futur accessible sur \([0,\tau]\)) ; -- établir des hypothèses de dissipativité/piégeage (ensemble absorbant compact) ; -- définir des quantificateurs robustes indexés par \(d/\mu\) ; -- introduire les opérateurs de transfert seulement comme couche optionnelle (mesurée/probabiliste) ; +- formaliser un cadre continu minimal (espace \(X\), famille de semi‑groupes admissibles \((T\_t)\)\)), futur accessible sur \([0,\tau]\)) +- établir des hypothèses de dissipativité/piégeage (ensemble absorbant compact) +- définir des quantificateurs robustes indexés par \(d/\mu\) +- introduire les opérateurs de transfert seulement comme couche optionnelle (mesurée/probabiliste) - relier au discret par discrétisation (section de Poincaré, pas d’échantillonnage) et tests de stabilité des phénomènes. -Théorie des descriptions et tours de quotients +**Théorie des descriptions et tours de quotients** Développer une théorie des tours de descriptions, leurs conditions de fermeture approximative, et leurs critères de quasi-autonomie, en lien avec la stabilité structurelle. -Articulation computationnelle +**Articulation computationnelle** Étudier la minimisation de prédicteurs (quotients prédictifs) comme objets canoniques, indépendamment de toute fonction objectif, en reliant classes d’équivalence et automates minimaux. -Applications à l’intelligence artificielle +**Applications à l’intelligence artificielle** Concevoir des architectures où les variables internes jouent le rôle de contraintes stabilisées transmissibles, puis tester si ces variables constituent des statistiques suffisantes pour la prédiction sous contraintes d’admissibilité (ressources, bruit, latence). Dans ce cadre, l’apprentissage devient estimation d’un quotient prédictif et stabilisation de contraintes, plutôt qu’optimisation d’un objectif sémantique. -## Conclusion +## Conclusion — Ch. 16 (2) Le résultat principal de l’ouvrage est une reconstruction progressive d’objets souvent introduits comme intuitions : flèche du temps effective, sélection, transmission, persistance, connaissance. Dans le cadre retenu, ces objets ne sont ni des primitives ni des métaphores ; ils apparaissent comme conséquences d’un calcul d’atteignabilité sous contraintes cumulatives, combiné à des opérations de quotient et de stabilisation. @@ -6047,23 +5939,23 @@ Toute extension conserve la règle fondatrice : définir chaque élément avant --- -# Table des matières +## Table des matières - [Introduction](#introduction) - [Chapitre 1 — Espaces de configurations et transformations admissibles](#chapitre-1-espaces-de-configurations-et-transformations-admissibles) -- [Chapitre 2 — Itération, finitude locale et répétition nécessaire](#chapitre-2-itération-finitude-locale-et-répétition-nécessaire) +- [Chapitre 2 — Itération, finitude locale et répétition nécessaire](#chapitre-2-iteration-finitude-locale-et-repetition-necessaire) - [Chapitre 3 — Attracteurs, cycles et ensembles invariants](#chapitre-3-attracteurs-cycles-et-ensembles-invariants) -- [Chapitre 4 — Temps comme ordre induit par l’itération](#chapitre-4-temps-comme-ordre-induit-par-litération) -- [Chapitre 5 — Compression, non‑injectivité et classes de formes](#chapitre-5-compression-non-injectivité-et-classes-de-formes) -- [Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique](#chapitre-6-reproduction-partielle-recombinaison-et-héritage-morphologique) -- [Chapitre 7 — Généalogies, lignées et accumulation d’histoire](#chapitre-7-généalogies-lignées-et-accumulation-dhistoire) -- [Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques](#chapitre-8-stabilisation-contraintes-sur-lavenir-et-émergence-de-propriétés-épistémiques) -- [Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification](#chapitre-9-sélection-structurelle-invariants-et-dynamique-de-complexification) +- [Chapitre 4 — Temps comme ordre induit par l’itération](#chapitre-4-temps-comme-ordre-induit-par-literation) +- [Chapitre 5 — Compression, non‑injectivité et classes de formes](#chapitre-5-compression-non-injectivite-et-classes-de-formes) +- [Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique](#chapitre-6-reproduction-partielle-recombinaison-et-heritage-morphologique) +- [Chapitre 7 — Généalogies, lignées et accumulation d’histoire](#chapitre-7-genealogies-lignees-et-accumulation-dhistoire) +- [Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques](#chapitre-8-stabilisation-contraintes-sur-lavenir-et-emergence-de-proprietes-epistemiques) +- [Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification](#chapitre-9-selection-structurelle-invariants-et-dynamique-de-complexification) - [Chapitre 10 — Attracteurs, cycles et ensembles invariants](#chapitre-10-attracteurs-cycles-et-ensembles-invariants) - [Chapitre 11 — Reproduction partielle et transmission](#chapitre-11-reproduction-partielle-et-transmission) -- [Chapitre 12 — Généalogies et lignées de formes](#chapitre-12-généalogies-et-lignées-de-formes) +- [Chapitre 12 — Généalogies et lignées de formes](#chapitre-12-genealogies-et-lignees-de-formes) - [Chapitre 13 — Structures persistantes et verrouillage des futurs](#chapitre-13-structures-persistantes-et-verrouillage-des-futurs) -- [Chapitre 14 — Sélection structurelle sans optimisation](#chapitre-14-sélection-structurelle-sans-optimisation) -- [Chapitre 15 — Structures contraignant leur propre évolution](#chapitre-15-structures-contraignant-leur-propre-évolution) -- [Chapitre 16 — Interprétation épistémique minimale](#chapitre-16-interprétation-épistémique-minimale) +- [Chapitre 14 — Sélection structurelle sans optimisation](#chapitre-14-selection-structurelle-sans-optimisation) +- [Chapitre 15 — Structures contraignant leur propre évolution](#chapitre-15-structures-contraignant-leur-propre-evolution) +- [Chapitre 16 — Interprétation épistémique minimale](#chapitre-16-interpretation-epistemique-minimale) - [Fermeture](#fermeture) diff --git a/v1/livre.md b/v1/livre.md index 46f3f21..c076496 100644 --- a/v1/livre.md +++ b/v1/livre.md @@ -4,7 +4,7 @@ version: v1 auteur: Nicolas Cantu --- -# Introduction +# Introduction {#introduction} Un livre peut tenter de décrire le monde, ou bien tenter de décrire les conditions minimales sous lesquelles une description du monde devient possible. Le présent ouvrage relève de la seconde ambition. Il ne part pas d’une ontologie, d’une physique, d’une psychologie, ni d’une théorie de l’information déjà constituée. Il part d’un problème plus nu : comment une structure, au sein d’un ensemble de transformations possibles, peut-elle devenir assez stable pour être réutilisée, transmise, et agir comme contrainte sur ce qui peut advenir ensuite. @@ -14,43 +14,49 @@ Cette question n’est pas traitée ici comme une question “de sens” ou “d L’objet central est un triplet conceptuel minimal : -- un espace d’états, entendu au sens le plus large (configurations, descriptions, classes, états internes, états d’un système abstrait) ; -- un ensemble de transformations admissibles, c’est-à-dire un catalogue de transitions autorisées, dont la composition induit une dynamique ; +- un espace d’états, entendu au sens le plus large (configurations, descriptions, classes, états internes, états d’un système abstrait) + +- un ensemble de transformations admissibles, c’est-à-dire un catalogue de transitions autorisées, dont la composition induit une dynamique - un mécanisme de contraintes, qui réduit ou organise ces transformations au cours de l’évolution. À partir de ce triplet, l’ouvrage construit progressivement des notions qui sont habituellement posées comme primitives : temps effectif, irréversibilité, mémoire, transmission, sélection, et finalement connaissance. La thèse directrice peut être formulée sans métaphysique et sans agent : une “connaissance” est une contrainte stabilisée, opératoire et transmissible, qui réduit durablement l’ensemble des futurs accessibles pour une classe de trajectoires, et dont la stabilisation peut être étudiée indépendamment d’une sémantique. -Note de méthode (mémoire). -Dans l’ouvrage, le mot « mémoire » n’est pas un synonyme de « dépendance au passé ». On distingue : - -- une **mémoire transmissible** : un registre de contraintes stabilisé et transmissible (p. ex. un registre \(K\) ou \(M\)), opératoire sur les transitions admissibles et réduisant durablement l’ensemble des futurs accessibles ; -- une **variable cachée** : une composante de l’état omise par choix de description/projection, telle qu’un processus observé devienne non markovien alors qu’il redevient markovien sur un espace d’état étendu où la dynamique est fermée. -Dès qu’un passage invoque la mémoire, il précise l’espace d’état utilisé, la projection éventuelle, et si l’on parle d’un registre transmissible ou d’un état incomplet (variable cachée). +> **Note de méthode** (mémoire). +> +> Dans l’ouvrage, le mot « mémoire » n’est pas un synonyme de « dépendance au passé ». On distingue : +> +> - une **mémoire transmissible** : un registre de contraintes stabilisé et transmissible (p. ex. un registre \(((K\) ou \(M\)), opératoire sur les transitions admissibles et réduisant durablement l’ensemble des futurs accessibles ; +> +> - une **variable cachée** : une composante de l’état omise par choix de description/projection, telle qu’un processus observé devienne non markovien alors qu’il redevient markovien sur un espace d’état étendu où la dynamique est fermée. +> +> Dès qu’un passage invoque la mémoire, il précise l’espace d’état utilisé, la projection éventuelle, et si l’on parle d’un registre transmissible ou d’un état incomplet (variable cachée). Règle M0 (déclaration). Chaque fois qu’un passage emploie l’un des mots : mémoire, héritage, dépendance au passé, non‑Markovianité, contexte historique, il ajoute une déclaration structurée : -- espace d’état utilisé : observable \(X\), espace complet \(S\), ou espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) ; -- projection(s) actives : \(\Pi\) (par exemple \(X=\Pi(S)\) ou \(s=\Pi(x)\)) ; -- statut markovien : “markovien sur \(S\)”, “non markovien sur \(X\)”, “markovien sur \(Y\)” ; +- espace d’état utilisé : observable \(X\), espace complet \(S\), ou espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) + +- projection(s) actives : \(((\Pi\) (par exemple \(X=\Pi(S)\)\)) ou \(((s=\Pi(x)\)\))) +- statut markovien : “markovien sur \(((S\)”, “non markovien sur \(X\)”, “markovien sur \(Y\)” - type : - - mémoire‑état (variable cachée) si l’effet disparaît en espace complet/étendu minimal, + +- mémoire‑état (variable cachée) si l’effet disparaît en espace complet/étendu minimal, - mémoire‑structure (transmissible) si un registre \(K\) est défini comme contrainte opératoire et transmissible. Déclaration standard M0‑État (projection). -Espace d’état : \(S\) (état complet), observable \(X=\Pi(S)\). -Projection : \(\Pi\). +Espace d’état : \(S\) (état complet), observable \(X=\Pi(S)\)\)). +Projection : \(((\Pi\). Statut markovien : non markovien sur \(X\) en général ; markovien sur \(S\) (ou sur un espace étendu \(Y=X\times H\) rendant la dynamique fermée). Type : mémoire‑état (variable cachée), pas mémoire‑structure. Déclaration standard M0‑Structure (registre transmissible). -Espace d’état : \(Y=X\times\mathcal{P}(\mathfrak{C})\) (état + registre de contraintes \(K\)). -Projection : \(\Pi_X(x,K)=x\) (et, si lecture sur une description, \(s=\Pi(x)\)). -Statut markovien : markovien sur \(Y\) lorsque la dynamique est formulée sur \(Y\) (fermeture par ajout de \(K\)). +Espace d’état : \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) (état + registre de contraintes \(((K\)). +Projection : \(\Pi\_X(x,K)=x\) (et, si lecture sur une description, \(s=\Pi(x)\)\))). +Statut markovien : markovien sur \(((Y\) lorsque la dynamique est formulée sur \(Y\) (fermeture par ajout de \(K\)). Type : mémoire‑structure (registre transmissible) lorsque \(K\) se stabilise et contraint l’atteignabilité ; sinon, mémoire‑état (variable cachée) si \(K\) n’est qu’un état omis. Règle M1 (formulation sur espace étendu). -Si un argument dépend d’une dépendance au passé ou d’un registre \(K\), il est formulé d’abord sur l’espace étendu minimal rendant la dynamique fermée (par exemple \(Y=X\times\mathcal{P}(\mathfrak{C})\)), puis la lecture sur une projection \(\Pi\) est discutée. +Si un argument dépend d’une dépendance au passé ou d’un registre \(K\), il est formulé d’abord sur l’espace étendu minimal rendant la dynamique fermée (par exemple \(Y=X\times\mathcal{P}(\mathfrak{C})\)\))), puis la lecture sur une projection \(((\Pi\) est discutée. Cette formulation ne présuppose ni sujet connaissant, ni objectif, ni valeur, ni finalité. Elle ne présuppose pas non plus que l’information soit une substance : elle la reconstruit, lorsque cela devient nécessaire, comme une mesure dérivée d’indistinguabilités et de restrictions sur l’atteignabilité. @@ -58,10 +64,11 @@ Cette formulation ne présuppose ni sujet connaissant, ni objectif, ni valeur, n L’ouvrage se situe à l’intersection de plusieurs traditions, sans se confondre avec aucune : -- la théorie des systèmes dynamiques (attracteurs, invariants, régions piégées, stabilité) ; -- la théorie des graphes et des automates (atteignabilité, composantes, cycles, quotients) ; -- la théorie de l’ordre et des points fixes (monotonie, treillis, fermetures, convergence par itération) ; -- la théorie de l’information (entropies, informations mutuelles) uniquement comme couche optionnelle, lorsque des structures probabilistes sont explicitement introduites ; +- la théorie des systèmes dynamiques (attracteurs, invariants, régions piégées, stabilité) + +- la théorie des graphes et des automates (atteignabilité, composantes, cycles, quotients) +- la théorie de l’ordre et des points fixes (monotonie, treillis, fermetures, convergence par itération) +- la théorie de l’information (entropies, informations mutuelles) uniquement comme couche optionnelle, lorsque des structures probabilistes sont explicitement introduites - la thermodynamique de non-équilibre uniquement comme instanciation possible, sous hypothèses additionnelles, et jamais comme conséquence du noyau minimal. Ce positionnement impose une règle de méthode : aucune notion empruntée à une discipline ne doit être importée comme évidence. Si un mot est employé (stabilité, sélection, mémoire, information, contrainte), il doit soit être défini dans le cadre, soit être explicitement présenté comme un raccourci terminologique dont les conditions d’usage sont déclarées. @@ -80,14 +87,13 @@ Elle ne suppose aucune probabilité. Elle utilise des ensembles d’états et de Elle introduit des distances, coûts de chemin, quasi-métriques ou mesures de taille, non comme réalités physiques, mais comme instruments de quantification. Elle permet de comparer des intensités de verrouillage, des vitesses de stabilisation, des goulots, des fragmentations de futurs. -Encadré (statut et instanciations d’un coût de transition \(c\)). -Lorsqu’un coût \(c(x\to y)\) est introduit pour quantifier des chemins, des barrières ou des restrictions, il a par défaut le statut d’un **poids de graphe** (couche quantitative). Une lecture physico‑thermodynamique n’est mobilisée qu’après déclaration d’un dictionnaire d’instanciation et de ses hypothèses. - -Instanciations typiques (à déclarer, non équivalentes). - -- déterministe : \(c\) est un poids de transition ou de chemin (longueur, pénalité, ressource abstraite). -- stochastique : \(c\) est dérivé d’un noyau \(P\) (par exemple via des rapports de probabilités de trajectoires) ; ses propriétés sont alors indexées par \(P\). -- thermodynamique de l’information : \(c\) est relié à un protocole d’implémentation et à un effacement logique ; Landauer fournit une borne minimale sous hypothèses explicites, sans identifier \(c\) à une grandeur unique. +> **Encadré** (statut et instanciations d’un coût de transition \(c\)). +> Lorsqu’un coût \(c(x\to y)\)\)) est introduit pour quantifier des chemins, des barrières ou des restrictions, il a par défaut le statut d’un **poids de graphe** (couche quantitative). Une lecture physico‑thermodynamique n’est mobilisée qu’après déclaration d’un dictionnaire d’instanciation et de ses hypothèses. +> Instanciations typiques (à déclarer, non équivalentes). +> +> - déterministe : \(((c\) est un poids de transition ou de chemin (longueur, pénalité, ressource abstraite). +> - stochastique : \(c\) est dérivé d’un noyau \(P\) (par exemple via des rapports de probabilités de trajectoires) ; ses propriétés sont alors indexées par \(P\). +> - thermodynamique de l’information : \(c\) est relié à un protocole d’implémentation et à un effacement logique ; Landauer fournit une borne minimale sous hypothèses explicites, sans identifier \(c\) à une grandeur unique. Le texte sépare explicitement ce qui relève d’un consensus (conditions d’application, formes de bornes) de ce qui relève d’un choix de modèle (niveau de description, protocole, indexation). @@ -166,59 +172,60 @@ Cette introduction fixe une ambition et une discipline : construire, à partir d --- -# Chapitre 1 — Espaces de configurations et transformations admissibles +## Chapitre 1 — Espaces de configurations et transformations admissibles {#chapitre-1-espaces-de-configurations-et-transformations-admissibles} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 1 -Hypothèses (H). +**Hypothèses (H).** -- un espace de configurations \(X\) (ensemble d’états) ; -- une notion d’admissibilité (contraintes) fixée avant l’analyse ; +- un espace de configurations \(X\) (ensemble d’états) +- une notion d’admissibilité (contraintes) fixée avant l’analyse - une famille de transformations admissibles (déterministes ou stochastiques) décrivant l’évolution. -Résultats (E). +**Résultats (E).** -- définitions de configuration, contrainte admissible et transformation admissible ; +- définitions de configuration, contrainte admissible et transformation admissible - mise en place de la dynamique (itération/succession) et du rôle structural des collisions comme indiscernabilité relative à une description. -Statut. +**Statut.** - noyau ensembliste ; la topologie/métrique, si mentionnée, reste un ajout optionnel et déclaré. ## Espace de configurations et contraintes admissibles -On définit un espace de configurations comme l’ensemble abstrait de tous les états possibles d’un système considéré. Mathématiquement, il peut s’agir d’un ensemble fini ou infini (dénombrable, voire continu), potentiellement muni d’une structure additionnelle (topologie, métrique) pour refléter des proximités ou relations entre configurations. Chaque configuration $C$ représente une disposition complète des éléments ou paramètres du système à un instant donné. Par exemple, en mécanique classique, l’espace de configurations correspond à toutes les positions possibles des corps; en informatique, l’ensemble des valeurs de toutes les variables du programme; et dans un contexte plus général, l’espace de formes ou de connaissances possibles. +On définit un espace de configurations comme l’ensemble abstrait de tous les états possibles d’un système considéré. Mathématiquement, il peut s’agir d’un ensemble fini ou infini (dénombrable, voire continu), potentiellement muni d’une structure additionnelle (topologie, métrique) pour refléter des proximités ou relations entre configurations. Chaque configuration \(C\) représente une disposition complète des éléments ou paramètres du système à un instant donné. Par exemple, en mécanique classique, l’espace de configurations correspond à toutes les positions possibles des corps ; en informatique, l’ensemble des valeurs de toutes les variables du programme ; et dans un contexte plus général, l’espace de formes ou de connaissances possibles. Toute construction rigoureuse d’un espace de configurations nécessite aussi de spécifier les contraintes admissibles qui le caractérisent. Celles-ci sont les conditions ou règles logiques limitant les configurations possibles ou leurs enchaînements. Autrement dit, parmi toutes les configurations concevables, les contraintes admissibles définissent celles qui sont physiquement, logiquement ou structurellement réalisables par le système. Par exemple, dans un système physique, les lois de conservation (énergie, charge, etc.) imposent des contraintes qui restreignent l’ensemble des états accessibles. De même, pour un système d’information structuré, on peut avoir des invariants (comme l’intégrité référentielle dans une base de données, ou la syntaxe dans une phrase) qui excluent certaines combinaisons. Ces contraintes admissibles peuvent être vues comme définissant un sous-espace valide à l’intérieur de l’espace de configurations, garantissant la cohérence interne de chaque état autorisé. -On note que l’espace de configurations n’est pas nécessairement un espace géométrique au sens habituel, mais peut être purement relationnel ou combinatoire. Par exemple, en théorie des graphes (ou dans les topologies relationnelles), on considère des états définis par des relations entre objets plutôt que par des positions dans un espace métrique. Un graphe de $N$ nœuds possède un espace de configurations représentant toutes les manières dont les arêtes peuvent relier ces nœuds – espace contraint par des règles éventuelles (degré maximal, connexité requise, etc.). On peut doter un tel espace d’une notion de distance ou de voisinage (par exemple en comptant le nombre d’arêtes différentes entre deux graphes) afin de le munir d’une topologie relationnelle pertinente. Cela illustre comment l’abstraction de configuration s’adapte à la nature du système : qu’il s’agisse de variables numériques continues, d’objets discrets ou de relations, on vise une description suffisamment générale pour englober tout état possible sans perdre la cohérence imposée par les contraintes. +On note que l’espace de configurations n’est pas nécessairement un espace géométrique au sens habituel, mais peut être purement relationnel ou combinatoire. Par exemple, en théorie des graphes (ou dans les topologies relationnelles), on considère des états définis par des relations entre objets plutôt que par des positions dans un espace métrique. Un graphe de \(N\) nœuds possède un espace de configurations représentant toutes les manières dont les arêtes peuvent relier ces nœuds – espace contraint par des règles éventuelles (degré maximal, connexité requise, etc.). On peut doter un tel espace d’une notion de distance ou de voisinage (par exemple en comptant le nombre d’arêtes différentes entre deux graphes) afin de le munir d’une topologie relationnelle pertinente. Cela illustre comment l’abstraction de configuration s’adapte à la nature du système : qu’il s’agisse de variables numériques continues, d’objets discrets ou de relations, on vise une description suffisamment générale pour englober tout état possible sans perdre la cohérence imposée par les contraintes. ## Transformations et dynamique des états -Une transformation dans ce contexte est une opération qui, appliquée à une configuration initiale $C(t)$ à un « temps » $t$, produit une nouvelle configuration $C(t+1)$ à l’instant suivant (dans un cadre discret) ou $C(t+\mathrm{d}t)$ (en temps continu). Les transformations peuvent être déterministes (règle fixe donnant un état suivant unique) ou stochastiques. Collectivement, elles définissent la dynamique du système, c’est-à-dire l’évolution possible des configurations au fil du temps. Formellement, on peut voir la dynamique comme une application $\Phi^t$ qui à un temps $t$ et un état initial $x$ associe l’état $\Phi^t(x)$ atteint après évolution pendant $t$ unités de temps[1]. Dans un système à temps discret, $\Phi^{1}$ correspond à l’application d’une étape de transformation élémentaire, et l’itération de cette fonction décrit l’évolution itérative du système. +Une transformation dans ce contexte est une opération qui, appliquée à une configuration initiale \(C(t)\)\)) à un « temps » \(((t\), produit une nouvelle configuration \(C(t+1)\)\)) à l’instant suivant (dans un cadre discret) ou \(((C(t+\mathrm{d}t)\)\)) (en temps continu). Les transformations peuvent être déterministes (règle fixe donnant un état suivant unique) ou stochastiques. Collectivement, elles définissent la dynamique du système, c’est-à-dire l’évolution possible des configurations au fil du temps. Formellement, on peut voir la dynamique comme une application \(((\Phi^t\) qui à un temps \(t\) et un état initial \(x\) associe l’état \(\Phi^t(x)\)\)) atteint après évolution pendant \(((t\) unités de temps[1]. Dans un système à temps discret, \(\Phi^{1}\) correspond à l’application d’une étape de transformation élémentaire, et l’itération de cette fonction décrit l’évolution itérative du système. Les contraintes admissibles mentionnées plus haut jouent un rôle double dans cette dynamique. D’une part, elles peuvent restreindre l’ensemble des transformations autorisées – par exemple, une transformation doit conserver certains invariants ou respecter des lois de conservation. D’autre part, même si une transformation est théoriquement applicable, la configuration résultante doit encore satisfaire les contraintes pour être un état valide. Ainsi, on parle de transformations admissibles pour désigner les transformations qui conduisent toujours d’une configuration admissible vers une autre configuration elle-même admissible. Ces transformations forment l’ensemble des opérations élémentaires qui préservent le cadre du système. En pratique, elles découlent souvent de lois fondamentales (équations du mouvement en physique, règles d’inférence en logique, règles de mise à jour dans un automate, etc.). -Encadré (statut de l’admissibilité). -La notion d’« admissible » est une donnée du modèle : elle fixe un ensemble (ou une famille) de transformations autorisées, éventuellement dépendant d’un ensemble de contraintes actives \(K\). Lorsque l’on veut limiter la sous‑détermination du choix d’admissibilité sans introduire de critère de tâche, on peut imposer des propriétés structurelles minimales (invariance par renommage, localité d’action, bornes de ressource, cohérence avec les contraintes). Ces propriétés restreignent une classe de dynamiques possibles ; elles ne déterminent pas une dynamique unique. De même, si l’on introduit une procédure de compatibilité des contraintes (choix d’un sous‑ensemble satisfaisable), sa définition et ses critères doivent être déclarés, car ils peuvent influencer la dynamique effective. +> **Encadré** (statut de l’admissibilité). +> +> La notion d’« admissible » est une donnée du modèle : elle fixe un ensemble (ou une famille) de transformations autorisées, éventuellement dépendant d’un ensemble de contraintes actives \(K\). Lorsque l’on veut limiter la sous‑détermination du choix d’admissibilité sans introduire de critère de tâche, on peut imposer des propriétés structurelles minimales (invariance par renommage, localité d’action, bornes de ressource, cohérence avec les contraintes). Ces propriétés restreignent une classe de dynamiques possibles ; elles ne déterminent pas une dynamique unique. De même, si l’on introduit une procédure de compatibilité des contraintes (choix d’un sous‑ensemble satisfaisable), sa définition et ses critères doivent être déclarés, car ils peuvent influencer la dynamique effective. -La dynamique discrète – où l’on évolue par sauts successifs d’une configuration à la suivante – est un cas standard. Elle permet une analyse itérative des comportements du système et donne lieu à des propriétés bien étudiées comme la convergence éventuelle vers des états particuliers. Un exemple canonique en est la routine de Kaprekar, un processus numérique itératif sur les chiffres d’un nombre qui conduit fréquemment à des points fixes ou des cycles attracteurs connus [par exemple 6174 en base 10](2). Plus généralement, dans tout système dynamique (discret ou continu), on s’intéresse aux configurations particulières qui structurent l’évolution à long terme : les attracteurs. Avant d’y venir en détail, on note un aspect des transformations admissibles : elles induisent souvent des collisions dans l’espace de configurations. Deux configurations distinctes $C_1$ et $C_2$ sont en collision s’il existe une transformation (ou une séquence de transformations) $T$ telle que $T(C_1) = T(C_2)$. Dans le cas d’une dynamique déterministe, cela signifie que des états initialement différents aboutissent à un même état futur. Loin d’être nécessairement un problème, de telles collisions peuvent au contraire avoir une portée structurante. En effet, si $C_1 \neq C_2$ évoluent vers une même configuration $C_f$, cela indique que $C_1$ et $C_2$ appartiennent à une même classe de comportement – elles sont indiscernables vis-à-vis de l’observateur qui ne regarde que l’état final $C_f$. Un tel phénomène de collision structurante peut être exploité pour regrouper des configurations par similarité de dynamique ou de forme, à l’instar des fonctions de hachage « locality-sensitive » en informatique qui organisent des collisions afin de refléter une proximité sémantique ou morphologique[3]. Plutôt que de proscrire ces collisions, on peut les voir comme la manifestation de contraintes de compatibilité : différentes conditions initiales mènent au même motif final, révélant ainsi une robustesse du motif ou une perte d’information quant aux détails initiaux. +La dynamique discrète – où l’on évolue par sauts successifs d’une configuration à la suivante – est un cas standard. Elle permet une analyse itérative des comportements du système et donne lieu à des propriétés bien étudiées comme la convergence éventuelle vers des états particuliers. Un exemple canonique en est la routine de Kaprekar, un processus numérique itératif sur les chiffres d’un nombre qui conduit fréquemment à des points fixes ou des cycles attracteurs connus [par exemple 6174 en base 10](2). Plus généralement, dans tout système dynamique (discret ou continu), on s’intéresse aux configurations particulières qui structurent l’évolution à long terme : les attracteurs. Avant d’y venir en détail, on note un aspect des transformations admissibles : elles induisent souvent des collisions dans l’espace de configurations. Deux configurations distinctes \(C\_1\) et \(C\_2\) sont en collision s’il existe une transformation (ou une séquence de transformations) \(T\) telle que \(T(C\_1) = T(C\_2)\)\)). Dans le cas d’une dynamique déterministe, cela signifie que des états initialement différents aboutissent à un même état futur. Loin d’être nécessairement un problème, de telles collisions peuvent au contraire avoir une portée structurante. En effet, si \(((C\_1 \neq C\_2\) évoluent vers une même configuration \(C\_f\), cela indique que \(C\_1\) et \(C\_2\) appartiennent à une même classe de comportement – elles sont indiscernables vis-à-vis de l’observateur qui ne regarde que l’état final \(C\_f\). Un tel phénomène de collision structurante peut être exploité pour regrouper des configurations par similarité de dynamique ou de forme, à l’instar des fonctions de hachage « locality-sensitive » en informatique qui organisent des collisions afin de refléter une proximité sémantique ou morphologique[3]. Plutôt que de proscrire ces collisions, on peut les voir comme la manifestation de contraintes de compatibilité : différentes conditions initiales mènent au même motif final, révélant ainsi une robustesse du motif ou une perte d’information quant aux détails initiaux. -En résumé, les transformations admissibles définissent comment on peut naviguer dans l’espace de configurations. Elles tracent un graphe orienté sur cet espace (chaque configuration pointant vers sa ou ses transformées), généralement non bijectif (plusieurs antécédents pouvant conduire à un même état futur, d’où les collisions). L’étude de la dynamique revient alors à analyser la structure de ce graphe : existe-t-il des cycles ? des chemins menant à des impasses ou à des attracteurs ? quelle est la taille des bassins conduisant à telle configuration stable ? Ces questions introduisent la notion d’attracteur et de stabilité. +En résumé, les transformations admissibles définissent comment on peut naviguer dans l’espace de configurations. Elles tracent un graphe orienté sur cet espace (chaque configuration pointant vers sa ou ses transformées), généralement non bijectif (plusieurs antécédents pouvant conduire à un même état futur, d’où les collisions). L’étude de la dynamique revient alors à analyser la structure de ce graphe : existe-t-il des cycles ? des chemins menant à des impasses ou à des attracteurs ? quelle est la taille des bassins conduisant à telle configuration stable ? Ces questions introduisent la notion d’attracteur et de stabilité. ## Attracteurs, bassins et topologie de la stabilité -On appelle attracteur un ensemble de configurations vers lequel le système évolue de manière irréversible à partir d’un grand nombre d’états initiaux différents. Plus formellement, un attracteur $\mathcal{A}$ est un sous-ensemble de l’espace des configurations qui vérifie deux propriétés : (1) $\mathcal{A}$ est invariant par la dynamique (toute transformation admissible d’un état de $\mathcal{A}$ reste dans $\mathcal{A}$, i.e. $\Phi^t(\mathcal{A})=\mathcal{A}$ pour $t$ suffisamment grand) et (2) $\mathcal{A}$ attire un ensemble voisinage de lui-même[4][5]. En d’autres termes, il existe un voisinage $\mathcal{B}$ de $\mathcal{A}$ tel que tout état initial appartenant à $\mathcal{B}$ finira par évoluer dans $\mathcal{A}$. L’ensemble de tous les états qui convergent vers $\mathcal{A}$ constitue ce qu’on nomme le bassin d’attraction de $\mathcal{A}$[6]. Intuitivement, $\mathcal{A}$ représente un comportement asymptotique stable du système : une fois l’état entré dans $\mathcal{A}$ (ou suffisamment proche de $\mathcal{A}$), il s’y maintient ou y revient après de petites perturbations. +On appelle attracteur un ensemble de configurations vers lequel le système évolue de manière irréversible à partir d’un grand nombre d’états initiaux différents. Plus formellement, un attracteur \(\mathcal{A}\) est un sous-ensemble de l’espace des configurations qui vérifie deux propriétés : (1) \(\mathcal{A}\) est invariant par la dynamique (toute transformation admissible d’un état de \(\mathcal{A}\) reste dans \(\mathcal{A}\), i.e. \(\Phi^t(\mathcal{A})=\mathcal{A}\) pour \(t\) suffisamment grand) et (2) \(\mathcal{A}\) attire un ensemble voisinage de lui-même[4][5]. En d’autres termes, il existe un voisinage \(\mathcal{B}\) de \(\mathcal{A}\) tel que tout état initial appartenant à \(\mathcal{B}\) finira par évoluer dans \(\mathcal{A}\). L’ensemble de tous les états qui convergent vers \(\mathcal{A}\) constitue ce qu’on nomme le bassin d’attraction de \(\mathcal{A}\)[6]. Intuitivement, \(\mathcal{A}\) représente un comportement asymptotique stable du système : une fois l’état entré dans \(\mathcal{A}\) (ou suffisamment proche de \(\mathcal{A}\)), il s’y maintient ou y revient après de petites perturbations. -Un attracteur peut être trivial, par exemple un point fixe (état unique $C^*$ tel que $\Phi^t(C^*) = C^*$ pour tout $t$). Un tel état est stationnaire et, s’il attire ses voisins, on parle d’équilibre stable. Les attracteurs peuvent aussi être plus complexes : un cycle limite (ou attracteur périodique) est un ensemble fini de configurations ${C_1, C_2, ..., C_k}$ telles que $\Phi^k(C_i) = C_i$ pour chaque $i$ (avec un $k$ minimal, période du cycle), et ${C_1,\dots,C_k}$ attire les configurations aux alentours. Dans un système continu, on rencontre également des attracteurs étranges (fractal, de dimension non entière) dans les systèmes chaotiques, mais dans le cadre discret et fini, toute trajectoire finit par aboutir à un cycle ou un point fixe (puisque l’espace d’états est fini, une trajectoire dynamique finira forcément par revisiter un état antérieur, engendrant un cycle de périodicité finie). +Un attracteur peut être trivial, par exemple un point fixe (état unique \(C^*\) tel que \(\Phi^t(C^*) = C^*\) pour tout \(t\)). Un tel état est stationnaire et, s’il attire ses voisins, on parle d’équilibre stable. Les attracteurs peuvent aussi être plus complexes : un cycle limite (ou attracteur périodique) est un ensemble fini de configurations \({C\_1, C\_2, ..., C\_k}\) telles que \(\Phi^k(C\_i) = C\_i\) pour chaque \(i\) (avec un \(k\) minimal, période du cycle), et \({C\_1,\dots,C\_k}\) attire les configurations aux alentours. Dans un système continu, on rencontre également des attracteurs étranges (fractal, de dimension non entière) dans les systèmes chaotiques, mais dans le cadre discret et fini, toute trajectoire finit par aboutir à un cycle ou un point fixe (puisque l’espace d’états est fini, une trajectoire dynamique finira forcément par revisiter un état antérieur, engendrant un cycle de périodicité finie). La topologie de la stabilité désigne ici l’organisation globale des attracteurs et de leurs bassins au sein de l’espace de configurations. On peut la concevoir comme une **structure d'atteignabilité** (ou, lorsqu'une métrique ou une fonction de potentiel est choisie, une **géométrie induite**) où les attracteurs jouent le rôle de vallées ou de points bas (états vers lesquels la dynamique descend), séparés par des cols ou des crêtes définissant les bassins d’attraction. Cette analogie est courante en dynamique : si l’on peut définir une fonction de potentiel ou une mesure de « hauteur » (par exemple une entropie ou une énergie libre associée à chaque configuration), les attracteurs correspondent aux minima locaux de cette fonction. Les chemins d’évolution suivent alors plus ou moins la pente vers ces minima, et la topologie de la stabilité décrit comment ces minima sont distribués, comment les bas-fonds (bassins) se connectent ou sont séparés par des barrières. La pertinence de cette lecture dépend d’hypothèses explicites sur l’état (finitude, compacité, dissipativité) et sur le choix de métrique ou de mesure. -Dans un cadre strictement déterministe, deux attracteurs distincts sont disjoints : un état du bassin de l’attracteur $\mathcal{A}_1$ ne peut pas, sans perturbation extérieure, basculer spontanément dans le bassin d’un autre attracteur $\mathcal{A}_2$. Cependant, si l’on introduit de légères perturbations aléatoires ou des modifications paramétriques (par exemple du « bruit » ou une variation continue de paramètres), la stabilité des attracteurs peut être mise à l’épreuve. On étudie alors la robustesse des attracteurs : certains persistent sous de petites perturbations (on parle de stabilité structurelle du système dynamique), tandis que d’autres peuvent bifurquer ou disparaître. La topologie de la stabilité englobe ainsi non seulement la répartition des attracteurs et de leurs bassins, mais aussi les voisinages de stabilité de ces attracteurs – c’est-à-dire jusqu’où s’étend, en termes de perturbations possibles, la conservation du comportement attracteur. +Dans un cadre strictement déterministe, deux attracteurs distincts sont disjoints : un état du bassin de l’attracteur \(\mathcal{A}\_1\) ne peut pas, sans perturbation extérieure, basculer spontanément dans le bassin d’un autre attracteur \(\mathcal{A}\_2\). Cependant, si l’on introduit de légères perturbations aléatoires ou des modifications paramétriques (par exemple du « bruit » ou une variation continue de paramètres), la stabilité des attracteurs peut être mise à l’épreuve. On étudie alors la robustesse des attracteurs : certains persistent sous de petites perturbations (on parle de stabilité structurelle du système dynamique), tandis que d’autres peuvent bifurquer ou disparaître. La topologie de la stabilité englobe ainsi non seulement la répartition des attracteurs et de leurs bassins, mais aussi les voisinages de stabilité de ces attracteurs – c’est-à-dire jusqu’où s’étend, en termes de perturbations possibles, la conservation du comportement attracteur. -Un aspect de cette topologie est la présence éventuelle d’attracteurs dominants, c’est-à-dire ayant un bassin d’attraction extrêmement large par rapport aux autres[7][8]. Dans les systèmes finis, on observe parfois qu’une poignée d’attracteurs concentrent la plupart des trajectoires possibles (presque tout état initial finit dans l’un d’entre eux), alors que d’autres attracteurs plus « exotiques » ont des bassins ténus (par exemple, des configurations très particulières mènent à un cycle rare). La structure des bassins peut se quantifier par une entropie ou une mesure de diversité : plus les trajectoires se répartissent uniformément entre de nombreux attracteurs, plus l’entropie est élevée; à l’inverse, si quelques attracteurs absorbent presque tout, l’entropie structurelle de la dynamique est faible (le système a tendance à « oublier » ses conditions initiales en ne conservant qu’un petit nombre de motifs finaux possibles). +Un aspect de cette topologie est la présence éventuelle d’attracteurs dominants, c’est-à-dire ayant un bassin d’attraction extrêmement large par rapport aux autres[7][8]. Dans les systèmes finis, on observe parfois qu’une poignée d’attracteurs concentrent la plupart des trajectoires possibles (presque tout état initial finit dans l’un d’entre eux), alors que d’autres attracteurs plus « exotiques » ont des bassins ténus (par exemple, des configurations très particulières mènent à un cycle rare). La structure des bassins peut se quantifier par une entropie ou une mesure de diversité : plus les trajectoires se répartissent uniformément entre de nombreux attracteurs, plus l’entropie est élevée ; à l’inverse, si quelques attracteurs absorbent presque tout, l’entropie structurelle de la dynamique est faible (le système a tendance à « oublier » ses conditions initiales en ne conservant qu’un petit nombre de motifs finaux possibles). -Enfin, la stabilité d’un attracteur se manifeste aussi par la résistance aux transformations internes. Un attracteur peut être vu comme une configuration (ou un motif) invariant par transformation – éventuellement au sens élargi d’invariance statistique. Par exemple, un motif qui se répète périodiquement dans le temps est invariant par la transformation « avancer de la période $T$ ». De même, un motif spatial auto-similaire est invariant par certaines transformations d’échelle ou de rotation. Cette invariance confère à l’attracteur une identité propre. On peut alors étudier la stabilité sous transformation : une configuration est stable sous une transformation donnée si l’application de cette transformation ne l’éjecte pas de son attracteur. Un attracteur est par définition stable sous la dynamique du système (puisqu’il est invariant par $\Phi^t$), mais on peut élargir la notion à d’autres transformations du système, par exemple des transformations sémantiques ou des perturbations contrôlées. Dans les systèmes complexes, on attend des attracteurs qu’ils conservent leurs propriétés qualitatives face à des changements mineurs ou non structurants – c’est un critère de robustesse. Par exemple, en reconnaissance de formes, une image d’un même objet reste reconnue malgré de petites rotations ou changements d’échelle : le concept représenté par l’attracteur « objet » demeure stable sous ces transformations non essentielles. +Enfin, la stabilité d’un attracteur se manifeste aussi par la résistance aux transformations internes. Un attracteur peut être vu comme une configuration (ou un motif) invariant par transformation – éventuellement au sens élargi d’invariance statistique. Par exemple, un motif qui se répète périodiquement dans le temps est invariant par la transformation « avancer de la période \(T\) ». De même, un motif spatial auto-similaire est invariant par certaines transformations d’échelle ou de rotation. Cette invariance confère à l’attracteur une identité propre. On peut alors étudier la stabilité sous transformation : une configuration est stable sous une transformation donnée si l’application de cette transformation ne l’éjecte pas de son attracteur. Un attracteur est par définition stable sous la dynamique du système (puisqu’il est invariant par \(\Phi^t\)), mais on peut élargir la notion à d’autres transformations du système, par exemple des transformations sémantiques ou des perturbations contrôlées. Dans les systèmes complexes, on attend des attracteurs qu’ils conservent leurs propriétés qualitatives face à des changements mineurs ou non structurants – c’est un critère de robustesse. Par exemple, en reconnaissance de formes, une image d’un même objet reste reconnue malgré de petites rotations ou changements d’échelle : le concept représenté par l’attracteur « objet » demeure stable sous ces transformations non essentielles. La notion de transformation structurante émerge lorsque l’application d’une transformation provoque non pas la destruction d’un motif, mais au contraire la création d’une nouvelle structure organisée. Dans certains systèmes, deux configurations peuvent interagir (on peut penser à une « collision » entre deux motifs dans un automate cellulaire) pour en produire une troisième de complexité supérieure. Si cette nouvelle configuration est elle-même stable ou donne naissance à un attracteur, la transformation a joué un rôle structurant. On touche ici à l’idée que des interactions locales peuvent engendrer de la nouveauté stable – concept intimement lié à l’auto-organisation. @@ -226,13 +233,13 @@ La notion de transformation structurante émerge lorsque l’application d’une Un système est dit auto-organisé lorsqu’il est capable de faire émerger spontanément de l’ordre à partir du désordre, sans contrôle externe imposé. L’auto-organisation se manifeste typiquement par l’apparition de structures cohérentes, de motifs ou de comportements globaux à partir d’interactions locales entre constituants simples. Ce principe, formulé en termes généraux, souligne la capacité de composants simples à former des structures complexes de manière autonome, sans intervention extérieure[9]. De nombreux systèmes physiques, chimiques et biologiques illustrent ce phénomène : on peut citer la formation de motifs de convection hexagonaux dans une couche fluide chauffée (cellules de Bénard), les oscillations chimiques de la réaction de Belousov-Zhabotinski, la cristallisation, ou en biologie la morphogenèse (apparition de motifs pigmentaires, de rayures, de tâches sur les animaux, expliquée dès 1952 par les modèles réaction-diffusion de Turing). Dans tous ces exemples, un état initial homogène ou chaotique évolue vers un état structuré présentant des corrélations à longue portée entre éléments du système. Prigogine a formalisé ce phénomène dans sa théorie des structures dissipatives, montrant que loin de l’équilibre, des phénomènes ordonnés peuvent se produire qui sont impossibles à proximité de l’équilibre thermique[10][11]. En régime loin de l’équilibre, l’énergie dissipée alimente des fluctuations qui, au-delà d’un certain seuil d’instabilité, se stabilisent en nouveaux modes organisés. En ce sens, la dissipation d’énergie devient source d’ordre – une idée paradoxale du point de vue de l’entropie classique, mais parfaitement illustrée par ces structures auto-organisées. -Le lien entre attracteurs et auto-organisation se fait naturellement : les attracteurs sont les structures ordonnées vers lesquelles tend un système auto-organisé. On parle parfois d’attracteurs morphologiques pour souligner que ces attracteurs correspondent à des formes ou motifs stables. Par exemple, dans un automate cellulaire comme le Jeu de la Vie de Conway, on observe une multitude de structures émergentes : certaines configurations finissent par osciller (clignoteurs), d’autres convergent vers des motifs stables figés (« blocs », « bateaux »), et d’autres encore produisent des vaisseaux mobiles comme le fameux glider (planeur) qui se déplace indéfiniment sur la grille. Chaque tel motif stable ou périodique peut être vu comme un attracteur morphologique de la dynamique de l’automate. Fait remarquable, ces structures apparaissent spontanément à partir de configurations initiales aléatoires – un désordre initial « cuisiné » en quelque sorte en configurations structurées. Dans l’analogie de la soupe primitive chère aux biologistes, le Jeu de la Vie démontre comment, avec quelques règles locales de survie et reproduction, des motifs très sophistiqués peuvent émerger et rappeler la diversité des formes vivantes issues du chaos primordial[12][13]. La soupe primordiale du Jeu de la Vie correspond à une grille initialement remplie au hasard de cellules vivantes ou mortes ; très vite, on voit surgir des arrangements réguliers – c’est une illustration ludique mais profonde du principe d’auto-organisation. +Le lien entre attracteurs et auto-organisation se fait naturellement : les attracteurs sont les structures ordonnées vers lesquelles tend un système auto-organisé. On parle parfois d’attracteurs morphologiques pour souligner que ces attracteurs correspondent à des formes ou motifs stables. Par exemple, dans un automate cellulaire comme le Jeu de la Vie de Conway, on observe une multitude de structures émergentes : certaines configurations finissent par osciller (clignoteurs), d’autres convergent vers des motifs stables figés (« blocs », « bateaux »), et d’autres encore produisent des vaisseaux mobiles comme le fameux glider (planeur) qui se déplace indéfiniment sur la grille. Chaque tel motif stable ou périodique peut être vu comme un attracteur morphologique de la dynamique de l’automate. Fait remarquable, ces structures apparaissent spontanément à partir de configurations initiales aléatoires – un désordre initial « cuisiné » en quelque sorte en configurations structurées. Dans l’analogie de la soupe primitive chère aux biologistes, le Jeu de la Vie démontre comment, avec quelques règles locales de survie et reproduction, des motifs très sophistiqués peuvent émerger et rappeler la diversité des formes vivantes issues du chaos primordial[12][13]. La soupe primordiale du Jeu de la Vie correspond à une grille initialement remplie au hasard de cellules vivantes ou mortes ; très vite, on voit surgir des arrangements réguliers – c’est une illustration ludique mais profonde du principe d’auto-organisation. -Du point de vue scientifique général, ces attracteurs morphologiques relient notre construction à divers corpus établis. D’une part, la dynamique discrète et la théorie générale des systèmes dynamiques fournissent le langage mathématique pour décrire ces attracteurs, leurs bassins, et les bifurcations possibles[2][14]. Ce cadre est bien consensuel : depuis Poincaré jusqu’à la théorie du chaos déterministe, on dispose d’outils pour comprendre la convergence vers des ensembles invariants, la robustesse aux perturbations et la dépendance sensible aux conditions initiales. D’autre part, les systèmes auto-organisés relèvent d’un domaine de recherche interdisciplinaire actif, englobant la thermodynamique hors-équilibre (Prigogine, Haken), la physique statistique des processus d’ordre émergent, la chimie prébiotique, la science des matériaux (auto-assemblage) et bien sûr la biologie du développement et de l’évolution. Un consensus s’est formé sur le fait que l’auto-organisation est un ingrédient fondamental dans l’émergence du vivant et des structures complexes, même s’il reste beaucoup de questions ouvertes quant aux détails (par exemple, comment quantifier précisément l’information produite lors de l’auto-organisation, comment prédire l’apparition de tel ou tel attracteur en fonction des paramètres, etc.). +Du point de vue scientifique général, ces attracteurs morphologiques relient notre construction à divers corpus établis. D’une part, la dynamique discrète et la théorie générale des systèmes dynamiques fournissent le langage mathématique pour décrire ces attracteurs, leurs bassins, et les bifurcations possibles[2][14]. Ce cadre est bien consensuel : depuis Poincaré jusqu’à la théorie du chaos déterministe, on dispose d’outils pour comprendre la convergence vers des ensembles invariants, la robustesse aux perturbations et la dépendance sensible aux conditions initiales. D’autre part, les systèmes auto-organisés relèvent d’un domaine de recherche interdisciplinaire actif, englobant la thermodynamique hors-équilibre (Prigogine, Haken), la physique statistique des processus d’ordre émergent, la chimie prébiotique, la science des matériaux (auto-assemblage) et bien sûr la biologie du développement et de l’évolution. Un consensus s’est formé sur le fait que l’auto-organisation est un ingrédient fondamental dans l’émergence du vivant et des structures complexes, même s’il reste beaucoup de questions ouvertes quant aux détails (par exemple, comment quantifier précisément l’information produite lors de l’auto-organisation, comment prédire l’apparition de tel ou tel attracteur en fonction des paramètres, etc.). En parlant d’information, il faut souligner le lien avec la notion d’entropie structurelle. Classiquement, l’entropie mesure le désordre microscopique d’un système. L’entropie informationnelle de Shannon, formulée en 1948, quantifie l’incertitude associée à une distribution d’états ou de symboles[15]. Un système complètement désordonné ou imprévisible a une entropie élevée, tandis qu’un système très ordonné (donc prévisible) a une entropie faible. Lorsqu’une structure émerge – par exemple un cristal se forme à partir d’atomes en solution, ou un motif régulier apparaît – l’entropie associée à la configuration diminue localement (il y a moins de surprise, plus de régularité). Schrödinger notait dès 1944 que la vie se caractérise par sa capacité à absorber de la « négentropie » pour maintenir son ordre interne[16]. En d’autres termes, un organisme vivant puise de l’énergie dans son environnement et l’utilise pour réduire son entropie interne (créer et maintenir des structures hautement improbables du point de vue de l’équilibre). -Dans le cadre de notre modèle, on peut définir l’entropie structurelle comme une mesure de la diversité ou du désordre des configurations du système au niveau macroscopique. Par exemple, si l’espace de configurations se répartit en quelques attracteurs dominants et que presque toutes les trajectoires finissent dans l’un d’eux, on dira que l’entropie structurelle du système est faible – il y a peu de diversité finale. En revanche, s’il existe de très nombreux attracteurs de taille comparable, ou si la dynamique conserve une richesse de formes au cours du temps, l’entropie structurelle est élevée. L’information produite par le système au cours du temps peut se mesurer par la réduction d’entropie qu’il opère en formant des structures. Landauer a établi en 1961 un lien entre information et physique : « toute manipulation logique irréversible de l’information... est nécessairement accompagnée d’une augmentation de l’entropie dans l’environnement »[17]. Effacer un bit d’information – c’est-à-dire détruire de l’information pour aller vers un état plus ordonné – coûte au minimum $kT\ln 2$ d’énergie dissipée sous forme de chaleur[18]. Cette limite de Landauer montre que créer de l’ordre (réduire l’entropie informationnelle interne) a un prix énergétique. Notre cadre s’inscrit dans cette compréhension : l’émergence d’un attracteur (ordre organisé) suppose en contrepartie une dissipation d’énergie ou une exportation d’entropie ailleurs. Dans une perspective physique, l’analyse consiste à considérer où part l’entropie perdue quand de l’ordre apparaît localement. Cela évite de violer le second principe de la thermodynamique, même si, à première vue, un système auto-organisé semble « décréer » du désordre. En réalité, il le délocalise ou le transforme. +Dans le cadre de notre modèle, on peut définir l’entropie structurelle comme une mesure de la diversité ou du désordre des configurations du système au niveau macroscopique. Par exemple, si l’espace de configurations se répartit en quelques attracteurs dominants et que presque toutes les trajectoires finissent dans l’un d’eux, on dira que l’entropie structurelle du système est faible – il y a peu de diversité finale. En revanche, s’il existe de très nombreux attracteurs de taille comparable, ou si la dynamique conserve une richesse de formes au cours du temps, l’entropie structurelle est élevée. L’information produite par le système au cours du temps peut se mesurer par la réduction d’entropie qu’il opère en formant des structures. Landauer a établi en 1961 un lien entre information et physique : « toute manipulation logique irréversible de l’information... est nécessairement accompagnée d’une augmentation de l’entropie dans l’environnement »[17]. Effacer un bit d’information – c’est-à-dire détruire de l’information pour aller vers un état plus ordonné – coûte au minimum \(kT\ln 2\) d’énergie dissipée sous forme de chaleur[18]. Cette limite de Landauer montre que créer de l’ordre (réduire l’entropie informationnelle interne) a un prix énergétique. Notre cadre s’inscrit dans cette compréhension : l’émergence d’un attracteur (ordre organisé) suppose en contrepartie une dissipation d’énergie ou une exportation d’entropie ailleurs. Dans une perspective physique, l’analyse consiste à considérer où part l’entropie perdue quand de l’ordre apparaît localement. Cela évite de violer le second principe de la thermodynamique, même si, à première vue, un système auto-organisé semble « décréer » du désordre. En réalité, il le délocalise ou le transforme. Le pont conceptuel jeté par E.T. Jaynes dans les années 1950 vient ici éclairer la situation d’un jour unifié : Jaynes a soutenu que l’entropie de Shannon et l’entropie de Gibbs (thermodynamique statistique) sont en fait la même notion conceptuelle, l’une appliquée à de l’information abstraite, l’autre à des micro-états physiques[19]. Le fait qu’elles obéissent à des formules identiques n’est pas une coïncidence mais le signe que la physique statistique peut se voir comme un cas particulier d’un principe d’inférence logique (le principe de maximum d’entropie). Ainsi, la formation d’une structure dans notre espace de configurations peut être interprétée à deux niveaux : (i) concrètement, comme l’établissement d’un ordre dans le système (baisse d’entropie physique interne, augmentation corrélative de l’entropie dans l’environnement dissipatif) et (ii) informationnellement, comme une gain d’information sur l’état du système (on a réduit l’incertitude sur sa configuration en observant l’émergence d’un motif précis). Cette double lecture, garantie cohérente par les principes de Landauer, Shannon et Jaynes, confère au concept d’attracteur une portée à la fois physique et informationnelle : un attracteur, c’est un condensé d’information (la description de l’attracteur est relativement simple comparée à celle d’un état aléatoire) et c’est un puits de dissipation (de l’énergie a été dissipée pour y parvenir). @@ -246,27 +253,27 @@ On peut considérer l’hypothèse de travail suivante : au fondement d’un sys Cette construction fournit un langage pour formuler cette lecture de manière conditionnelle. En effet, si l’on considère un espace de configurations (éventuellement très grand), satisfaisant des hypothèses explicites, évoluant suivant des règles (transformations admissibles) et contraint par certaines cohérences internes (contraintes admissibles fondamentales, qu’on peut relier, selon les instanciations, à des principes de symétrie ou de conservation), alors l’émergence du monde matériel peut être lue comme l’apparition d’attracteurs dans cet espace abstrait. Les particules élémentaires, par exemple, pourraient correspondre aux attracteurs stables d’une dynamique informationnelle sous-jacente – des formes invariantes (comme des solitons) dans un substrat de calcul ou de relation. Cette idée rejoint en partie des pistes déjà explorées en cosmologie et en physique théorique : automates cellulaires universels (Zel’dovich, Fredkin) pour simuler des dynamiques à grande échelle, théories décrivant la physique comme calcul (Zuse), ou hypothèses sur un substrat de calcul. Dans cette lecture, on introduit explicitement la dimension de connaissance : ce substrat informationnel peut être vu non seulement comme de l’information brute, mais comme une ontologie de la connaissance – une structure formelle dans laquelle ce qui existe, c’est ce qui peut être distingué, organisé, connu en puissance. -Dans un tel cadre, les collisions structurantes évoquées plus tôt peuvent recevoir une lecture interprétative (sous hypothèses explicites) : deux « configurations » d’un espace de configurations qui entrent en collision (au sens d’interaction dans la dynamique) peuvent donner naissance à une nouvelle structure stable – on pourrait y voir une analogie avec deux ondes se rencontrant pour créer une particule stable, ou deux événements fusionnant en un concept nouveau. De même, la notion de reproductibilité interne revêt une portée fondamentale : pour qu’une complexification croissante se produise dans le système sans apport extérieur, il faut que certaines structures une fois apparues puissent se copier ou se répliquer à l’intérieur du système. Sans reproduction, pas d’accumulation d’information structurale sur le long terme – c’est l’apanage du vivant, mais peut-être aussi d’autres processus naturels. Or, on sait depuis les travaux de von Neumann qu’un système purement formel peut tout à fait engendrer des entités auto-réplicatives : dès 1948, von Neumann décrivit un automate cellulaire capable de se copier lui-même, anticipant conceptuellement le mécanisme de l’ADN bien avant sa découverte[22]. Il montra qu’en munissant un automate d’un ensemble suffisant d’états et de règles, on peut avoir une configuration $P$ (un « programme ») qui crée une copie $P'$ d’elle-même à côté, tout en se conservant – établissant ainsi la possibilité d’une machine virtuelle autoreproductrice[23][24]. Autrement dit, la logique de la vie (duplication de l’information génétique et construction d’un nouvel individu à partir de cette information) peut être capturée dans un espace de configurations purement informationnel. La reproductibilité interne dans notre modèle consisterait en de tels attracteurs capables de générer, via les transformations admissibles, des copies d’eux-mêmes au sein du même espace. Un tel phénomène permettrait la transmission et l’accumulation de structures, ouvrant la voie à une évolution endogène du système. Cette idée est spéculative à grande échelle ; elle suppose qu’un système, pour engendrer de la complexité, requiert (sous hypothèses explicites) la capacité de conserver et de répliquer certains agencements informationnels stables à travers le temps, en plus de simplement les produire de manière isolée. +Dans un tel cadre, les collisions structurantes évoquées plus tôt peuvent recevoir une lecture interprétative (sous hypothèses explicites) : deux « configurations » d’un espace de configurations qui entrent en collision (au sens d’interaction dans la dynamique) peuvent donner naissance à une nouvelle structure stable – on pourrait y voir une analogie avec deux ondes se rencontrant pour créer une particule stable, ou deux événements fusionnant en un concept nouveau. De même, la notion de reproductibilité interne revêt une portée fondamentale : pour qu’une complexification croissante se produise dans le système sans apport extérieur, il faut que certaines structures une fois apparues puissent se copier ou se répliquer à l’intérieur du système. Sans reproduction, pas d’accumulation d’information structurale sur le long terme – c’est l’apanage du vivant, mais peut-être aussi d’autres processus naturels. Or, on sait depuis les travaux de von Neumann qu’un système purement formel peut tout à fait engendrer des entités auto-réplicatives : dès 1948, von Neumann décrivit un automate cellulaire capable de se copier lui-même, anticipant conceptuellement le mécanisme de l’ADN bien avant sa découverte[22]. Il montra qu’en munissant un automate d’un ensemble suffisant d’états et de règles, on peut avoir une configuration \(P\) (un « programme ») qui crée une copie \(P'\) d’elle-même à côté, tout en se conservant – établissant ainsi la possibilité d’une machine virtuelle autoreproductrice[23][24]. Autrement dit, la logique de la vie (duplication de l’information génétique et construction d’un nouvel individu à partir de cette information) peut être capturée dans un espace de configurations purement informationnel. La reproductibilité interne dans notre modèle consisterait en de tels attracteurs capables de générer, via les transformations admissibles, des copies d’eux-mêmes au sein du même espace. Un tel phénomène permettrait la transmission et l’accumulation de structures, ouvrant la voie à une évolution endogène du système. Cette idée est spéculative à grande échelle ; elle suppose qu’un système, pour engendrer de la complexité, requiert (sous hypothèses explicites) la capacité de conserver et de répliquer certains agencements informationnels stables à travers le temps, en plus de simplement les produire de manière isolée. Philosophiquement, envisager la connaissance comme substrat pré-énergétique conduit à repenser la notion même d’être. Dans cette optique, être signifierait peut-être être informé, c’est-à-dire occuper une configuration distinctive dans l’espace ontologique fondamental. La connaissance, quant à elle, ne serait plus seulement une faculté émergente de certains systèmes (comme le cerveau humain), mais un ingrédient constitutif de la réalité – au sens où les « lois de la physique » pourraient être lues comme des contraintes admissibles de cet espace, et les « états physiques » comme des attracteurs informationnels. Cette vue ne fait pas consensus et reste une interprétation parmi d’autres ; elle exige un dictionnaire d’instanciation explicite pour relier le formalisme minimal à des énoncés physiques. -Pour conclure ce chapitre de fondations, nous soulignons la progression logique suivie : nous sommes partis de notions mathématiques pures (ensemble de configurations, applications dynamiques, attracteurs) pour arriver à effleurer les questions d’interprétation (origine de l’ordre dans un modèle, primauté de l’information) et ontologiques (qu’est-ce qui est fondamentalement réel ? la matière ou la connaissance ?). Cette progression s’est faite sans rupture de ton, car le même formalisme sous-tend chaque étape. Les attracteurs que nous avons définis formellement peuvent représenter aussi bien un motif dans un automate que l’état stationnaire d’un système modélisé ou l’idée stable dans un système de pensée. Le fil conducteur est la stabilité structurelle et la reproductibilité : ces deux caractéristiques rendent compte de la persistance et de l’organisation du réel à toutes les échelles. En effet, dans tout modèle satisfaisant les hypothèses de stabilité, la stabilité structurelle est ce qui permet à des structures élémentaires (particules, atomes) de perdurer suffisamment pour se combiner en structures plus complexes (molécules, cellules, étoiles), et la reproductibilité (ou du moins la multiplicabilité) est ce qui permet d’en avoir de multiples exemplaires pour construire les niveaux supérieurs. Du point de vue de la connaissance, la stabilité correspond à la fiabilité des concepts ou des informations (une connaissance stable est une connaissance qui reste vraie ou opérante sous diverses transformations de contexte), et la reproductibilité correspond à la communicabilité et à la transférabilité du savoir (une idée reproductible peut être transmise, recopiée, enseignée, rejouée dans un autre esprit ou un autre support). +Pour conclure ce chapitre de fondations, nous soulignons la progression logique suivie : nous sommes partis de notions mathématiques pures (ensemble de configurations, applications dynamiques, attracteurs) pour arriver à effleurer les questions d’interprétation (origine de l’ordre dans un modèle, primauté de l’information) et ontologiques (qu’est-ce qui est fondamentalement réel ? la matière ou la connaissance?). Cette progression s’est faite sans rupture de ton, car le même formalisme sous-tend chaque étape. Les attracteurs que nous avons définis formellement peuvent représenter aussi bien un motif dans un automate que l’état stationnaire d’un système modélisé ou l’idée stable dans un système de pensée. Le fil conducteur est la stabilité structurelle et la reproductibilité : ces deux caractéristiques rendent compte de la persistance et de l’organisation du réel à toutes les échelles. En effet, dans tout modèle satisfaisant les hypothèses de stabilité, la stabilité structurelle est ce qui permet à des structures élémentaires (particules, atomes) de perdurer suffisamment pour se combiner en structures plus complexes (molécules, cellules, étoiles), et la reproductibilité (ou du moins la multiplicabilité) est ce qui permet d’en avoir de multiples exemplaires pour construire les niveaux supérieurs. Du point de vue de la connaissance, la stabilité correspond à la fiabilité des concepts ou des informations (une connaissance stable est une connaissance qui reste vraie ou opérante sous diverses transformations de contexte), et la reproductibilité correspond à la communicabilité et à la transférabilité du savoir (une idée reproductible peut être transmise, recopiée, enseignée, rejouée dans un autre esprit ou un autre support). Ainsi, espaces de configurations, transformations admissibles, attracteurs et stabilité constituent les briques d’un cadre formel où l’on peut comparer, sous hypothèses explicites, des lectures physiques, biologiques ou informationnelles en termes de formes, d’information et de dynamique. Les chapitres suivants poursuivent la construction en détaillant comment ce cadre est enrichi et appliqué à divers domaines, en distinguant systématiquement : résultats standard, hypothèses de travail, et lectures optionnelles. Toute extrapolation est annoncée comme telle. -Références utilisées : Landauer [principe thermodynamique de l’information](17), Shannon [entropie d’information](15), Jaynes [principe de maximum d’entropie et correspondance avec la thermo](19), Schrödinger [néguentropie du vivant](16), Prigogine [structures dissipatives et ordre hors-équilibre](10)[11], von Neumann [automates auto-reproducteurs](22), Wheeler [« it from bit »](21), entre autres. Chaque concept introduit est associé à des références et à un statut (résultat standard, hypothèse de travail, lecture optionnelle). +Références utilisées : Landauer [principe thermodynamique de l’information](17), Shannon [entropie d’information](15), Jaynes [principe de maximum d’entropie et correspondance avec la thermo](19), Schrödinger [néguentropie du vivant](16), Prigogine [structures dissipatives et ordre hors-équilibre](10), (11), von Neumann [automates auto-reproducteurs](22), Wheeler [« it from bit »](21), entre autres. Chaque concept introduit est associé à des références et à un statut (résultat standard, hypothèse de travail, lecture optionnelle). [1] [4] [5] [6] Attracteur — Wikipédia -[2] [3] Signatures_genetiques_Kaprekar_manuscrit_complet.docx +[2] [3] Signatures\\_genetiques\\_Kaprekar\\_manuscrit\\_complet.docx -file://file_0000000026e071f49117ec4b3b473db8 +file://file\\_0000000026e071f49117ec4b3b473db8 -[7] [8] [14] Signatures_genetiques_Kaprekar_fondamentaux.md +[7] [8] [14] Signatures\\_genetiques\\_Kaprekar\\_fondamentaux.md -file://file_000000009b3471f4b506d9eb26d55ffe +file://file\\_000000009b3471f4b506d9eb26d55ffe [9] [12] [13] Le jeu de la vie - Bio-Info @@ -278,19 +285,19 @@ file://file_000000009b3471f4b506d9eb26d55ffe [15] Entropy (information theory) - Wikipedia - + [16] Qu'est-ce que la vie ? — Wikipédia - + [17] [18] Principe de Landauer — Wikipédia - + [19] Principle of maximum entropy - Wikipedia - + [20] [21] « It from bit », la matière repensée | Cairn.info @@ -300,82 +307,88 @@ file://file_000000009b3471f4b506d9eb26d55ffe +[5]: +[8]: +[11]: +[13]: +[14]: +[24]: + --- -# Chapitre 2 — Itération, finitude locale et répétition nécessaire +## Chapitre 2 — Itération, finitude locale et répétition nécessaire {#chapitre-2-iteration-finitude-locale-et-repetition-necessaire} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 2 -Hypothèses (H). +**Hypothèses (H).** -- temps discret et itération d’une transformation \(f:X\to X\) (déterministe pour l’exposé) ; +- temps discret et itération d’une transformation \(f : X\to X\) (déterministe pour l’exposé) - finitude globale (\(|X|<\infty\)) ou finitude effective au niveau d’une description/partition. -Résultats (E). +**Résultats (E).** -- dérivation combinatoire de la répétition (réapparition d’états) puis de l’entrée en régime cyclique après transitoire ; +- dérivation combinatoire de la répétition (réapparition d’états) puis de l’entrée en régime cyclique après transitoire - distinction de statut entre répétition, invariance et lectures interprétatives. -Statut. +**Statut.** - noyau ensembliste/combinatoire ; aucune quantification n’est requise. -## Introduction +## Introduction — Ch. 2 Le chapitre précédent a établi un cadre minimal : un espace de configurations, des contraintes d’admissibilité, et une famille de transformations qui induit une dynamique (éventuellement discrète) sur cet espace. Le présent chapitre introduit la contrainte formelle suivante : l’itération, combinée à une forme de finitude (globale ou locale), entraîne la réapparition d’états, puis l’entrée dans des régimes cycliques. Cette conséquence ne dépend ni d’une interprétation physique ni d’une hypothèse finaliste : elle résulte d’un fait combinatoire élémentaire, puis d’une lecture dynamique. ## Itération comme contrainte première On se donne un ensemble de configurations admissibles (X) et une transformation admissible -[ -f: X \to X, -] -déterministe (pour simplifier l’exposé ; les extensions stochastiques seront distinguées plus loin). Une trajectoire issue d’un état initial (x_0 \in X) est la suite -[ -x_0,; x_1=f(x_0),; x_2=f(x_1)=f^{(2)}(x_0),; \dots,; x_t=f^{(t)}(x_0). -] -L’itération n’est pas un détail de mise à jour : elle constitue une contrainte ontologique minimale dès lors qu’un système (au sens abstrait) se prolonge par mise à jour d’état, c’est-à-dire produit un état suivant à partir de l’état présent. En ce sens, l’itération impose l’existence d’orbites ({f^{(t)}(x_0)}_{t\ge 0}) et fait apparaître la question de leur structure globale. +\[ +f : X \to X, +\] +déterministe (pour simplifier l’exposé ; les extensions stochastiques seront distinguées plus loin). Une trajectoire issue d’un état initial (x\\_0 \in X) est la suite +\[ +x\_0, ; x\_1=f(x\_0), ; x\_2=f(x\_1)=f^{(2)}(x\_0), ; \dots, ; x\_t=f^{(t)}(x\_0). +\] +L’itération n’est pas un détail de mise à jour : elle constitue une contrainte ontologique minimale dès lors qu’un système (au sens abstrait) se prolonge par mise à jour d’état, c’est-à-dire produit un état suivant à partir de l’état présent. En ce sens, l’itération impose l’existence d’orbites ({f^{(t)}(x\\_0)}\\\_{t\ge 0}) et fait apparaître la question de leur structure globale. Deux remarques disciplinaires encadrent la suite. Premièrement, l’itération n’implique pas le temps comme primitive. Il s’agit d’un index d’étapes, qui ne présuppose aucune métrique temporelle ; la reconstruction d’une flèche temporelle sera traitée plus tard, comme conséquence supplémentaire (chapitre 4 du plan). -Deuxièmement, l’itération ne suppose pas non plus l’existence d’une quantité conservée, d’une énergie, ni d’une notion de coût. Ici, l’objet est strictement : “que devient une suite (x_{t+1}=f(x_t)) sous des hypothèses minimales sur (X) ?”. +Deuxièmement, l’itération ne suppose pas non plus l’existence d’une quantité conservée, d’une énergie, ni d’une notion de coût. Ici, l’objet est strictement : “que devient une suite (x\\_{t+1}=f(x\\_t)) sous des hypothèses minimales sur (X) ? ”. ## Finitude globale : répétition nécessaire par combinatoire On suppose d’abord que (X) est fini, de cardinal -[ +\[ |X| = N, -] +\] avec (N) entier strictement positif. -Considérons les (N+1) premiers termes d’une trajectoire : -[ -x_0, x_1, \dots, x_N. -] +Considérons les (N+1) premiers termes d’une trajectoire : \[ +x\_0, x\_1, \dots, x\_N. +\] Ces (N+1) éléments appartiennent tous à (X) qui ne contient que (N) éléments. Par le principe des tiroirs (pigeonhole), deux indices (0 \le i < j \le N) existent tels que -[ -x_i = x_j. -] -Cette égalité entraîne immédiatement un régime périodique à partir de (i). En effet, comme (f) est déterministe, l’état (x_i) engendre un unique successeur (x_{i+1}), donc l’égalité (x_i=x_j) impose -[ -x_{i+1}=f(x_i)=f(x_j)=x_{j+1}, -] +\[ +x\_i = x\_j. +\] +Cette égalité entraîne immédiatement un régime périodique à partir de (i). En effet, comme (f) est déterministe, l’état (x\\\_i) engendre un unique successeur (x\\\_{i+1}), donc l’égalité (x\\\_i=x\\\_j) impose +\[ +x\\\_{i+1}=f(x\\\_i)=f(x\\\_j)=x\\\_{j+1}, +\] et par récurrence -[ -x_{i+k}=x_{j+k}\quad \text{pour tout }k\ge 0. -] +\[ +x\_{i+k}=x\_{j+k}\quad \text{pour tout }k\ge 0. +\] Ainsi, la trajectoire entre (i) et (j-1) se répète avec une période -[ +\[ p = j-i,\quad 1 \le p \le N. -] +\] Calcul détaillé (borne de répétition dans le cas fini) Paramètre : (N = |X|) -Suite considérée : ((x_t)_{t\ge 0}) avec (x_{t+1}=f(x_t)) +Suite considérée : \((x\_t)\_{t\ge 0}\) avec \(x\_{t+1}=f(x\_t)\)\)) Nombre d’états examinés : (N+1) états (x_0,\dots,x_N) -Principe : (N+1) objets dans (N) classes (\Rightarrow) collision (x_i=x_j) +Principe : (N+1) objets dans (N) classes \(((\Rightarrow\) collision (x\\_i=x\\_j) Conclusion : entrée en cycle au plus tard à l’étape (N), avec période (p=j-i\le N) Ce résultat est strictement mathématique : il ne requiert aucune hypothèse de “dissipation”, d’“optimisation” ou de “tendance”. Il exprime une nécessité : l’itération sur un ensemble fini force une récurrence, donc une périodicité après un transitoire. @@ -388,45 +401,44 @@ Ce point est cohérent avec une formulation interne déjà utilisée ailleurs da La conséquence “il existe une répétition” ne doit pas être confondue avec “il existe une invariance”. -Répétition (récurrence) -Il existe (i orb["Orbite (f^t(x))_{t≥0}"] + x["État initial x ∈ X"] --> orb["Orbite (f^t(x))\\_{t≥0}"] orb --> rep["Répétition forcée (f^i(x)=f^j(x))"] rep --> cyc["Cycle C (ensemble invariant)"] - cyc --> inv["Invariance: f(C)=C"] - x --> bas["Bassin B(C): états menant à C"] + cyc --> inv["Invariance : f(C)=C"] + x --> bas["Bassin B(C) : états menant à C"] bas --> cyc ``` ## Extension au cadre topologique et métrique -On généralise maintenant à un espace \(X\) muni d’une structure topologique (ou métrique) et une application \(f:X\to X\) continue, ou à un flot \(\{\varphi_t\}_{t\in\mathbb{R}}\) engendré par une équation différentielle. +On généralise maintenant à un espace \(X\) muni d’une structure topologique (ou métrique) et une application \(f : X\to X\) continue, ou à un flot \(\{\varphi\_t\}\_{t\in\mathbb{R}}\) engendré par une équation différentielle. ### Notions de voisinage, \(\omega\)-limite, attraction -Soit \((X,d)\) un espace métrique (ou compact métrisable), \(f\) continue. +Soit \((X,d)\)\)) un espace métrique (ou compact métrisable), \(((f\) continue. -**\(\omega\)-limite.** Pour \(x\in X\), l’ensemble \(\omega(x)\) est l’ensemble des points limites de la suite \(\{f^{(n)}(x)\}\). C’est un invariant asymptotique standard en dynamique (et il généralise le « cycle final » du cas fini). +**\(\omega\)-limite.** Pour \(x\in X\), l’ensemble \(\omega(x)\)\)) est l’ensemble des points limites de la suite \(((\{f^{(n)}(x)\)\)}\). C’est un invariant asymptotique standard en dynamique (et il généralise le « cycle final » du cas fini). -**Distance à un ensemble.** Pour \(A\subseteq X\) fermé, on définit +**Distance à un ensemble.** Pour \(((A\subseteq X\) fermé, on définit \[ -\operatorname{dist}(y,A)=\inf_{a\in A} d(y,a). +\operatorname{dist}(y,A)=\inf\_{a\in A} d(y,a). \] **Attraction vers un ensemble.** On dit que l’orbite de \(x\) est attirée par \(A\) si \[ -\operatorname{dist}(f^{(n)}(x),A)\to 0\quad (n\to\infty). +\operatorname{dist}(f^{(n)}(x),A)\)\)to 0\quad (n\to\infty). \] ### Définition standard d’attracteur (topologique) @@ -600,72 +614,64 @@ Soit \((X,d)\) un espace métrique (ou compact métrisable), \(f\) continue. Il existe plusieurs définitions non équivalentes dans la littérature (topologiques, mesurales, « Milnor attractors », etc.). On adopte une définition topologique classique (suffisante ici). **Définition (attracteur topologique).** -Un compact non vide \(A\subseteq X\) est un attracteur si : - -1. **invariance** : \(f(A)=A\) ; -2. il existe un voisinage ouvert \(U\supseteq A\) tel que +Un compact non vide \(((A\subseteq X\) est un attracteur si : 1. **invariance** : \(f(A)=A\) ; 2. il existe un voisinage ouvert \(U\supseteq A\) tel que \[ - \operatorname{dist}(f^{(n)}(x),A)\to 0\quad \forall x\in U; - \] -3. (souvent ajouté) **minimalité** : \(A=\bigcap_{n\ge 0} f^{(n)}(\overline U)\). + \operatorname{dist}(f^{(n)}(x),A)\)\)to 0\quad \forall x\in U ; \] +3. (souvent ajouté) **minimalité** : \(((A=\bigcap\_{n\ge 0} f^{(n)}(\overline U)\)\)). -Le **bassin** de \(A\) est alors +Le **bassin** de \(((A\) est alors \[ -B(A)=\{x\in X:\operatorname{dist}(f^{(n)}(x),A)\to 0\}. +B(A)=\{x\in X : \operatorname{dist}(f^{(n)}(x),A)\)\)to 0\}. \] -Cette définition rend explicite le rôle de la topologie : le bassin n’est plus seulement atteignabilité, mais convergence (au sens de \(d\)). +Cette définition rend explicite le rôle de la topologie : le bassin n’est plus seulement atteignabilité, mais convergence (au sens de \(((d\)). ### Stabilité au sens de Lyapunov (cadre métrique et flots) La stabilité « géométrique » des attracteurs se formule via les définitions introduites par Lyapunov dans l’étude de la stabilité des mouvements, formulation devenue canonique. -Pour une équation autonome \(\dot x = F(x)\) et un équilibre \(x^\*\) (i.e. \(F(x^\*)=0\)) : - -**Stabilité de Lyapunov.** +Pour une équation autonome \(\dot x = F(x)\)\)) et un équilibre \(((x^*\) (i.e. \(F(x^*)=0\)) : **Stabilité de Lyapunov.** \(x^\*\) est stable si \[ -\forall \varepsilon>0,\ \exists \delta>0:\ \|x(0)-x^\*\|<\delta\Rightarrow \forall t\ge 0,\ \|x(t)-x^\*\|<\varepsilon. +\forall \varepsilon>0,\ \exists \delta>0 : \ \|x(0)-x^\*\|<\delta\Rightarrow \forall t\ge 0,\ \|x(t)-x^\*\|<\varepsilon. \] **Stabilité asymptotique.** -\(x^\*\) est asymptotiquement stable si, en plus, \(x(t)\to x^\*\) quand \(t\to\infty\). +\(x^\*\) est asymptotiquement stable si, en plus, \(x(t)\)\)to x^\*\) quand \(((t\to\infty\). Ces notions ont des analogues pour les points fixes des applications discrètes continues (avec \(t\) remplacé par \(n\in\mathbb{N}\)), et elles sont systématiquement utilisées pour relier « attraction » et « robustesse sous perturbation » dans les cadres différentiables. ### Types d’attracteurs en dynamique continue -Sous hypothèses de régularité, plusieurs classes de comportements invariants attirants sont bien établies : +Sous hypothèses de régularité, plusieurs classes de comportements invariants attirants sont bien établies : -- **équilibre stable** : point fixe du flot (un point) ; -- **cycle limite** : orbite périodique attirante (un cercle topologique) ; -- **tore invariant attirant** (quasi-périodicité) ; -- **attracteur chaotique** (dit souvent « étrange ») : ensemble invariant attirant présentant une dynamique sensible et typiquement une géométrie fractale. +- **équilibre stable** : point fixe du flot (un point) -Le résultat de Poincaré–Bendixson (consensus) joue un rôle de frontière : en dimension plane, sous conditions standard, les \(\omega\)-limites compactes non vides sont essentiellement des équilibres ou des orbites périodiques, ce qui exclut l’existence d’attracteurs étranges pour les flots \(C^1\) sur le plan (dans le régime couvert par le théorème). +- **cycle limite** : orbite périodique attirante (un cercle topologique) +- **tore invariant attirant** (quasi-périodicité) +- **attracteur chaotique** (dit souvent « étrange ») : ensemble invariant attirant présentant une dynamique sensible et typiquement une géométrie fractale. -### Attracteurs « étranges » : définition opérationnelle et sources classiques +Le résultat de Poincaré–Bendixson (consensus) joue un rôle de frontière : en dimension plane, sous conditions standard, les \(\omega\)-limites compactes non vides sont essentiellement des équilibres ou des orbites périodiques, ce qui exclut l’existence d’attracteurs étranges pour les flots \(C^1\) sur le plan (dans le régime couvert par le théorème). -Le terme « attracteur étrange » n’a pas une définition unique universelle; on retient une définition opérationnelle, standard dans la pratique : +### Attracteurs « étranges » : définition opérationnelle et sources classiques -Un attracteur \(A\) est dit **étrange** s’il est (i) attractif (au sens précédent), et (ii) porte une dynamique non périodique avec sensibilité aux conditions initiales, et (iii) présente typiquement une structure géométrique non régulière (dimension fractale) ou un étirement–repliement de type hyperbolique. +Le terme « attracteur étrange » n’a pas une définition unique universelle ; on retient une définition opérationnelle, standard dans la pratique : Un attracteur \(A\) est dit **étrange** s’il est (i) attractif (au sens précédent), et (ii) porte une dynamique non périodique avec sensibilité aux conditions initiales, et (iii) présente typiquement une structure géométrique non régulière (dimension fractale) ou un étirement–repliement de type hyperbolique. -Trois jalons consensuels structurent cette notion : +Trois jalons consensuels structurent cette notion : - **Lorenz (1963)** exhibe un flot déterministe en dimension 3 admettant un comportement non périodique et instable aux conditions initiales, devenu paradigme d’attracteur chaotique. + - **Ruelle–Takens (1971)** proposent un mécanisme menant à des régimes chaotiques dans des systèmes dissipatifs via perte de stabilité et apparition d’ensembles invariants complexes. - **Hénon (1976)** fournit une application de \(\mathbb{R}^2\) (diffeomorphisme dissipatif) dont les itérés tendent vers un attracteur étrange pour des paramètres spécifiques, montrant que le chaos attractif n’est pas réservé aux flots continus. -## Robustesse, bifurcations et stabilité structurelle +## Robustesse, bifurcations et stabilité structurelle — Ch. 3 -Le concept d’attracteur, compris comme « structure asymptotique », ne suffit pas : une structure peut exister mais être détruite par une perturbation arbitrairement petite. D’où l’introduction de la **robustesse**. +Le concept d’attracteur, compris comme « structure asymptotique », ne suffit pas : une structure peut exister mais être détruite par une perturbation arbitrairement petite. D’où l’introduction de la **robustesse**. -### Robustesse : définitions formelles minimales +### Robustesse : définitions formelles minimales -Soit une famille dépendant d’un paramètre \(\{f_\lambda\}_{\lambda\in\Lambda}\) (applications ou flots). On distingue au moins trois niveaux : - -**Robustesse d’un ensemble invariant.** -Un invariant \(A_\lambda\) est robuste si, pour \(\lambda'\) proche de \(\lambda\), il existe un invariant \(A_{\lambda'}\) « de même type » (conjugué topologiquement, ou continu en Hausdorff, selon le cadre retenu). +Soit une famille dépendant d’un paramètre \(\{f\_\lambda\}\_{\lambda\in\Lambda}\) (applications ou flots). On distingue au moins trois niveaux : **Robustesse d’un ensemble invariant.** +Un invariant \(A*\lambda\) est robuste si, pour \(\lambda'\) proche de \(\lambda\), il existe un invariant \(A\_{\lambda'}\) « de même type » (conjugué topologiquement, ou continu en Hausdorff, selon le cadre retenu). **Stabilité structurelle (définition standard).** Un système \(f\) est structurellement stable (dans une topologie \(C^r\)) si tout système \(g\) suffisamment proche est topologiquement conjugué à \(f\) (au moins sur l’ensemble non errant / non wandering). Cette notion est au cœur du programme de Smale et de ses prolongements. @@ -673,34 +679,36 @@ Un système \(f\) est structurellement stable (dans une topologie \(C^r\)) si to **Robustesse des bassins.** Même si un attracteur persiste, son bassin peut changer fortement (frontières fractales, crises), rendant la « prévisibilité macroscopique » instable. -### Bifurcations : principe +### Bifurcations : principe Une **bifurcation** est une valeur de paramètre où la structure qualitative de la dynamique change (nombre/stabilité d’équilibres ou d’orbites périodiques, apparition/disparition d’attracteurs, changement topologique de bassins). Les bifurcations sont donc des points où la stabilité structurelle échoue. -### Exemple canonique : bifurcation de Hopf +### Exemple canonique : bifurcation de Hopf -La bifurcation de Hopf formalise la naissance (ou mort) d’une orbite périodique à partir d’un équilibre lorsque une paire de valeurs propres complexes conjuguées traverse l’axe imaginaire (forme continue) ; c’est un mécanisme de création d’un **cycle limite**, donc d’un attracteur périodique. Ce résultat est exposé de manière classique dans la tradition Hopf–Andronov–Poincaré, et sa présentation moderne est standardisée dans la littérature. +La bifurcation de Hopf formalise la naissance (ou mort) d’une orbite périodique à partir d’un équilibre lorsque une paire de valeurs propres complexes conjuguées traverse l’axe imaginaire (forme continue) ; c’est un mécanisme de création d’un **cycle limite**, donc d’un attracteur périodique. Ce résultat est exposé de manière classique dans la tradition Hopf–Andronov–Poincaré, et sa présentation moderne est standardisée dans la littérature. -On distingue typiquement : +On distingue typiquement : -- **Hopf supercritique** : naissance d’un cycle limite stable (attracteur périodique) ; -- **Hopf subcritique** : apparition d’un cycle instable et perte de stabilité brutale de l’équilibre. +- **Hopf supercritique** : naissance d’un cycle limite stable (attracteur périodique) + +- **Hopf subcritique** : apparition d’un cycle instable et perte de stabilité brutale de l’équilibre. Hopf illustre que des attracteurs périodiques peuvent être **créés par variation infinitésimale** des contraintes dynamiques. ### Crises et changements de bassins (dynamique chaotique) Au-delà des bifurcations locales, des phénomènes de type **crise** décrivent des changements soudains d’un attracteur chaotique (élargissement, disparition) liés à une collision avec une orbite périodique instable. -Ces événements sont particulièrement pertinents pour la notion de « dominance d’attracteurs » : un attracteur peut rester invariant mais devenir inatteignable pour la plupart des conditions initiales si son bassin se fragmente. +Ces événements sont particulièrement pertinents pour la notion de « dominance d’attracteurs » : un attracteur peut rester invariant mais devenir inatteignable pour la plupart des conditions initiales si son bassin se fragmente. -### Critères de stabilité structurelle : repères de consensus +### Critères de stabilité structurelle : repères de consensus -Deux repères classiques (énoncés comme consensus, sans preuve ici) : +Deux repères classiques (énoncés comme consensus, sans preuve ici) : - En dimension 2 pour les flots sur surfaces compactes, la stabilité structurelle admet une caractérisation et une densité (théorèmes de Peixoto). + - Dans le cadre différentiable de Smale, les systèmes hyperboliques \(Axiom\,A\) (avec conditions additionnelles type « no cycles ») jouent un rôle central dans la stabilité \(C^1\) et la décomposition spectrale (programme de Smale et prolongements). -Ces repères justifient la séparation conceptuelle : il existe des attracteurs **non robustes**, et des attracteurs **robustes** (hyperboliques au sens large), ces derniers étant fondamentaux pour toute théorie de formes persistantes sous perturbations. +Ces repères justifient la séparation conceptuelle : il existe des attracteurs **non robustes**, et des attracteurs **robustes** (hyperboliques au sens large), ces derniers étant fondamentaux pour toute théorie de formes persistantes sous perturbations. ## Mesures structurelles et quantification @@ -708,54 +716,56 @@ Après avoir défini attracteurs et bassins, il devient possible de quantifier l ### Quantités combinatoires (discret fini) -Dans \((X,f)\) fini, chaque attracteur discret correspond à un cycle \(C_i\). On définit : +Dans \((X,f)\)\)) fini, chaque attracteur discret correspond à un cycle \(((C\_i\). On définit : -- **taille de bassin** : \(b_i = |B(C_i)|\) ; -- **dominance** : \(D=\max_i \frac{b_i}{N}\) ; -- **nombre d’attracteurs** : \(K = \#\{C_i\}\). +- **taille de bassin** : \(b\_i = |B(C\_i)|\) + +- **dominance** : \(D=\max\_i \frac{b\_i}{N}\) +- **nombre d’attracteurs** : \(K = \#\{C\_i\}\). Ces quantités sont calculables exactement. **Proposition D (borne et calcul de dominance).** \(1/N \le D \le 1\). De plus, \(D=1\) ssi il n’existe qu’un seul cycle (un attracteur discret unique absorbant tout \(X\)). -_Preuve._ \(D\) est le maximum d’une distribution \(\{b_i/N\}\) dont la somme vaut 1. Le maximum est au moins \(1/K\ge 1/N\) et au plus 1; l’égalité \(D=1\) implique qu’un seul terme vaut 1. □ +**Preuve.** \(D\) est le maximum d’une distribution \(\{b\_i/N\}\) dont la somme vaut 1. Le maximum est au moins \(1/K\ge 1/N\) et au plus 1 ; l’égalité \(D=1\) implique qu’un seul terme vaut 1. □ **Proposition E (entropie structurelle des bassins).** Définissons \[ -p_i=\frac{b_i}{N},\qquad H_{\text{bassins}} = -\sum_{i=1}^K p_i \log p_i. +p\_i=\frac{b\_i}{N},\qquad H\_{\text{bassins}} = -\sum\_{i=1}^K p\_i \log p\_i. \] Alors \[ -0 \le H_{\text{bassins}} \le \log K +0 \le H\_{\text{bassins}} \le \log K \] -avec \(H_{\text{bassins}}=0\) ssi \(K=1\), et \(H_{\text{bassins}}=\log K\) ssi \(p_i=1/K\) pour tout \(i\). +avec \(H\_{\text{bassins}}=0\) ssi \(K=1\), et \(H\_{\text{bassins}}=\log K\) ssi \(p\_i=1/K\) pour tout \(i\). -_Preuve._ Propriété standard de l’entropie de Shannon sur une distribution finie. +**Preuve.** Propriété standard de l’entropie de Shannon sur une distribution finie. -Cette « entropie structurelle » n’est ici qu’une **fonctionnelle** appliquée à la distribution des tailles de bassins. Elle quantifie la dispersion des destinées asymptotiques : faible entropie → attracteurs dominants; forte entropie → pluralité équilibrée des attracteurs. +Cette « entropie structurelle » n’est ici qu’une **fonctionnelle** appliquée à la distribution des tailles de bassins. Elle quantifie la dispersion des destinées asymptotiques : faible entropie → attracteurs dominants ; forte entropie → pluralité équilibrée des attracteurs. -### Entropies dynamiques (topologique et métrique) : extension consensuelle +### Entropies dynamiques (topologique et métrique) : extension consensuelle -Dans le cadre topologique, l’**entropie topologique** \(h_{\text{top}}(f)\) a été introduite comme invariant pour les applications continues sur espaces compacts. +Dans le cadre topologique, l’**entropie topologique** \(h\_{\text{top}}(f)\)\)) a été introduite comme invariant pour les applications continues sur espaces compacts. Conceptuellement, elle mesure une croissance du nombre d’orbites distinguables à résolution finie, et fournit une quantité globale de « complexité temporelle ». Dans le cadre mesuré, l’entropie métrique (Kolmogorov–Sinai / Sinai) formalise une notion de production d’incertitude par itération (sous mesure invariante), utilisée pour caractériser le chaos. -Ces deux notions ne remplacent pas \(H_{\text{bassins}}\) : elles répondent à une autre question (instabilité/complexité dans l’invariant), tandis que \(H_{\text{bassins}}\) décrit la distribution d’accessibilité des régimes. +Ces deux notions ne remplacent pas \(((H\_{\text{bassins}}\) : elles répondent à une autre question (instabilité/complexité dans l’invariant), tandis que \(H\_{\text{bassins}}\) décrit la distribution d’accessibilité des régimes. ### Métriques discrètes pour structures d’atteignabilité (bassins) Pour relier les structures d’attracteurs à des notions de proximité entre états discrets, on introduit des métriques compatibles avec l’interprétation (sans l’imposer). -Exemples génériques : +Exemples génériques : -- **distance de Hamming** sur des mots de longueur \(m\) ; -- **distance d’édition (Levenshtein)** sur des séquences ; -- **distance sur graphes** (nombre minimal de modifications locales: arêtes/sommets). +- **distance de Hamming** sur des mots de longueur \(m\) -Ces métriques permettent de définir des voisinages \(B_\varepsilon(x)\) et donc des versions « métriques » de bassins et de stabilité, même en contexte discret (commode pour relier, plus tard, l’agrégation et la quantification). La théorie de Shannon fournit le prototype de mesure d’incertitude sur un ensemble fini et sur des sources finies, indépendamment de toute sémantique. +- **distance d’édition (Levenshtein)** sur des séquences +- **distance sur graphes** (nombre minimal de modifications locales : arêtes/sommets). + +Ces métriques permettent de définir des voisinages \(B\_\varepsilon(x)\)\)) et donc des versions « métriques » de bassins et de stabilité, même en contexte discret (commode pour relier, plus tard, l’agrégation et la quantification). La théorie de Shannon fournit le prototype de mesure d’incertitude sur un ensemble fini et sur des sources finies, indépendamment de toute sémantique. ### Schéma de structure d’atteignabilité (attracteurs, idée structurale) @@ -775,38 +785,39 @@ flowchart LR ## Implications déduites strictement des résultats précédents (lecture conditionnelle) -Les implications suivantes ne sont pas des hypothèses additionnelles : elles découlent des constructions mathématiques précédentes. +Les implications suivantes ne sont pas des hypothèses additionnelles : elles découlent des constructions mathématiques précédentes. ### Disponibilité nécessaire de régimes persistants -Dans tout cadre abstrait où : +Dans tout cadre abstrait où : - une dynamique itérative est définie (chapitres 1–2), + - l’espace effectif est fini (ou compact avec dissipation/contraction dans le continu), il existe des **ensembles invariants** et, sous conditions, des **attracteurs** au sens topologique. Dans le cas fini déterministe, l’existence de cycles est forcée, et chaque composante admet une structure d’absorption (bassin → cycle). Donc un tel système est structurellement capable de produire des **formes persistantes** (au sens de régimes invariants atteints asymptotiquement). -Cette « persistance » n’est pas un concept biologique ou cognitif : c’est une propriété de fermeture et d’invariance. +Cette « persistance » n’est pas un concept biologique ou cognitif : c’est une propriété de fermeture et d’invariance. ### Effet d’effacement des détails initiaux -Dans le cas fini, deux états distincts peuvent partager le même attracteur (ils appartiennent au même bassin). Cela implique un **effet d’oubli structurel** : la dynamique identifie des classes d’états par leur destinée asymptotique, sans préserver l’identité des conditions initiales. Cette conclusion est purement logique (partition par bassins). +Dans le cas fini, deux états distincts peuvent partager le même attracteur (ils appartiennent au même bassin). Cela implique un **effet d’oubli structurel** : la dynamique identifie des classes d’états par leur destinée asymptotique, sans préserver l’identité des conditions initiales. Cette conclusion est purement logique (partition par bassins). ### Condition nécessaire (mais non suffisante) pour une réplication interne -Sans introduire encore les notions ultérieures de composition et de transmission (qui viendront plus tard), on peut déjà énoncer une nécessité minimale : +Sans introduire encore les notions ultérieures de composition et de transmission (qui viendront plus tard), on peut déjà énoncer une nécessité minimale : -- toute « réplication interne » (au sens strictement formel : production itérative d’occurrences persistantes d’une même sous-structure) exige l’existence de régimes invariants suffisamment stables pour ne pas être détruits immédiatement. +- toute « réplication interne » (au sens strictement formel : production itérative d’occurrences persistantes d’une même sous-structure) exige l’existence de régimes invariants suffisamment stables pour ne pas être détruits immédiatement. -Autrement dit, l’existence d’attracteurs (régimes invariants attractifs) constitue une **condition de possibilité** pour toute accumulation ultérieure de structures, mais ne garantit pas la réplication : celle-ci requiert des opérations de composition/couplage non encore introduites dans la spirale (chapitres ultérieurs du plan). +Autrement dit, l’existence d’attracteurs (régimes invariants attractifs) constitue une **condition de possibilité** pour toute accumulation ultérieure de structures, mais ne garantit pas la réplication : celle-ci requiert des opérations de composition/couplage non encore introduites dans la spirale (chapitres ultérieurs du plan). -## Analyse philosophique finale : nécessité ontologique, limites, interdits +## Analyse philosophique finale : nécessité ontologique, limites, interdits ### Lecture conditionnelle minimale (statut) -Hypothèses (H). +**Hypothèses (H).** -- cadre fini discret : \(H=\{\text{H‑F},\text{H‑Det}\}\) ; +- cadre fini discret : \(((H=\{\text{H‑F},\text{H‑Det}\}\) - cadre topologique/métrique : \(H=\{\text{H‑Cpt},\text{H‑Cont}\}\) (et H‑Diss si un piégeage est revendiqué). Énoncé (E). @@ -817,78 +828,78 @@ Ces invariants fournissent un schéma minimal de “long terme” au niveau de l Ruptures (C). -- si H‑F saute : cycles non garantis ; -- si H‑Cpt ou H‑Diss saute : fuite possible ; attracteur global non garanti ; +- si H‑F saute : cycles non garantis +- si H‑Cpt ou H‑Diss saute : fuite possible ; attracteur global non garanti - si la projection \(\Pi\) change : attracteurs apparents possibles au niveau observé. ### Ce que le formalisme interdit à ce stade -Conformément à la stratégie de l’ouvrage, ce chapitre interdit explicitement (par insuffisance de structure) : +Conformément à la stratégie de l’ouvrage, ce chapitre interdit explicitement (par insuffisance de structure) : -- d’interpréter un attracteur comme « information », « mémoire » ou « connaissance » (ces lectures sont possibles mais exigent des constructions supplémentaires, notamment sur la non-injectivité, la composition, et l’irréversibilité en tant que coût — spirales suivantes) ; -- d’interpréter un attracteur comme « information », « mémoire (au sens M0) » ou « connaissance » (ces lectures sont possibles mais exigent des constructions supplémentaires, notamment sur la non-injectivité, la composition, et l’irréversibilité en tant que coût — spirales suivantes) ; -- de confondre « attracteur » et « optimum » : aucune fonction de coût n’a été postulée; l’attraction est définie par convergence/invariance, pas par maximisation. +- d’interpréter un attracteur comme « information », « mémoire (au sens M0) » ou « connaissance » (ces lectures sont possibles mais exigent des constructions supplémentaires, notamment sur la non-injectivité, la composition, et l’irréversibilité en tant que coût — spirales suivantes) -### Limite conceptuelle : pluralité des définitions d’attracteur +- de confondre « attracteur » et « optimum » : aucune fonction de coût n’a été postulée ; l’attraction est définie par convergence/invariance, pas par maximisation. + +### Limite conceptuelle : pluralité des définitions d’attracteur Même en mathématiques, « attracteur » est un terme à définitions multiples (topologiques, mesurales, physiques). ### Ouverture disciplinée vers la physique (sans fondation) -Une remarque finale, sans changer le statut mathématique : en thermodynamique hors équilibre, l’émergence d’états organisés (structures dissipatives) peut être lue comme l’apparition de régimes attractifs dans l’espace des états macroscopiques; Prigogine a insisté sur le rôle des instabilités et fluctuations dans la genèse de telles structures. -Cette remarque ne sert pas de preuve; elle indique seulement que le concept abstrait d’attracteur a des instanciations reconnues dans des sciences empiriques. +Une remarque finale, sans changer le statut mathématique : en thermodynamique hors équilibre, l’émergence d’états organisés (structures dissipatives) peut être lue comme l’apparition de régimes attractifs dans l’espace des états macroscopiques ; Prigogine a insisté sur le rôle des instabilités et fluctuations dans la genèse de telles structures. +Cette remarque ne sert pas de preuve ; elle indique seulement que le concept abstrait d’attracteur a des instanciations reconnues dans des sciences empiriques. -## Tableaux comparatifs +## Tableaux comparatifs — Ch. 3 ### Définitions et objets entre cadre discret fini et cadre continu/métrique -| Objet | Discret fini \((X,f)\) | Continu / métrique \((X,d,f)\) ou flot \(\varphi_t\) | -|---|---|---| +| Objet | Discret fini \((X,f)\)\)) | Continu / métrique \((((X,d,f)\)\)) ou flot \(((\varphi\_t\) | +| --- | --- | --- | | État | \(x\in X\) | \(x\in X\) (souvent variété / espace métrique) | -| Orbite | \(\{f^{(n)}(x)\}_{n\ge 0}\) | \(\{f^{(n)}(x)\}\) ou \(\{\varphi_t(x)\}_{t\ge 0}\) | -| Invariance | \(f(S)\subseteq S\) | \(f(S)\subseteq S\) ou \(\varphi_t(S)=S\) | +| Orbite | \(\{f^{(n)}(x)\)\)}_{n\ge 0}\) | \(((\{f^{(n)}(x)\)\)}\) ou \(((\{\varphi\_t(x)\)\)}_{t\ge 0}\) | +| Invariance | \(((f(S)\)\)subseteq S\) | \(((f(S)\)\)subseteq S\) ou \(((\varphi\_t(S)=S\) | | Point fixe | \(f(x)=x\) | \(f(x)=x\) ou équilibre \(F(x)=0\) | -| Orbit. périodique | \(f^{(p)}(x)=x\) | \(\varphi_T(x)=x\) (cycle limite) | +| Orbit. périodique | \(f^{(p)}(x)=x\) | \(\varphi\_T(x)=x\) (cycle limite) | | Attracteur | cycle (avec bassin) | compact invariant + voisinage attiré | -| Bassin | atteignabilité vers un cycle | convergence : \(\operatorname{dist}(f^{(n)}(x),A)\to 0\) | +| Bassin | atteignabilité vers un cycle | convergence : \(\operatorname{dist}(f^{(n)}(x),A)\)\)to 0\) | | Stabilité | graph-theoretic (cycle) | Lyapunov / hyperbolicité | ### Types d’attracteurs et mécanismes d’apparition | Type | Support | Mécanisme canonical | Source jalon | -|---|---|---|---| +| --- | --- | --- | --- | | Équilibre stable | point | linéarisation + Lyapunov | Lyapunov (stabilité) | | Cycle limite | orbite périodique | bifurcation de Hopf | Marsden et al. (Hopf) | -| Chaos attractif | ensemble non lisse | étirement–repliement, hyperbolicité partielle | Lorenz; Ruelle–Takens; Hénon | +| Chaos attractif | ensemble non lisse | étirement–repliement, hyperbolicité partielle | Lorenz ; Ruelle–Takens ; Hénon | | Chaos en discret 1D | intervalle | période 3 ⇒ chaos (au sens Li–Yorke) | Li–Yorke | --- -# Chapitre 4 — Temps comme ordre induit par l’itération +## Chapitre 4 — Temps comme ordre induit par l’itération {#chapitre-4-temps-comme-ordre-induit-par-literation} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 4 -Hypothèses (H). +**Hypothèses (H).** -- itération (ou action de semi‑groupe) définie à partir de transformations admissibles ; +- itération (ou action de semi‑groupe) définie à partir de transformations admissibles - choix d’une granularité d’observation explicite si une “durée” est mobilisée. -Résultats (E). +**Résultats (E).** -- reconstruction du temps minimal comme ordre induit par l’atteignabilité (préordre, puis ordre sur quotient) ; +- reconstruction du temps minimal comme ordre induit par l’atteignabilité (préordre, puis ordre sur quotient) - clarification du statut de la flèche (semi‑groupe effectif) et des horloges internes comme quantifications optionnelles. -Statut. +**Statut.** - noyau ensembliste pour l’ordre ; quantifications (durées/coûts) indexées et optionnelles ; ancrages physiques annoncés comme correspondances sous hypothèses. -## Résumé exécutif +## Résumé exécutif — Ch. 4 -Ce chapitre reconstruit le « temps » **sans le postuler**. Partant uniquement de primitives non sémantiques — un espace de configurations \(X\), des transformations admissibles, et l’itération — on montre que la dynamique induit naturellement une **relation d’antériorité** entre états, définie par l’atteignabilité (transitive closure) plutôt que par un paramètre temporel préalable. Cette relation est toujours un **préordre** (réflexif, transitif) et devient un **ordre partiel** lorsque l’on quotient par l’équivalence de récurrence (mutuelle atteignabilité). Dans le cas discret fini, l’interprétation en graphe fonctionnel rend explicite la décomposition en **composantes** et en **cycles**, et l’on obtient un DAG (« condensation ») qui fournit une flèche d’ordre. +Ce chapitre reconstruit le « temps » **sans le postuler**. Partant uniquement de primitives non sémantiques — un espace de configurations \(((X\), des transformations admissibles, et l’itération — on montre que la dynamique induit naturellement une **relation d’antériorité** entre états, définie par l’atteignabilité (transitive closure) plutôt que par un paramètre temporel préalable. Cette relation est toujours un **préordre** (réflexif, transitif) et devient un **ordre partiel** lorsque l’on quotient par l’équivalence de récurrence (mutuelle atteignabilité). Dans le cas discret fini, l’interprétation en graphe fonctionnel rend explicite la décomposition en **composantes** et en **cycles**, et l’on obtient un DAG (« condensation ») qui fournit une flèche d’ordre. -On étend ensuite la construction à des cadres continus en remplaçant l’itération par une **action de semi-groupe** \((\mathbb{R}_+,+)\) (semi-flot), et en distinguant soigneusement le cas **réversible** (action de groupe \((\mathbb{R},+)\), flots bijectifs) du cas **irréversible** (absence d’inverse global, semi-groupes). La « flèche du temps » apparaît alors comme la non-extensibilité d’un semi-groupe en groupe, ce qui peut provenir soit de la non-injectivité (fusion de passés), soit de la perte d’information par agrégation, soit de la présence d’une grandeur monotone (fonction de Lyapunov / ressource consommée). +On étend ensuite la construction à des cadres continus en remplaçant l’itération par une **action de semi-groupe** \((\mathbb{R}\_+,+)\)\)) (semi-flot), et en distinguant soigneusement le cas **réversible** (action de groupe \((((\mathbb{R},+)\)\)), flots bijectifs) du cas **irréversible** (absence d’inverse global, semi-groupes). La « flèche du temps » apparaît alors comme la non-extensibilité d’un semi-groupe en groupe, ce qui peut provenir soit de la non-injectivité (fusion de passés), soit de la perte d’information par agrégation, soit de la présence d’une grandeur monotone (fonction de Lyapunov / ressource consommée). -La métrique temporelle (durée, échelle, granularité) est ensuite reconstruite par des **horloges internes** : compteurs d’événements, longueurs minimales de chaînes, ou temps pondéré par coûts de transitions. Enfin, le chapitre relie ces constructions à deux consensuses : (i) la flèche thermodynamique et l’entropie comme monotone (deuxième loi), et (ii) l’irréversibilité de l’effacement logique et son coût minimal (principe de Landauer). La lecture conditionnelle dérivée reste strictement minimale : dans tout modèle itératif satisfaisant les hypothèses du chapitre, le système peut porter un ordre historique seulement si, au niveau pertinent de description, l’évolution induit un ordre non symétrique (semi-groupe effectif, ou monotone empêchant les retours). La section philosophique conclut sur ce que le formalisme autorise et interdit : il autorise une ontologie du temps comme **structure d’ordre**; il interdit de traiter le temps comme primitif, et interdit d’inférer une métrique unique sans horloge ni convention. +La métrique temporelle (durée, échelle, granularité) est ensuite reconstruite par des **horloges internes** : compteurs d’événements, longueurs minimales de chaînes, ou temps pondéré par coûts de transitions. Enfin, le chapitre relie ces constructions à deux consensuses : (i) la flèche thermodynamique et l’entropie comme monotone (deuxième loi), et (ii) l’irréversibilité de l’effacement logique et son coût minimal (principe de Landauer). La lecture conditionnelle dérivée reste strictement minimale : dans tout modèle itératif satisfaisant les hypothèses du chapitre, le système peut porter un ordre historique seulement si, au niveau pertinent de description, l’évolution induit un ordre non symétrique (semi-groupe effectif, ou monotone empêchant les retours). La section philosophique conclut sur ce que le formalisme autorise et interdit : il autorise une ontologie du temps comme **structure d’ordre** ; il interdit de traiter le temps comme primitif, et interdit d’inférer une métrique unique sans horloge ni convention. ## Primitives non sémantiques et construction de l’ordre induit @@ -896,52 +907,49 @@ La métrique temporelle (durée, échelle, granularité) est ensuite reconstruit On fixe un cadre minimal. -**A0 — Configurations.** Un ensemble non vide \(X\), dont les éléments sont appelés configurations. +**A0 — Configurations.** Un ensemble non vide \(((X\), dont les éléments sont appelés configurations. -**A1 — Transformations admissibles.** Un ensemble \(\mathcal{T}\subseteq X^X\) d’applications \(T:X\to X\), stable par composition et contenant l’identité. Autrement dit, \((\mathcal{T},\circ,\mathrm{Id})\) est un monoïde d’endomorphismes admissibles. +**A1 — Transformations admissibles.** Un ensemble \(\mathcal{T}\subseteq X^X\) d’applications \(T : X\to X\), stable par composition et contenant l’identité. Autrement dit, \((\mathcal{T},\circ,\mathrm{Id})\)\)) est un monoïde d’endomorphismes admissibles. -**A2 — Générateur d’évolution.** On choisit un élément \(f\in\mathcal{T}\). La dynamique « élémentaire » est l’itération de \(f\), et le sous-monoïde engendré par \(f\) est +**A2 — Générateur d’évolution.** On choisit un élément \(((f\in\mathcal{T}\). La dynamique « élémentaire » est l’itération de \(f\), et le sous-monoïde engendré par \(f\) est \[ -\langle f\rangle \;=\;\{f^{(n)}\;:\;n\in\mathbb{N}\}, +\langle f\rangle \ ; =\ ; \{f^{(n)}\ ; : \ ; n\in\mathbb{N}\}, \] où \(f^{(0)}=\mathrm{Id}\) et \(f^{(n+1)}=f\circ f^{(n)}\). -Ces axiomes n’introduisent encore aucun « temps » : ils définissent seulement une fermeture opératoire par composition. +Ces axiomes n’introduisent encore aucun « temps » : ils définissent seulement une fermeture opératoire par composition. ### Relation d’antériorité comme atteignabilité -On définit une relation binaire \(\preceq\) sur \(X\) par : -\[ -x\preceq y \quad\Longleftrightarrow\quad \exists\,T\in\langle f\rangle,\; y=T(x). +On définit une relation binaire \(\preceq\) sur \(X\) par : \[ +x\preceq y \quad\Longleftrightarrow\quad \exists\,T\in\langle f\rangle,\ ; y=T(x). \] -Sans mentionner \(n\), on peut dire : \(y\) appartient à la plus petite partie \(S\subseteq X\) qui contient \(x\) et est stable par \(f\) (i.e. \(f(S)\subseteq S\)). +Sans mentionner \(n\), on peut dire : \(y\) appartient à la plus petite partie \(S\subseteq X\) qui contient \(x\) et est stable par \(f\) (i.e. \(f(S)\)\)subseteq S\)). -**Proposition 1 — \(\preceq\) est un préordre.** +**Proposition 1 — \(((\preceq\) est un préordre.** La relation \(\preceq\) est réflexive et transitive. -_Démonstration._ -Réflexivité : \(x = f^{(0)}(x)\), donc \(x\preceq x\). -Transitivité : si \(x\preceq y\) et \(y\preceq z\), il existe \(m,n\) tels que \(y=f^{(m)}(x)\) et \(z=f^{(n)}(y)\). Alors \(z=f^{(n)}(f^{(m)}(x))=f^{(m+n)}(x)\), donc \(x\preceq z\). □ +**Démonstration.** +Réflexivité : \(x = f^{(0)}(x)\)\)), donc \(((x\preceq x\). +Transitivité : si \(x\preceq y\) et \(y\preceq z\), il existe \(m,n\) tels que \(y=f^{(m)}(x)\)\)) et \(((z=f^{(n)}(y)\)\)). Alors \(((z=f^{(n)}(f^{(m)}(x))=f^{(m+n)}(x)\)\)), donc \(((x\preceq z\). □ -**Remarque structurale.** La définition ne dépend d’aucune métrique ni d’aucun paramètre géométrique : \(\preceq\) est une structure d’ordre issue du seul fait qu’il existe un « successeur admissible » (application de \(f\)). +**Remarque structurale.** La définition ne dépend d’aucune métrique ni d’aucun paramètre géométrique : \(\preceq\) est une structure d’ordre issue du seul fait qu’il existe un « successeur admissible » (application de \(f\)). -### Antisymétrie et cycles : pourquoi l’ordre échoue sur \(X\) +### Antisymétrie et cycles : pourquoi l’ordre échoue sur \(X\) -Un préordre devient un ordre partiel si, en plus, il est antisymétrique : -\[ -(x\preceq y\ \&\ y\preceq x)\ \Rightarrow\ x=y. +Un préordre devient un ordre partiel si, en plus, il est antisymétrique : \[ +(x\preceq y\ \&\ y\preceq x)\)\) \Rightarrow\ x=y. \] -Or, dès qu’il existe une périodicité (cycle), l’antisymétrie échoue : si \(y=f^{(k)}(x)\) et \(x=f^{(p)}(y)\), alors \(x\preceq y\) et \(y\preceq x\) sans que \(x=y\). +Or, dès qu’il existe une périodicité (cycle), l’antisymétrie échoue : si \(((y=f^{(k)}(x)\)\)) et \(((x=f^{(p)}(y)\)\)), alors \(((x\preceq y\) et \(y\preceq x\) sans que \(x=y\). Cette obstruction est exactement la présence d’ensembles invariants périodiques (chapitre 3). ### Quotient par récurrence et apparition d’un ordre partiel canonique -On introduit l’équivalence de récurrence (mutuelle atteignabilité) : -\[ -x\sim y \quad\Longleftrightarrow\quad (x\preceq y)\ \text{et}\ (y\preceq x). +On introduit l’équivalence de récurrence (mutuelle atteignabilité) : \[ +x\sim y \quad\Longleftrightarrow\quad (x\preceq y)\)\) \text{et}\ (y\preceq x). \] -**Proposition 2 — \(\sim\) est une relation d’équivalence.** +**Proposition 2 — \(((\sim\) est une relation d’équivalence.** Elle est réflexive (Proposition 1), symétrique par définition, transitive par composition des atteignabilités. On considère le quotient \(X/{\sim}\) et on définit une relation \(\preceq^\*\) sur les classes \([x]\) par @@ -951,14 +959,14 @@ On considère le quotient \(X/{\sim}\) et on définit une relation \(\preceq^\*\ **Proposition 3 — \(\preceq^\*\) est un ordre partiel sur \(X/{\sim}\).** Elle est réflexive, transitive, et antisymétrique. -_Démonstration (antisymétrie)._ +**Démonstration** (antisymétrie). Supposons \([x]\preceq^\*[y]\) et \([y]\preceq^\*[x]\). Alors \(x\preceq y\) et \(y\preceq x\), donc \(x\sim y\), donc \([x]=[y]\). □ Ainsi, **le temps comme ordre** n’est pas d’abord un ordre sur les états, mais un ordre sur les **classes asymptotiques de récurrence** (cycles et leurs « noyaux »), objets construits au chapitre 3. ### Lecture en graphe fonctionnel et condensation en DAG -Dans le cas discret (un seul successeur), on associe le graphe orienté \(G_f\) des arcs \((x,f(x))\). Le préordre \(\preceq\) est exactement l’atteignabilité le long des arcs. Les classes \(\sim\) sont les **composantes fortement connexes**; dans un graphe fonctionnel fini, elles correspondent aux cycles, et la condensation (graphe des classes) est acyclique, donc un DAG. Cette « acyclicité au niveau des classes » est l’ombre combinatoire de ce qui sera plus tard appelé flèche (absence de retour inter-classes). +Dans le cas discret (un seul successeur), on associe le graphe orienté \(G\_f\) des arcs \((x,f(x))\)\)). Le préordre \(((\preceq\) est exactement l’atteignabilité le long des arcs. Les classes \(\sim\) sont les **composantes fortement connexes** ; dans un graphe fonctionnel fini, elles correspondent aux cycles, et la condensation (graphe des classes) est acyclique, donc un DAG. Cette « acyclicité au niveau des classes » est l’ombre combinatoire de ce qui sera plus tard appelé flèche (absence de retour inter-classes). ```mermaid flowchart TD @@ -975,116 +983,117 @@ flowchart TD ## Temps discret, temps continu, flots et semi-groupes -La structure précédente suggère une thèse de méthode : **le temps est le paramètre qui indexe une action de monoïde**. On le construit alors à partir de la propriété de composition. +La structure précédente suggère une thèse de méthode : **le temps est le paramètre qui indexe une action de monoïde**. On le construit alors à partir de la propriété de composition. -### Discret : action de \((\mathbb{N},+)\) et itération +### Discret : action de \((\mathbb{N},+)\)\)) et itération -Définissons \(\Phi:\mathbb{N}\times X\to X\) par \(\Phi(n,x)=f^{(n)}(x)\). Alors +Définissons \(((\Phi : \mathbb{N}\times X\to X\) par \(\Phi(n,x)=f^{(n)}(x)\)\)). Alors \[ \Phi(0,x)=x,\qquad \Phi(n+m,x)=\Phi(n,\Phi(m,x)). \] -C’est une action du monoïde \((\mathbb{N},+)\) sur \(X\). Réciproquement, toute action \(\Phi\) de \((\mathbb{N},+)\) sur \(X\) est déterminée par \(f(x):=\Phi(1,x)\). Autrement dit, « discret » signifie : le paramètre est construit comme **longueur de composition**. +C’est une action du monoïde \((((\mathbb{N},+)\)\)) sur \(((X\). Réciproquement, toute action \(\Phi\) de \((\mathbb{N},+)\)\)) sur \(((X\) est déterminée par \(f(x) : =\Phi(1,x)\)\)). Autrement dit, « discret » signifie : le paramètre est construit comme **longueur de composition**. -Ce point est exactement celui que von Neumann met en évidence lorsqu’il souligne que, pour les automates, il ne suffit pas qu’un résultat soit atteignable en un nombre fini d’étapes ; **le nombre d’étapes** et les « ordres de grandeur de durée » deviennent constitutifs de la théorie. +Ce point est exactement celui que von Neumann met en évidence lorsqu’il souligne que, pour les automates, il ne suffit pas qu’un résultat soit atteignable en un nombre fini d’étapes ; **le nombre d’étapes** et les « ordres de grandeur de durée » deviennent constitutifs de la théorie. -### Continu : flots (groupes) et semi-flots (semi-groupes) +### Continu : flots (groupes) et semi-flots (semi-groupes) -Pour un champ de vecteurs générant une équation différentielle, on dispose d’une application de flot \(\Phi_t\) (quand elle existe globalement) qui envoie une condition initiale sur l’état à l’instant \(t\). Lorsque le flot est défini pour tout \(t\ge 0\), on parle d’invariance positive et de dynamique comme application \(\Phi_t:D\to D\) avec \(\Phi_t(D)\subseteq D\) pour tout \(t\ge 0\). +Pour un champ de vecteurs générant une équation différentielle, on dispose d’une application de flot \(((\Phi\_t\) (quand elle existe globalement) qui envoie une condition initiale sur l’état à l’instant \(t\). Lorsque le flot est défini pour tout \(t\ge 0\), on parle d’invariance positive et de dynamique comme application \(\Phi\_t : D\to D\) avec \(\Phi\_t(D)\)\)subseteq D\) pour tout \(((t\ge 0\). -La distinction structurante est la suivante : +La distinction structurante est la suivante : -- **Flot** : action de \((\mathbb{R},+)\) (groupe), donc existence d’une évolution pour \(t<0\) et d’inverses \(\Phi_{-t}=\Phi_t^{-1}\). -- **Semi-flot / semi-groupe** : action de \((\mathbb{R}_+,+)\), définie uniquement pour \(t\ge 0\), sans inverse global. +- **Flot** : action de \((\mathbb{R},+)\)\)) (groupe), donc existence d’une évolution pour \(((t<0\) et d’inverses \(\Phi\_{-t}=\Phi\_t^{-1}\). -Dans un cadre plus abstrait (Banach, opérateurs), cette propriété de semi-groupe est formulée explicitement : identité à \(t=0\), et propriété \(\,S_{t+s}=S_tS_s\) pour \(t,s\ge 0\). +- **Semi-flot / semi-groupe** : action de \((\mathbb{R}\_+,+)\)\)), définie uniquement pour \(((t\ge 0\), sans inverse global. -Ainsi, « temps continu » n’est pas une donnée primitive : il apparaît comme **paramètre d’une loi de composition**. Le temps devient « réel » lorsque l’action est compatible avec une structure topologique et une continuité \(t\mapsto S_t x\). +Dans un cadre plus abstrait (Banach, opérateurs), cette propriété de semi-groupe est formulée explicitement : identité à \(t=0\), et propriété \(\,S\_{t+s}=S\_tS\_s\) pour \(t,s\ge 0\). + +Ainsi, « temps continu » n’est pas une donnée primitive : il apparaît comme **paramètre d’une loi de composition**. Le temps devient « réel » lorsque l’action est compatible avec une structure topologique et une continuité \(t\mapsto S\_t x\). ### Condition de réversibilité comme extensibilité en groupe **Proposition 4 — Réversibilité discrète.** -L’action discrète se prolonge en action de \((\mathbb{Z},+)\) si et seulement si \(f\) est bijective (donc \(f^{-1}\) existe). +L’action discrète se prolonge en action de \((\mathbb{Z},+)\)\)) si et seulement si \(((f\) est bijective (donc \(f^{-1}\) existe). -_Démonstration._ +**Démonstration.** Si \(f\) est bijective, définir \(f^{(-n)}=(f^{-1})^{(n)}\) donne une action de \(\mathbb{Z}\). Réciproquement, si une action de \(\mathbb{Z}\) existe, l’élément correspondant à \(-1\) est un inverse de \(f\), donc \(f\) est bijective. □ -Cette proposition formalise la flèche du temps au niveau le plus nu : **absence d’inverse = absence de temps négatif**, donc semi-groupe plutôt que groupe. +Cette proposition formalise la flèche du temps au niveau le plus nu : **absence d’inverse = absence de temps négatif**, donc semi-groupe plutôt que groupe. -## Flèche du temps : irréversibilité formelle, non-injectivité et consommation +## Flèche du temps : irréversibilité formelle, non-injectivité et consommation Le plan de l’ouvrage exige ici des « premiers critères » d’irréversibilité, sans encore fonder les mécanismes généalogiques ultérieurs. On distingue trois sources formelles d’orientation. ### Irréversibilité comme non-injectivité -Une application non injective fusionne des passés : il existe \(x\neq y\) tels que \(f(x)=f(y)\). Alors le prédécesseur n’est pas déterminable à partir du seul présent. Cette propriété suffit à empêcher l’extension en groupe (Proposition 4) et à imposer une asymétrie intrinsèque. +Une application non injective fusionne des passés : il existe \(x\neq y\) tels que \(f(x)=f(y)\)\)). Alors le prédécesseur n’est pas déterminable à partir du seul présent. Cette propriété suffit à empêcher l’extension en groupe (Proposition 4) et à imposer une asymétrie intrinsèque. Dans un langage de théorie des automates, cela correspond exactement à une fonction de transition sans inverse univoque, phénomène que Landauer décrit comme « logical functions that do not have a single-valued inverse », associées à une irréversibilité physique. ### Irréversibilité comme perte par agrégation (non-injectivité effective) -Même si la dynamique microscopique était bijective, l’irréversibilité peut apparaître à un niveau de description agrégé. Cela se formalise par une application d’observation/quantification \(q:X\to A\) (alphabet fini ou espace grossier). La dynamique observée est +Même si la dynamique microscopique était bijective, l’irréversibilité peut apparaître à un niveau de description agrégé. Cela se formalise par une application d’observation/quantification \(((q : X\to A\) (alphabet fini ou espace grossier). La dynamique observée est \[ -a_{n+1} = \tilde f(a_n) \quad\text{avec}\quad a_n=q(x_n), +a\_{n+1} = \tilde f(a\_n) \quad\text{avec}\quad a\_n=q(x\_n), \] -mais \(\tilde f\) n’est pas nécessairement bien définie sans hypothèse; plus généralement, on obtient une relation de transition sur \(A\) qui est typiquement non injective (plusieurs micro-états distincts deviennent le même macro-état). +mais \(\tilde f\) n’est pas nécessairement bien définie sans hypothèse ; plus généralement, on obtient une relation de transition sur \(A\) qui est typiquement non injective (plusieurs micro-états distincts deviennent le même macro-état). -Ce mécanisme rejoint un consensus de la physique statistique : l’irréversibilité macroscopique provient du fait que l’on travaille sur des descriptions incomplètes, et Jaynes discute explicitement le lien entre « information loss » et irréversibilité dans l’extension de la mécanique statistique aux phénomènes dépendant du temps. +Ce mécanisme rejoint un consensus de la physique statistique : l’irréversibilité macroscopique provient du fait que l’on travaille sur des descriptions incomplètes, et Jaynes discute explicitement le lien entre « information loss » et irréversibilité dans l’extension de la mécanique statistique aux phénomènes dépendant du temps. -### Irréversibilité par monotone : ressources et fonctions de Lyapunov +### Irréversibilité par monotone : ressources et fonctions de Lyapunov Un troisième critère, purement formel, consiste à enrichir le système d’une « grandeur » monotone le long des trajectoires. **Définition — Monotone d’évolution.** -Soit \((S,\le)\) un ordre (souvent bien fondé). Une fonction \(V:X\to S\) est un monotone si \(V(f(x))\le V(x)\) pour tout \(x\). Elle est strictement dissipative si \(V(f(x)) c1["h=h+1 si P(x)"] end - x0 -. "observe P(x0)" .-> c1 - x1 -. "observe P(x1)" .-> c1 + x0 -. « observe P(x0) » .-> c1 + x1 -. « observe P(x1) » .-> c1 ``` -### Horloge pondérée : temps comme somme de coûts +### Horloge pondérée : temps comme somme de coûts -On peut enrichir l’horloge par un poids \(w:X\to\mathbb{R}_+\) (ou sur les arêtes) et définir un temps accumulé +On peut enrichir l’horloge par un poids \(w : X\to\mathbb{R}*+\) (ou sur les arêtes) et définir un temps accumulé \[ -t_{n+1}=t_n+w(x_n). +\(t\_{n+1}=t\_n+w(x\_n)\)\)). \] -On obtient alors une métrique de durée dépendant de la trajectoire, sans introduire d’horloge externe : l’horloge est un **fonctionnel de chemin**. +On obtient alors une métrique de durée dépendant de la trajectoire, sans introduire d’horloge externe : l’horloge est un **fonctionnel de chemin**. -Cette construction devient particulièrement significative lorsqu’on relie \(w\) à une dissipation, une dépense, ou à une production d’entropie (section suivante), mais elle existe purement formellement. +Cette construction devient particulièrement significative lorsqu’on relie \(((w\) à une dissipation, une dépense, ou à une production d’entropie (section suivante), mais elle existe purement formellement. ## Thermodynamique de l’information et flèche thermodynamique -Cette section n’introduit aucune entité sémantique. Elle relie deux consensuses : la flèche thermodynamique (entropie) et l’irréversibilité de certaines opérations logiques (Landauer). +Cette section n’introduit aucune entité sémantique. Elle relie deux consensuses : la flèche thermodynamique (entropie) et l’irréversibilité de certaines opérations logiques (Landauer). -### Shannon : mesure logarithmique non sémantique +### Shannon : mesure logarithmique non sémantique Shannon insiste explicitement sur le fait que les aspects sémantiques sont hors champ de la théorie de la communication, et que l’information pertinente est celle d’un choix parmi des messages possibles, mesurée naturellement par une fonction logarithmique. -Ce rappel n’est pas historique : il légitime une méthode où la « structure d’ordre » (ici, l’ordre temporel) est construite sans signification préalable. +Ce rappel n’est pas historique : il légitime une méthode où la « structure d’ordre » (ici, l’ordre temporel) est construite sans signification préalable. -### Boltzmann : probabilité, entropie et tendance macroscopique +### Boltzmann : probabilité, entropie et tendance macroscopique Dans sa formulation cinétique, Boltzmann affirme que l’explication des lois thermiques doit s’appuyer sur la théorie des probabilités et sur une fonction de distribution décrivant le nombre de molécules dans chaque état au cours du temps. Cette approche fonde l’idée qu’une flèche (croissance de l’entropie) n’est pas un axiome mécanique, mais une propriété typique à l’échelle de grandes multiplicités. Dans son texte de 1877 (traduit), Boltzmann relie explicitement le second principe à des calculs de probabilité et à une mesure de « permutabilité » des distributions d’état, ouvrant une définition statistique de l’entropie applicable au-delà de l’équilibre. -### Poincaré : récurrence et limite d’une flèche absolue au niveau microscopique +### Poincaré : récurrence et limite d’une flèche absolue au niveau microscopique -Le théorème de récurrence (version conservatrice) établit qu’un système préservant une mesure finie (volume de phase) présente une récurrence : des points reviennent arbitrairement près de leur état initial. Une démonstration-type utilise exactement un argument de finitude de mesure (impossibilité d’images disjointes infinies d’un ouvert). +Le théorème de récurrence (version conservatrice) établit qu’un système préservant une mesure finie (volume de phase) présente une récurrence : des points reviennent arbitrairement près de leur état initial. Une démonstration-type utilise exactement un argument de finitude de mesure (impossibilité d’images disjointes infinies d’un ouvert). -Conséquence (consensus) : si la dynamique microscopique est réversible et conservatrice sur un espace de volume fini, alors aucune grandeur strictement monotone ne peut exister sur les micro-états eux-mêmes. La flèche doit donc être cherchée soit dans une description agrégée, soit dans un couplage à un extérieur (système ouvert), soit dans une notion de typicité/probabilité. +Conséquence (consensus) : si la dynamique microscopique est réversible et conservatrice sur un espace de volume fini, alors aucune grandeur strictement monotone ne peut exister sur les micro-états eux-mêmes. La flèche doit donc être cherchée soit dans une description agrégée, soit dans un couplage à un extérieur (système ouvert), soit dans une notion de typicité/probabilité. Cette contrainte mathématique est l’une des raisons pour lesquelles le « temps comme ordre » doit être construit au niveau adéquat (classes, observables, ou monotones), et non imposé comme absolu. -### Landauer : non-injectivité logique \(\Rightarrow\) coût thermodynamique minimal +### Landauer : non-injectivité logique \(\Rightarrow\) coût thermodynamique minimal Landauer formule un lien direct entre opérations logiquement irréversibles — celles qui « n’ont pas d’inverse à valeur unique » — et irréversibilité physique, avec un coût minimal de dissipation typiquement de l’ordre de \(kT\) par opération irréversible. @@ -1145,11 +1154,11 @@ Dans notre langage, une opération d’effacement est une application non inject \] qui contracte l’espace des passés possibles. La non-injectivité est donc non seulement un critère formel d’irréversibilité (Proposition 4), mais aussi un critère physiquement contraint lorsqu’il s’agit d’implémentation matérielle. -Note de méthode (statut du lien modèle ↔ physique). - -- non‑injectivité formelle : propriété d’une application/quotient dans le modèle. -- irréversibilité logique : absence d’inverse univoque au niveau computationnel. -- irréversibilité thermodynamique : coût de dissipation dans une implémentation matérielle donnée. +> **Note de méthode** (statut du lien modèle ↔ physique). +> +> - non‑injectivité formelle : propriété d’une application/quotient dans le modèle. +> - irréversibilité logique : absence d’inverse univoque au niveau computationnel. +> - irréversibilité thermodynamique : coût de dissipation dans une implémentation matérielle donnée. Landauer borne le coût minimal de certains effacements logiques dans un cadre thermodynamique donné ; il n’implique ni que toute non‑injectivité abstraite soit réalisée comme effacement, ni que la dissipation observée atteigne la borne. Bennett clarifie le même point en montrant qu’on peut rendre une computation logiquement réversible en conservant l’information sur une « bande d’historique », mais que le problème réapparaît lors de l’effacement de cet historique, ce qui rejoint explicitement l’argument de Landauer. @@ -1157,16 +1166,16 @@ Il donne aussi une borne thermodynamique en termes de \(kT\ln 2\) pour une perte Enfin, le consensus en thermodynamique de la computation admet que des modèles de computation thermodynamiquement réversible existent (dissipation tendant vers 0 dans une limite quasi-statique), mais qu’ils exigent une logique réversible et une conduite suffisamment lente. -### Prigogine : entropie, histoire et diversification des niveaux de temps +### Prigogine : entropie, histoire et diversification des niveaux de temps Prigogine rappelle la centralité du second principe, introduit la distinction réversible/irréversible et insiste sur le fait que l’entropie (et sa production) fournit une direction privilégiée, avec la possibilité d’états organisés hors équilibre (« structures dissipatives »). Il formule aussi explicitement que l’incorporation d’éléments thermodynamiques conduit à un sens du temps lié à l’irréversibilité et à l’histoire, et distingue des niveaux de temps (dynamique, Lyapunov/entropie, historique via bifurcations). -Dans la logique de ce livre, cette remarque est une **correspondance** : notre construction purement formelle (ordre via monotone, semi-groupe effectif) est précisément ce que la thermodynamique réalise empiriquement via entropie/production d’entropie. +Dans la logique de ce livre, cette remarque est une **correspondance** : notre construction purement formelle (ordre via monotone, semi-groupe effectif) est précisément ce que la thermodynamique réalise empiriquement via entropie/production d’entropie. ## Implications déduites et analyse philosophique finale -### Implications strictement déduites (statut explicite) +### Implications strictement déduites (statut explicite) — Ch. 4 On se limite à ce qui suit des sections mathématiques. @@ -1174,101 +1183,104 @@ On se limite à ce qui suit des sections mathématiques. Dès qu’un successeur admissible est défini (A2), la relation d’atteignabilité \(\preceq\) existe et fournit une structure d’antériorité (préordre). Le « temps » au sens minimal est donc l’ordre d’engendrement des configurations. 2. **Une flèche exige une rupture de symétrie au niveau pertinent.** -Si la dynamique est bijective et se prolonge en groupe, « aller en arrière » est défini formellement; la structure d’ordre n’est pas antisymétrique sur \(X\) et la récurrence (en contexte conservatif) rend impossible un monotone strict sur micro-états. -À l’inverse, une flèche apparaît si l’évolution effective au niveau considéré est une action de semi-groupe non extensible en groupe : non-injectivité, agrégation, ou monotone strict (Proposition 5). +Si la dynamique est bijective et se prolonge en groupe, « aller en arrière » est défini formellement ; la structure d’ordre n’est pas antisymétrique sur \(X\) et la récurrence (en contexte conservatif) rend impossible un monotone strict sur micro-états. +À l’inverse, une flèche apparaît si l’évolution effective au niveau considéré est une action de semi-groupe non extensible en groupe : non-injectivité, agrégation, ou monotone strict (Proposition 5). -3. **Accumulation historique : condition nécessaire.** -Pour qu’une accumulation (au sens strict : une impossibilité structurelle de « défaire exactement » la succession) soit possible, il faut au moins une des deux conditions : - - (i) perte irréversible d’antécédents (non-injectivité) ; - - (ii) présence d’un monotone strict (ressource/entropie/coût) empêchant les cycles au niveau pertinent. -Landauer fournit un ancrage physique : lorsqu’une instanciation réalise effectivement une contraction des passés comme effacement logique, une borne minimale borne le coût associé, ce qui rend plausible une orientation irréductible dans les transformations matériellement réalisables. +3. **Accumulation historique : condition nécessaire.** +Pour qu’une accumulation (au sens strict : une impossibilité structurelle de « défaire exactement » la succession) soit possible, il faut au moins une des deux conditions : + +- (i) perte irréversible d’antécédents (non-injectivité) + +- (ii) présence d’un monotone strict (ressource/entropie/coût) empêchant les cycles au niveau pertinent. +Landauer fournit un ancrage physique : lorsqu’une instanciation réalise effectivement une contraction des passés comme effacement logique, une borne minimale borne le coût associé, ce qui rend plausible une orientation irréductible dans les transformations matériellement réalisables. ### Ontologie du temps comme ordre et limites du formalisme Le point philosophique ici n’est pas une doctrine, mais une **lecture de nécessité**. - Le temps n’apparaît pas d’abord comme une substance ni comme une dimension géométrique, mais comme une **structure d’ordre** induite par la composition des transformations. -- Une « durée » n’est pas donnée : elle est une mesure (horloge) construite sur des chaînes d’événements, et une granularité est une propriété de l’instrument d’indexation (sous-échantillonnage, compteur, poids). +- Une « durée » n’est pas donnée : elle est une mesure (horloge) construite sur des chaînes d’événements, et une granularité est une propriété de l’instrument d’indexation (sous-échantillonnage, compteur, poids). -Ce que le formalisme **interdit** à ce stade : +Ce que le formalisme **interdit** à ce stade : -- d’identifier le temps à une métrique unique universelle : sans horloge (compteur) ni structure supplémentaire, on ne dispose que d’un ordre (préordre / ordre sur classes) ; -- d’affirmer une flèche absolue au niveau microscopique dans un cadre strictement réversible et conservatif : la récurrence (au sens large) impose des retours, donc la flèche doit être située au niveau de description effectif (classe/observable/système ouvert). -- de confondre « ordre temporel » et « optimisation » : aucune fonction objectif n’a été postulée; seules des contraintes d’atteignabilité et de monotonicité (si ajoutée) sont en jeu. +- d’identifier le temps à une métrique unique universelle : sans horloge (compteur) ni structure supplémentaire, on ne dispose que d’un ordre (préordre / ordre sur classes) -Ce que le formalisme **autorise** dès maintenant : +- d’affirmer une flèche absolue au niveau microscopique dans un cadre strictement réversible et conservatif : la récurrence (au sens large) impose des retours, donc la flèche doit être située au niveau de description effectif (classe/observable/système ouvert). +- de confondre « ordre temporel » et « optimisation » : aucune fonction objectif n’a été postulée ; seules des contraintes d’atteignabilité et de monotonicité (si ajoutée) sont en jeu. + +Ce que le formalisme **autorise** dès maintenant : + +- une définition du « présent » comme classe d’équivalence de récurrence (quotient \(X/\sim\)) -- une définition du « présent » comme classe d’équivalence de récurrence (quotient \(X/\sim\)) ; - une définition opérationnelle de l’« irréversibilité » comme non-extensibilité d’un semi-groupe en groupe, compatible avec les contraintes thermodynamiques connues (Landauer, second principe) et avec la stabilité au sens Lyapunov (monotones). ### Tableau comparatif synthétique | Cadre | Paramètre d’évolution | Structure algébrique | Inverses | Flèche formelle | Obstruction typique | -|---|---|---|---|---|---| +| --- | --- | --- | --- | --- | --- | | Discret (itération) | composition de \(f\) | monoïde \(\langle f\rangle\) | non si \(f\) non bijective | oui (semi-groupe) | non-injectivité, cycles | | Discret réversible | idem + \(f^{-1}\) | groupe \(\langle f\rangle\simeq\mathbb{Z}\) | oui | non intrinsèque | récurrence/cycles (si fini) | -| Continu (semi-flot) | \(t\ge 0\) | semi-groupe \((\mathbb{R}_+,+)\) | non en général | oui | dissipation, perte d’info | -| Continu (flot) | \(t\in\mathbb{R}\) | groupe \((\mathbb{R},+)\) | oui | non intrinsèque | récurrence (conservatif) | +| Continu (semi-flot) | \(t\ge 0\) | semi-groupe \((\mathbb{R}\_+,+)\)\)) | non en général | oui | dissipation, perte d’info | +| Continu (flot) | \(((t\in\mathbb{R}\) | groupe \((\mathbb{R},+)\)\)) | oui | non intrinsèque | récurrence (conservatif) | | Propriété | Injectif | Non injectif | -|---|---|---| +| --- | --- | --- | | Reconstruction du passé (unique) | possible (en principe) | impossible (passés fusionnés) | | Extension en groupe | possible | impossible | | Coût thermodynamique d’effacement | non requis si tout est réversible | borne minimale si effacement logique (Landauer) | -Le chapitre suivant pourra donc porter sur la conséquence déjà annoncée dans le plan : comment cette structure d’ordre, lorsqu’elle s’accompagne de non-injectivité et de contraintes de transformation, prépare une notion plus forte d’irréversibilité et d’histoire (chapitres 9–10), puis de transmission et de généalogie (chapitres 11–12). +Le chapitre suivant pourra donc porter sur la conséquence déjà annoncée dans le plan : comment cette structure d’ordre, lorsqu’elle s’accompagne de non-injectivité et de contraintes de transformation, prépare une notion plus forte d’irréversibilité et d’histoire (chapitres 9–10), puis de transmission et de généalogie (chapitres 11–12). --- -# Chapitre 5 — Compression, non‑injectivité et classes de formes +## Chapitre 5 — Compression, non‑injectivité et classes de formes {#chapitre-5-compression-non-injectivite-et-classes-de-formes} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 5 -Hypothèses (H). +**Hypothèses (H).** -- existence d’une description/projection \(q:X\to A\) (contrainte de description) ; +- existence d’une description/projection \(((q : X\to A\) (contrainte de description) - possibilité de non‑injectivité (collisions) induite par finitude, compression ou observabilité agrégée. -Résultats (E). +**Résultats (E).** -- construction des fibres, partitions et classes d’équivalence induites par \(q\) ; -- formalisation de la compression comme projection/quotient et de la dynamique induite sur les classes (système facteur) ; +- construction des fibres, partitions et classes d’équivalence induites par \(q\) +- formalisation de la compression comme projection/quotient et de la dynamique induite sur les classes (système facteur) - mise en place de quantificateurs (entropies, complexités) comme couches optionnelles indexées. -Statut. +**Statut.** - noyau ensembliste pour partitions/quotients ; quantifications informationnelles annoncées comme couches mesurée/probabiliste déclarées. -## Résumé exécutif +## Résumé exécutif — Ch. 5 -Ce chapitre formalise un mécanisme structural déjà latent dans les chapitres précédents : dès qu’un système itératif opère sous **contraintes de description** (finitude globale, finitude locale, ou observabilité agrégée), les transformations effectives deviennent typiquement **non injectives**. Cette non‑injectivité engendre des **collisions** (plusieurs antécédents pour un même résultat), lesquelles imposent à leur tour des **partitions** de l’espace des configurations en **fibres** et en **classes d’équivalence**. +Ce chapitre formalise un mécanisme structural déjà latent dans les chapitres précédents : dès qu’un système itératif opère sous **contraintes de description** (finitude globale, finitude locale, ou observabilité agrégée), les transformations effectives deviennent typiquement **non injectives**. Cette non‑injectivité engendre des **collisions** (plusieurs antécédents pour un même résultat), lesquelles imposent à leur tour des **partitions** de l’espace des configurations en **fibres** et en **classes d’équivalence**. -D’abord, on établit des résultats élémentaires mais structurants : toute application \(q:X\to A\) avec \(|A|<|X|\) induit une partition par fibres; le degré de collision se borne par des arguments de comptage (principe des tiroirs) et, sous contraintes de codage, par des inégalités de type Kraft–McMillan (existence de codes à longueurs données) et par les bornes de Shannon sur la compression sans perte. Ensuite, on formalise la compression comme **projection** (idempotente) ou comme **quotient** (factorisation), et on introduit des « attracteurs de second ordre » : attracteurs de la dynamique induite sur un espace **des classes** (système facteur). Enfin, on relie ces constructions à des quantités de consensus : entropie de Shannon (et entropie conditionnelle) pour mesurer la perte induite par une projection déterministe, et complexité algorithmique de Kolmogorov comme mesure intrinsèque de compressibilité (non calculable en général, mais conceptuellement fondatrice). +D’abord, on établit des résultats élémentaires mais structurants : toute application \(q : X\to A\) avec \(|A|<|X|\) induit une partition par fibres ; le degré de collision se borne par des arguments de comptage (principe des tiroirs) et, sous contraintes de codage, par des inégalités de type Kraft–McMillan (existence de codes à longueurs données) et par les bornes de Shannon sur la compression sans perte. Ensuite, on formalise la compression comme **projection** (idempotente) ou comme **quotient** (factorisation), et on introduit des « attracteurs de second ordre » : attracteurs de la dynamique induite sur un espace **des classes** (système facteur). Enfin, on relie ces constructions à des quantités de consensus : entropie de Shannon (et entropie conditionnelle) pour mesurer la perte induite par une projection déterministe, et complexité algorithmique de Kolmogorov comme mesure intrinsèque de compressibilité (non calculable en général, mais conceptuellement fondatrice). -La partie « héritage morphologique » reste formelle : elle définit un **registre transmissible** comme mémoire de collisions (cooccurrences de classes) et montre quelles conditions minimales (flèche d’événements, disponibilité de projections stables) sont requises pour qu’une accumulation historique devienne possible, sans invoquer finalité ni sémantique. +La partie « héritage morphologique » reste formelle : elle définit un **registre transmissible** comme mémoire de collisions (cooccurrences de classes) et montre quelles conditions minimales (flèche d’événements, disponibilité de projections stables) sont requises pour qu’une accumulation historique devienne possible, sans invoquer finalité ni sémantique. -## Fondations formelles : non‑injectivité, collisions, partitions, fibres +## Fondations formelles : non‑injectivité, collisions, partitions, fibres -Soit \(X\) un ensemble de configurations (fini ou non), et \(q:X\to A\) une application. +Soit \(X\) un ensemble de configurations (fini ou non), et \(q : X\to A\) une application. **Définition (injectivité / non‑injectivité).** -\(q\) est injective si \(q(x)=q(y)\Rightarrow x=y\). Elle est non injective s’il existe \(x\neq y\) tels que \(q(x)=q(y)\). +\(q\) est injective si \(q(x)=q(y)\)\)Rightarrow x=y\). Elle est non injective s’il existe \(((x\neq y\) tels que \(q(x)=q(y)\)\)). **Définition (collision).** -Une collision est un couple \((x,y)\) avec \(x\neq y\) et \(q(x)=q(y)\). Le modèle ne qualifie pas moralement la collision : c’est un fait structurel. +Une collision est un couple \((((x,y)\)\)) avec \(((x\neq y\) et \(q(x)=q(y)\)\)). Le modèle ne qualifie pas moralement la collision : c’est un fait structurel. **Définition (fibre).** -Pour \(a\in A\), la fibre (préimage) est +Pour \(((a\in A\), la fibre (préimage) est \[ -F_a \;=\; q^{-1}(a)\;=\;\{x\in X:\ q(x)=a\}. +F\_a \ ; =\ ; q^{-1}(a)\)\) ; =\ ; \{x\in X : \ q(x)=a\}. \] **Proposition 1 (partition par fibres).** -L’ensemble \(\{F_a\}_{a\in A}\) forme une partition de \(X\) restreinte à l’image : -(i) \(X=\bigsqcup_{a\in q(X)} F_a\) ; (ii) \(F_a\cap F_b=\varnothing\) si \(a\neq b\). +L’ensemble \(((\{F\_a\}\_{a\in A}\) forme une partition de \(X\) restreinte à l’image : (i) \(X=\bigsqcup\_{a\in q(X)} F\_a\) ; (ii) \(F\_a\cap F\_b=\varnothing\) si \(a\neq b\). -_Preuve._ -Chaque \(x\in X\) appartient à \(F_{q(x)}\), donc \(X=\bigcup_{a\in q(X)}F_a\). Si \(x\in F_a\cap F_b\), alors \(q(x)=a=b\), contradiction si \(a\neq b\). □ +**Preuve.** +Chaque \(x\in X\) appartient à \(F\_{q(x)}\), donc \(X=\bigcup\_{a\in q(X)}F\_a\). Si \(x\in F\_a\cap F\_b\), alors \(q(x)=a=b\), contradiction si \(a\neq b\). □ ### Collisions imposées par compression de cardinal @@ -1277,79 +1289,78 @@ Supposons \(X\) fini, \(|X|=N\), et \(|q(X)|=M\). **Proposition 2 (principe des tiroirs → collision).** Si \(M|itération| X ``` -Note de méthode (Kaprekar : caractérisation de régimes). -Cet exemple sert ici de fil directeur (compression + dynamique). Toute conclusion quantitative sur l’opérateur \(\kappa\) est indexée par \((B,D)\) et par le protocole (distribution initiale, éventuelles règles de bruit/réparation). -Un usage de type « signature » exige une caractérisation explicite des régimes : nombre et types d’attracteurs, tailles de bassins, seuils de dominance, robustesse sous perturbations et sous transformations non sémantiques. Cette caractérisation est traitée comme un programme d’analyse, distinct des résultats généraux du noyau. +> **Note de méthode** (Kaprekar : caractérisation de régimes). +> +> Cet exemple sert ici de fil directeur (compression + dynamique). Toute conclusion quantitative sur l’opérateur \(\kappa\) est indexée par \((B,D)\)\)) et par le protocole (distribution initiale, éventuelles règles de bruit/réparation). +> Un usage de type « signature » exige une caractérisation explicite des régimes : nombre et types d’attracteurs, tailles de bassins, seuils de dominance, robustesse sous perturbations et sous transformations non sémantiques. Cette caractérisation est traitée comme un programme d’analyse, distinct des résultats généraux du noyau. -## Mesures de compression : entropies, complexités, distances +## Mesures de compression : entropies, complexités, distances ### Entropie de Shannon et perte induite par une projection déterministe -Soit une variable aléatoire \(X\) à valeurs dans un ensemble fini, et \(Y=q(X)\) une projection déterministe. +Soit une variable aléatoire \(((X\) à valeurs dans un ensemble fini, et \(Y=q(X)\)\)) une projection déterministe. Shannon établit les relations fondamentales (entropie jointe, conditionnelle) et la relation de chaîne \[ @@ -1375,14 +1387,15 @@ H(X,Y)=H(X)+H_X(Y), \] ainsi que des inégalités de sous‑additivité et le fait que l’incertitude ne croît pas lorsqu’on conditionne. -Comme \(Y\) est une fonction de \(X\), on a \(H(Y|X)=0\) et donc +Comme \(((Y\) est une fonction de \(X\), on a \(H(Y|X)=0\) et donc \[ H(X) = H(Y) + H(X|Y). \] -Interprétation strictement formelle : +Interprétation strictement formelle : -- \(H(Y)\) mesure l’incertitude au niveau des classes (partitions) ; -- \(H(X|Y)\) mesure l’incertitude résiduelle à l’intérieur d’une fibre (information perdue par la projection). +- \(H(Y)\)\)) mesure l’incertitude au niveau des classes (partitions) + +- \(((H(X|Y)\)\)) mesure l’incertitude résiduelle à l’intérieur d’une fibre (information perdue par la projection). **Proposition 5 (borne par la plus grande fibre).** \[ @@ -1391,8 +1404,8 @@ H(X|Y)\ \le\ \log |F_{\max}| |F_{\max}|=\max_{a}|F_a|. \] -_Preuve._ -Conditionnellement à \(Y=a\), la variable \(X\) prend ses valeurs dans \(F_a\), donc son entropie conditionnelle est \(\le \log|F_a|\); en moyennant, \(\le \log|F_{\max}|\). □ +**Preuve.** +Conditionnellement à \(((Y=a\), la variable \(X\) prend ses valeurs dans \(F\_a\), donc son entropie conditionnelle est \(\le \log|F\_a|\) ; en moyennant, \(\le \log|F\_{\max}|\). □ ### Compression sans perte et contraintes de codage @@ -1401,133 +1414,129 @@ Un « codage sans perte » impose que le décodage soit injectif sur les messa Sur le plan combinatoire, l’existence de codes instantanés/préfixes est contrainte par l’inégalité de Kraft, et l’extension aux codes uniquement déchiffrables par McMillan. Un cours MIT OCW rappelle cette contrainte classique et sa construction par arbres \(D\)-aires. Huffman fournit ensuite une procédure constructive d’optimalité (minimum de redondance moyenne) pour ensembles finis de messages, explicitement dans la continuité de Shannon et en citant Kraft. -Ces résultats sont utilisés ici de façon non sémantique : ils montrent que vouloir raccourcir systématiquement les descriptions (compression) impose soit des collisions (non‑injectivité du codage), soit des redondances explicites (longueurs suffisantes), soit une probabilité d’erreur. +Ces résultats sont utilisés ici de façon non sémantique : ils montrent que vouloir raccourcir systématiquement les descriptions (compression) impose soit des collisions (non‑injectivité du codage), soit des redondances explicites (longueurs suffisantes), soit une probabilité d’erreur. ### Entropie combinatoire et « entropie structurelle des classes » -Kolmogorov rappelle qu’avant toute probabilité, on peut définir une entropie combinatoire \(H(x)=\log_2 N\) lorsque \(x\) prend ses valeurs dans un ensemble fini de taille \(N\), et introduit aussi une entropie conditionnelle combinatoire via les ensembles possibles \(Y_a\) compatibles avec \(x=a\). +Kolmogorov rappelle qu’avant toute probabilité, on peut définir une entropie combinatoire \(H(x)=\log\_2 N\) lorsque \(x\) prend ses valeurs dans un ensemble fini de taille \(N\), et introduit aussi une entropie conditionnelle combinatoire via les ensembles possibles \(Y\_a\) compatibles avec \(x=a\). -Dans notre cadre, si \(q:X\to A\) induit des classes, une mesure structurelle minimale, indépendante de la dynamique, est +Dans notre cadre, si \(q : X\to A\) induit des classes, une mesure structurelle minimale, indépendante de la dynamique, est \[ -H_{\text{classes}} -\;=\;-\sum_{a\in A} p_a \log p_a, +H\_{\text{classes}} +\ ; =\ ; -\sum\_{a\in A} p\_a \log p\_a, \quad -p_a=\frac{|F_a|}{|X|} +p\_a=\frac{|F\_a|}{|X|} \] en supposant une distribution uniforme sur \(X\). C’est l’entropie de Shannon de la variable « classe » quand on pick un état uniformément (un cas particulier du cadre mesuré). -### Complexité de Kolmogorov : compressibilité intrinsèque (consensus, non constructive) +### Complexité de Kolmogorov : compressibilité intrinsèque (consensus, non constructive) -Kolmogorov introduit un troisième point de vue : mesurer l’information d’un objet par la longueur de la plus courte description algorithmique produisant cet objet (approche algorithmique), après avoir exposé les approches combinatoire et probabiliste. +Kolmogorov introduit un troisième point de vue : mesurer l’information d’un objet par la longueur de la plus courte description algorithmique produisant cet objet (approche algorithmique), après avoir exposé les approches combinatoire et probabiliste. -On en retient ici une conséquence structurale (de consensus dans la théorie) : il existe des objets (chaînes) **incompressibles** au sens algorithmique, pour lesquels aucune description significativement plus courte n’existe, tandis que d’autres objets sont compressibles parce qu’ils possèdent des régularités exploitables. Dans ce livre, cela n’est pas interprété comme « sens » ou « finalité », mais comme propriété intrinsèque de description. +On en retient ici une conséquence structurale (de consensus dans la théorie) : il existe des objets (chaînes) **incompressibles** au sens algorithmique, pour lesquels aucune description significativement plus courte n’existe, tandis que d’autres objets sont compressibles parce qu’ils possèdent des régularités exploitables. Dans ce livre, cela n’est pas interprété comme « sens » ou « finalité », mais comme propriété intrinsèque de description. -## Calcul effectif en contexte discret : algorithmes et complexité +## Calcul effectif en contexte discret : algorithmes et complexité -Ce chapitre requiert des outils effectifs : calculer classes, fibres, et parfois bassins, dans des cadres finis. +Ce chapitre requiert des outils effectifs : calculer classes, fibres, et parfois bassins, dans des cadres finis. ### Calcul des fibres d’une projection -Entrée : représentation explicite de \(X\) (liste des états) et de \(q\). -Sortie : dictionnaire \(a \mapsto F_a\). +Entrée : représentation explicite de \(X\) (liste des états) et de \(q\). +Sortie : dictionnaire \(a \mapsto F\_a\). -Algorithme : un seul parcours, insertion dans une table de hachage. +Algorithme : un seul parcours, insertion dans une table de hachage. -- Temps : \(O(|X|)\) évaluations de \(q\) + coût de hachage (amorti). -- Espace : \(O(|X|)\) au pire si on stocke tous les éléments. +- Temps : \(O(|X|)\)\)) évaluations de \(((q\) + coût de hachage (amorti). +- Espace : \(O(|X|)\)\)) au pire si on stocke tous les éléments. -### Calcul des cycles et bassins d’une fonction \(f:X\to X\) +### Calcul des cycles et bassins d’une fonction \(((f : X\to X\) -Dans un cadre fini déterministe, le graphe est fonctionnel (degré sortant 1). Les cycles et bassins se calculent en temps linéaire \(O(N)\) via élimination des arbres (méthode par degrés entrants) ou via détection de cycles. +Dans un cadre fini déterministe, le graphe est fonctionnel (degré sortant 1). Les cycles et bassins se calculent en temps linéaire \(O(N)\)\)) via élimination des arbres (méthode par degrés entrants) ou via détection de cycles. -Pseudocode (élimination des non‑cycliques) : +Pseudocode (élimination des non‑cycliques) : ```pseudo -Input: f[1..N] // successeur de chaque nœud +Input : f[1..N] // successeur de chaque nœud indeg[1..N] = 0 -for v in 1..N: indeg[f[v]]++ +for v in 1..N : indeg[f[v]]++ queue = all v with indeg[v]==0 mark_noncycle[v]=false -while queue not empty: - v = pop(queue) +while queue not empty : v = pop(queue) mark_noncycle[v]=true u = f[v] indeg[u]-- - if indeg[u]==0: push(u) + if indeg[u]==0 : push(u) cycles = all v with mark_noncycle[v]==false -// cycles contiennent les sommets sur cycles; les bassins se déduisent par parcours inverse +// cycles contiennent les sommets sur cycles ; les bassins se déduisent par parcours inverse ``` Cette structure « phase space » est précisément l’objet central des dynamiques discrètes finies (points fixes, orbites périodiques, réversibilité, réductions), comme le souligne la littérature SDS citée plus haut. -### Détection locale d’un cycle sur une trajectoire : accès constant +### Détection locale d’un cycle sur une trajectoire : accès constant -Lorsqu’on n’a pas accès à tout \(X\) mais seulement à un oracle \(f\) et un état initial, on peut détecter une périodicité par la méthode de la « tortue et du lièvre » (rho‑Floyd), présentée en français dans des notes d’agrégation. -Dans l’économie de notre livre, ce point illustre une propriété simple : la cyclicité n’est pas seulement un fait théorique, elle est détectable par des algorithmes légers. +Lorsqu’on n’a pas accès à tout \(((X\) mais seulement à un oracle \(f\) et un état initial, on peut détecter une périodicité par la méthode de la « tortue et du lièvre » (rho‑Floyd), présentée en français dans des notes d’agrégation. +Dans l’économie de notre livre, ce point illustre une propriété simple : la cyclicité n’est pas seulement un fait théorique, elle est détectable par des algorithmes légers. -## Transmission structurale : mémoire des collisions et sous‑structures transmissibles +## Transmission structurale : mémoire des collisions et sous‑structures transmissibles -Déclaration M0 (section — transmission structurale). - -- espace d’état : \(Y=(S,M,\mathcal{I},\mathcal{R})\) (état + registre \(M\) transmissible) ; -- projection : \(q:X\to A\) pour la lecture en classes, et \(\Pi_S(Y)=S\) si l’on ne conserve que la séquence ; -- statut markovien : markovien sur \(Y\) si les mises à jour portent sur \((S,M)\) ; non markovien en général sur une projection omettant \(M\) ; -- type : mémoire‑structure (registre transmissible), pas mémoire‑état. +> **Déclaration M0** (section — transmission structurale). +> +> - projection : \(q : X\to A\) pour la lecture en classes, et \(\Pi\_S(Y)=S\) si l’on ne conserve que la séquence +> - statut markovien : markovien sur \(Y\) si les mises à jour portent sur \((S,M)\)\)) ; non markovien en général sur une projection omettant \(((M\) +> - type : mémoire‑structure (registre transmissible), pas mémoire‑état. ### Registre de collisions comme objet transmissible -Fixons une projection \(q:X\to A\), permettant de remplacer les états par leurs classes \(a\in A\). Considérons une trajectoire \((x_t)\) et la trajectoire projetée \((a_t)\) avec \(a_t=q(x_t)\). +Fixons une projection \(q : X\to A\), permettant de remplacer les états par leurs classes \(a\in A\). Considérons une trajectoire \((x\_t)\)\)) et la trajectoire projetée \((((a\_t)\)\)) avec \(((a\_t=q(x\_t)\)\)). -On définit un registre de cooccurrences (mémoire purement combinatoire) : -\[ -M(a,b)\;=\;\#\{t:\ a_t=a,\ a_{t+1}=b\}, +On définit un registre de cooccurrences (mémoire purement combinatoire) : \[ +M(a,b)\ ; =\ ; \#\{t : \ a_t=a,\ a_{t+1}=b\}, \] -ou, plus généralement, une version multi‑distance \(M_\Delta(a,b)=\#\{t:\ a_t=a,\ a_{t+\Delta}=b\}\). +ou, plus généralement, une version multi‑distance \(((M\_\Delta(a,b)=\#\{t : \ a\_t=a,\ a\_{t+\Delta}=b\}\). -Ce registre encode l’histoire **au niveau des classes**, non des identités fines : il est invariant à l’intérieur des fibres, donc compatible avec le principe même de compression. +Ce registre encode l’histoire **au niveau des classes**, non des identités fines : il est invariant à l’intérieur des fibres, donc compatible avec le principe même de compression. ### Génotype minimal comme quadruplet formel -On définit un objet transmissible \(\Gamma\) (sans interprétation biologique requise) : -\[ +On définit un objet transmissible \(\Gamma\) (sans interprétation biologique requise) : \[ \Gamma=(S, M, \mathcal{I}, \mathcal{R}) \] -où : +où : -- \(S\in A^{n}\) est une séquence de classes (trace compressée) ; -- \(M\) est un registre de cooccurrences comme ci‑dessus ; -- \(\mathcal{I}\) est un ensemble d’invariants dérivés (par exemple, attracteur(s) dans l’espace des classes, période, temps de convergence dans l’espace quotient) ; +- \(S\in A^{n}\) est une séquence de classes (trace compressée) + +- \(M\) est un registre de cooccurrences comme ci‑dessus +- \(\mathcal{I}\) est un ensemble d’invariants dérivés (par exemple, attracteur(s) dans l’espace des classes, période, temps de convergence dans l’espace quotient) - \(\mathcal{R}\) est un ensemble de règles admissibles de transformation (mutations de \(S\), mises à jour de \(M\), contraintes de compatibilité). ### Gamète comme sous‑structure (fragment) et recombinaison On définit un opérateur de fragmentation \[ -\mathrm{Frag}(\Gamma) = \gamma = (S_\gamma, M_\gamma, \mathcal{I}_\gamma), +\mathrm{Frag}(\Gamma) = \gamma = (S\_\gamma, M\_\gamma, \mathcal{I}*\gamma), \] -où \(S_\gamma\) est une sous‑séquence (ou un ensemble de segments), \(M_\gamma\) est la restriction correspondante (sous‑matrice), et \(\mathcal{I}_\gamma\) les invariants associés. +où \(S*\gamma\) est une sous‑séquence (ou un ensemble de segments), \(M\_\gamma\) est la restriction correspondante (sous‑matrice), et \(\mathcal{I}\_\gamma\) les invariants associés. -Une recombinaison minimale est une opération de somme/concaténation sous contraintes : -\[ -\Gamma'=\mathrm{Recombine}(\gamma_1,\gamma_2;\Theta), +Une recombinaison minimale est une opération de somme/concaténation sous contraintes : \[ +\Gamma'=\mathrm{Recombine}(\gamma\_1,\gamma\_2 ; \Theta), \] où \(\Theta\) fixe les règles d’assemblage et de conflit. ### Condition formelle pour accumulation historique -Les objets précédents restent stériles si l’on autorise des boucles « généalogiques » illimitées : l’accumulation exige une flèche structurelle (chapitre 4). Dans la logique interne, une condition minimale est l’acyclicité du graphe d’événements (DAG) ou l’existence d’une ressource consommée monotone interdisant les retours exacts. +Les objets précédents restent stériles si l’on autorise des boucles « généalogiques » illimitées : l’accumulation exige une flèche structurelle (chapitre 4). Dans la logique interne, une condition minimale est l’acyclicité du graphe d’événements (DAG) ou l’existence d’une ressource consommée monotone interdisant les retours exacts. -À ce point, Landauer fournit un ancrage de consensus : lorsqu’une implémentation réalise effectivement une opération d’effacement logique (fonction sans inverse univoque) dans un cadre thermodynamique donné, un coût minimal de dissipation borne l’opération ; cela rend plausible (au niveau des implémentations) la non‑gratuité des compressions destructives. +À ce point, Landauer fournit un ancrage de consensus : lorsqu’une implémentation réalise effectivement une opération d’effacement logique (fonction sans inverse univoque) dans un cadre thermodynamique donné, un coût minimal de dissipation borne l’opération ; cela rend plausible (au niveau des implémentations) la non‑gratuité des compressions destructives. -Diagramme minimal (état → fibre → classe → registre → fragments transmissibles) : +Diagramme minimal (état → fibre → classe → registre → fragments transmissibles) : ```mermaid flowchart TD x["État x ∈ X"] -->|q| a["Classe a ∈ A"] - a --> Fa["Fibre F_a = q^{-1}(a)"] + a --> Fa["Fibre F\\_a = q^{-1}(a)"] a --> S["Trace S ∈ A^n"] S --> M["Cooccurrences M(a,b)"] subgraph Gamma["Registre Γ=(S,M,ℐ,ℛ)"] @@ -1545,66 +1554,65 @@ flowchart TD Cette section se limite à des implications déduites des mathématiques ci‑dessus (sous les hypothèses explicitement posées). **Disponibilité de classes de formes.** -Dès qu’une description effective est bornée (alphabet de classes \(A\), code plus court, quotient par symétries), la non‑injectivité est structurellement imposée (Proposition 2) : des classes apparaissent alors sous ces hypothèses. Ces classes sont des « formes » au sens minimal : des ensembles d’états indiscernables sous la projection considérée. +Dès qu’une description effective est bornée (alphabet de classes \(A\), code plus court, quotient par symétries), la non‑injectivité est structurellement imposée (Proposition 2) : des classes apparaissent alors sous ces hypothèses. Ces classes sont des « formes » au sens minimal : des ensembles d’états indiscernables sous la projection considérée. **Renforcement de stabilité par projection.** -Une projection idempotente \(P=r\circ q\) crée un sous‑ensemble invariant \(\mathrm{Im}(P)\) atteint en temps borné (Proposition 4). Donc, indépendamment de toute physique, la compression peut produire des régimes stables au niveau des représentants, et plus généralement au niveau du quotient (attracteurs de second ordre). +Une projection idempotente \(P=r\circ q\) crée un sous‑ensemble invariant \(\mathrm{Im}(P)\)\)) atteint en temps borné (Proposition 4). Donc, indépendamment de toute physique, la compression peut produire des régimes stables au niveau des représentants, et plus généralement au niveau du quotient (attracteurs de second ordre). **Condition de possibilité de canaux d’héritage.** -Un canal d’héritage au sens strictement formel exige (i) une représentation stable et transmissible (classe/registre), et (ii) une flèche empêchant le recyclage parfait des événements. Le premier point est fourni par la partition et par des invariants de quotient; le second relève des mécanismes d’irréversibilité (non‑injectivité, monotones) établis au chapitre 4. +Un canal d’héritage au sens strictement formel exige (i) une représentation stable et transmissible (classe/registre), et (ii) une flèche empêchant le recyclage parfait des événements. Le premier point est fourni par la partition et par des invariants de quotient ; le second relève des mécanismes d’irréversibilité (non‑injectivité, monotones) établis au chapitre 4. -## Analyse philosophique finale : ontologie de la compression, limites et interdits +## Analyse philosophique finale : ontologie de la compression, limites et interdits **Nécessité ontologique minimale.** -Dans un système défini par transformations admissibles, l’identité fine n’est pas une primitive garantie : elle est un luxe qui exige injectivité ou traçabilité complète. Or, toute contrainte de description ou de symétrie impose des quotients. Ainsi, « persister » à niveau donné signifie, le plus souvent, persister comme **classe** (fibre) plutôt que comme individu. +Dans un système défini par transformations admissibles, l’identité fine n’est pas une primitive garantie : elle est un luxe qui exige injectivité ou traçabilité complète. Or, toute contrainte de description ou de symétrie impose des quotients. Ainsi, « persister » à niveau donné signifie, le plus souvent, persister comme **classe** (fibre) plutôt que comme individu. **Compression n’implique ni finalité ni sémantique.** -Le vocabulaire de « compression » peut suggérer un acte, un but, une optimisation. Ici, il ne désigne qu’une relation structurale : une factorisation \(X\to A\) entraînant des collisions. Les entropies et complexités ne qualifient pas un sens, mais une quantité de distinction possible (Shannon) ou une longueur minimale de description (Kolmogorov). +Le vocabulaire de « compression » peut suggérer un acte, un but, une optimisation. Ici, il ne désigne qu’une relation structurale : une factorisation \(((X\to A\) entraînant des collisions. Les entropies et complexités ne qualifient pas un sens, mais une quantité de distinction possible (Shannon) ou une longueur minimale de description (Kolmogorov). **Ce que le formalisme interdit à ce stade.** -- Il interdit d’inférer une « meilleure » compression : sans fonction objectif, « mieux » n’a pas de sens mathématique. -- Il interdit d’identifier une classe à une essence : une classe est relative à une projection \(q\). Changer \(q\) change l’ontologie des formes. -- Il interdit toute téléologie cachée : un quotient peut être imposé par une symétrie, par une limitation de code, ou par une observation; aucune de ces raisons n’est une intention. +- Il interdit d’inférer une « meilleure » compression : sans fonction objectif, « mieux » n’a pas de sens mathématique. +- Il interdit d’identifier une classe à une essence : une classe est relative à une projection \(q\). Changer \(q\) change l’ontologie des formes. +- Il interdit toute téléologie cachée : un quotient peut être imposé par une symétrie, par une limitation de code, ou par une observation ; aucune de ces raisons n’est une intention. -**Limite structurale : pluralité des niveaux.** -La coexistence de plusieurs projections \(q_1,q_2,\dots\) implique une pluralité de mondes de classes. La philosophie rigoureuse qui suit de ce fait est une philosophie stratifiée : il n’existe pas « la » classe absolue sans spécification du niveau de description. Ce résultat n’est pas un relativisme : c’est la conséquence logique que l’équivalence est toujours définie par une relation (ou un observateur formel) et non par l’objet nu. +**Limite structurale : pluralité des niveaux.** +La coexistence de plusieurs projections \(q\_1,q\_2,\dots\) implique une pluralité de mondes de classes. La philosophie rigoureuse qui suit de ce fait est une philosophie stratifiée : il n’existe pas « la » classe absolue sans spécification du niveau de description. Ce résultat n’est pas un relativisme : c’est la conséquence logique que l’équivalence est toujours définie par une relation (ou un observateur formel) et non par l’objet nu. **Transition logique vers les chapitres suivants.** -Ce chapitre a montré que la non‑injectivité contraint le système à se décrire par classes, et que la dynamique peut se factoriser sur ces classes. Le chapitre suivant (classes d’équivalence et invariants) pourra donc : (i) stabiliser les constructions de quotient, (ii) étudier la persistance relative des invariants sous transformation, et (iii) préparer la grammaire compositionnelle des formes (chapitres 6–8). +Ce chapitre a montré que la non‑injectivité contraint le système à se décrire par classes, et que la dynamique peut se factoriser sur ces classes. Le chapitre suivant (classes d’équivalence et invariants) pourra donc : (i) stabiliser les constructions de quotient, (ii) étudier la persistance relative des invariants sous transformation, et (iii) préparer la grammaire compositionnelle des formes (chapitres 6–8). --- -# Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique +## Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique {#chapitre-6-reproduction-partielle-recombinaison-et-heritage-morphologique} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 6 -Hypothèses (H). +**Hypothèses (H).** -- objets discrets transmissibles (alphabet fini, séquences) et opérations admissibles (fragmentation, recombinaison, réparation) ; +- objets discrets transmissibles (alphabet fini, séquences) et opérations admissibles (fragmentation, recombinaison, réparation) - orientation des événements lorsqu’une flèche généalogique est mobilisée (consommation non récupérable déclarée). -Résultats (E). +**Résultats (E).** -- définition d’un registre transmissible \(\Gamma\) et de la reproduction partielle comme transmission d’invariants sous perte ; +- définition d’un registre transmissible \(\Gamma\) et de la reproduction partielle comme transmission d’invariants sous perte - bornes élémentaires sur la perte induite par recombinaison et conditions de stabilité de certains invariants. -Statut. +**Statut.** - noyau ensembliste ; quantifications (entropies, distances) restent optionnelles et indexées. -Déclaration M0 (chapitre 6 — héritage). +> **Déclaration M0** (chapitre 6 — héritage). +> +> - projection : \(\Pi\_S(Y)=S\) si l’on ne conserve que la séquence +> - statut markovien : markovien sur \(Y\) si l’évolution est formulée sur \(\Gamma\) ; non markovien en général sur \(\Pi\_S(Y)\)\)) si \(((M\) est omis +> - type : mémoire‑structure (registre transmissible), pas mémoire‑état. -- espace d’état : \(Y=\Gamma=(S,M,A,R)\) (séquence + registre transmissible \(M\)) ; -- projection : \(\Pi_S(Y)=S\) si l’on ne conserve que la séquence ; -- statut markovien : markovien sur \(Y\) si l’évolution est formulée sur \(\Gamma\) ; non markovien en général sur \(\Pi_S(Y)\) si \(M\) est omis ; -- type : mémoire‑structure (registre transmissible), pas mémoire‑état. - -## Résumé exécutif +## Résumé exécutif — Ch. 6 Ce chapitre introduit une famille d’opérations formelles — **fragmentation**, **recombinaison**, **épissage** et **réparation** — qui permettent de définir, sans hypothèse sémantique ni agentive, une **transmission partielle** de structures discrètes à travers une succession d’événements. La construction s’appuie exclusivement sur des primitives non sémantiques déjà admises dans l’ouvrage (configurations, transformations, itération et ordre induit), et prolonge la non‑injectivité et les classes (chapitres précédents) par une notion de **registre transmissible**. -Le noyau mathématique est la définition d’un **génotype abstrait** \(\Gamma=(S,M,A,R)\) : (i) une séquence \(S\) sur un alphabet fini, (ii) une mémoire \(M\) de cooccurrences (registre de collisions passées au niveau des classes), (iii) un ensemble \(A\) d’invariants calculés, (iv) un ensemble \(R\) de règles admissibles (mutations, épissage, réparation). Un **gamète** \(\gamma\) est une **sous‑structure** obtenue par fragmentation de \(\Gamma\); la reproduction se formalise comme la composition d’un opérateur de fragmentation avec un opérateur de recombinaison produisant un nouvel objet \(\Gamma'\). On établit des propositions élémentaires : conditions suffisantes de **transmission fidèle** d’une sous‑structure (segments invariants), bornes sur la **perte d’information** induite par la recombinaison (en termes de cardinalités de préimages ou d’entropie conditionnelle), et conditions de **stabilité** de certains invariants \(A\) sous recombinaison (homomorphismes de monoïdes). +Le noyau mathématique est la définition d’un **génotype abstrait** \(\Gamma=(S,M,A,R)\)\)) : (i) une séquence \(((S\) sur un alphabet fini, (ii) une mémoire \(M\) de cooccurrences (registre de collisions passées au niveau des classes), (iii) un ensemble \(A\) d’invariants calculés, (iv) un ensemble \(R\) de règles admissibles (mutations, épissage, réparation). Un **gamète** \(\gamma\) est une **sous‑structure** obtenue par fragmentation de \(\Gamma\) ; la reproduction se formalise comme la composition d’un opérateur de fragmentation avec un opérateur de recombinaison produisant un nouvel objet \(\Gamma'\). On établit des propositions élémentaires : conditions suffisantes de **transmission fidèle** d’une sous‑structure (segments invariants), bornes sur la **perte d’information** induite par la recombinaison (en termes de cardinalités de préimages ou d’entropie conditionnelle), et conditions de **stabilité** de certains invariants \(A\) sous recombinaison (homomorphismes de monoïdes). La flèche du temps **généalogique** est obtenue sans postuler un temps externe : elle résulte de (i) la structure d’ordre induite (chapitre 4) et (ii) la **consommation de ressources non réutilisables** associées aux événements reproductifs (gamètes‑jetons), rendant la généalogie un **DAG** (graphe orienté acyclique). La conclusion reste strictement déduite : dans tout modèle discret capable de (a) compression en classes, (b) fragmentation et recombinaison, et (c) orientation par consommation, on obtient des conditions minimales d’**accumulation historique** de formes transmissibles, sans présupposer finalité. Du point de vue philosophique, le chapitre fonde une ontologie de l’héritage comme **persistance de contraintes** (classes et cooccurrences) et explicite ce que le formalisme interdit : toute lecture intentionnelle, tout « but » de reproduction, et toute identité forte des individus. @@ -1616,43 +1624,43 @@ On travaille dans un cadre discret, compatible avec les chapitres antérieurs : **A1 (génotype abstrait).** Un individu est muni d’un quadruplet \[ -\Gamma \;=\; (S,M,A,R) +\Gamma \ ; =\ ; (S,M,A,R) \] où : - \(S \in \mathcal{L}^\*\) est une séquence (trace) de classes. -- \(M\) est une mémoire de collisions passées au niveau des classes, représentée minimalement comme un comptage de cooccurrences : - \[ - M:\mathcal{L}\times \mathcal{L}\to \mathbb{N},\qquad - M(a,b)=\#\{t:\ S_t=a,\ S_{t+1}=b\}. + +- \(M\) est une mémoire de collisions passées au niveau des classes, représentée minimalement comme un comptage de cooccurrences : \[ + M : \mathcal{L}\times \mathcal{L}\to \mathbb{N},\qquad + M(a,b)=\#\{t : \ S\_t=a,\ S\_{t+1}=b\}. \] - (Les variantes multi‑échelles \(M_\Delta\) sont possibles, mais non nécessaires ici.) -- \(A\) est un ensemble d’invariants calculés sur \((S,M)\) (p. ex. statistiques, attracteurs dans un quotient dynamique, longueurs de cycles), dont le statut est purement mathématique. -- \(R\) est un ensemble de règles admissibles (opérateurs) sur \((S,M,A)\) : mutations permises, épissage, réparation, normalisation. + (Les variantes multi‑échelles \(M\_\Delta\) sont possibles, mais non nécessaires ici.) +- \(A\) est un ensemble d’invariants calculés sur \((S,M)\)\)) (p. ex. statistiques, attracteurs dans un quotient dynamique, longueurs de cycles), dont le statut est purement mathématique. +- \(((R\) est un ensemble de règles admissibles (opérateurs) sur \((S,M,A)\)\)) : mutations permises, épissage, réparation, normalisation. **A2 (gamète).** Un gamète est une sous‑structure \[ -\gamma \;=\; (S_\gamma, M_\gamma, A_\gamma) +\gamma \ ; =\ ; (S_\gamma, M_\gamma, A_\gamma) \] -où \(S_\gamma\) est un sous‑mot (ou un multi‑segment) extrait de \(S\), \(M_\gamma\) est une restriction correspondante de la mémoire \(M\), et \(A_\gamma\) regroupe les invariants calculables localement à partir de \((S_\gamma,M_\gamma)\). +où \(((S\_\gamma\) est un sous‑mot (ou un multi‑segment) extrait de \(S\), \(M\_\gamma\) est une restriction correspondante de la mémoire \(M\), et \(A\_\gamma\) regroupe les invariants calculables localement à partir de \((S\_\gamma,M\_\gamma)\)\)). **A3 (reproduction partielle).** Un événement reproductif est une application \[ -\mathrm{Reproduce}:\gamma_1\times \gamma_2 \longrightarrow \Gamma' +\mathrm{Reproduce} : \gamma_1\times \gamma_2 \longrightarrow \Gamma' \] -où \(\Gamma'=(S',M',A',R')\) est construit à partir de \(\gamma_1,\gamma_2\) et de règles \(R\) (éventuellement avec hasard). +où \(((\Gamma'=(S',M',A',R')\)\)) est construit à partir de \(((\gamma\_1,\gamma\_2\) et de règles \(R\) (éventuellement avec hasard). **A4 (épissage).** Un épissage est une application de sélection‑concaténation \[ -\pi:\mathcal{L}^\*\to (\mathcal{L}^\*)^k +\pi : \mathcal{L}^\*\to (\mathcal{L}^\*)^k \quad \text{puis}\quad -\mathrm{Concat}:(\mathcal{L}^\*)^k\to \mathcal{L}^\*, +\mathrm{Concat} : (\mathcal{L}^\*)^k\to \mathcal{L}^\*, \] où \(\pi\) choisit des segments selon des marqueurs (positions, motifs), et \(\mathrm{Concat}\) les recolle suivant un ordre imposé. **A5 (réparation).** Une réparation est une application \[ -\rho:\mathcal{L}^\*\to \mathcal{L}^\* +\rho : \mathcal{L}^\*\to \mathcal{L}^\* \] (ou sur \(\Gamma\)) qui projette un objet potentiellement non admissible dans une sous‑classe admissible définie par des contraintes \(R\). Elle n’a pas à être injective. @@ -1666,47 +1674,42 @@ On explicite maintenant trois opérateurs fondamentaux, puis on étudie leurs pr Un opérateur de fragmentation est une application \[ -\mathrm{Frag}:\Gamma\to \mathcal{P}(\Gamma)\ \text{ou}\ \Gamma\to \gamma, +\mathrm{Frag} : \Gamma\to \mathcal{P}(\Gamma)\)\) \text{ou}\ \Gamma\to \gamma, \] selon qu’on produit un ensemble de fragments ou un fragment unique. -**Version segment unique.** Pour un couple \((i,j)\) avec \(1\le i\le j\le |S|\), +**Version segment unique.** Pour un couple \((((i,j)\)\)) avec \(((1\le i\le j\le |S|\), \[ -S_\gamma = S[i:j]. +S\_\gamma = S[i : j]. \] -La mémoire restreinte peut être définie par le comptage interne aux transitions contenues dans \([i:j]\) : -\[ -M_\gamma(a,b)=\#\{t\in[i,j-1]: S_t=a,\ S_{t+1}=b\}. +La mémoire restreinte peut être définie par le comptage interne aux transitions contenues dans \([i : j]\) : \[ +M\_\gamma(a,b)=\#\{t\in[i,j-1] : S\_t=a,\ S\_{t+1}=b\}. \] -**Version multi‑segments (épissage).** On choisit une famille d’intervalles disjoints \(\{[i_p,j_p]\}_{p=1}^k\). On pose +**Version multi‑segments (épissage).** On choisit une famille d’intervalles disjoints \(\{[i\_p,j\_p]\}\_{p=1}^k\). On pose \[ -S_\gamma = S[i_1:j_1]\ \Vert\ S[i_2:j_2]\ \Vert\ \cdots\ \Vert\ S[i_k:j_k], +S*\gamma = S[i\_1 : j\_1]\ \Vert\ S[i\_2 : j\_2]\ \Vert\ \cdots\ \Vert\ S[i\_k : j\_k], \] -où \(\Vert\) est la concaténation, et \(M_\gamma\) est la somme des comptages internes à chaque segment, éventuellement augmentée de transitions « de jonction » si on les considère comme admissibles. +où \(\Vert\) est la concaténation, et \(M\_\gamma\) est la somme des comptages internes à chaque segment, éventuellement augmentée de transitions « de jonction » si on les considère comme admissibles. ### Recombinaison On formalise la recombinaison comme un opérateur \[ -\mathrm{Recombine}:\gamma_1\times \gamma_2 \to \Gamma'. +\mathrm{Recombine} : \gamma\_1\times \gamma\_2 \to \Gamma'. \] -Le cas minimal est la recombinaison _par concaténation_ : -\[ -S' = S_{\gamma_1}\ \Vert\ S_{\gamma_2}. +Le cas minimal est la recombinaison *par concaténation* : \[ +S' = S\_{\gamma\_1}\ \Vert\ S\_{\gamma\_2}. \] Une recombinaison plus proche des modèles classiques de « crossover » est définie par un **masque** \(m\in\{1,2\}^n\) indiquant, pour chaque position, le parent source (crossover uniforme), ou par une coupure \(k\) (crossover à un point). Ces opérateurs sont standards en modélisation algorithmique de recombinaison ; ils capturent mathématiquement le fait discuté en génétique évolutive que la reproduction sexuée implique **réassortiment** et **recombinaison** de segments héréditaires. -Pour la mémoire \(M'\), trois constructions minimales (toutes admissibles) existent : - -1. **Héritage additif restreint.** +Pour la mémoire \(M'\), trois constructions minimales (toutes admissibles) existent : 1. **Héritage additif restreint.** \[ - M' = M_{\gamma_1} + M_{\gamma_2} + M' = M\_{\gamma\_1} + M\_{\gamma\_2} \] (somme point‑par‑point), puis éventuelle mise à jour des transitions sur les jonctions. -2. **Héritage par projection.** \(M'\) est recomputée à partir de \(S'\) par définition : - \[ - M'(a,b)=\#\{t:\ S'_t=a,\ S'_{t+1}=b\}. +2. **Héritage par projection.** \(M'\) est recomputée à partir de \(S'\) par définition : \[ + M'(a,b)=\#\{t : \ S'\_t=a,\ S'\_{t+1}=b\}. \] 3. **Héritage mixte.** \(M'\) combine (1) et (2), en conservant certains compteurs « historiques » tout en recalculant les transitions nouvellement créées. @@ -1715,18 +1718,18 @@ Pour la mémoire \(M'\), trois constructions minimales (toutes admissibles) exis La réparation est un opérateur de projection (souvent non injectif) visant à satisfaire des contraintes \(R\) (par exemple interdictions de motifs, bornes sur longueur, compatibilité de marqueurs). La réparation est l’analogue formel d’une étape de « purification/normalisation » : elle peut être idempotente si elle est une projection sur un sous‑ensemble admissible. **Proposition 1 (idempotence de la réparation sous projection).** -Si \(\rho\) vérifie \(\rho(x)=x\) pour tout \(x\) admissible (fixé) et \(\rho(x)\) admissible pour tout \(x\), alors \(\rho\circ \rho = \rho\). +Si \(\rho\) vérifie \(\rho(x)=x\) pour tout \(x\) admissible (fixé) et \(\rho(x)\)\)) admissible pour tout \(((x\), alors \(\rho\circ \rho = \rho\). -_Preuve._ \(\rho(x)\) est admissible, donc \(\rho(\rho(x))=\rho(x)\). □ +**Preuve.** \(\rho(x)\)\)) est admissible, donc \(((\rho(\rho(x))=\rho(x)\)\)). □ -Cette structure est la même que celle d’un projecteur de compression (chapitre 5), mais appliquée ici au niveau des règles \(R\). +Cette structure est la même que celle d’un projecteur de compression (chapitre 5), mais appliquée ici au niveau des règles \(((R\). ### Propriétés algébriques élémentaires On note \(\oplus\) une recombinaison sur les séquences (p. ex. concaténation). -- **Associativité (concaténation).** \((u\Vert v)\Vert w = u\Vert (v\Vert w)\). - Donc l’opérateur « recombiner par concaténation » est associatif sur \(S\). +- **Associativité (concaténation).** \((u\Vert v)\)\)Vert w = u\Vert (v\Vert w)\). + Donc l’opérateur « recombiner par concaténation » est associatif sur \(((S\). - **Non‑commutativité.** \(u\Vert v \neq v\Vert u\) en général : la recombinaison ordonnée n’est pas commutative. - **Commutativité éventuelle.** Si l’on définit la recombinaison comme multiensemble de segments (ordre oublié), alors elle devient commutative mais perd de l’information (projection supplémentaire). @@ -1742,78 +1745,73 @@ On formalise une « sous‑structure » comme un sous‑objet \(\sigma\) (typiqu Un segment \(\sigma\in\mathcal{L}^\*\) est transmis fidèlement de \(S\) à \(S'\) si \(\sigma\) apparaît comme sous‑mot contigu de \(S'\) et correspond à un segment extrait sans modification. **Proposition 2 (transmission fidèle sous épissage conservatif).** -Supposons : - -1) \(\mathrm{Frag}\) extrait un segment \(\sigma=S[i:j]\) sans altération, +Supposons : 1) \(\mathrm{Frag}\) extrait un segment \(\sigma=S[i : j]\) sans altération, 2) \(\mathrm{Recombine}\) insère \(\sigma\) comme bloc contigu dans \(S'\), 3) \(\rho\) n’altère pas \(\sigma\) (i.e. \(\rho\) agit en dehors de ses positions). Alors \(\sigma\) est transmis fidèlement. -_Preuve._ Par (1) \(\sigma\) est présent dans \(S_{\gamma}\). Par (2) \(\sigma\) apparaît bloc contigu dans \(S'\). Par (3) la réparation ne le modifie pas. □ +**Preuve.** Par (1) \(\sigma\) est présent dans \(S\_{\gamma}\). Par (2) \(\sigma\) apparaît bloc contigu dans \(S'\). Par (3) la réparation ne le modifie pas. □ ### Métriques d’héritabilité -On introduit deux métriques compatibles avec les objets \((S,M)\), sans emprunter au vocabulaire biologique (où « héritabilité » a un sens statistique spécifique, historiquement ancré dans la génétique quantitative de Fisher). +On introduit deux métriques compatibles avec les objets \((S,M)\)\)), sans emprunter au vocabulaire biologique (où « héritabilité » a un sens statistique spécifique, historiquement ancré dans la génétique quantitative de Fisher). **Métrique sur séquences.** -On prend une distance d’édition (Levenshtein) \(d_S(S,S')\) ou une distance de Hamming si les longueurs sont fixées. +On prend une distance d’édition (Levenshtein) \(((d\_S(S,S')\)\)) ou une distance de Hamming si les longueurs sont fixées. **Métrique sur mémoires.** -On définit une distance \(L^1\) sur matrices de cooccurrence : -\[ -d_M(M,M')=\sum_{a,b\in\mathcal{L}} |M(a,b)-M'(a,b)|. +On définit une distance \(((L^1\) sur matrices de cooccurrence : \[ +d\_M(M,M')=\sum\_{a,b\in\mathcal{L}} |M(a,b)-M'(a,b)|. \] **Définition (indice d’héritabilité abstrait).** -Pour des poids \(\lambda\ge 0\) et une normalisation \(Z>0\) : -\[ -h(\Gamma,\Gamma') \;=\; 1 - \frac{d_M(M,M') + \lambda\, d_S(S,S')}{Z}. +Pour des poids \(\lambda\ge 0\) et une normalisation \(Z>0\) : \[ +h(\Gamma,\Gamma') \ ; =\ ; 1 - \frac{d\_M(M,M') + \lambda\, d\_S(S,S')}{Z}. \] On choisit \(Z\) comme borne supérieure théorique (ou empirique) pour garantir \(h\in[0,1]\). ### Bornes minimales sur la perte d’information en recombinaison -Ici, « information » est prise au sens formel (Shannon ou combinatoire), sans sémantique. Lorsque la recombinaison est un calcul déterministe ou stochastique, elle induit une application (ou noyau) \((\gamma_1,\gamma_2)\mapsto \Gamma'\), généralement **non injective**. +Ici, « information » est prise au sens formel (Shannon ou combinatoire), sans sémantique. Lorsque la recombinaison est un calcul déterministe ou stochastique, elle induit une application (ou noyau) \((\gamma\_1,\gamma\_2)\)\)mapsto \Gamma'\), généralement **non injective**. **Approche combinatoire (préimages).** -Pour une recombinaison déterministe \(g\), définissons la multiplicité : -\[ -\mu(\Gamma') = \#\{(\gamma_1,\gamma_2): g(\gamma_1,\gamma_2)=\Gamma'\}. +Pour une recombinaison déterministe \(((g\), définissons la multiplicité : \[ +\mu(\Gamma') = \#\{(\gamma\_1,\gamma\_2) : g(\gamma\_1,\gamma\_2)=\Gamma'\}. \] -Alors \(\log \mu(\Gamma')\) est une mesure de « perte d’identifiabilité » : plus \(\mu\) est grand, moins on peut reconstruire l’origine à partir du résultat. +Alors \(\log \mu(\Gamma')\)\)) est une mesure de « perte d’identifiabilité » : plus \(((\mu\) est grand, moins on peut reconstruire l’origine à partir du résultat. **Proposition 3 (borne inférieure triviale).** -Si \(g\) n’est pas injective, il existe \(\Gamma'\) tel que \(\mu(\Gamma')\ge 2\), donc \(\log\mu(\Gamma')\ge 1\) bit (en base 2). +Si \(g\) n’est pas injective, il existe \(\Gamma'\) tel que \(\mu(\Gamma')\)\)ge 2\), donc \(((\log\mu(\Gamma')\)\)ge 1\) bit (en base 2). -_Preuve._ Non‑injectivité \(\Rightarrow\) existence de deux antécédents distincts menant au même résultat. □ +**Preuve.** Non‑injectivité \(((\Rightarrow\) existence de deux antécédents distincts menant au même résultat. □ **Approche Shannon (entropie conditionnelle).** -Soient des variables aléatoires \((\Gamma_1,\Gamma_2)\) (parents) et \(\Gamma'\) (descendant) liées par un mécanisme de recombinaison. Shannon a montré que toute fonction déterministe \(Y=q(X)\) ne peut pas augmenter l’information au sens entropique : l’entropie ne croît pas sous application déterministe et les décompositions par entropie conditionnelle quantifient la perte. -En particulier, si \(\Gamma'\) est une fonction (déterministe) de \((\Gamma_1,\Gamma_2)\), alors +Soient des variables aléatoires \((\Gamma\_1,\Gamma\_2)\)\)) (parents) et \(((\Gamma'\) (descendant) liées par un mécanisme de recombinaison. Shannon a montré que toute fonction déterministe \(Y=q(X)\)\)) ne peut pas augmenter l’information au sens entropique : l’entropie ne croît pas sous application déterministe et les décompositions par entropie conditionnelle quantifient la perte. +En particulier, si \(((\Gamma'\) est une fonction (déterministe) de \((\Gamma\_1,\Gamma\_2)\)\)), alors \[ H(\Gamma') \le H(\Gamma_1,\Gamma_2), \qquad -H(\Gamma_1,\Gamma_2\,|\,\Gamma') = H(\Gamma_1,\Gamma_2)-I(\Gamma_1,\Gamma_2;\Gamma'). +H(\Gamma_1,\Gamma_2\,|\,\Gamma') = H(\Gamma_1,\Gamma_2)-I(\Gamma_1,\Gamma_2 ; \Gamma'). \] -La quantité \(H(\Gamma_1,\Gamma_2\,|\,\Gamma')\) mesure l’ambiguïté résiduelle (origine non reconstructible). +La quantité \(((H(\Gamma\_1,\Gamma\_2\,|\,\Gamma')\)\)) mesure l’ambiguïté résiduelle (origine non reconstructible). -Lorsque la recombinaison implique un paramètre interne \(K\) (point de coupure, masque), le mécanisme se formalise comme \(\Gamma'=g(\Gamma_1,\Gamma_2,K)\). Ignorer \(K\) revient à projeter (compression supplémentaire), augmentant en général l’ambiguïté sur les origines. +Lorsque la recombinaison implique un paramètre interne \(((K\) (point de coupure, masque), le mécanisme se formalise comme \(\Gamma'=g(\Gamma\_1,\Gamma\_2,K)\)\)). Ignorer \(((K\) revient à projeter (compression supplémentaire), augmentant en général l’ambiguïté sur les origines. ### Stabilité d’invariants \(A\) sous recombinaison On formalise une classe d’invariants « composables ». **Définition (invariant homomorphe de concaténation).** -Soit \((\mathcal{M},\oplus)\) un monoïde commutatif. Une application \(I:\mathcal{L}^\*\to \mathcal{M}\) est un homomorphisme si +Soit \((\mathcal{M},\oplus)\)\)) un monoïde commutatif. Une application \(((I : \mathcal{L}^\*\to \mathcal{M}\) est un homomorphisme si \[ -I(u\Vert v)=I(u)\oplus I(v). +I(u\Vert v)=I(u)\)\)oplus I(v). \] Exemples : vecteur de comptages de lettres (addition), comptage de digrammes internes (avec correction de jonction). **Proposition 4 (stabilité composable).** -Si \(I\) est un homomorphisme et si \(S'=S_{\gamma_1}\Vert S_{\gamma_2}\), alors \(I(S')=I(S_{\gamma_1})\oplus I(S_{\gamma_2})\). Donc \(I\) est stable sous recombinaison par concaténation (au sens « se compose sans perte »). +Si \(((I\) est un homomorphisme et si \(S'=S\_{\gamma\_1}\Vert S\_{\gamma\_2}\), alors \(I(S')=I(S\_{\gamma\_1})\)\)oplus I(S_{\gamma_2})\). Donc \(((I\) est stable sous recombinaison par concaténation (au sens « se compose sans perte »). -_Preuve._ Par définition d’homomorphisme. □ +**Preuve.** Par définition d’homomorphisme. □ Cette proposition donne une condition claire sur le type d’invariants qu’on a le droit d’attendre « stables » sous recombinaison : ceux qui dépendent additivement des fragments (ou qui se corrigent localement aux jonctions). @@ -1823,9 +1821,7 @@ Aucune hypothèse « adaptative » n’est requise. On décrit uniquement des m ### Modèles de sélection de fragments et épissage -On fixe une longueur \(|S|=n\). Trois familles standard (abstraites) : - -1) **épissage à marqueurs** : sélectionner des segments entre marqueurs (positions \(i,j\) satisfaisant une contrainte). +On fixe une longueur \(|S|=n\). Trois familles standard (abstraites) : 1) **épissage à marqueurs** : sélectionner des segments entre marqueurs (positions \(i,j\) satisfaisant une contrainte). 2) **épissage aléatoire** : choisir \(k\) intervalles disjoints au hasard (distribution sur tuples d’intervalles). 3) **épissage pondéré** : choisir des segments avec probabilité proportionnelle à un score local (fonction \(w\) sur positions), sans interprétation. @@ -1833,8 +1829,9 @@ On fixe une longueur \(|S|=n\). Trois familles standard (abstraites) : Deux modèles classiques : -- **crossover à un point** : choisir \(k\in\{1,\dots,n-1\}\), produire \(S' = S_1[1:k]\Vert S_2[k+1:n]\). -- **crossover uniforme** : choisir un masque \(m\in\{1,2\}^n\) et définir \(S'_t = S_{m_t,t}\). +- **crossover à un point** : choisir \(k\in\{1,\dots,n-1\}\), produire \(S' = S\_1[1 : k]\Vert S\_2[k+1 : n]\). + +- **crossover uniforme** : choisir un masque \(m\in\{1,2\}^n\) et définir \(S'\_t= S\_{m\_t,t}\). Ces schémas abstraits reflètent le fait empirique qu’en reproduction sexuée, la recombinaison réassortit des segments génétiques, thème central chez Maynard Smith. Sur le plan théorique, la littérature de génétique des populations discute leur effet sur les associations entre loci (déséquilibre de liaison) et la vitesse de production de combinaisons, avec des résultats classiques suivant les hypothèses (population finie vs infinie), notamment chez Felsenstein. @@ -1844,33 +1841,31 @@ Sur le plan théorique, la littérature de génétique des populations discute l La réparation \(\rho\) peut être : - **locale** (modifier un motif interdit en un motif autorisé), + - **globale** (réécrire pour satisfaire une grammaire), - **projective** (projection sur un ensemble admissible minimal). -La logique rejoint une idée générale en théorie des automates et de la computation : rendre un processus « réversible » exige de conserver l’historique; effacer l’historique est une opération logiquement irréversible (non‑injective), point discuté par Landauer et Bennett. +La logique rejoint une idée générale en théorie des automates et de la computation : rendre un processus « réversible » exige de conserver l’historique ; effacer l’historique est une opération logiquement irréversible (non‑injective), point discuté par Landauer et Bennett. Ici, on n’en tire pas une thèse physique additionnelle : on retient le fait structural que réparation/projection est typiquement non injective. ### Algorithmes et complexité -On donne des coûts asymptotiques usuels (où \(n=|S|\), \(|\mathcal{L}|=B\)) : +On donne des coûts asymptotiques usuels (où \(n=|S|\), \(|\mathcal{L}|=B\)) : **Extraction d’un segment** \(S[i : j]\) : \(O(j-i+1)\)\)). +**Multi‑segments** : \(((O(\sum\_p (j\_p-i\_p+1))\)\)). +**Recombinaison à un point** : \(((O(n)\)\)). +**Recombinaison uniforme** : \(((O(n)\)\)) (parcours + masque). +**Recalcul de \(((M\) depuis \(S\)** : \(O(n)\)\)). +**Distance \(((d\_M\)** (matrices denses) : \(O(B^2)\)\)) ; (sparse) : \(((O(\#\text{transitions distinctes})\)\)). +**Distance d’édition** \(((d\_S\) : \(O(n^2)\)\)) en général (DP), \(((O(n)\)\)) en Hamming si longueurs fixes. -**Extraction d’un segment** \(S[i:j]\) : \(O(j-i+1)\). -**Multi‑segments** : \(O(\sum_p (j_p-i_p+1))\). -**Recombinaison à un point** : \(O(n)\). -**Recombinaison uniforme** : \(O(n)\) (parcours + masque). -**Recalcul de \(M\) depuis \(S\)** : \(O(n)\). -**Distance \(d_M\)** (matrices denses) : \(O(B^2)\); (sparse) : \(O(\#\text{transitions distinctes})\). -**Distance d’édition** \(d_S\) : \(O(n^2)\) en général (DP), \(O(n)\) en Hamming si longueurs fixes. - -Pseudocode minimal (crossover à un point + mise à jour de \(M\)) : +Pseudocode minimal (crossover à un point + mise à jour de \(((M\)) : ```text -Input: S1, S2 (length n), cut k -S' = S1[1:k] concat S2[k+1:n] +Input : S1, S2 (length n), cut k +S' = S1[1 : k] concat S2[k+1 : n] Initialize M' = 0 -for t in 1..n-1: - M'[ S'[t], S'[t+1] ] += 1 -Output: (S', M') +for t in 1..n-1 : M'[ S'[t], S'[t+1] ] += 1 +Output : (S', M') ``` ## Gamètes non réutilisables, ressource consommée et flèche généalogique @@ -1879,18 +1874,17 @@ Le chapitre 4 a établi que la flèche du temps peut être reconstruite comme no ### Jetons de gamètes comme ressource non réutilisable -On associe à chaque individu \(i\) un multiensemble \(G_i\) de **gamètes‑jetons** (ressource finie). Un événement reproductif prend deux jetons \(\gamma^{(1)}\in G_p\) et \(\gamma^{(2)}\in G_q\), les **consomme** (irréversiblement), et produit un nouvel individu \(c\) avec génotype \(\Gamma_c\). +On associe à chaque individu \(i\) un multiensemble \(G\_i\) de **gamètes‑jetons** (ressource finie). Un événement reproductif prend deux jetons \(\gamma^{(1)}\in G\_p\) et \(\gamma^{(2)}\in G\_q\), les **consomme** (irréversiblement), et produit un nouvel individu \(c\) avec génotype \(\Gamma\_c\). -Formellement, l’événement est une transition : -\[ -(p,q,\gamma^{(1)},\gamma^{(2)})\;\longmapsto\; c +Formellement, l’événement est une transition : \[ +(p,q,\gamma^{(1)},\gamma^{(2)})\)\) ; \longmapsto\ ; c \] -avec mise à jour \(G_p\leftarrow G_p\setminus\{\gamma^{(1)}\}\), \(G_q\leftarrow G_q\setminus\{\gamma^{(2)}\}\). +avec mise à jour \(((G\_p\leftarrow G\_p\setminus\{\gamma^{(1)}\}\), \(G\_q\leftarrow G\_q\setminus\{\gamma^{(2)}\}\). **Proposition 5 (monotone de consommation).** -La quantité totale \(T=\sum_i |G_i|\) est un monotone décroissant strict à chaque reproduction (si aucun jeton n’est créé ex nihilo au même niveau). +La quantité totale \(T=\sum\_i |G\_i|\) est un monotone décroissant strict à chaque reproduction (si aucun jeton n’est créé ex nihilo au même niveau). -_Preuve._ Chaque événement retire au moins 2 jetons; donc \(T\) diminue strictement. □ +**Preuve.** Chaque événement retire au moins 2 jetons ; donc \(T\) diminue strictement. □ Comme au chapitre 4, l’existence d’un monotone strict interdit les cycles au niveau des événements. @@ -1901,15 +1895,15 @@ On définit un graphe orienté \(\mathcal{T}\) dont les nœuds sont les individu **Proposition 6 (acyclicité).** Sous la règle « gamètes non réutilisables » et une création de jetons strictement orientée (aucune ré‑utilisation), le graphe des événements reproductifs est acyclique. -_Preuve._ Une boucle impliquerait qu’un individu soit ancêtre de lui‑même, donc qu’une chaîne d’événements consomme des jetons tout en revenant à une configuration antérieure. Mais le monotone \(T\) diminue strictement à chaque événement (Proposition 5), donc une boucle est impossible. □ +**Preuve.** Une boucle impliquerait qu’un individu soit ancêtre de lui‑même, donc qu’une chaîne d’événements consomme des jetons tout en revenant à une configuration antérieure. Mais le monotone \(T\) diminue strictement à chaque événement (Proposition 5), donc une boucle est impossible. □ -Diagramme : +Diagramme : ```mermaid flowchart TD - P1["Parent p : Γ_p"] -->|γ_p = Frag(Γ_p)| G1["Gamète γ_p"] - P2["Parent q : Γ_q"] -->|γ_q = Frag(Γ_q)| G2["Gamète γ_q"] - G1 -->|Recombine| C["Enfant c : Γ_c"] + P1["Parent p : Γ\\_p"] -->|γ\\_p = Frag(Γ\\_p)| G1["Gamète γ\\_p"] + P2["Parent q : Γ\\_q"] -->|γ\\_q = Frag(Γ\\_q)| G2["Gamète γ\\_q"] + G1 -->|Recombine| C["Enfant c : Γ\\_c"] G2 -->|Recombine| C C -->|Frag| Gc["Gamètes de c (nouveaux jetons)"] subgraph Lineage["Lignée (DAG)"] @@ -1924,16 +1918,13 @@ Cette structure donne une flèche généalogique **sans agentivité** : ce n’e Le chapitre 5 a introduit le rôle des collisions (non‑injectivité) et des classes. Ici, la mémoire \(M\) capture l’historique **au niveau des classes**. -Deux conditions minimales ressortent : - -1) **Transmissibilité partielle de \(M\).** Il faut que la fragmentation transmette des sous‑matrices/cooccurrences (ou des segments permettant de les recalculer). +Deux conditions minimales ressortent : 1) **Transmissibilité partielle de \(M\).** Il faut que la fragmentation transmette des sous‑matrices/cooccurrences (ou des segments permettant de les recalculer). 2) **Accumulation sans boucles.** La lignée doit être un DAG (Proposition 6) ou, plus généralement, un ordre partiel d’événements (chapitre 4), afin que la mémoire agrégée ne soit pas recyclable à l’identique. -On peut formaliser une mémoire de lignée par agrégation pondérée : -\[ -M_{\mathcal{T}}=\sum_{i\in \mathcal{T}} \omega_i M_i, +On peut formaliser une mémoire de lignée par agrégation pondérée : \[ +M\_{\mathcal{T}}=\sum\_{i\in \mathcal{T}} \omega\_i M\_i, \] -où \(\omega_i\) pondère la contribution (descendance, profondeur, etc.). Cette somme n’introduit pas de sémantique : elle est une opération sur compteurs. +où \(\omega\_i\) pondère la contribution (descendance, profondeur, etc.). Cette somme n’introduit pas de sémantique : elle est une opération sur compteurs. ## Implications déduites strictement (lecture conditionnelle) @@ -1943,79 +1934,79 @@ On ne déduit ici que ce qui suit nécessairement des sections mathématiques. Dès qu’il existe (i) une partition en classes (chapitre 5), (ii) une fragmentation non triviale, et (iii) une recombinaison, l’espace des objets accessibles par itération des événements s’élargit combinatoirement : le nombre de séquences composées de fragments croît au moins multiplicativement avec le nombre de fragments disponibles. Cette diversification est une conséquence de la combinatoire des concaténations et masques, pas d’un objectif. 2) **Accumulation historique.** -L’existence d’un monotone de consommation (gamètes‑jetons) impose une orientation des événements, donc rend possible l’accumulation d’un registre \(M_{\mathcal{T}}\) qui ne peut pas être « déroulé » en sens inverse sans réintroduire des objets consommés. Ceci prolonge directement l’idée que la non‑injectivité et la perte d’antécédents rendent le passé non reconstructible à partir du présent (chapitre 4), idée également cohérente avec la notion d’irréversibilité logique discutée par Landauer et Bennett (non‑inversibilité à valeur unique). +L’existence d’un monotone de consommation (gamètes‑jetons) impose une orientation des événements, donc rend possible l’accumulation d’un registre \(M\_{\mathcal{T}}\) qui ne peut pas être « déroulé » en sens inverse sans réintroduire des objets consommés. Ceci prolonge directement l’idée que la non‑injectivité et la perte d’antécédents rendent le passé non reconstructible à partir du présent (chapitre 4), idée également cohérente avec la notion d’irréversibilité logique discutée par Landauer et Bennett (non‑inversibilité à valeur unique). 3) **Condition de possibilité de mécanismes auto‑constructifs.** Von Neumann a montré qu’un cadre formel (automates cellulaires) peut contenir des dispositifs de construction universelle et d’auto‑reproduction, en s’appuyant sur des descriptions transmissibles et des opérations de construction. Le présent chapitre n’affirme pas que de tels dispositifs apparaissent nécessairement, mais établit que nos opérateurs (fragmentation/recombinaison/réparation) constituent une grammaire minimale compatible avec ce type de phénomènes. -## Analyse philosophique finale : ontologie de l’héritage, limites et interdits +## Analyse philosophique finale : ontologie de l’héritage, limites et interdits **Ontologie minimale.** -L’héritage n’est pas ici l’héritage d’identités, mais l’héritage de **structures compressées** : segments \(S_\gamma\) et cooccurrences \(M_\gamma\). L’individu n’est pas une substance ; c’est un nœud dans un graphe d’événements portant un quadruplet transmissible. Cette lecture découle du fait que la non‑injectivité (collisions) rend l’identité fine non conservative, donc inapte à fonder une généalogie robuste au niveau des classes. +L’héritage n’est pas ici l’héritage d’identités, mais l’héritage de **structures compressées** : segments \(S\_\gamma\) et cooccurrences \(M\_\gamma\). L’individu n’est pas une substance ; c’est un nœud dans un graphe d’événements portant un quadruplet transmissible. Cette lecture découle du fait que la non‑injectivité (collisions) rend l’identité fine non conservative, donc inapte à fonder une généalogie robuste au niveau des classes. **Ce que le formalisme interdit.** -Il interdit toute attribution de but (la reproduction ne « vise » rien), toute lecture intentionnelle (il n’y a pas de « choix » intrinsèque), et toute assimilation de ces objets à des contenus sémantiques. Le mot « génotype » est une étiquette de convenance pour \(\Gamma\), non une importation biologique : l’objet est défini par ses composantes \((S,M,A,R)\), pas par un référent. +Il interdit toute attribution de but (la reproduction ne « vise » rien), toute lecture intentionnelle (il n’y a pas de « choix » intrinsèque), et toute assimilation de ces objets à des contenus sémantiques. Le mot « génotype » est une étiquette de convenance pour \(\Gamma\), non une importation biologique : l’objet est défini par ses composantes \((S,M,A,R)\)\)), pas par un référent. **Limites.** Deux limites sont structurelles : - La stabilité sous recombinaison n’est pas universelle : seuls certains invariants (homomorphes, locaux, ou conçus pour être composables) résistent à la recombinaison (Proposition 4). -- Les métriques \(d_S,d_M\) sont des choix : elles définissent une géométrie sur l’espace des génotypes, et différentes géométries conduisent à des notions différentes de proximité héréditaire. Il ne peut donc pas y avoir « une » héritabilité métrique sans convention explicite. + +- Les métriques \(((d\_S,d\_M\) sont des choix : elles définissent une géométrie sur l’espace des génotypes, et différentes géométries conduisent à des notions différentes de proximité héréditaire. Il ne peut donc pas y avoir « une » héritabilité métrique sans convention explicite. **Pont discipliné vers la génétique des populations (sans réduction).** La littérature classique en génétique évolutive met au centre le rôle de la recombinaison et discute ses avantages selon les hypothèses (modèles finis/infinis, déséquilibre de liaison, interférences entre loci). Maynard Smith a structuré le problème et Felsenstein a fourni des analyses influentes sur l’avantage de recombinaison dans des cadres où la dérive crée des associations entre loci. Nous n’en tirons aucune finalité : nous retenons uniquement que ces cadres établissent la pertinence mathématique d’opérations de recombinaison (mélange de segments) et d’effets de non‑injectivité (multiples origines possibles). -## Tableaux comparatifs +## Tableaux comparatifs — Ch. 6 | Objet / opération | Définition minimale | Propriété clé | Injectif ? | Coût calcul (typique) | -|---|---|---|---|---| -| Fragmentation \(\mathrm{Frag}\) | extraction de segments | réduction / sous‑structure | non (perte) | \(O(n)\) | -| Épissage \(\pi\) | sélection + concaténation | composition de fragments | non en général | \(O(n)\) | -| Recombinaison (concat) | \(S'=S_1\Vert S_2\) | associative, non commutative | non (origines ambiguës) | \(O(n)\) | -| Recombinaison (masque) | mélange positionnel | paramètre interne | non | \(O(n)\) | -| Réparation \(\rho\) | projection admissible | idempotence si projecteur | non | dépend contraintes | -| Mémoire \(M\) | cooccurrences | héritage de collisions | — | recalcul \(O(n)\) | +| --- | --- | --- | --- | --- | +| Fragmentation \(\mathrm{Frag}\) | extraction de segments | réduction / sous‑structure | non (perte) | \(O(n)\)\)) | +| Épissage \(((\pi\) | sélection + concaténation | composition de fragments | non en général | \(O(n)\)\)) | +| Recombinaison (concat) | \(((S'=S\_1\Vert S\_2\) | associative, non commutative | non (origines ambiguës) | \(O(n)\)\)) | +| Recombinaison (masque) | mélange positionnel | paramètre interne | non | \(((O(n)\)\)) | +| Réparation \(((\rho\) | projection admissible | idempotence si projecteur | non | dépend contraintes | +| Mémoire \(M\) | cooccurrences | héritage de collisions | — | recalcul \(O(n)\)\)) | | Métrique | Définition | Interprétation formelle | Complexité | -|---|---|---|---| -| \(d_S\) | distance d’édition | coût minimal de transformation de chaînes | \(O(n^2)\) | -| \(d_M\) | \(\sum|M-M'|\) | divergence de registres de transitions | \(O(B^2)\) dense / sparse sinon | -| \(h\) | normalisation de \(d_S,d_M\) | indice de ressemblance transmissible | coût des distances | +| --- | --- | --- | --- | +| \(((d\_S\) | distance d’édition | coût minimal de transformation de chaînes | \(O(n^2)\)\)) | +| \(((d\_M\) | \(\sum|M-M'|\) | divergence de registres de transitions | \(O(B^2)\)\)) dense / sparse sinon | +| \(((h\) | normalisation de \(d\_S,d\_M\) | indice de ressemblance transmissible | coût des distances | --- -# Chapitre 7 — Généalogies, lignées et accumulation d’histoire +## Chapitre 7 — Généalogies, lignées et accumulation d’histoire {#chapitre-7-genealogies-lignees-et-accumulation-dhistoire} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 7 -Hypothèses (H). +**Hypothèses (H).** -- événements reproductifs orientés, avec non‑réutilisation de ressources événementielles (DAG) ; +- événements reproductifs orientés, avec non‑réutilisation de ressources événementielles (DAG) - opérateurs d’agrégation/oubli explicités pour définir une histoire distribuée. -Résultats (E). +**Résultats (E).** -- dérivation d’un ordre généalogique via acyclicité et construction d’un registre \(M_{\mathcal{T}}\) cumulatif ; +- dérivation d’un ordre généalogique via acyclicité et construction d’un registre \(M\_{\mathcal{T}}\) cumulatif - introduction de métriques d’histoire et de repères stochastiques (processus de branchement/coalescents) lorsque la couche probabiliste est mobilisée. -Statut. +**Statut.** - noyau ensembliste pour l’ordre/DAG ; résultats probabilistes explicitement indexés par le modèle choisi. -Déclaration M0 (chapitre 7 — histoire distribuée). +> **Déclaration M0** (chapitre 7 — histoire distribuée). +> +> - projection : \(\Pi\) vers un observable (signature, classes, ou fragments) lorsqu’une lecture partielle est considérée +> - statut markovien : markovien sur \(Y\) si les mises à jour portent sur (DAG, registres) ; non markovien en général sur une projection omettant les registres +> - type : mémoire‑structure (registre transmissible/distribué), pas mémoire‑état. -- espace d’état : \(Y\) inclut la structure de filiation (DAG) et un registre cumulatif \(M_{\mathcal{T}}\) (agrégation, filtrage, oubli) ; -- projection : \(\Pi\) vers un observable (signature, classes, ou fragments) lorsqu’une lecture partielle est considérée ; -- statut markovien : markovien sur \(Y\) si les mises à jour portent sur (DAG, registres) ; non markovien en général sur une projection omettant les registres ; -- type : mémoire‑structure (registre transmissible/distribué), pas mémoire‑état. - -## Résumé exécutif +## Résumé exécutif — Ch. 7 Ce chapitre formalise l’**histoire** comme un objet mathématique dérivé d’événements reproductifs orientés, et non comme un paramètre présupposé. On part de primitives non sémantiques (individus porteurs d’un objet \(\Gamma\), événements, gamètes‑jetons, registre \(M\)) et l’on montre que, sous une règle minimale de **non‑réutilisation** de ressources événementielles, la structure globale des filiations devient un **graphe orienté acyclique (DAG)**. Cette acyclicité induit un ordre d’antériorité « généalogique » qui se superpose à l’ordre d’itération déjà reconstruit comme préordre/dérivé d’une action de monoïde (chapitre sur le temps comme ordre). -Sur ce DAG, on définit une **agrégation historique** \(M_{\mathcal{T}}\) (mémoire distribuée) comme un opérateur d’addition pondérée, de filtrage et d’oubli, et l’on étudie ses propriétés algébriques (associativité, commutativité, idempotence des filtres, monotonies). On introduit des **métriques** de croissance historique (complexité cumulée, entropie cumulative, diversité de lignées) et des bornes élémentaires (croissance au plus linéaire ou au plus exponentielle selon le régime de branchement, avec conditions explicites). +Sur ce DAG, on définit une **agrégation historique** \(M\_{\mathcal{T}}\) (mémoire distribuée) comme un opérateur d’addition pondérée, de filtrage et d’oubli, et l’on étudie ses propriétés algébriques (associativité, commutativité, idempotence des filtres, monotonies). On introduit des **métriques** de croissance historique (complexité cumulée, entropie cumulative, diversité de lignées) et des bornes élémentaires (croissance au plus linéaire ou au plus exponentielle selon le régime de branchement, avec conditions explicites). On relie ensuite ce formalisme à des modèles stochastiques établis : (i) les **processus de branchement** de type Galton–Watson et leur critère d’extinction/survie via fonction génératrice (résultat classique), et (ii) le **coalescent de Kingman** (processus de Markov sur partitions) qui décrit la généalogie « vue à rebours » de grands modèles de populations ; ces deux cadres fournissent des théorèmes consensuels sur la probabilité de survie, la profondeur attendue, et la structure statistique des lignées. @@ -2031,21 +2022,21 @@ On fixe un alphabet fini \(\mathcal{L}\) (classes de formes), et un espace de g **Individu.** Un individu est un élément d’un ensemble \(I\). À chaque individu \(i\in I\) est associé un quadruplet \[ -\Gamma_i = (S_i, M_i, A_i, R_i) +\Gamma\_i = (S\_i, M\_i, A\_i, R\_i) \] -où \(S_i \in \mathcal{L}^\*\) est une séquence finie, \(M_i\) un registre (par ex. cooccurrences), \(A_i\) un ensemble d’invariants dérivés, \(R_i\) un ensemble de règles admissibles (mutations, épissage, réparation). (Définitions : primitives du modèle de ce livre.) +où \(S\_i \in \mathcal{L}^\*\) est une séquence finie, \(M\_i\) un registre (par ex. cooccurrences), \(A\_i\) un ensemble d’invariants dérivés, \(R\_i\) un ensemble de règles admissibles (mutations, épissage, réparation). (Définitions : primitives du modèle de ce livre.) -**Gamète‑jeton.** À chaque individu \(i\), on associe un multiensemble fini \(G_i\) d’objets \(\gamma\) (gamètes). Un gamète est une sous‑structure \(\gamma=(S_\gamma,M_\gamma,A_\gamma)\) extraite de \(\Gamma_i\) par un opérateur de fragmentation \(\mathrm{Frag}\). +**Gamète‑jeton.** À chaque individu \(i\), on associe un multiensemble fini \(G\_i\) d’objets \(\gamma\) (gamètes). Un gamète est une sous‑structure \(\gamma=(S\_\gamma,M\_\gamma,A\_\gamma)\)\)) extraite de \(((\Gamma\_i\) par un opérateur de fragmentation \(\mathrm{Frag}\). **Événement reproductif.** Un événement est un quintuplet \[ -e = (p,q,\gamma_p,\gamma_q,c) +e = (p,q,\gamma\_p,\gamma\_q,c) \] -où \(p,q\in I\) sont les parents, \(\gamma_p\in G_p\), \(\gamma_q\in G_q\) les jetons consommés, et \(c\in I\) l’enfant produit. L’objet \(\Gamma_c\) résulte d’un opérateur \(\mathrm{Recombine}(\gamma_p,\gamma_q;\Theta)\) suivi d’une réparation éventuelle \(\rho\) (comme dans les chapitres précédents). +où \(p,q\in I\) sont les parents, \(\gamma\_p\in G\_p\), \(\gamma\_q\in G\_q\) les jetons consommés, et \(c\in I\) l’enfant produit. L’objet \(\Gamma\_c\) résulte d’un opérateur \(\mathrm{Recombine}(\gamma\_p,\gamma\_q ; \Theta)\)\)) suivi d’une réparation éventuelle \(((\rho\) (comme dans les chapitres précédents). ### Axiomes d’irréversibilité généalogique (non‑réutilisation) -**A0 (non‑réutilisation des jetons).** À chaque événement \(e=(p,q,\gamma_p,\gamma_q,c)\), les jetons \(\gamma_p,\gamma_q\) sont retirés de \(G_p,G_q\) et ne peuvent pas être réintroduits identiques (au même niveau d’analyse). +**A0 (non‑réutilisation des jetons).** À chaque événement \(e=(p,q,\gamma\_p,\gamma\_q,c)\)\)), les jetons \(((\gamma\_p,\gamma\_q\) sont retirés de \(G\_p,G\_q\) et ne peuvent pas être réintroduits identiques (au même niveau d’analyse). Cet axiome est la version minimale d’un **monotone de consommation** : la disponibilité de jetons diminue au fil des événements, imposant une flèche d’événements (au sens formel) comme dans une action de semi‑groupe non extensible en groupe. @@ -2054,13 +2045,13 @@ Cet axiome est la version minimale d’un **monotone de consommation** : la disp ```mermaid flowchart LR subgraph Individual["Individu i"] - Gi["G_i : multiensemble de gamètes-jetons"] - Gamma["Γ_i=(S_i,M_i,A_i,R_i)"] + Gi["G\\_i : multiensemble de gamètes-jetons"] + Gamma["Γ\\_i=(S\\_i,M\\_i,A\\_i,R\\_i)"] end Gamma -->|Frag| gamma["γ=(Sγ,Mγ,Aγ)"] Gi --> gamma - gamma -->|Recombine| Gammac["Γ_c"] - Gammac -->|Frag| Gc["G_c"] + gamma -->|Recombine| Gammac["Γ\\_c"] + Gammac -->|Frag| Gc["G\\_c"] ``` ## Lignée comme DAG d’événements @@ -2069,10 +2060,11 @@ On définit une lignée comme un graphe orienté construit par les événements ### Définition formelle -Soit \(E\) l’ensemble des événements. On construit un graphe orienté \(\mathcal{T}=(V,E_{\to})\) où : +Soit \(E\) l’ensemble des événements. On construit un graphe orienté \(\mathcal{T}=(V,E\_{\to})\)\)) où : -- \(V=I\) (les individus), -- pour chaque événement \(e=(p,q,\gamma_p,\gamma_q,c)\), on ajoute deux arêtes orientées \(p\to c\) et \(q\to c\). +- \(((V=I\) (les individus), + +- pour chaque événement \(e=(p,q,\gamma\_p,\gamma\_q,c)\)\)), on ajoute deux arêtes orientées \(((p\to c\) et \(q\to c\). On appelle \(\mathcal{T}\) la **lignée** (ou plus précisément un pedigree abstrait). Le graphe n’impose pas la bi‑parentalité : on peut généraliser à \(k\) parents par événement, mais on reste ici dans le cas \(2\) pour fixer les preuves. @@ -2082,18 +2074,18 @@ On formalise une grandeur monotone associée à la consommation. **Définition (stock total de jetons).** \[ -T = \sum_{i\in I} |G_i|. +T = \sum\_{i\in I} |G\_i|. \] **Proposition (monotonicité stricte).** Si chaque événement consomme au moins deux jetons et ne réintroduit pas les mêmes jetons, alors \(T\) décroît strictement après chaque événement (au niveau considéré). -_Preuve._ Un événement retire \(\gamma_p,\gamma_q\) des stocks. Sous A0, ces jetons ne sont pas remis. Donc \(T\) diminue d’au moins \(2\). □ +**Preuve.** Un événement retire \(\gamma\_p,\gamma\_q\) des stocks. Sous A0, ces jetons ne sont pas remis. Donc \(T\) diminue d’au moins \(2\). □ **Théorème (acyclicité).** Sous l’axiome A0 et la monotonicité de \(T\), le graphe \(\mathcal{T}\) est un DAG. -_Preuve._ Supposons un cycle orienté \(i_0\to i_1\to \cdots \to i_k=i_0\). Chaque arête correspond à un événement (direct ou indirect) qui consomme des jetons et fait décroître \(T\). En parcourant le cycle, \(T\) devrait décroître strictement et revenir à sa valeur initiale, contradiction. □ +**Preuve.** Supposons un cycle orienté \(i\_0\to i\_1\to \cdots \to i\_k=i\_0\). Chaque arête correspond à un événement (direct ou indirect) qui consomme des jetons et fait décroître \(T\). En parcourant le cycle, \(T\) devrait décroître strictement et revenir à sa valeur initiale, contradiction. □ Cette forme de preuve est exactement la logique « monotone strict ⇒ pas de cycles » (même squelette que dans les preuves par fonction de Lyapunov). Elle est cohérente avec la reconstruction du temps comme ordre : un monotone strict interdit les retours exacts. @@ -2102,13 +2094,14 @@ Cette forme de preuve est exactement la logique « monotone strict ⇒ pas de cy Dans un DAG \(\mathcal{T}\), on définit : - \(u\) est **ancêtre** de \(v\) si un chemin orienté \(u\to^\* v\) existe. -- la **profondeur** \(\mathrm{depth}(v)\) : longueur maximale d’un chemin orienté menant à \(v\). -- la **largeur** \(\mathrm{width}(\mathcal{T})\) : taille maximale d’un antichaîne (ensemble de nœuds incomparables) ; notion standard dans la théorie des posets/DAG (ici utilisée comme mesure « d’expansion parallèle »). + +- la **profondeur** \(\mathrm{depth}(v)\)\)) : longueur maximale d’un chemin orienté menant à \(((v\). +- la **largeur** \(\mathrm{width}(\mathcal{T})\)\)) : taille maximale d’un antichaîne (ensemble de nœuds incomparables) ; notion standard dans la théorie des posets/DAG (ici utilisée comme mesure « d’expansion parallèle »). Proposition élémentaire (ordre partiel des individus). -L’ancêtre/descendant induit un ordre partiel sur \(V\) (réflexif via chemin vide, transitif par concaténation des chemins, antisymétrique car DAG). +L’ancêtre/descendant induit un ordre partiel sur \(((V\) (réflexif via chemin vide, transitif par concaténation des chemins, antisymétrique car DAG). -_Preuve._ Dans un graphe sans cycles, l’existence de \(u\to^\* v\) et \(v\to^\* u\) implique un cycle si \(u\neq v\). □ +**Preuve.** Dans un graphe sans cycles, l’existence de \(u\to^\* v\) et \(v\to^\* u\) implique un cycle si \(u\neq v\). □ ### Schéma de lignée (DAG d’événements) @@ -2127,38 +2120,35 @@ flowchart TD ## Agrégation historique et métriques de complexité -Le DAG fournit l’ossature. L’« histoire » apparaît lorsque l’on définit des opérateurs d’agrégation des registres \(M_i\) le long des événements. +Le DAG fournit l’ossature. L’« histoire » apparaît lorsque l’on définit des opérateurs d’agrégation des registres \(M\_i\) le long des événements. -### Agrégation \(M_{\mathcal{T}}\) : somme pondérée, filtrage et oubli +### Agrégation \(M\_{\mathcal{T}}\) : somme pondérée, filtrage et oubli -Soit \(\omega:V\to \mathbb{R}_+\) une pondération (fonction arbitraire, par ex. profondeur, centralité, ou constante). +Soit \(\omega : V\to \mathbb{R}\_+\) une pondération (fonction arbitraire, par ex. profondeur, centralité, ou constante). **Définition (agrégation additive).** \[ -M_{\mathcal{T}} \;=\; \sum_{i\in V} \omega(i)\, M_i +M\_{\mathcal{T}} \ ; =\ ; \sum\_{i\in V} \omega(i)\)\), M_i \] -(la somme est point‑par‑point sur \(\mathcal{L}\times\mathcal{L}\)). +(la somme est point‑par‑point sur \(((\mathcal{L}\times\mathcal{L}\)). Propriétés (algèbre). -La somme est associative et commutative et définit un monoïde additif sur l’espace des registres \(\mathbb{R}_+^{\mathcal{L}\times\mathcal{L}}\). (Faits algébriques standards.) +La somme est associative et commutative et définit un monoïde additif sur l’espace des registres \(\mathbb{R}\_+^{\mathcal{L}\times\mathcal{L}}\). (Faits algébriques standards.) -**Définition (filtrage).** Un filtrage est un opérateur \(F\) agissant sur \(M\) en annulant certains coefficients : -\[ -(F_\theta M)(a,b)=M(a,b)\cdot \mathbf{1}_{M(a,b)\ge \theta}. +**Définition (filtrage).** Un filtrage est un opérateur \(F\) agissant sur \(M\) en annulant certains coefficients : \[ +(F\_\theta M)(a,b)=M(a,b)\)\)cdot \mathbf{1}_{M(a,b)\ge \theta}. \] -Propriété : \(F_\theta\) est idempotent (\(F_\theta\circ F_\theta=F_\theta\)). +Propriété : \(((F*\theta\) est idempotent (\(F\_\theta\circ F\_\theta=F\_\theta\)). **Définition (oubli/exponentiel).** -Pour \(\alpha\in(0,1)\), on définit une agrégation « à oubli » par une récurrence sur un ordre topologique du DAG : -\[ +Pour \(\alpha\in(0,1)\)\)), on définit une agrégation « à oubli » par une récurrence sur un ordre topologique du DAG : \[ M^{(t+1)}=\alpha M^{(t)} + \Delta M^{(t+1)}, \] -où \(\Delta M^{(t+1)}\) est la contribution des nouveaux nœuds/hyperarêtes. Cela définit une dynamique contractante sur l’espace des registres (pertinent lorsque l’histoire est « bornée »). +où \(((\Delta M^{(t+1)}\) est la contribution des nouveaux nœuds/hyperarêtes. Cela définit une dynamique contractante sur l’espace des registres (pertinent lorsque l’histoire est « bornée »). Lien avec l’entropie et l’information (mesures de Shannon). Shannon établit l’entropie \(H\) comme mesure de l’incertitude d’une variable discrète et introduit entropies jointes/conditionnelles dont la relation de chaîne permet de quantifier la perte lors d’une projection. -Ici, on peut associer au registre \(M\) une distribution normalisée \(p_M(a,b)=M(a,b)/\sum_{u,v} M(u,v)\) et définir l’entropie de transitions : -\[ +Ici, on peut associer au registre \(M\) une distribution normalisée \(p\_M(a,b)=M(a,b)/\sum\_{u,v} M(u,v)\)\)) et définir l’entropie de transitions : \[ H(M) = -\sum_{a,b} p_M(a,b)\log p_M(a,b). \] Elle quantifie la dispersion des transitions au niveau de classes (sans sémantique). @@ -2169,25 +2159,23 @@ On propose trois familles de métriques (toutes définies sur des objets mathém **Croissance de complexité de registre.** -- Support : \(\mathrm{supp}(M)=\{(a,b):M(a,b)>0\}\) -- Taille support : \(|\mathrm{supp}(M_{\mathcal{T}})|\) mesure la diversité de transitions observées. -- Normes : \(\|M_{\mathcal{T}}\|_1=\sum_{a,b} M_{\mathcal{T}}(a,b)\) (compte total), \(\|M_{\mathcal{T}}\|_0=|\mathrm{supp}|\) (diversité). +- Support : \(((\mathrm{supp}(M)=\{(a,b) : M(a,b)>0\}\) +- Taille support : \(|\mathrm{supp}(M\_{\mathcal{T}})|\) mesure la diversité de transitions observées. +- Normes : \(\|M\_{\mathcal{T}}\|\_1=\sum\_{a,b} M\_{\mathcal{T}}(a,b)\)\)) (compte total), \(((\|M\_{\mathcal{T}}\|\_0=|\mathrm{supp}|\) (diversité). **Entropie cumulative.** -- \(H(M_{\mathcal{T}})\) comme ci‑dessus. -- Entropie conditionnelle (si l’on découple états sources et transitions) : - \(H(B|A)\) mesure la dispersion des successeurs conditionnellement à la source, via standard Shannon. +- \(H(M\_{\mathcal{T}})\)\)) comme ci‑dessus. +- Entropie conditionnelle (si l’on découple états sources et transitions) : \(((H(B|A)\)\)) mesure la dispersion des successeurs conditionnellement à la source, via standard Shannon. **Diversité de lignées.** -On mesure la diversité par partition au niveau des descendants (par exemple via classes \(\Gamma\) projetées) ; techniquement, cela revient à une entropie de distribution de types. +On mesure la diversité par partition au niveau des descendants (par exemple via classes \(((\Gamma\) projetées) ; techniquement, cela revient à une entropie de distribution de types. Bornes élémentaires. -Dans le cas où l’on agrège simplement des cooccurrences et où chaque nouvel individu ajoute au plus \(|S_i|-1\) transitions, on obtient une borne triviale : -\[ -\|M_{\mathcal{T}}\|_1 \le \sum_{i\in V} \omega(i)\,(|S_i|-1). +Dans le cas où l’on agrège simplement des cooccurrences et où chaque nouvel individu ajoute au plus \(|S\_i|-1\) transitions, on obtient une borne triviale : \[ +\(\|M\_{\mathcal{T}}\|\_1 \le \sum\_{i\in V} \omega(i)\)\),(|S_i|-1)\). \] -Si \(\omega\equiv 1\) et \(|S_i|\le n_{\max}\), alors \(\|M_{\mathcal{T}}\|_1\le |V|\,(n_{\max}-1)\) (croissance au plus linéaire en nombre d’individus). +Si \(((\omega\equiv 1\) et \(|S\_i|\le n\_{\max}\), alors \(\|M\_{\mathcal{T}}\|\_1\le |V|\,(n\_{\max}-1)\)\)) (croissance au plus linéaire en nombre d’individus). À l’inverse, si le nombre d’individus croît exponentiellement (processus supercritique), la masse agrégée croît exponentiellement en espérance (section suivante). ### Structure d’atteignabilité temporelle : couches et accumulation @@ -2198,7 +2186,7 @@ On peut visualiser l’histoire comme accumulation par couches (antichaînes) da flowchart LR subgraph TimeLayers["Couches d'événements (ordre partiel)"] direction TB - L0["Couche 0: sources"] --> L1["Couche 1"] + L0["Couche 0 : sources"] --> L1["Couche 1"] L1 --> L2["Couche 2"] L2 --> L3["Couche 3"] end @@ -2206,7 +2194,7 @@ flowchart LR L1 --- M1["ΔM couche 1"] L2 --- M2["ΔM couche 2"] L3 --- M3["ΔM couche 3"] - M0 --> Agg["Agrégation: somme/oubli"] + M0 --> Agg["Agrégation : somme/oubli"] M1 --> Agg M2 --> Agg M3 --> Agg @@ -2218,18 +2206,18 @@ flowchart LR ### Processus de branchement de Galton–Watson Le modèle de Galton–Watson (historique) a été introduit dans le contexte de l’extinction de familles (noms), par Galton et Watson. -Formellement, si \(Z_n\) est la taille de la génération \(n\) et si chaque individu engendre un nombre i.i.d. d’enfants \(\xi\), on a : -\[ -Z_{n+1}=\sum_{k=1}^{Z_n} \xi_k^{(n)},\qquad Z_0=1. +Formellement, si \(((Z\_n\) est la taille de la génération \(n\) et si chaque individu engendre un nombre i.i.d. d’enfants \(\xi\), on a : \[ +Z\_{n+1}=\sum\_{k=1}^{Z\_n} \xi\_k^{(n)},\qquad Z\_0=1. \] -Résultats classiques (consensus) : +Résultats classiques (consensus) : - La probabilité d’extinction \(q\) est la plus petite solution dans \([0,1]\) de \[ q = \varphi(q), \] - où \(\varphi(s)=\mathbb{E}(s^\xi)\) est la fonction génératrice. -- Si \(m=\mathbb{E}[\xi]\le 1\), alors \(q=1\) (extinction presque sûre) ; si \(m>1\), alors \(q<1\) (survie avec probabilité positive). + où \(\varphi(s)=\mathbb{E}(s^\xi)\)\)) est la fonction génératrice. + +- Si \(((m=\mathbb{E}[\xi]\le 1\), alors \(q=1\) (extinction presque sûre) ; si \(m>1\), alors \(q<1\) (survie avec probabilité positive). Ces résultats fournissent une lecture quantitative de « survivre comme lignée » : l’acyclicité et l’accumulation ne garantissent pas l’expansion ; en régime sous‑critique, la lignée s’éteint presque sûrement. @@ -2238,9 +2226,9 @@ Ces résultats fournissent une lecture quantitative de « survivre comme lignée Pour un échantillon de \(n\) individus dans une grande population idéale (Wright–Fisher / Moran), Kingman introduit un processus de Markov continu sur l’ensemble des partitions de \(\{1,\dots,n\}\), décrivant les coalescences des lignées ancestrales lorsqu’on remonte le temps. Propriété centrale (consensus) : lorsque \(k\) lignées ancestrales sont présentes, le taux de coalescence est \[ -\lambda_k = \binom{k}{2}, +\lambda\_k = \binom{k}{2}, \] -et les temps d’attente entre coalescences successives sont exponentiels indépendants de paramètres \(\lambda_k\) (après un choix d’échelle). Cette structure (pure death process sur le nombre de blocs) est explicitement discutée dans les présentations standards du coalescent. +et les temps d’attente entre coalescences successives sont exponentiels indépendants de paramètres \(\lambda\_k\) (après un choix d’échelle). Cette structure (pure death process sur le nombre de blocs) est explicitement discutée dans les présentations standards du coalescent. Lien avec notre formalisme : le DAG « vers l’avant » (reproduction) devient, lorsqu’on le regarde sur un échantillon de feuilles, un arbre aléatoire « vers l’arrière » (coalescent). Ceci fournit des formules pour la profondeur attendue (temps jusqu’à MRCA) et pour la distribution de longueurs de branches. @@ -2258,9 +2246,7 @@ Le modèle distingue deux problèmes : **reconstruction de l’ossature** (le DA ### Reconstruction d’un DAG à partir de distances (heuristique) -Si l’on observe un ensemble d’individus \(V_{\text{obs}}\) avec des distances \(d_S\) (sur séquences) et/ou \(d_M\) (sur registres), une stratégie heuristique consiste à : - -1. construire un graphe de proximité (k‑NN, seuil), +Si l’on observe un ensemble d’individus \(V\_{\text{obs}}\) avec des distances \(d\_S\) (sur séquences) et/ou \(d\_M\) (sur registres), une stratégie heuristique consiste à : 1. construire un graphe de proximité (k‑NN, seuil), 2. imposer une orientation par un ordre externe (horloge interne, monotone, ou timestamps observés), 3. extraire un DAG minimal (par ex. arborescence couvrante minimale orientée, ou ensemble de parents minimisant une fonction de coût). @@ -2271,6 +2257,7 @@ Ce type de méthode est heuristique : sans hypothèses additionnelles, de nombre Lorsque la recombinaison est autorisée, l’histoire devient un graphe (ARG) plutôt qu’un arbre. Plusieurs problèmes naturels deviennent NP‑difficiles : - minimiser le nombre de recombinaisons dans un réseau phylogénétique, NP‑hard dans des formulations standard. + - construire un ARG minimal cohérent avec des données, NP‑hard dans des formulations minimales. Conséquence méthodologique (interne à l’ouvrage) : une théorie abstraite de l’histoire doit accepter que « l’histoire exacte » est souvent une classe d’histoires compatibles, plutôt qu’un objet unique reconstructible. @@ -2287,47 +2274,46 @@ Ici, on n’en déduit pas une physique de la lignée : on en tire une contraint On peut isoler trois conditions, chacune dérivée des constructions précédentes : - **Orientation événementielle** : existence d’un monotone strict (ici, consommation de jetons) ⇒ DAG ⇒ ordre historique (preuves ci‑dessus). + - **Non‑injectivité effective** : collisions au niveau des classes/observations ⇒ impossibilité de reconstruire le passé fin ⇒ l’histoire est irréductible à l’état présent (principe général, cohérent avec Landauer et avec la théorie de l’information de Shannon, où une projection déterministe détruit l’information conditionnelle). - **Séparation d’échelles** (argument de consensus) : pour voir une flèche à un niveau donné, il faut que la dynamique à ce niveau ne soit pas réversible « en pratique » (agrégation, dissipation, non‑injectivité). Cette idée est compatible avec le fait que des dynamiques microscopiques réversibles peuvent produire des irréversibilités macroscopiques via agrégation et perte d’information, point discuté classiquement en mécanique statistique et dans la lecture informationnelle de l’entropie. -### Implications strictement déduites (statut explicite) +### Implications strictement déduites (statut explicite) — Ch. 7 -Sans ajouter de spéculation, on peut affirmer : +Sans ajouter de spéculation, on peut affirmer : 1. **Disponibilité d’une mémoire distribuée.** +Dès qu’il existe un DAG d’événements et une variable additive \(M\_{\mathcal{T}}=\sum \omega(i)M\_i\), l’histoire devient un objet global distribué sur les nœuds, non réductible à un seul état local. -1. **Disponibilité d’une mémoire distribuée.** -Dès qu’il existe un DAG d’événements et une variable additive \(M_{\mathcal{T}}=\sum \omega(i)M_i\), l’histoire devient un objet global distribué sur les nœuds, non réductible à un seul état local. +1. **Possibilité d’augmentation de complexité historique.** +En régime où le nombre d’individus croît (p. ex. branchement supercritique \(m>1\)), les quantités cumulées (\(\|M\_{\mathcal{T}}\|\_1\), diversité de transitions, entropie) croissent typiquement avec la taille de la lignée ; Galton–Watson fournit le critère probabiliste minimal pour qu’une telle croissance soit possible avec probabilité non nulle. -2. **Possibilité d’augmentation de complexité historique.** -En régime où le nombre d’individus croît (p. ex. branchement supercritique \(m>1\)), les quantités cumulées (\(\|M_{\mathcal{T}}\|_1\), diversité de transitions, entropie) croissent typiquement avec la taille de la lignée; Galton–Watson fournit le critère probabiliste minimal pour qu’une telle croissance soit possible avec probabilité non nulle. +2. **Diversification sans finalité.** +La diversification découle de la combinatoire des recombinaisons de fragments et de l’expansion du DAG ; aucun objectif n’est requis pour obtenir une dispersion des types. -3. **Diversification sans finalité.** -La diversification découle de la combinatoire des recombinaisons de fragments et de l’expansion du DAG; aucun objectif n’est requis pour obtenir une dispersion des types. +## Analyse philosophique finale : ontologie des lignées, limites et interdits -## Analyse philosophique finale : ontologie des lignées, limites et interdits +### Ontologie minimale : histoire comme ordre d’événements -### Ontologie minimale : histoire comme ordre d’événements +Le chapitre montre que « l’histoire » n’est pas une donnée primitive : elle apparaît lorsque l’on remplace la notion d’état par celle d’**événement orienté**. Une lignée n’est pas une essence : c’est une structure d’ordre (DAG) munie de contenus transmissibles (\(\Gamma\)) et de cumulants (\(M\_{\mathcal{T}}\)). -Le chapitre montre que « l’histoire » n’est pas une donnée primitive : elle apparaît lorsque l’on remplace la notion d’état par celle d’**événement orienté**. Une lignée n’est pas une essence : c’est une structure d’ordre (DAG) munie de contenus transmissibles (\(\Gamma\)) et de cumulants (\(M_{\mathcal{T}}\)). +Cette ontologie est strictement structurale : être « dans » une histoire signifie être situé dans un poset d’événements et contribuer à un registre global. -Cette ontologie est strictement structurale : être « dans » une histoire signifie être situé dans un poset d’événements et contribuer à un registre global. +### Ce que le formalisme interdit — Ch. 7 -### Ce que le formalisme interdit - -- Il interdit toute **agentivité** : aucun individu n’« agit » au sens intentionnel; il ne fait que participer à des opérateurs admissibles. +- Il interdit toute **agentivité** : aucun individu n’« agit » au sens intentionnel ; il ne fait que participer à des opérateurs admissibles. - Il interdit toute **finalité** : la survie/expansion d’une lignée est un résultat contingent mesurable (ex. probabilité de survie en Galton–Watson), non un but. -- Il interdit l’**identité forte** : la non‑injectivité implique que plusieurs histoires distinctes peuvent être compatibles avec un même état présent; avec recombinaison, la pluralité d’ARG compatibles et la difficulté computationnelle rendent cette limite encore plus marquée. +- Il interdit l’**identité forte** : la non‑injectivité implique que plusieurs histoires distinctes peuvent être compatibles avec un même état présent ; avec recombinaison, la pluralité d’ARG compatibles et la difficulté computationnelle rendent cette limite encore plus marquée. ### Limites internes -- La notion d’agrégation \(M_{\mathcal{T}}\) dépend d’un choix de pondération \(\omega\) et d’opérateurs de filtrage/oubli : il n’existe pas de « mémoire historique unique » sans convention. +- La notion d’agrégation \(M\_{\mathcal{T}}\) dépend d’un choix de pondération \(\omega\) et d’opérateurs de filtrage/oubli : il n’existe pas de « mémoire historique unique » sans convention. - La reconstruction exacte des histoires peut être impossible (non identifiabilité) et/ou intractable (NP‑difficulté) dans des cadres riches (recombinaison). -## Tableaux comparatifs +## Tableaux comparatifs — Ch. 7 ### DAG et cycles : structures d’histoire | Structure | Définition | Propriété clé | Interprétation formelle | -|---|---|---|---| +| --- | --- | --- | --- | | DAG | graphe orienté sans cycles | ordre partiel ancêtre/descendant | histoire irréversible (événements non recyclables) | | Graphe avec cycles | existence de boucle orientée | retour possible | absence de flèche d’événements au niveau considéré | | Arbre (cas particulier de DAG) | DAG avec un parent (ou deux) et sans recombinaison | MRCA bien défini | généalogie sans recombinaison | @@ -2336,122 +2322,121 @@ Cette ontologie est strictement structurale : être « dans » une histoire sig ### Modèles stochastiques : branchement vs coalescent | Modèle | « Sens du temps » | Objet aléatoire | Résultat canonique | -|---|---|---|---| -| Galton–Watson | vers l’avant | tailles \(Z_n\), arbre de descendance | extinction \(q\) solution \(q=\varphi(q)\); \(q=1\) si \(m\le1\) | -| Coalescent de Kingman | vers l’arrière | partition/ arbre de coalescence d’un échantillon | taux \(\binom{k}{2}\) pour \(k\) lignées; pure death process | -| Coalescent avec recombinaison | vers l’arrière | ARG | structure plus complexe; inférence difficile | +| --- | --- | --- | --- | +| Galton–Watson | vers l’avant | tailles \(Z\_n\), arbre de descendance | extinction \(q\) solution \(q=\varphi(q)\)\)) ; \(((q=1\) si \(m\le1\) | +| Coalescent de Kingman | vers l’arrière | partition/ arbre de coalescence d’un échantillon | taux \(\binom{k}{2}\) pour \(k\) lignées ; pure death process | +| Coalescent avec recombinaison | vers l’arrière | ARG | structure plus complexe ; inférence difficile | ### Métriques d’histoire | Métrique | Définition | Coût de calcul (typique) | Commentaire | -|---|---|---|---| -| \(\|M_{\mathcal{T}}\|_1\) | somme des compteurs | \(O(|\mathcal{L}|^2)\) dense | « volume » de transitions | -| \(|\mathrm{supp}(M_{\mathcal{T}})|\) | nombre de transitions distinctes | sparse \(O(\#\text{non‑zéros})\) | diversité structurale | -| \(H(M_{\mathcal{T}})\) | entropie Shannon sur transitions | \(O(\#\text{non‑zéros})\) | dispersion sans sémantique | -| profondeur/largeur | invariants DAG | \(O(|V|+|E|)\) | structure temporelle | +| --- | --- | --- | --- | +| \(\|M\_{\mathcal{T}}\|\_1\) | somme des compteurs | \(O(|\mathcal{L}|^2)\)\)) dense | « volume » de transitions | +| \(((|\mathrm{supp}(M\_{\mathcal{T}})|\) | nombre de transitions distinctes | sparse \(O(\#\text{non‑zéros})\)\)) | diversité structurale | +| \(((H(M\_{\mathcal{T}})\)\)) | entropie Shannon sur transitions | \(((O(\#\text{non‑zéros})\)\)) | dispersion sans sémantique | +| profondeur/largeur | invariants DAG | \(((O(|V|+|E|)\)\)) | structure temporelle | --- -# Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques +## Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques {#chapitre-8-stabilisation-contraintes-sur-lavenir-et-emergence-de-proprietes-epistemiques} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 8 -Hypothèses (H). +**Hypothèses (H).** -- cadre discret fini pour la stabilisation en temps fini ; ou cadre compact/continu pour des résultats asymptotiques ; +- cadre discret fini pour la stabilisation en temps fini ; ou cadre compact/continu pour des résultats asymptotiques - choix déclaré d’une granularité/description lorsqu’on parle de contraintes sur l’avenir à un niveau donné. -Résultats (E). +**Résultats (E).** -- définitions de stabilisation, bassins, verrous et contraintes sur l’avenir ; +- définitions de stabilisation, bassins, verrous et contraintes sur l’avenir - articulation entre stabilisation et propriétés épistémiques dérivées (réduction d’incertitude) sans sujet, avec quantification optionnelle indexée. -Statut. +**Statut.** - noyau ensembliste pour les implications combinatoires ; couches [M]/[P] uniquement lorsque une mesure ou un noyau est déclaré. -## Résumé exécutif +## Résumé exécutif — Ch. 8 -Ce chapitre reconstruit la notion de **stabilisation** comme propriété formelle d’une dynamique (discrète ou continue) sur un espace de configurations, puis en déduit une notion de **contrainte sur l’avenir** : la dynamique, en convergeant vers des ensembles invariants attractifs, réduit effectivement l’ensemble des futurs accessibles à partir d’un ensemble initial d’états (incertitude, agrégation, ou classe). Dans le cadre discret fini, cette réduction est absolue : toute orbite tombe en temps fini dans un cycle, et l’espace se partitionne en bassins qui déterminent des « destinées » asymptotiques. Dans le cadre compact métrique/topologique, on remplace l’argument de finitude par la compacité et la notion d’\(\omega\)-limite : les ensembles limites sont non vides, compacts et invariants, et les attracteurs se définissent par attraction d’un voisinage. +Ce chapitre reconstruit la notion de **stabilisation** comme propriété formelle d’une dynamique (discrète ou continue) sur un espace de configurations, puis en déduit une notion de **contrainte sur l’avenir** : la dynamique, en convergeant vers des ensembles invariants attractifs, réduit effectivement l’ensemble des futurs accessibles à partir d’un ensemble initial d’états (incertitude, agrégation, ou classe). Dans le cadre discret fini, cette réduction est absolue : toute orbite tombe en temps fini dans un cycle, et l’espace se partitionne en bassins qui déterminent des « destinées » asymptotiques. Dans le cadre compact métrique/topologique, on remplace l’argument de finitude par la compacité et la notion d’\(((\omega\)-limite : les ensembles limites sont non vides, compacts et invariants, et les attracteurs se définissent par attraction d’un voisinage. -On formalise ensuite des mécanismes de **verrouillage** : frontières de bassins, barrières de transition et mesures de « force de verrouillage » (taille de bassin, probabilité d’évasion, temps moyen d’évasion). Sous bruit, les bassins deviennent des régions métastables, et les questions se déplacent vers la robustesse (stabilité structurelle) et les transitions rares. Les repères de consensus mobilisés sont : stabilité de Lyapunov (définitions canonisées), stabilité structurelle en dimension 2 (Peixoto) et cadres hyperboliques (programme de Smale). +On formalise ensuite des mécanismes de **verrouillage** : frontières de bassins, barrières de transition et mesures de « force de verrouillage » (taille de bassin, probabilité d’évasion, temps moyen d’évasion). Sous bruit, les bassins deviennent des régions métastables, et les questions se déplacent vers la robustesse (stabilité structurelle) et les transitions rares. Les repères de consensus mobilisés sont : stabilité de Lyapunov (définitions canonisées), stabilité structurelle en dimension 2 (Peixoto) et cadres hyperboliques (programme de Smale). -Enfin, on définit des **propriétés épistémiques dérivées** sans invoquer de sujet : un objet/variable dérivée est dite « épistémique » lorsqu’elle (i) est une contrainte stable/transmissible sur la dynamique, (ii) réduit formellement l’incertitude sur des états futurs (via entropie conditionnelle ou information mutuelle au sens de Shannon), et (iii) reste opératoire sous perturbations admissibles. Shannon fournit le langage minimal (entropie, conditionnement) et Jaynes formalise le rôle des contraintes comme base d’estimation maximale d’entropie (sans hypothèse sémantique), tandis que Landauer apporte la contrainte thermodynamique sur les opérations logiquement irréversibles qui « effacent » des distinctions (borne \(kT\) / \(kT\ln 2\) par bit). +Enfin, on définit des **propriétés épistémiques dérivées** sans invoquer de sujet : un objet/variable dérivée est dite « épistémique » lorsqu’elle (i) est une contrainte stable/transmissible sur la dynamique, (ii) réduit formellement l’incertitude sur des états futurs (via entropie conditionnelle ou information mutuelle au sens de Shannon), et (iii) reste opératoire sous perturbations admissibles. Shannon fournit le langage minimal (entropie, conditionnement) et Jaynes formalise le rôle des contraintes comme base d’estimation maximale d’entropie (sans hypothèse sémantique), tandis que Landauer apporte la contrainte thermodynamique sur les opérations logiquement irréversibles qui « effacent » des distinctions (borne \(kT\) / \(kT\ln 2\) par bit). ## Primitives, axiomes et définitions de stabilisation -On fixe des primitives non sémantiques déjà admises dans l’ouvrage : un espace de configurations \(X\), une dynamique (itération ou flot), des classes (quotients/projections), et des registres transmissibles (génotypes abstraits \(\Gamma\) et mémoires \(M\)). Aucune finalité n’est supposée. +On fixe des primitives non sémantiques déjà admises dans l’ouvrage : un espace de configurations \(X\), une dynamique (itération ou flot), des classes (quotients/projections), et des registres transmissibles (génotypes abstraits \(\Gamma\) et mémoires \(M\)). Aucune finalité n’est supposée. ### Primitives -- **Configurations** : ensemble \(X\) (fini, dénombrable ou compact métrique selon le cadre). -- **Dynamique discrète** : application \(f:X\to X\), itérée \(f^{(n)}\). -- **Dynamique continue (semi-flot)** : famille \(\{\Phi_t\}_{t\ge 0}\) satisfaisant \(\Phi_0=\mathrm{Id}\) et \(\Phi_{t+s}=\Phi_t\circ\Phi_s\); on distingue le cas réversible (flot, \(t\in\mathbb{R}\)) du cas irréversible (semi-groupe). Cette distinction est centrale dans la théorie des systèmes dynamiques différentiables (conjugaison, robustesse), telle que synthétisée par Smale. -- **Classes / compression** : projection \(q:X\to A\) (partition en fibres) ou quotient \(\pi:X\to X/{\sim}\) compatible avec \(f\) (système facteur). -- **Génotype abstrait** : un quadruplet \(\Gamma=(S,M,A,R)\) avec séquence \(S\) sur un alphabet fini, mémoire \(M\) (cooccurrences), invariants \(A\) et règles \(R\) (fragmentation/recombinaison/réparation). (Construction interne à l’ouvrage, non empirique par elle-même.) -- **Registres** : \(M\) est un opérateur de comptage discret (par ex. transitions entre classes), susceptible d’agrégation au sein d’une lignée (chapitres précédents du manuscrit). +- **Configurations** : ensemble \(X\) (fini, dénombrable ou compact métrique selon le cadre). +- **Dynamique discrète** : application \(f : X\to X\), itérée \(f^{(n)}\). +- **Dynamique continue (semi-flot)** : famille \(\{\Phi\_t\}\_{t\ge 0}\) satisfaisant \(\Phi\_0=\mathrm{Id}\) et \(\Phi\_{t+s}=\Phi\_t\circ\Phi\_s\) ; on distingue le cas réversible (flot, \(t\in\mathbb{R}\)) du cas irréversible (semi-groupe). Cette distinction est centrale dans la théorie des systèmes dynamiques différentiables (conjugaison, robustesse), telle que synthétisée par Smale. +- **Classes / compression** : projection \(q : X\to A\) (partition en fibres) ou quotient \(\pi : X\to X/{\sim}\) compatible avec \(f\) (système facteur). +- **Génotype abstrait** : un quadruplet \(\Gamma=(S,M,A,R)\)\)) avec séquence \(((S\) sur un alphabet fini, mémoire \(M\) (cooccurrences), invariants \(A\) et règles \(R\) (fragmentation/recombinaison/réparation). (Construction interne à l’ouvrage, non empirique par elle-même.) +- **Registres** : \(M\) est un opérateur de comptage discret (par ex. transitions entre classes), susceptible d’agrégation au sein d’une lignée (chapitres précédents du manuscrit). ### Stabilisation dans le cadre discret fini **Définition (stabilisation forte, discret fini).** -Dans \(X\) fini, une orbite \((x_n)\) est dite stabilisée si elle devient périodique après un transitoire : il existe \(\mu\ge 0\) et \(p\ge 1\) tels que \(x_{n+p}=x_n\) pour tout \(n\ge \mu\). Cela équivaut à « l’\(\omega\)-comportement est un cycle ». (Ce fait découle du principe des tiroirs et de la structure des graphes fonctionnels.) +Dans \(X\) fini, une orbite \((x\_n)\)\)) est dite stabilisée si elle devient périodique après un transitoire : il existe \(((\mu\ge 0\) et \(p\ge 1\) tels que \(x\_{n+p}=x\_n\) pour tout \(n\ge \mu\). Cela équivaut à « l’\(\omega\)-comportement est un cycle ». (Ce fait découle du principe des tiroirs et de la structure des graphes fonctionnels.) **Proposition (stabilisation en temps fini).** -Si \(|X|=N\), toute orbite d’un système déterministe \(f:X\to X\) est stabilisée, avec \(\mu+p\le N\). +Si \(|X|=N\), toute orbite d’un système déterministe \(f : X\to X\) est stabilisée, avec \(\mu+p\le N\). -_Preuve (élémentaire)._ Les \(N+1\) termes \(x_0,\dots,x_N\) contiennent une répétition \(x_i=x_j\) avec \(i|itération| U1["F_n(U)"] + U0["Ensemble initial U"] -->|itération| U1["F\\_n(U)"] U1 --> A1["Attracteur A₁"] U1 --> A2["Attracteur A₂"] A1 --- Bnd["Barrière / frontière de bassin"] A2 --- Bnd end - note1["Verrouillage: F_n(U) ⊂ Nε(A₁) pour n grand"] --- U1 + note1["Verrouillage : F\\_n(U) ⊂ Nε(A₁) pour n grand"] --- U1 ``` ## Mesures, entropies et bornes de verrouillage @@ -2485,55 +2469,53 @@ Le verrouillage peut être quantifié de plusieurs façons, selon le cadre (disc ### Entropie structurelle des bassins (discret) -Soit \(X\) fini, et \(\{B(C_i)\}_{i=1}^K\) la partition de \(X\) par bassins de cycles (attracteurs discrets). Posons \(p_i=|B(C_i)|/|X|\). On définit l’entropie structurelle de bassins : -\[ -H_{\mathrm{bassins}}=-\sum_{i=1}^K p_i \log p_i. +Soit \(X\) fini, et \(\{B(C\_i)\)\)}_{i=1}^K\) la partition de \(((X\) par bassins de cycles (attracteurs discrets). Posons \(p\_i=|B(C\_i)|/|X|\). On définit l’entropie structurelle de bassins : \[ +H\_{\mathrm{bassins}}=-\sum\_{i=1}^K p\_i \log p\_i. \] **Proposition (bornes).** \[ -0 \le H_{\mathrm{bassins}} \le \log K, +0 \le H\_{\mathrm{bassins}} \le \log K, \] -avec \(H_{\mathrm{bassins}}=0\) ssi un bassin domine tout (\(p_i=1\) pour un \(i\)), et \(H_{\mathrm{bassins}}=\log K\) ssi \(p_i=1/K\). +avec \(H\_{\mathrm{bassins}}=0\) ssi un bassin domine tout (\(p\_i=1\) pour un \(i\)), et \(H\_{\mathrm{bassins}}=\log K\) ssi \(p\_i=1/K\). -_Preuve._ Propriété standard de l’entropie de Shannon appliquée à une distribution finie. Shannon introduit l’entropie comme mesure de l’incertitude d’une source discrète et en dérive les propriétés élémentaires (concavité, maxima sous contrainte). +**Preuve.** Propriété standard de l’entropie de Shannon appliquée à une distribution finie. Shannon introduit l’entropie comme mesure de l’incertitude d’une source discrète et en dérive les propriétés élémentaires (concavité, maxima sous contrainte). -Interprétation purement formelle : faible \(H_{\mathrm{bassins}}\) signifie forte dominance (verrouillage global), tandis qu’un \(H_{\mathrm{bassins}}\) élevé signifie pluralité de futurs asymptotiques selon l’état initial. +Interprétation purement formelle : faible \(H\_{\mathrm{bassins}}\) signifie forte dominance (verrouillage global), tandis qu’un \(H\_{\mathrm{bassins}}\) élevé signifie pluralité de futurs asymptotiques selon l’état initial. ### Entropie topologique et complexité interne d’un régime -L’entropie topologique \(h_{\mathrm{top}}(f)\) a été introduite par Adler–Konheim–McAndrew comme invariant de conjugaison topologique pour applications continues sur espaces compacts, mesurant une croissance exponentielle de complexité orbitale via raffinements de recouvrements ouverts. +L’entropie topologique \(h\_{\mathrm{top}}(f)\)\)) a été introduite par Adler–Konheim–McAndrew comme invariant de conjugaison topologique pour applications continues sur espaces compacts, mesurant une croissance exponentielle de complexité orbitale via raffinements de recouvrements ouverts. -La coexistence est importante : un système peut avoir (i) un petit nombre d’attracteurs dominants (verrouillage global fort) et (ii) une entropie topologique positive sur un attracteur chaotique (complexité interne élevée). Les deux quantités répondent à des questions différentes : « où finit-on ? » versus « à quel point la dynamique est-elle complexe sur le régime atteint ? ». +La coexistence est importante : un système peut avoir (i) un petit nombre d’attracteurs dominants (verrouillage global fort) et (ii) une entropie topologique positive sur un attracteur chaotique (complexité interne élevée). Les deux quantités répondent à des questions différentes : « où finit-on ? » versus « à quel point la dynamique est-elle complexe sur le régime atteint ? ». ### Probabilité de sortie et temps moyen d’évasion (cadre stochastique discret) -Pour modéliser le bruit, on considère une chaîne de Markov sur \(X\) avec matrice de transition \(P\). Un « bassin » devient une région \(B\subseteq X\) et l’« évasion » signifie frapper \(X\setminus B\). +Pour modéliser le bruit, on considère une chaîne de Markov sur \(((X\) avec matrice de transition \(P\). Un « bassin » devient une région \(B\subseteq X\) et l’« évasion » signifie frapper \(X\setminus B\). **Probabilité de sortie avant absorption.** -Soit \(h(x)\) la probabilité, en partant de \(x\in B\), d’atteindre un ensemble cible \(C\subseteq X\setminus B\) avant de sortir de \(B\) par un autre mécanisme (ou avant une absorption interne). Alors \(h\) satisfait un système linéaire harmonique sur \(B\) : -\[ -h(x)=\sum_{y\in X} P(x,y)\,h(y),\quad x\in B, +Soit \(h(x)\)\)) la probabilité, en partant de \(((x\in B\), d’atteindre un ensemble cible \(C\subseteq X\setminus B\) avant de sortir de \(B\) par un autre mécanisme (ou avant une absorption interne). Alors \(h\) satisfait un système linéaire harmonique sur \(B\) : \[ +h(x)=\sum\_{y\in X} P(x,y)\)\),h(y),\quad x\in B, \] -avec conditions au bord \(h|_C=1\) et \(h|_{X\setminus (B\cup C)}=0\). (Preuve élémentaire par propriété de Markov et loi des probabilités totales.) +avec conditions au bord \(((h|\_C=1\) et \(h|\_{X\setminus (B\cup C)}=0\). (Preuve élémentaire par propriété de Markov et loi des probabilités totales.) **Temps moyen d’évasion.** -Soit \(\tau_B=\inf\{n\ge 0: X_n\notin B\}\). La fonction \(u(x)=\mathbb{E}_x[\tau_B]\) vérifie +Soit \(\tau\_B=\inf\{n\ge 0 : X\_n\notin B\}\). La fonction \(u(x)=\mathbb{E}\_x[\tau\_B]\) vérifie \[ -u(x)=1+\sum_{y\in B} P(x,y)\,u(y),\quad x\in B, +u(x)=1+\sum\_{y\in B} P(x,y)\)\),u(y),\quad x\in B, \] -et \(u=0\) hors de \(B\). C’est encore un système linéaire, donc calculable en temps polynomial en \(|B|\) par inversion de matrice ou méthodes itératives (Gauss–Seidel). (Résultat de théorie élémentaire des chaînes de Markov finies.) +et \(((u=0\) hors de \(B\). C’est encore un système linéaire, donc calculable en temps polynomial en \(|B|\) par inversion de matrice ou méthodes itératives (Gauss–Seidel). (Résultat de théorie élémentaire des chaînes de Markov finies.) -Ces formules fournissent des **métriques de verrouillage** concrètes : un bassin fortement verrouillé a une faible probabilité d’évasion (sur un horizon donné) et/ou un temps moyen d’évasion élevé. +Ces formules fournissent des **métriques de verrouillage** concrètes : un bassin fortement verrouillé a une faible probabilité d’évasion (sur un horizon donné) et/ou un temps moyen d’évasion élevé. ### Tableau comparatif des métriques de verrouillage | Cadre | Mesure de verrouillage | Définition | Calcul/estimation | -|---|---|---|---| -| Discret déterministe | taille de bassin | \(|B(C)|/|X|\) | exact en \(O(|X|)\) avec graphe fonctionnel | -| Discret déterministe | entropie de bassins | \(H_{\mathrm{bassins}}(p_i)\) | exact une fois \(p_i\) connus (Shannon) | -| Compact continu | attraction uniforme | \(\sup_{x\in U}\mathrm{dist}(f^{(n)}(x),A)\to 0\) | analyse théorique / bornes | -| Stochastique (Markov) | prob. d’évasion | solution harmonique \(h=Ph\) sur \(B\) | système linéaire | +| --- | --- | --- | --- | +| Discret déterministe | taille de bassin | \(|B(C)|/|X|\) | exact en \(O(|X|)\)\)) avec graphe fonctionnel | +| Discret déterministe | entropie de bassins | \(((H\_{\mathrm{bassins}}(p\_i)\)\)) | exact une fois \(((p\_i\) connus (Shannon) | +| Compact continu | attraction uniforme | \(\sup\_{x\in U}\mathrm{dist}(f^{(n)}(x),A)\)\)to 0\) | analyse théorique / bornes | +| Stochastique (Markov) | prob. d’évasion | solution harmonique \(((h=Ph\) sur \(B\) | système linéaire | | Stochastique (Markov) | temps moyen d’évasion | \(u=1+Pu\) sur \(B\) | système linéaire | ## Robustesse sous bruit et stabilité structurelle des régimes @@ -2548,16 +2530,16 @@ La stabilité de Lyapunov fournit un critère minimal de robustesse locale : res Deux repères de consensus encadrent ce chapitre. -- **Peixoto (surfaces)** : sur une surface compacte, les champs de vecteurs structurellement stables (au sens \(C^1\)) forment un ensemble ouvert et dense, et admettent une caractérisation qualitative (pas de connexions selle‑selle, ensembles non errants hyperboliques, etc.). Cela signifie qu’en dimension 2, un « régime » typique est qualitativement robuste. -- **Smale (programme hyperbolique)** : la stabilité structurelle est liée à l’hyperbolicité et à la conjugaison topologique; Smale formalise un cadre global (Axiom A, décomposition spectrale) où les propriétés qualitatives persistent sous perturbations. +- **Peixoto (surfaces)** : sur une surface compacte, les champs de vecteurs structurellement stables (au sens \(C^1\)) forment un ensemble ouvert et dense, et admettent une caractérisation qualitative (pas de connexions selle‑selle, ensembles non errants hyperboliques, etc.). Cela signifie qu’en dimension 2, un « régime » typique est qualitativement robuste. +- **Smale (programme hyperbolique)** : la stabilité structurelle est liée à l’hyperbolicité et à la conjugaison topologique ; Smale formalise un cadre global (Axiom A, décomposition spectrale) où les propriétés qualitatives persistent sous perturbations. -Ces résultats justifient une distinction interne au chapitre : un attracteur n’est « contraignant pour l’avenir » de manière durable que s’il est **robuste** (au moins localement, idéalement structurellement). +Ces résultats justifient une distinction interne au chapitre : un attracteur n’est « contraignant pour l’avenir » de manière durable que s’il est **robuste** (au moins localement, idéalement structurellement). ### Entropie, irréversibilité et structures dissipatives (ancrage thermodynamique) Prigogine rappelle, dans sa leçon Nobel, l’usage des fonctions de Lyapunov en thermodynamique de stabilité et la centralité de la production d’entropie (signe non négatif) pour l’orientation irréversible, tout en distinguant les situations où une fonction de potentiel (Lyapunov) existe ou non. -Ce point sert ici uniquement comme correspondance de consensus : dans des systèmes physiques ouverts loin de l’équilibre, des « régimes organisés » peuvent persister (structures dissipatives), ce qui correspond formellement à l’existence d’ensembles invariants attirants sous contrainte dissipative. +Ce point sert ici uniquement comme correspondance de consensus : dans des systèmes physiques ouverts loin de l’équilibre, des « régimes organisés » peuvent persister (structures dissipatives), ce qui correspond formellement à l’existence d’ensembles invariants attirants sous contrainte dissipative. ## Propriétés épistémiques dérivées @@ -2565,43 +2547,42 @@ On introduit maintenant « épistémique » comme **adjectif dérivé** et non c ### Définition formelle d’une propriété épistémique dérivée -Soit \((X_t)_{t\ge 0}\) une dynamique (déterministe ou stochastique) sur \(X\), et soit \(D_t = D(X_t)\) une variable dérivée (par exemple : étiquette de bassin, classe, invariant calculé à partir d’un génotype \(\Gamma\)). On dit que \(D\) possède une propriété épistémique dérivée à l’horizon \(\tau\) s’il existe un gain strict de prévisibilité : -\[ -H(X_{t+\tau}\mid D_t)\ <\ H(X_{t+\tau}). +Soit \((X\_t)\_{t\ge 0}\) une dynamique (déterministe ou stochastique) sur \(X\), et soit \(D\_t = D(X\_t)\)\)) une variable dérivée (par exemple : étiquette de bassin, classe, invariant calculé à partir d’un génotype \(((\Gamma\)). On dit que \(D\) possède une propriété épistémique dérivée à l’horizon \(\tau\) s’il existe un gain strict de prévisibilité : \[ +H(X\_{t+\tau}\mid D\_t)\)\) <\ H(X_{t+\tau}). \] Équivalemment, l’information mutuelle satisfait \[ -I(D_t; X_{t+\tau})\ >\ 0. +I(D_t ; X_{t+\tau})\ >\ 0. \] Ces quantités (entropie, conditionnement, information mutuelle) sont introduites dans le cadre de Shannon comme mesures formelles de l’incertitude et de la réduction d’incertitude (indépendamment de toute sémantique). -**Remarque de méthode.** Cette définition ne dit pas que « le système connaît » quoi que ce soit; elle dit qu’il existe une variable dérivée stable qui **porte** une contrainte suffisante pour réduire l’ensemble des futurs accessibles. +**Remarque de méthode.** Cette définition ne dit pas que « le système connaît » quoi que ce soit ; elle dit qu’il existe une variable dérivée stable qui **porte** une contrainte suffisante pour réduire l’ensemble des futurs accessibles. ### Variables épistémiques typiques : étiquette de bassin et invariants transmissibles **Exemple 1 (étiquette de bassin).** -Dans un système discret fini déterministe, définissons \(D(x)=i\) si \(x\in B(C_i)\). Alors \(D(f^{(n)}(x))=D(x)\) pour tout \(n\) (l’orbite ne quitte pas son bassin). De plus, \(D\) prédit l’attracteur final; à horizon \(\tau\) grand, il prédit que \(X_{t+\tau}\) appartient au cycle \(C_{D_t}\). Donc \(H(X_{t+\tau}\mid D_t)\) est strictement plus petit qu’en l’absence de \(D_t\) dès que plusieurs bassins existent et que l’incertitude initiale couvre plusieurs bassins. (Preuve directe par définition des bassins.) +Dans un système discret fini déterministe, définissons \(((D(x)=i\) si \(x\in B(C\_i)\)\)). Alors \(((D(f^{(n)}(x))=D(x)\)\)) pour tout \(((n\) (l’orbite ne quitte pas son bassin). De plus, \(D\) prédit l’attracteur final ; à horizon \(\tau\) grand, il prédit que \(X\_{t+\tau}\) appartient au cycle \(C\_{D\_t}\). Donc \(H(X\_{t+\tau}\mid D\_t)\)\)) est strictement plus petit qu’en l’absence de \(((D\_t\) dès que plusieurs bassins existent et que l’incertitude initiale couvre plusieurs bassins. (Preuve directe par définition des bassins.) **Exemple 2 (registre transmissible).** -Soit un génotype abstrait \(\Gamma=(S,M,A,R)\) transmis partiellement dans une lignée (chapitres précédents). Une variable dérivée \(D(\Gamma)\) peut être un invariant de second ordre (attracteur dans l’espace quotient des classes, statistique stable de transitions, etc.). Si \(D\) est stable sous recombinaison/réparation (homomorphisme ou invariant robuste) et influence la dynamique (construit un bassin dominant pour la descendance), alors \(D\) devient une contrainte transmissible qui réduit l’incertitude sur les régimes atteints par les descendants (réduction de la diversité des futurs). Cette « épistémicité » est structurelle : transmission + stabilité + pouvoir de contrainte. +Soit un génotype abstrait \(\Gamma=(S,M,A,R)\)\)) transmis partiellement dans une lignée (chapitres précédents). Une variable dérivée \(((D(\Gamma)\)\)) peut être un invariant de second ordre (attracteur dans l’espace quotient des classes, statistique stable de transitions, etc.). Si \(((D\) est stable sous recombinaison/réparation (homomorphisme ou invariant robuste) et influence la dynamique (construit un bassin dominant pour la descendance), alors \(D\) devient une contrainte transmissible qui réduit l’incertitude sur les régimes atteints par les descendants (réduction de la diversité des futurs). Cette « épistémicité » est structurelle : transmission + stabilité + pouvoir de contrainte. ### Conditions nécessaires et suffisantes (propositions élémentaires) **Proposition (nécessité minimale).** -Si \(D_t\) est presque sûrement constant (aucune variation), alors \(I(D_t;X_{t+\tau})=0\) et aucune propriété épistémique dérivée n’apparaît. +Si \(D\_t\) est presque sûrement constant (aucune variation), alors \(I(D\_t ; X\_{t+\tau})=0\) et aucune propriété épistémique dérivée n’apparaît. -_Preuve._ Si \(D_t\equiv c\), alors \(H(X_{t+\tau}\mid D_t)=H(X_{t+\tau}\mid c)=H(X_{t+\tau})\). □ +**Preuve.** Si \(D\_t\equiv c\), alors \(H(X\_{t+\tau}\mid D\_t)=H(X\_{t+\tau}\mid c)=H(X\_{t+\tau})\)\)). □ **Proposition (suffisance simple via attracteurs dominants).** -Supposons qu’il existe deux bassins \(B_1,B_2\) de mesures positives (ou de tailles positives en discret) et que l’incertitude initiale place une masse non nulle sur chacun. Alors la variable \(D(x)=\mathbf{1}_{x\in B_1}\) satisfait \(I(D_t; \text{attracteur final})>0\) et donc réduit l’incertitude sur un futur suffisamment tardif. +Supposons qu’il existe deux bassins \(((B\_1,B\_2\) de mesures positives (ou de tailles positives en discret) et que l’incertitude initiale place une masse non nulle sur chacun. Alors la variable \(D(x)=\mathbf{1}\_{x\in B\_1}\) satisfait \(I(D\_t ; \text{attracteur final})>0\) et donc réduit l’incertitude sur un futur suffisamment tardif. -_Preuve._ \(D\) détermine quel attracteur final sera atteint (par définition des bassins), et comme \(D\) n’est pas constante (probabilités non triviales), l’information mutuelle est positive. □ +**Preuve.** \(D\) détermine quel attracteur final sera atteint (par définition des bassins), et comme \(D\) n’est pas constante (probabilités non triviales), l’information mutuelle est positive. □ ### Jaynes : contraintes et prédiction minimale biaisée Jaynes formalise l’idée qu’une description par contraintes partielles (moments, invariants) induit une distribution de probabilité « la moins biaisée » compatible avec ces contraintes via le principe de maximum d’entropie. Cela fournit un pont formel entre « contrainte stable » et « prédiction distribuationnelle », sans invocation sémantique. -Dans notre langage, si un invariant \(D\) est transmissible et stable, alors la classe des futurs compatibles avec \(D\) est restreinte; le maximum d’entropie donne alors une manière canonique (au sens de Jaynes) d’assigner des probabilités sur ces futurs lorsque l’on ne conserve que \(D\) comme contrainte. +Dans notre langage, si un invariant \(D\) est transmissible et stable, alors la classe des futurs compatibles avec \(D\) est restreinte ; le maximum d’entropie donne alors une manière canonique (au sens de Jaynes) d’assigner des probabilités sur ces futurs lorsque l’on ne conserve que \(D\) comme contrainte. ### Diagramme : génotype → invariant → attracteur → contrainte sur l’avenir @@ -2610,12 +2591,12 @@ flowchart TD Gamma["Γ=(S,M,A,R)"] --> D["Invariant dérivé D(Γ)"] D --> Basin["Bassin/Region verrouillée B(D)"] Basin --> Attr["Régime stable / attracteur"] - D --> Pred["Réduction d’incertitude sur futurs: H(Futur|D) < H(Futur)"] + D --> Pred["Réduction d’incertitude sur futurs : H(Futur|D) < H(Futur)"] ``` ## Conséquences strictement déduites (lecture conditionnelle) -Les conclusions suivantes ne supposent ni « sujet », ni téléologie; elles suivent des constructions mathématiques précédentes. +Les conclusions suivantes ne supposent ni « sujet », ni téléologie ; elles suivent des constructions mathématiques précédentes. **Disponibilité de formes persistantes qui contraignent les futurs.** L’existence d’attracteurs (discrets ou topologiques) implique qu’il existe des régimes invariants atteints à partir de voisinages : à grande échelle, l’ensemble des futurs accessibles se réduit aux régimes attractifs. La dynamique produit donc des « formes persistantes » (au sens invariant) capables de canaliser les trajectoires. @@ -2630,14 +2611,15 @@ Si le verrouillage exige des opérations non injectives (effacement, projection) ### Ontologie des contraintes -Le chapitre autorise une thèse philosophique minimale (et non circulaire) : ce qui « persiste » et « agit sur l’avenir » n’est pas l’état individuel, mais une **structure d’invariance et d’attraction** (attracteur + bassin, ou invariant stable) qui réduit l’espace des possibles. L’ontologie n’est pas celle d’entités substantielles, mais celle de **contraintes dynamiques**. +Le chapitre autorise une thèse philosophique minimale (et non circulaire) : ce qui « persiste » et « agit sur l’avenir » n’est pas l’état individuel, mais une **structure d’invariance et d’attraction** (attracteur + bassin, ou invariant stable) qui réduit l’espace des possibles. L’ontologie n’est pas celle d’entités substantielles, mais celle de **contraintes dynamiques**. Cette ontologie est compatible avec deux repères classiques : - La stabilité (Lyapunov) comme définition de ce qui résiste aux perturbations locales. + - La stabilité structurelle (Peixoto/Smale) comme définition de ce qui résiste aux perturbations des lois elles-mêmes. -### Ce que le formalisme interdit +### Ce que le formalisme interdit — Ch. 8 - Il interdit de traiter « connaissance » comme primitive : les propriétés épistémiques sont définies **a posteriori** comme réduction d’incertitude sur l’avenir via variables dérivées, sans sémantique. - Il interdit d’identifier « attracteur » à « optimum » (aucune fonction de coût n’est postulée) et interdit toute téléologie implicite. @@ -2645,53 +2627,53 @@ Cette ontologie est compatible avec deux repères classiques : ### Limites internes (à assumer explicitement) -- **Dépendance au niveau de description.** Les bassins, entropies structurelles et variables \(D\) dépendent du choix de projection \(q\) et de la granularité temporelle; changer de niveau de description peut transformer des transitions rares en transitions fréquentes (ou inversement). +- **Dépendance au niveau de description.** Les bassins, entropies structurelles et variables \(D\) dépendent du choix de projection \(q\) et de la granularité temporelle ; changer de niveau de description peut transformer des transitions rares en transitions fréquentes (ou inversement). - **Pluralité des notions d’attracteur.** Il existe plusieurs définitions non équivalentes (topologique, mesurée, Milnor attractor). Le chapitre se limite à une définition topologique standard et à des critères robustes (Lyapunov, stabilité structurelle) reconnus. - **Les structures dissipatives ne sont pas un axiome.** Le lien avec Prigogine est une correspondance empirique consensuelle : il illustre que des régimes attractifs peuvent exister loin de l’équilibre et que l’entropie/production d’entropie jouent un rôle structurant, mais cela ne remplace pas les démonstrations abstraites du chapitre. ### Tableau de synthèse : stabilisation et épistémicité dérivée | Notion | Définition formelle | Condition clé | Statut | -|---|---|---|---| +| --- | --- | --- | --- | | Stabilisation (discret fini) | transitoire + cycle | finitude + déterminisme | démontré (élémentaire) | -| Stabilisation (compact) | \(\omega(x)\) non vide, invariant | compacité + continuité | démontré (élémentaire) | -| Robustesse locale | stabilité de Lyapunov | \(\varepsilon\)-\(\delta\) | consensus (Lyapunov) | +| Stabilisation (compact) | \(\omega(x)\)\)) non vide, invariant | compacité + continuité | démontré (élémentaire) | +| Robustesse locale | stabilité de Lyapunov | \(((\varepsilon\)-\(\delta\) | consensus (Lyapunov) | | Robustesse structurelle | conjugaison sous perturbation | hyperbolicité / critères | consensus (Peixoto/Smale) | -| Contrainte sur l’avenir | \(F_n(U)\to A\) ou \(U\subset B(A)\) | attracteur + bassin | déduit | -| Propriété épistémique dérivée | \(H(Futur|D) < H(Futur)\) | \(I(D;Futur)>0\) + stabilité | défini (Shannon) | -| Coût minimal d’effacement | \(E_{\min}\ge kT\ln 2\ \Delta b\) | logique irréversible | consensus (Landauer) | +| Contrainte sur l’avenir | \(F\_n(U)\)\)to A\) ou \(((U\subset B(A)\)\)) | attracteur + bassin | déduit | +| Propriété épistémique dérivée | \(((H(Futur|D) < H(Futur)\)\)) | \(((I(D ; Futur)>0\) + stabilité | défini (Shannon) | +| Coût minimal d’effacement | \(E\_{\min}\ge kT\ln 2\ \Delta b\) | logique irréversible | consensus (Landauer) | --- -# Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification +## Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification {#chapitre-9-selection-structurelle-invariants-et-dynamique-de-complexification} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 9 -Hypothèses (H). +**Hypothèses (H).** -- existence de reproduction/variation et d’une notion de viabilité (contraintes) ; +- existence de reproduction/variation et d’une notion de viabilité (contraintes) - introduction d’une re‑pondération \(w\) (fitness structurelle) comme paramètre de modèle, sans finalité. -Résultats (E). +**Résultats (E).** -- reconstruction de la sélection comme effet de re‑pondération des distributions (opérateur \(S_w\)) ; -- décomposition de l’évolution moyenne par l’équation de Price (covariance + transformation intra‑lignées) ; +- reconstruction de la sélection comme effet de re‑pondération des distributions (opérateur \(S\_w\)) +- décomposition de l’évolution moyenne par l’équation de Price (covariance + transformation intra‑lignées) - définition de métriques de complexité et conditions explicites sous lesquelles une complexification est possible. -Statut. +**Statut.** - les énoncés sur distributions et modèles de population relèvent d’une couche probabiliste déclarée ; aucune optimisation n’est postulée. -## Résumé exécutif +## Résumé exécutif — Ch. 9 -Ce chapitre formalise la **sélection** comme un phénomène purement structural : un **opérateur** agissant sur des distributions de génotypes \(\Gamma\), sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de non‑injectivité) et des lignées orientées (DAG d’événements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une **tendance différentielle** à produire des descendants admissibles (au sens des contraintes \(R\)), ce qui se traduit mathématiquement par une **re‑pondération** des distributions par une fonction de poids \(w(\Gamma)\) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie. +Ce chapitre formalise la **sélection** comme un phénomène purement structural : un **opérateur** agissant sur des distributions de génotypes \(\Gamma\), sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de non‑injectivité) et des lignées orientées (DAG d’événements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une **tendance différentielle** à produire des descendants admissibles (au sens des contraintes \(R\)), ce qui se traduit mathématiquement par une **re‑pondération** des distributions par une fonction de poids \(w(\Gamma)\)\)) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie. -Deux résultats structurants sont établis. D’abord, l’opérateur de sélection \(S_w\) conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) **augmente la moyenne** \(\mathbb{E}[w]\) d’une manière mesurable (inégalité élémentaire via la variance). Ensuite, l’**équation de Price** fournit une identité générale de variation des moyennes : le changement d’une quantité moyenne (trait, invariant, complexité) se décompose en un terme de **covariance** entre variation et fitness, plus un terme de transformation « intra‑lignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique. +Deux résultats structurants sont établis. D’abord, l’opérateur de sélection \(((S\_w\) conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) **augmente la moyenne** \(\mathbb{E}[w]\) d’une manière mesurable (inégalité élémentaire via la variance). Ensuite, l’**équation de Price** fournit une identité générale de variation des moyennes : le changement d’une quantité moyenne (trait, invariant, complexité) se décompose en un terme de **covariance** entre variation et fitness, plus un terme de transformation « intra‑lignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique. -La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines **mesures de complexité** (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, (iii) profondeur logique de Bennett pour distinguer l’aléatoire « shallow » du complexe « deep » (résultat d’une longue histoire causale/computationnelle). -On montre que la complexification **n’est pas un monotone universel** : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets d’oubli, de bruit, et de coût d’effacement (Landauer) lorsqu’on considère l’implémentabilité physique des opérations irréversibles. +La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines **mesures de complexité** (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, (iii) profondeur logique de Bennett pour distinguer l’aléatoire « shallow » du complexe « deep » (résultat d’une longue histoire causale/computationnelle). +On montre que la complexification **n’est pas un monotone universel** : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets d’oubli, de bruit, et de coût d’effacement (Landauer) lorsqu’on considère l’implémentabilité physique des opérations irréversibles. -Enfin, on place ces définitions dans des modèles canoniques de consensus : Wright‑Fisher/Wright (population génétique), Moran (naissances‑morts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (Lieberman–Hauert–Nowak) où la structure d’interaction modifie probabilités de fixation et temps d’absorption. +Enfin, on place ces définitions dans des modèles canoniques de consensus : Wright‑Fisher/Wright (population génétique), Moran (naissances‑morts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (Lieberman–Hauert–Nowak) où la structure d’interaction modifie probabilités de fixation et temps d’absorption. Les implications sont strictement déduites : si un modèle possède (a) reproduction partielle, (b) héritage de contraintes (invariants) et (c) sélection structurale (re‑pondération par \(w\)), alors il existe des régimes où certains invariants s'accumulent et où des trajectoires historiques de complexité croissante sont possibles (probabilistiquement), sans présupposer finalité ni « progrès ». ## Cadre formel minimal @@ -2699,7 +2681,7 @@ Les implications sont strictement déduites : si un modèle possède (a) reprodu On fixe un cadre qui ne présuppose ni biologie empirique ni intention. **Espaces et objets.** -On dispose d’un espace \(X\) de configurations (discret fini, ou compact métrique selon les besoins), et d’une dynamique \(f:X\to X\) (ou un semi‑flot). L’ouvrage a déjà établi que l’itération induit une structure d’ordre (préordre, puis ordre sur classes) et que l’évolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.) +On dispose d’un espace \(X\) de configurations (discret fini, ou compact métrique selon les besoins), et d’une dynamique \(f : X\to X\) (ou un semi‑flot). L’ouvrage a déjà établi que l’itération induit une structure d’ordre (préordre, puis ordre sur classes) et que l’évolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.) **Classes et génotypes.** On considère un espace de génotypes \(\mathcal{G}\), dont un élément est un quadruplet @@ -2707,30 +2689,30 @@ On considère un espace de génotypes \(\mathcal{G}\), dont un élément est un \Gamma=(S,M,A,R), \] où \(S\) est une séquence sur un alphabet fini \(\mathcal{L}\), \(M\) est un registre de cooccurrences (compteurs non négatifs), \(A\) un ensemble d’invariants dérivés, et \(R\) un ensemble de règles admissibles (fragmentation, recombinaison, réparation). -Le passage \(X\to \mathcal{L}\) (classes) est interprété comme compression/non‑injectivité (fibres et partitions), mais cela n’est pas requis pour définir la sélection ; cela est utilisé pour relier sélection et mémoire \(M\). +Le passage \(X\to \mathcal{L}\) (classes) est interprété comme compression/non‑injectivité (fibres et partitions), mais cela n’est pas requis pour définir la sélection ; cela est utilisé pour relier sélection et mémoire \(M\). **Populations comme distributions.** -Une population est une mesure de probabilité \(p\) sur \(\mathcal{G}\) (cas discret : \(p\in\Delta(\mathcal{G})\), simplex). Le « temps » au niveau populationnel est un index d’itération d’un opérateur sur distributions. +Une population est une mesure de probabilité \(p\) sur \(\mathcal{G}\) (cas discret : \(p\in\Delta(\mathcal{G})\)\)), simplex). Le « temps » au niveau populationnel est un index d’itération d’un opérateur sur distributions. **Reproduction/variation comme noyau de transition.** -On encode reproduction, recombinaison et mutation par un noyau \(K\) : -\[ -K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum_{\Gamma'} K(\Gamma'\mid \Gamma)=1. +On encode reproduction, recombinaison et mutation par un noyau \(((K\) : \[ +K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum\_{\Gamma'} K(\Gamma'\mid \Gamma)=1. \] Ainsi, l’étape de variation (sans sélection) est simplement \[ -p^{\text{var}}(\Gamma') = \sum_{\Gamma} p(\Gamma)\,K(\Gamma'\mid \Gamma). +p^{\text{var}}(\Gamma') = \sum\_{\Gamma} p(\Gamma)\)\),K(\Gamma'\mid \Gamma). \] C’est une mise à jour de Markov (linéaire sur le simplex). **Fitness structurelle non téléologique.** -On définit une fonction \(w:\mathcal{G}\to\mathbb{R}_+\) comme une **intensité différentielle de reproduction admissible**, par exemple : +On définit une fonction \(((w : \mathcal{G}\to\mathbb{R}\_+\) comme une **intensité différentielle de reproduction admissible**, par exemple : - \(w(\Gamma)=\mathbb{E}[\#\text{descendants admissibles}\mid \Gamma]\), ou -- \(w(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma)\), ou -- \(w(\Gamma)=\mathbb{P}(\text{conserver un invariant }A_0\mid\Gamma)\). -Aucune de ces définitions n’implique un but : \(w\) est un paramètre de la dynamique effective. +- \(w(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma)\)\)), ou +- \(((w(\Gamma)=\mathbb{P}(\text{conserver un invariant }A\_0\mid\Gamma)\)\)). + +Aucune de ces définitions n’implique un but : \(((w\) est un paramètre de la dynamique effective. ## Sélection structurelle et invariants sélectionnés @@ -2739,65 +2721,64 @@ Aucune de ces définitions n’implique un but : \(w\) est un paramètre de la **Définition (opérateur de sélection).** Soit \(p\) une distribution sur \(\mathcal{G}\), et \(w\ge 0\) une fonction non identiquement nulle. On définit \[ -(S_w p)(\Gamma) \;=\; \frac{w(\Gamma)\,p(\Gamma)}{\langle w,p\rangle}, +(S\_w p)(\Gamma) \ ; =\ ; \frac{w(\Gamma)\)\),p(\Gamma)}{\langle w,p\rangle}, \quad \text{où}\quad \langle w,p\rangle=\sum_{\Gamma} w(\Gamma)p(\Gamma). \] -C’est la re‑pondération standard « proportionnelle à \(w\) » (forme canonique de la sélection). +C’est la re‑pondération standard « proportionnelle à \(((w\) » (forme canonique de la sélection). **Proposition (bien‑définition).** -Si \(\langle w,p\rangle>0\), alors \(S_w p\) est une distribution (non négative et de somme 1). +Si \(\langle w,p\rangle>0\), alors \(S\_w p\) est une distribution (non négative et de somme 1). -_Preuve._ \(w(\Gamma)p(\Gamma)\ge 0\). La somme vaut \(\sum_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1\). □ +**Preuve.** \(w(\Gamma)p(\Gamma)\)\)ge 0\). La somme vaut \(((\sum\_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1\). □ Cette opération est la version abstraite (et non téléologique) du mécanisme « les types à plus grand taux de reproduction deviennent plus fréquents ». -### Sélection + variation : dynamique composée +### Sélection + variation : dynamique composée Le modèle minimal de sélection‑variation est alors \[ -p_{t+1} \;=\; K\big(S_w p_t\big), +p\_{t+1} \ ; =\ ; K\big(S\_w p\_t\big), \] -où \(K\) est l’opérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement : +où \(K\) est l’opérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement : - **sélection** (non linéaire, re‑normalisation), + - **variation** (linéaire, mélange). -### Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple) +### Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple) Un fait classique (et ici démontré explicitement) est que, lorsque \(w\) ne dépend pas de \(p\) (pas de dépendance fréquentielle), la sélection seule augmente la moyenne de \(w\). -**Proposition (augmentation de la moyenne de \(w\) sous \(S_w\)).** -Supposons \(w:\mathcal{G}\to\mathbb{R}_+\) indépendante de \(p\). Alors +**Proposition (augmentation de la moyenne de \(w\) sous \(S\_w\)).** +Supposons \(w : \mathcal{G}\to\mathbb{R}*+\) indépendante de \(p\). Alors \[ -\mathbb{E}_{S_w p}[w] \;\ge\; \mathbb{E}_{p}[w], +\mathbb{E}\_{S\_w p}[w] \ge \mathbb{E}\_{p}[w], \] avec égalité ssi \(w\) est constante \(p\)-presque partout. -_Preuve._ +**Preuve.** On calcule \[ -\mathbb{E}_{S_w p}[w]=\sum_{\Gamma} w(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} +\(\mathbb{E}\_{S\_w p}[w]=\sum\_{\Gamma} w(\Gamma)\)\)frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]}\) = \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}. \] -Or \(\mathbb{E}_p[w^2]=\mathrm{Var}_p(w)+\mathbb{E}_p[w]^2\), donc +Or \(((\mathbb{E}\_p[w^2]=\mathrm{Var}\_p(w)+\mathbb{E}\_p[w]^2\), donc \[ -\frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}=\mathbb{E}_p[w]+\frac{\mathrm{Var}_p(w)}{\mathbb{E}_p[w]} -\ge \mathbb{E}_p[w]. +\frac{\mathbb{E}\_p[w^2]}{\mathbb{E}\_p[w]}=\mathbb{E}\_p[w]+\frac{\mathrm{Var}\_p(w)}{\mathbb{E}\_p[w]} +\ge \mathbb{E}\_p[w]. \] -Égalité ssi \(\mathrm{Var}_p(w)=0\), i.e. \(w\) constante sur le support. □ +Égalité ssi \(\mathrm{Var}\_p(w)=0\), i.e. \(w\) constante sur le support. □ -Cette proposition est un énoncé strictement mathématique : il ne dit pas que « l’évolution progresse », il dit que l’opérateur \(S_w\) concentre la masse sur les régions de plus grand \(w\). +Cette proposition est un énoncé strictement mathématique : il ne dit pas que « l’évolution progresse », il dit que l’opérateur \(S\_w\) concentre la masse sur les régions de plus grand \(w\). -### Équation de Price : invariants sélectionnés par covariance +### Équation de Price : invariants sélectionnés par covariance -La question centrale de ce chapitre est : **quels invariants sont sélectionnés** ? -On répond sans métaphore par l’équation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec \(w\), modulé par ce qui se transforme pendant la reproduction. +La question centrale de ce chapitre est : **quels invariants sont sélectionnés** ? On répond sans métaphore par l’équation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec \(w\), modulé par ce qui se transforme pendant la reproduction. **Énoncé (forme générale, un pas).** -Soit une population d’individus \(i\) (ou de génotypes \(\Gamma\)) avec une quantité \(z\) (trait, invariant, complexité) et un nombre de descendants \(w\) (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \(\bar z\) entre deux générations se décompose en : -\[ -\Delta \bar z \;=\; \frac{\mathrm{Cov}(w,z)}{\bar w} \;+\; \frac{\mathbb{E}[w\,\Delta z]}{\bar w}, +Soit une population d’individus \(i\) (ou de génotypes \(\Gamma\)) avec une quantité \(z\) (trait, invariant, complexité) et un nombre de descendants \(w\) (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \(\bar z\) entre deux générations se décompose en : \[ +\Delta \bar z \ ; =\ ; \frac{\mathrm{Cov}(w,z)}{\bar w} \ ; +\ ; \frac{\mathbb{E}[w\,\Delta z]}{\bar w}, \] où \(\Delta z\) est le changement de \(z\) entre parent et descendant (terme « transmission/transformations internes »). Price montre explicitement que la variation attribuable à la sélection s’exprime comme un terme de covariance, et il illustre la transparence de cette écriture. (La version 1972 étend ce formalisme et discute des cas plus complexes, notamment quand la structure de sélection n’est pas une simple sélection « génétique » au sens standard.) @@ -2811,43 +2792,43 @@ Ainsi, un invariant « sélectionné » est un invariant \(z\) dont la covarianc ## Dynamique de complexification et métriques de complexité -Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle \(C\) sur \(\Gamma\) (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous l’action conjointe variation‑sélection‑héritage. +Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle \(C\) sur \(\Gamma\) (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous l’action conjointe variation‑sélection‑héritage. ### Trois familles de métriques (consensus) **Entropie structurelle (Shannon).** Pour une distribution \(p\) sur \(\mathcal{G}\), l’entropie de Shannon \[ -H(p)=-\sum_{\Gamma} p(\Gamma)\log p(\Gamma) +H(p)=-\sum\_{\Gamma} p(\Gamma)\)\)log p(\Gamma) \] mesure la dispersion des types possibles. Shannon introduit l’entropie comme mesure d’incertitude d’une source discrète et en établit les propriétés élémentaires et le rôle des conditionnements. -Dans notre cadre, \(H(p_t)\) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes. +Dans notre cadre, \(((H(p\_t)\)\)) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes. **Complexité algorithmique (Kolmogorov).** Kolmogorov distingue explicitement une approche combinatoire, probabiliste et algorithmique de « quantité d’information », en reliant la mesure à des descriptions minimales (approche par fonctions récursives). -On note \(K(\Gamma)\) la longueur de la plus courte description (programme) produisant \(\Gamma\) sur une machine universelle. On note (consensus en théorie) : \(K\) n’est pas calculable en général, mais sert de référence conceptuelle pour la compressibilité. +On note \(((K(\Gamma)\)\)) la longueur de la plus courte description (programme) produisant \(((\Gamma\) sur une machine universelle. On note (consensus en théorie) : \(K\) n’est pas calculable en général, mais sert de référence conceptuelle pour la compressibilité. **Profondeur logique (Bennett).** -Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir d’un programme (presque) le plus court, avec un paramètre de signification. -Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis qu’un objet compressible mais difficile à générer peut être « deep ». +Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir d’un programme (presque) le plus court, avec un paramètre de signification. +Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis qu’un objet compressible mais difficile à générer peut être « deep ». ### Complexification comme dérive positive d’une fonctionnelle -Soit \(C:\mathcal{G}\to\mathbb{R}\) une mesure de complexité (au choix : \(K\), profondeur, taille de support de \(M\), etc.). Définissons la moyenne populationnelle +Soit \(C : \mathcal{G}\to\mathbb{R}\) une mesure de complexité (au choix : \(K\), profondeur, taille de support de \(M\), etc.). Définissons la moyenne populationnelle \[ -\bar C_t = \mathbb{E}_{p_t}[C]. +\bar C\_t = \mathbb{E}\_{p\_t}[C]. \] **Proposition (variation de \(\bar C\) sous sélection pure).** -Sous sélection seule \(p' = S_w p\), +Sous sélection seule \(p' = S\_w p\), \[ \bar C' - \bar C -= \frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}. += \frac{\mathrm{Cov}\_p(w,C)}{\mathbb{E}\_p[w]}. \] -_Preuve._ +**Preuve.** \[ -\bar C'=\sum_\Gamma C(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} +\bar C'=\sum\_\Gamma C(\Gamma)\)\)frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} =\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}. \] Donc @@ -2859,34 +2840,35 @@ Donc \] □ -Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à \(w\). +Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à \(((w\). ### Conditions nécessaires pour une dynamique de complexification -En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) : +En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) : -- **Variation** : la dynamique doit explorer des génotypes de \(C\) différents (sinon covariance nulle). -- **Héritabilité** : les opérations de reproduction doivent préserver suffisamment \(C\) (ou le reconstruire) pour que l’avantage corrélé à \(w\) ne soit pas détruit; sinon le terme \(\mathbb{E}[w\Delta C]\) compense négativement. -- **Corrélation structurale** : il faut une covariance positive durable \(\mathrm{Cov}(w,C)>0\). +- **Variation** : la dynamique doit explorer des génotypes de \(C\) différents (sinon covariance nulle). + +- **Héritabilité** : les opérations de reproduction doivent préserver suffisamment \(C\) (ou le reconstruire) pour que l’avantage corrélé à \(w\) ne soit pas détruit ; sinon le terme \(\mathbb{E}[w\Delta C]\) compense négativement. +- **Corrélation structurale** : il faut une covariance positive durable \(\mathrm{Cov}(w,C)>0\). Le formalisme de Jaynes, qui reconstruit des distributions à partir de contraintes par maximum d’entropie, fournit un langage canonique pour dire que « conserver une contrainte \(D\) » réduit l’incertitude sur les états possibles (donc sur les futurs), sans sémantique. Ici, cette remarque sert uniquement à justifier qu’une contrainte transmissible peut être traitée comme paramètre de prédiction probabiliste, sans postuler de sujet. -## Modèles de sélection : processus stochastiques, fixation et sélection sur graphes +## Modèles de sélection : processus stochastiques, fixation et sélection sur graphes Cette section relie les définitions abstraites à des modèles de consensus qui fournissent des résultats quantitatifs. -### Moran, Wright et Kimura : fixation sous dérive et sélection +### Moran, Wright et Kimura : fixation sous dérive et sélection **Moran (naissances/morts individuelles).** -Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences. +Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire ; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences. **Wright (populations mendéliennes).** Wright (1931) est l’une des sources fondatrices de la génétique des populations et discute explicitement dérive, sélection, structure, et effectifs (modèle large). **Kimura (probabilité de fixation).** -Kimura dérive une formule générale de probabilité de fixation \(u(p)\) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). -Dans le cas de sélection génique constante (avantage sélectif \(s\)), il obtient explicitement +Kimura dérive une formule générale de probabilité de fixation \(u(p)\)\)) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). +Dans le cas de sélection génique constante (avantage sélectif \(((s\)), il obtient explicitement \[ u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}}, \] @@ -2897,26 +2879,23 @@ u=\frac{1-e^{-2s}}{1-e^{-4Ns}}, avec approximation \(u\approx \frac{2s}{1-e^{-4Ns}}\) lorsque \(|s|\) est petit, et \(u\to \tfrac{1}{2N}\) quand \(s\to 0\) (neutralité). **Interprétation structurale (non téléologique).** -La fixation n’est pas un « but » : c’est l’absorption d’un processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection **et** de chance. +La fixation n’est pas un « but » : c’est l’absorption d’un processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection **et** de chance. -### Sélection sur graphes d’interaction : structure comme modulateur de sélection +### Sélection sur graphes d’interaction : structure comme modulateur de sélection -Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer l’effet de sélection. -Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité qu’un mutant « prenne le dessus » (fixe) et donc le taux d’évolution. +Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui ; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer l’effet de sélection. +Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité qu’un mutant « prenne le dessus » (fixe) et donc le taux d’évolution. -Point méthodologique pour l’ouvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles : - -1) sélection par re‑pondération \(w(\Gamma)\) dans une population homogène ; -2) sélection induite par **contraintes de communication** entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique. +Point méthodologique pour l’ouvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles : 1) sélection par re‑pondération \(w(\Gamma)\)\)) dans une population homogène ; 2) sélection induite par **contraintes de communication** entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique. Des travaux ultérieurs (consensus en modélisation) notent que les probabilités de fixation et temps d’absorption ne se ferment analytiquement que pour certaines classes de graphes, et que le calcul exact devient souvent algorithmique (systèmes linéaires, méthodes numériques). ### Branching processes multi‑types avec sélection (critère spectral) -Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le **processus de branchement multi‑types** : chaque type engendre une distribution d’enfants de différents types; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multi‑types et leurs critères de super‑criticité. -Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne \(M\) (Perron–Frobenius). +Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le **processus de branchement multi‑types** : chaque type engendre une distribution d’enfants de différents types ; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multi‑types et leurs critères de super‑criticité. +Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne \(((M\) (Perron–Frobenius). -Dans le langage du chapitre, un type \(\Gamma\) avec \(w(\Gamma)\) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la **survivabilité** des lignées. +Dans le langage du chapitre, un type \(\Gamma\) avec \(w(\Gamma)\)\)) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la **survivabilité** des lignées. ## Algorithmes, simulations et coût computationnel @@ -2924,30 +2903,32 @@ Cette section propose des schémas minimalistes, compatibles avec le formalisme ### Schéma générique sélection‑variation‑reproduction -On suppose une population de taille \(N\) représentée par \(\Gamma^{(1)},\dots,\Gamma^{(N)}\). +On suppose une population de taille \(((N\) représentée par \(\Gamma^{(1)},\dots,\Gamma^{(N)}\). -1) **Évaluation structurale** : calculer un score \(w_i=w(\Gamma^{(i)})\). -2) **Sélection** (roulette‑wheel) : tirer des parents avec probabilité \(w_i/\sum_j w_j\). -3) **Reproduction/variation** : produire un enfant via fragmentation/recombinaison/mutation (noyau \(K\)). -4) **Mise à jour de la mémoire** : mettre à jour \(M\) (cooccurrences, héritage partiel). +1) **Évaluation structurale** : calculer un score \(w\_i=w(\Gamma^{(i)})\)\)). +2) **Sélection** (roulette‑wheel) : tirer des parents avec probabilité \(((w\_i/\sum\_j w\_j\). +3) **Reproduction/variation** : produire un enfant via fragmentation/recombinaison/mutation (noyau \(K\)). +4) **Mise à jour de la mémoire** : mettre à jour \(M\) (cooccurrences, héritage partiel). 5) **Boucle**. -Complexité : +Complexité : -- calcul des poids : dépend de \(w\) (souvent \(O(\mathrm{size}(\Gamma))\)); -- sélection par cumul : \(O(N)\) par génération (ou \(O(\log N)\) avec arbre de Fenwick); -- reproduction : souvent linéaire en longueur de séquence (concaténation/crossover \(O(n)\)). +- calcul des poids : dépend de \(w\) (souvent \(O(\mathrm{size}(\Gamma))\)\))) + +- sélection par cumul : \(((O(N)\)\)) par génération (ou \(((O(\log N)\)\)) avec arbre de Fenwick) +- reproduction : souvent linéaire en longueur de séquence (concaténation/crossover \(((O(n)\)\))). ### Estimation de fitness structurelle -Le chapitre ne fixe pas une forme unique de \(w\). Deux familles naturelles (toutes deux non téléologiques) : +Le chapitre ne fixe pas une forme unique de \(((w\). Deux familles naturelles (toutes deux non téléologiques) : -- **Fitness de viabilité** : \(w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\ \text{admissible})\). -- **Fitness de robustesse** : \(w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit})\), ce qui se relie aux probabilités d’évasion/temps moyen d’évasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins). +- **Fitness de viabilité** : \(w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\)\) \text{admissible})\). -Ces constructions ne disent pas « pourquoi » un type est viable; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif. +- **Fitness de robustesse** : \(((w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit})\)\)), ce qui se relie aux probabilités d’évasion/temps moyen d’évasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins). -### Diagramme de flux : accumulation vs effacement +Ces constructions ne disent pas « pourquoi » un type est viable ; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif. + +### Diagramme de flux : accumulation vs effacement ```mermaid flowchart TD @@ -2961,23 +2942,23 @@ flowchart TD Agg -->|accumule| Comp["Potentiel de complexification (support/entropie/profondeur)"] ``` -Deux effets peuvent coexister : la sélection peut réduire la diversité de population (entropie \(H(p)\)) tout en favorisant, à l’échelle des lignées, l’accumulation d’un registre \(M_{\mathcal{T}}\) et l’augmentation de la profondeur logique de certains objets (complexification). +Deux effets peuvent coexister : la sélection peut réduire la diversité de population (entropie \(((H(p)\)\))) tout en favorisant, à l’échelle des lignées, l’accumulation d’un registre \(((M\_{\mathcal{T}}\) et l’augmentation de la profondeur logique de certains objets (complexification). ## Implications déduites et analyse philosophique -### Conséquences strictement déduites (lecture conditionnelle) +### Conséquences strictement déduites (lecture conditionnelle) — Ch. 9 (2) Les implications ci‑dessous sont des conséquences logiques des définitions, pas des hypothèses additionnelles. **Disponibilité d’une sélection non téléologique.** -Dès qu’un système possède (i) une reproduction/variation (noyau \(K\)) et (ii) une différence systématique de production de descendants admissibles (fonction \(w\)), alors la dynamique des distributions inclut une étape de re‑pondération équivalente à \(S_w\). Il y a donc sélection structurelle dès que le système n’est pas neutre au sens où tous les types n’ont pas le même « taux de continuation » (fitness structurelle). +Dès qu’un système possède (i) une reproduction/variation (noyau \(K\)) et (ii) une différence systématique de production de descendants admissibles (fonction \(w\)), alors la dynamique des distributions inclut une étape de re‑pondération équivalente à \(S\_w\). Il y a donc sélection structurelle dès que le système n’est pas neutre au sens où tous les types n’ont pas le même « taux de continuation » (fitness structurelle). **Sélection d’invariants par covariance.** -L’équation de Price montre que l’accroissement moyen d’une quantité \(z\) à travers une génération est gouverné par une covariance avec \(w\) et par un terme de transformation interne; ainsi, toute accumulation durable d’un invariant exige une covariance positive persistante et une transmission non destructrice. +L’équation de Price montre que l’accroissement moyen d’une quantité \(z\) à travers une génération est gouverné par une covariance avec \(w\) et par un terme de transformation interne ; ainsi, toute accumulation durable d’un invariant exige une covariance positive persistante et une transmission non destructrice. **Possibilité de complexité croissante sans “progrès”.** Si l’on choisit \(C\) comme mesure de complexité (support de \(M\), profondeur logique de Bennett, etc.), la condition minimale pour une dérive positive est \(\mathrm{Cov}(w,C)>0\) (sélection) et un terme \(\mathbb{E}[w\,\Delta C]\) non trop négatif (héritage). Price donne précisément le schéma de cette décomposition. -Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à l’aléatoire : « deep » signifie « résultat d’un long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel. +Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à l’aléatoire : « deep » signifie « résultat d’un long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel. **Contraintes physiques minimales (implémentabilité).** Si le système réalise des opérations logiquement irréversibles (projections, effacements) pour maintenir certains régimes (standardisation, réparation projective), alors, dans une implémentation thermodynamique donnée, Landauer fournit une borne minimale associée à l’effacement de distinctions. Cela ne fonde pas la sélection, mais borne le coût de certaines opérations de stabilisation/effacement dans des instanciations physiques. @@ -2989,60 +2970,60 @@ Philosophiquement, deux points sont licites (et deux sont interdits). **Ce qui devient structurellement dicible.** 1) La sélection n’est pas un “principe finaliste” mais un **effet de re‑pondération** dans un espace de transformations où tous les types n’ont pas la même continuation. La sélection est donc une propriété de l’**opérateur d’évolution**, pas une intention. -2) Un invariant sélectionné n’est pas une essence : c’est une quantité dont la covariance avec \(w\) est positive et transmissible (Price), donc un corrélat stable de persistance. +2) Un invariant sélectionné n’est pas une essence : c’est une quantité dont la covariance avec \(w\) est positive et transmissible (Price), donc un corrélat stable de persistance. **Ce que le formalisme interdit.** -1) Il interdit de confondre « fitness » avec « optimalité » ou « but » : \(w\) est un paramètre de reproduction/persistance, et non une fonction objectif métaphysique. -2) Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, d’où la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie). +1) Il interdit de confondre « fitness » avec « optimalité » ou « but » : \(w\) est un paramètre de reproduction/persistance, et non une fonction objectif métaphysique. +2) Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, d’où la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie). -### Tableaux comparatifs +### Tableaux comparatifs — Ch. 9 | Objet | Définition formelle | Rôle dans la dynamique | Risque de confusion à éviter | -|---|---|---|---| -| Sélection \(S_w\) | \(p(\Gamma)\mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]}\) | concentration sur grands \(w\) | “choix”, “but” | -| Variation \(K\) | noyau markovien \(K(\Gamma'|\Gamma)\) | exploration/mutation/recombinaison | “création orientée” | -| Invariant sélectionné \(z\) | \(\mathrm{Cov}(w,z)>0\) (+ transmission) | augmentation moyenne | “essence” | +| --- | --- | --- | --- | +| Sélection \(S\_w\) | \(p(\Gamma)\)\)mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]}\) | concentration sur grands \(((w\) | “choix”, “but” | +| Variation \(K\) | noyau markovien \(K(\Gamma'|\Gamma)\)\)) | exploration/mutation/recombinaison | “création orientée” | +| Invariant sélectionné \(((z\) | \(\mathrm{Cov}(w,z)>0\) (+ transmission) | augmentation moyenne | “essence” | | Fixation | absorption stochastique | domination d’un type | “victoire recherchée” | | Modèle | Type | Résultat canonique (consensus) | Source | -|---|---|---|---| +| --- | --- | --- | --- | | Moran | birth–death (finie) | dynamique stochastique des fréquences | Moran (1958) | | Fixation diffusion | approx. continue | \(u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}}\) (genic selection) | Kimura (1962) | | Sélection/covariance | identité | décomposition par covariance + transmission | Price (1970) | -| Graphes | population structurée | fixation dépend de la topologie; amplificateurs/suppresseurs | Lieberman et al. (2005) | +| Graphes | population structurée | fixation dépend de la topologie ; amplificateurs/suppresseurs | Lieberman et al. (2005) | | Métrique de complexité | Ce qu’elle mesure | Propriété structurante | Source | -|---|---|---|---| -| \(H(p)\) (Shannon) | dispersion des types | conditionnement, bornes, codage | Shannon (1948) | -| \(K(\Gamma)\) (Kolmogorov) | compressibilité intrinsèque | distingue structure vs aléa (en principe) | Kolmogorov (1968) | -| Profondeur logique \(D\) (Bennett) | longueur d’histoire computationnelle | “deep” ≠ “random” | Bennett (1988) | +| --- | --- | --- | --- | +| \(H(p)\)\)) (Shannon) | dispersion des types | conditionnement, bornes, codage | Shannon (1948) | +| \(((K(\Gamma)\)\)) (Kolmogorov) | compressibilité intrinsèque | distingue structure vs aléa (en principe) | Kolmogorov (1968) | +| Profondeur logique \(((D\) (Bennett) | longueur d’histoire computationnelle | “deep” ≠ “random” | Bennett (1988) | --- -# Chapitre 10 — Attracteurs, cycles et ensembles invariants +## Chapitre 10 — Attracteurs, cycles et ensembles invariants {#chapitre-10-attracteurs-cycles-et-ensembles-invariants} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 10 -Hypothèses (H). +**Hypothèses (H).** -- cadre discret fini pour la structure “transitoire + cycle” ; +- cadre discret fini pour la structure “transitoire + cycle” - ou cadre topologique/métrique (compacité, continuité) pour les attracteurs définis par limites. -Résultats (E). +**Résultats (E).** -- synthèse structurale des attracteurs, bassins, stabilité/robustesse et quantificateurs associés (indexés) ; +- synthèse structurale des attracteurs, bassins, stabilité/robustesse et quantificateurs associés (indexés) - clarification du statut des bifurcations et des changements de bassins comme phénomènes dépendant d’hypothèses de régularité. -Statut. +**Statut.** - noyau ensembliste pour les garanties combinatoires ; couches topologique/métrique et quantifications uniquement si déclarées. -## Résumé exécutif +## Résumé exécutif — Ch. 10 -Ce chapitre établit, sous hypothèses minimales, la structure des comportements à long terme des systèmes dynamiques, d’abord dans un cadre **discret fini**, puis dans des cadres **topologiques/métriques** plus généraux. Dans le cadre discret \((X,f)\) avec \(X\) fini, l’itération d’une application \(f:X\to X\) impose qu’à partir de tout état initial l’orbite devienne **pré‑périodique** : un transitoire suivi d’un **cycle** (preuve par principe des tiroirs). Cette propriété permet une description globale par **graphe fonctionnel** : chaque composante contient exactement **un cycle dirigé**, et tous les autres états s’y déversent via des arborescences. On en déduit des définitions formelles de **point fixe**, **cycle**, **ensemble invariant**, **attracteur discret** et **bassin**, ainsi que des algorithmes de calcul linéaires pour cycles et bassins. +Ce chapitre établit, sous hypothèses minimales, la structure des comportements à long terme des systèmes dynamiques, d’abord dans un cadre **discret fini**, puis dans des cadres **topologiques/métriques** plus généraux. Dans le cadre discret \((X,f)\)\)) avec \(((X\) fini, l’itération d’une application \(f : X\to X\) impose qu’à partir de tout état initial l’orbite devienne **pré‑périodique** : un transitoire suivi d’un **cycle** (preuve par principe des tiroirs). Cette propriété permet une description globale par **graphe fonctionnel** : chaque composante contient exactement **un cycle dirigé**, et tous les autres états s’y déversent via des arborescences. On en déduit des définitions formelles de **point fixe**, **cycle**, **ensemble invariant**, **attracteur discret** et **bassin**, ainsi que des algorithmes de calcul linéaires pour cycles et bassins. -Dans un cadre métrique/topologique, on remplace la finitude brute par la notion de **limite** : ensembles \(\omega(x)\), invariance et attraction au sens de la distance à un ensemble. On introduit les définitions classiques de **stabilité** (Lyapunov) et d’**attracteur topologique**, notamment via la notion de **trapping region** (région piège) et l’intersection décroissante des itérés, qui fournit un attracteur sous hypothèses de piégeage. Les théorèmes structurants cités comme consensus comprennent : (i) la stabilité de Lyapunov (définitions canoniques), (ii) la frontière dimensionnelle Poincaré–Bendixson en dimension 2 (absence d’attracteurs chaotiques pour les flots plans sous hypothèses standard), (iii) la stabilité structurelle dans la tradition Smale (hyperbolicité, conjugaison topologique, persistance qualitative). +Dans un cadre métrique/topologique, on remplace la finitude brute par la notion de **limite** : ensembles \(\omega(x)\)\)), invariance et attraction au sens de la distance à un ensemble. On introduit les définitions classiques de **stabilité** (Lyapunov) et d’**attracteur topologique**, notamment via la notion de **trapping region** (région piège) et l’intersection décroissante des itérés, qui fournit un attracteur sous hypothèses de piégeage. Les théorèmes structurants cités comme consensus comprennent : (i) la stabilité de Lyapunov (définitions canoniques), (ii) la frontière dimensionnelle Poincaré–Bendixson en dimension 2 (absence d’attracteurs chaotiques pour les flots plans sous hypothèses standard), (iii) la stabilité structurelle dans la tradition Smale (hyperbolicité, conjugaison topologique, persistance qualitative). On formalise ensuite **robustesse** et **bifurcations**, en particulier la bifurcation de Hopf (naissance d’une orbite périodique à partir d’un équilibre sous conditions standard) à partir d’une traduction de l’article original. On discute les changements soudains de bassins et d’attracteurs (crises) via un article classique de Grebogi–Ott–Yorke. @@ -3050,153 +3031,148 @@ Enfin, on introduit des **mesures structurelles** (taille des bassins, dominance ## Cadre discret fini -On se place dans un cadre minimal : un ensemble fini d’états et une règle déterministe d’évolution. +On se place dans un cadre minimal : un ensemble fini d’états et une règle déterministe d’évolution. ### Définitions formelles -Soit \(X\) un ensemble fini non vide, \(|X|=N\), et \(f:X\to X\) une application. +Soit \(((X\) un ensemble fini non vide, \(|X|=N\), et \(f : X\to X\) une application. -**Orbite.** À partir de \(x\in X\), on définit \(x_0=x\) et \(x_{t+1}=f(x_t)\). L’orbite est \((x_t)_{t\ge 0}\). +**Orbite.** À partir de \(x\in X\), on définit \(x\_0=x\) et \(x\_{t+1}=f(x\_t)\)\)). L’orbite est \((((x\_t)\_{t\ge 0}\). -**Point fixe.** \(x^\*\in X\) est un point fixe si \(f(x^\*)=x^\*\). +**Point fixe.** \(x^*\in X\) est un point fixe si \(f(x^*)=x^*\). **Point périodique et cycle.** \(x\in X\) est périodique de période \(p\ge 1\) si \(f^{(p)}(x)=x\) et \(p\) est minimal. Le **cycle** associé est \[ -C(x)=\{x,f(x),\dots,f^{(p-1)}(x)\}. +C(x)=\{x,f(x),\dots,f^{(p-1)}(x)\)\)}. \] -**Ensemble invariant.** Un sous‑ensemble \(S\subseteq X\) est (positivement) invariant si \(f(S)\subseteq S\). Il est invariant au sens fort si \(f(S)=S\). Un cycle est invariant au sens fort. +**Ensemble invariant.** Un sous‑ensemble \(((S\subseteq X\) est (positivement) invariant si \(f(S)\)\)subseteq S\). Il est invariant au sens fort si \(((f(S)=S\). Un cycle est invariant au sens fort. -**Attracteur discret (définition minimale pour le fini).** Dans le cadre déterministe fini, on appelle attracteur discret tout cycle (y compris le cas \(p=1\)). Cette convention n’introduit aucune métrique : elle identifie l’objet asymptotique de toute trajectoire dans l’espace fini. +**Attracteur discret (définition minimale pour le fini).** Dans le cadre déterministe fini, on appelle attracteur discret tout cycle (y compris le cas \(p=1\)). Cette convention n’introduit aucune métrique : elle identifie l’objet asymptotique de toute trajectoire dans l’espace fini. **Bassin d’un cycle.** Pour un cycle \(C\), le bassin est \[ -B(C)=\{x\in X:\exists t\ge 0,\ f^{(t)}(x)\in C\}. +B(C)=\{x\in X : \exists t\ge 0,\ f^{(t)}(x)\)\)in C\}. \] ### Pré‑périodicité forcée et borne temporelle -**Proposition (pré‑périodicité).** Pour tout \(x\in X\), il existe \(\mu\ge 0\) et \(p\ge 1\) tels que \(x_{t+p}=x_t\) pour tout \(t\ge\mu\). On peut choisir \(\mu+p\le N\). +**Proposition (pré‑périodicité).** Pour tout \(((x\in X\), il existe \(\mu\ge 0\) et \(p\ge 1\) tels que \(x\_{t+p}=x\_t\) pour tout \(t\ge\mu\). On peut choisir \(\mu+p\le N\). -**Démonstration (principe des tiroirs).** Les \(N+1\) termes \(x_0,\dots,x_N\) appartiennent à \(X\) de taille \(N\), donc il existe \(0\le i orb["Orbite (f^t(x))_{t≥0}"] - orb --> rep["Répétition forcée (∃i orb["Orbite (f^t(x))\\_{t≥0}"] + orb --> rep["Répétition forcée (∃i cyc["Cycle C (ensemble invariant)"] x --> bas["Bassin B(C)"] bas --> cyc - cyc --> inv["Invariance: f(C)=C"] + cyc --> inv["Invariance : f(C)=C"] ``` ### Calcul effectif des cycles et bassins Dans un graphe fonctionnel fini, on peut calculer en temps linéaire les sommets cycliques en éliminant itérativement les sommets de degré entrant nul (topologie inverse), puis en reconstruisant les bassins par parcours inverse depuis les cycles. -- Temps : \(O(N)\) (construction des degrés entrants + élimination + parcours). -- Espace : \(O(N)\) (stockage de \(f\) et des antécédents). +- Temps : \(O(N)\)\)) (construction des degrés entrants + élimination + parcours). +- Espace : \(((O(N)\)\)) (stockage de \(((f\) et des antécédents). -Ce fait sert de repère méthodologique : dans le cadre fini, la structure asymptotique n’est pas seulement théorique, elle est aussi calculable de façon efficace. +Ce fait sert de repère méthodologique : dans le cadre fini, la structure asymptotique n’est pas seulement théorique, elle est aussi calculable de façon efficace. ## Extension topologique et métrique -Le passage du discret fini au continu ne change pas la logique : il remplace la répétition brute par des notions de limite (compacité), de voisinage et de stabilité. +Le passage du discret fini au continu ne change pas la logique : il remplace la répétition brute par des notions de limite (compacité), de voisinage et de stabilité. ### \(\omega\)-limites et invariance sur compacts -Soit \((X,d)\) compact métrique et \(f:X\to X\) continue. +Soit \((X,d)\)\)) compact métrique et \(((f : X\to X\) continue. -**Définition (\(\omega\)-limite).** \(\omega(x)\) est l’ensemble des valeurs d’adhérence de \(\{f^{(n)}(x)\}\) : -\[ -\omega(x)=\bigcap_{m\ge 0}\overline{\{f^{(n)}(x):n\ge m\}}. +**Définition (\(\omega\)-limite).** \(\omega(x)\)\)) est l’ensemble des valeurs d’adhérence de \(((\{f^{(n)}(x)\)\)}\) : \[ +\omega(x)=\bigcap_{m\ge 0}\overline{\{f^{(n)}(x) : n\ge m\}}. \] -**Proposition (consensus standard, preuve élémentaire).** Pour tout \(x\), \(\omega(x)\) est non vide, compact, et invariant \(f(\omega(x))=\omega(x)\). +**Proposition (consensus standard, preuve élémentaire).** Pour tout \(((x\), \(\omega(x)\)\)) est non vide, compact, et invariant \(((f(\omega(x))=\omega(x)\)\)). -**Démonstration.** La compacité assure l’existence de sous‑suites convergentes, donc \(\omega(x)\neq\varnothing\); c’est un fermé dans un compact, donc compact. L’invariance suit de la continuité : si \(f^{(n_k)}(x)\to y\), alors \(f^{(n_k+1)}(x)=f(f^{(n_k)}(x))\to f(y)\), d’où \(f(y)\in\omega(x)\). L’inclusion réciproque découle du fait que tout point limite est aussi limite d’une suite décalée. □ +**Démonstration.** La compacité assure l’existence de sous‑suites convergentes, donc \(((\omega(x)\)\)neq\varnothing\) ; c’est un fermé dans un compact, donc compact. L’invariance suit de la continuité : si \(((f^{(n\_k)}(x)\)\)to y\), alors \(((f^{(n\_k+1)}(x)=f(f^{(n\_k)}(x))\)\)to f(y)\), d’où \(((f(y)\)\)in\omega(x)\). L’inclusion réciproque découle du fait que tout point limite est aussi limite d’une suite décalée. □ ### Définition topologique d’attracteur et existence via trapping region -La notion d’« attracteur » admet plusieurs variantes; ici, on retient une définition topologique standard via voisinage attiré. +La notion d’« attracteur » admet plusieurs variantes ; ici, on retient une définition topologique standard via voisinage attiré. -**Définition (attracteur topologique).** Un compact non vide \(A\subseteq X\) est un attracteur si : +**Définition (attracteur topologique).** Un compact non vide \(((A\subseteq X\) est un attracteur si : 1) \(f(A)=A\) ; 2) il existe un ouvert \(U\supseteq A\) tel que \(\mathrm{dist}(f^{(n)}(x),A)\)\)to 0\) pour tout \(((x\in U\). -1) \(f(A)=A\) ; -2) il existe un ouvert \(U\supseteq A\) tel que \(\mathrm{dist}(f^{(n)}(x),A)\to 0\) pour tout \(x\in U\). +Le **bassin** est \(B(A)=\{x : \mathrm{dist}(f^{(n)}(x),A)\)\)to 0\}\). -Le **bassin** est \(B(A)=\{x:\mathrm{dist}(f^{(n)}(x),A)\to 0\}\). +Une manière constructive d’obtenir un attracteur est d’exhiber une **région piège** (« trapping region ») ; cette approche apparaît notamment dans la littérature sur attracteurs et quasi‑attracteurs. -Une manière constructive d’obtenir un attracteur est d’exhiber une **région piège** (« trapping region ») ; cette approche apparaît notamment dans la littérature sur attracteurs et quasi‑attracteurs. - -**Proposition (existence d’un attracteur à partir d’une trapping region).** Soit \(U\subseteq X\) un ouvert dont l’adhérence \(\overline U\) est compacte et tel que \(f(\overline U)\subseteq U\). Alors +**Proposition (existence d’un attracteur à partir d’une trapping region).** Soit \(((U\subseteq X\) un ouvert dont l’adhérence \(\overline U\) est compacte et tel que \(f(\overline U)\)\)subseteq U\). Alors \[ -A:=\bigcap_{n\ge 0} f^{(n)}(\overline U) +A : =\bigcap_{n\ge 0} f^{(n)}(\overline U) \] -est un compact non vide invariant, et toute orbite partant dans \(\overline U\) reste dans \(\overline U\) et approche \(A\) (au sens de la distance à \(A\)). -(Ce résultat est un standard dans la théorie qualitative; on le formule ici en version minimale et on le rattache au vocabulaire « trapping region » utilisé dans la littérature sur attracteurs.) +est un compact non vide invariant, et toute orbite partant dans \(((\overline U\) reste dans \(\overline U\) et approche \(A\) (au sens de la distance à \(A\)). +(Ce résultat est un standard dans la théorie qualitative ; on le formule ici en version minimale et on le rattache au vocabulaire « trapping region » utilisé dans la littérature sur attracteurs.) -**Démonstration (élémentaire).** Les ensembles \(f^{(n)}(\overline U)\) sont non vides, compacts, emboîtés décroissants, donc leur intersection \(A\) est non vide et compacte (propriété standard des compacts). L’invariance \(f(A)=A\) suit de la continuité et de l’identité \(f(f^{(n)}(\overline U))=f^{(n+1)}(\overline U)\). L’attraction découle du fait que la distance à l’intersection d’une suite décroissante de compacts tend vers 0 le long des itérés (argument par contradiction utilisant la compacité). □ +**Démonstration (élémentaire).** Les ensembles \(f^{(n)}(\overline U)\)\)) sont non vides, compacts, emboîtés décroissants, donc leur intersection \(((A\) est non vide et compacte (propriété standard des compacts). L’invariance \(f(A)=A\) suit de la continuité et de l’identité \(f(f^{(n)}(\overline U))=f^{(n+1)}(\overline U)\)\)). L’attraction découle du fait que la distance à l’intersection d’une suite décroissante de compacts tend vers 0 le long des itérés (argument par contradiction utilisant la compacité). □ ### Stabilité de Lyapunov (robustesse locale) Les définitions canonisées de Lyapunov posent la robustesse locale des équilibres (et, par extension, d’ensembles invariants). -**Définition (Lyapunov).** Un équilibre \(x^\*\) est stable si -\(\forall\varepsilon>0\ \exists\delta>0\) tel que \(\|x(0)-x^\*\|<\delta\Rightarrow \|x(t)-x^\*\|<\varepsilon\) pour tout \(t\ge 0\). Il est asymptotiquement stable si, en plus, \(x(t)\to x^\*\) quand \(t\to\infty\). +**Définition (Lyapunov).** Un équilibre \(((x^\*\) est stable si +\(\forall\varepsilon>0\ \exists\delta>0\) tel que \(\|x(0)-x^\*\|<\delta\Rightarrow \|x(t)-x^\*\|<\varepsilon\) pour tout \(t\ge 0\). Il est asymptotiquement stable si, en plus, \(x(t)\)\)to x^\*\) quand \(((t\to\infty\). -Cette stabilité est distincte de l’attraction : attraction signifie « convergence vers », stabilité signifie « rester proche sous perturbation ». +Cette stabilité est distincte de l’attraction : attraction signifie « convergence vers », stabilité signifie « rester proche sous perturbation ». ### Frontière Poincaré–Bendixson (dimension 2) et impossibilité d’attracteurs étranges -En dimension 2 (flots sur le plan/surfaces sous hypothèses standard), le théorème de Poincaré–Bendixson impose que les ensembles \(\omega\)-limites compacts non vides ne peuvent pas supporter une dynamique « étrange » au sens chaotique : ils sont essentiellement équilibres et orbites périodiques (éventuellement avec connexions). Le résultat est traditionnellement attribué à Poincaré et Bendixson; une source primaire est l’article de Bendixson (1901), qui développe la théorie qualitative des courbes intégrales près des singularités. +En dimension 2 (flots sur le plan/surfaces sous hypothèses standard), le théorème de Poincaré–Bendixson impose que les ensembles \(\omega\)-limites compacts non vides ne peuvent pas supporter une dynamique « étrange » au sens chaotique : ils sont essentiellement équilibres et orbites périodiques (éventuellement avec connexions). Le résultat est traditionnellement attribué à Poincaré et Bendixson ; une source primaire est l’article de Bendixson (1901), qui développe la théorie qualitative des courbes intégrales près des singularités. -### Attracteurs étranges : définition opérationnelle et jalons +### Attracteurs étranges : définition opérationnelle et jalons -Le terme « attracteur étrange » n’a pas une définition unique universelle; on adopte ici une définition opérationnelle : - -Un attracteur \(A\) est dit **étrange** si (i) il est attractif (au sens topologique), (ii) la dynamique restreinte à \(A\) n’est pas périodique et présente une sensibilité/instabilité orbitale (au sens de séparation d’orbites), et (iii) l’ensemble \(A\) présente typiquement une géométrie non régulière (souvent fractale) ou une structure d’étirement‑repliement. +Le terme « attracteur étrange » n’a pas une définition unique universelle ; on adopte ici une définition opérationnelle : Un attracteur \(A\) est dit **étrange** si (i) il est attractif (au sens topologique), (ii) la dynamique restreinte à \(A\) n’est pas périodique et présente une sensibilité/instabilité orbitale (au sens de séparation d’orbites), et (iii) l’ensemble \(A\) présente typiquement une géométrie non régulière (souvent fractale) ou une structure d’étirement‑repliement. Trois jalons de consensus illustrent ce type d’objet : - Lorenz (1963) montre qu’un système différentiel dissipatif simple peut produire une dynamique non périodique associée à un attracteur (paradigme du « Lorenz attractor »). + - Hénon (1976) exhibe une application bidimensionnelle dissipative présentant un attracteur étrange pour certains paramètres. - Ruelle–Takens (1971) proposent un mécanisme de transition vers la turbulence où des attracteurs plus complexes que les cycles apparaissent dans des systèmes dissipatifs. -### Smale : hyperbolicité et organisation qualitative +### Smale : hyperbolicité et organisation qualitative -Smale (1967) synthétise la théorie moderne des systèmes dynamiques différentiables : ensembles non errants, hyperbolicité (Axiom A), conjugaison topologique et stabilité structurelle. -Dans le cadre de ce chapitre, cela fournit un repère consensuel : certaines classes d’invariants (hyperboliques) ont des propriétés de robustesse fortes, tandis que des régimes non hyperboliques peuvent bifurquer fréquemment. +Smale (1967) synthétise la théorie moderne des systèmes dynamiques différentiables : ensembles non errants, hyperbolicité (Axiom A), conjugaison topologique et stabilité structurelle. +Dans le cadre de ce chapitre, cela fournit un repère consensuel : certaines classes d’invariants (hyperboliques) ont des propriétés de robustesse fortes, tandis que des régimes non hyperboliques peuvent bifurquer fréquemment. -## Robustesse, bifurcations et stabilité structurelle +## Robustesse, bifurcations et stabilité structurelle — Ch. 10 ### Définitions formelles de robustesse -Soit une famille \(\{f_\lambda\}\) (applications ou flots) dépendant d’un paramètre \(\lambda\). +Soit une famille \(\{f\_\lambda\}\) (applications ou flots) dépendant d’un paramètre \(\lambda\). -**Robustesse d’un invariant.** Un invariant \(A_\lambda\) est robuste si, pour \(\lambda'\) proche, il existe un invariant \(A_{\lambda'}\) « du même type » (par ex. conjugué topologiquement ou proche en distance de Hausdorff). +**Robustesse d’un invariant.** Un invariant \(A\_\lambda\) est robuste si, pour \(\lambda'\) proche, il existe un invariant \(A\_{\lambda'}\) « du même type » (par ex. conjugué topologiquement ou proche en distance de Hausdorff). **Stabilité structurelle (idée standard).** Un système \(f\) est structurellement stable si toute perturbation suffisamment petite (dans une topologie \(C^r\) sur les champs de vecteurs/difféomorphismes) est topologiquement conjuguée à \(f\) sur l’ensemble pertinent (souvent l’ensemble non errant). Cette notion est centrale chez Smale. @@ -3205,32 +3181,32 @@ En dimension 2, un résultat classique de Peixoto établit l’ouverture et la d ### Bifurcation de Hopf (consensus, source primaire via traduction) La bifurcation de Hopf formalise la naissance (ou disparition) d’une orbite périodique à partir d’un équilibre lorsque une paire de valeurs propres complexes franchit l’axe imaginaire sous conditions de non dégénérescence. L’article original de Hopf (1942) est accessible via une traduction reproduite dans un volume de référence. -Dans le cadre de ce chapitre, on retient l’énoncé suivant comme consensus (preuve omise) : **sous conditions standard**, il existe une bifurcation locale conduisant à un cycle limite dont la stabilité dépend du signe d’un coefficient de forme normale. +Dans le cadre de ce chapitre, on retient l’énoncé suivant comme consensus (preuve omise) : **sous conditions standard**, il existe une bifurcation locale conduisant à un cycle limite dont la stabilité dépend du signe d’un coefficient de forme normale. ### Changements de bassins et crises (attracteurs chaotiques) -Même lorsque l’invariant persiste, la **géométrie du bassin** peut changer brutalement. Grebogi–Ott–Yorke (1982) analysent des « crises » : collisions entre orbites périodiques instables et attracteurs chaotiques entraînant élargissement soudain, apparition ou destruction d’un attracteur et/ou de son bassin (route vers chaos, transitoires). -Ce point justifie une distinction fondamentale : **robustesse de l’attracteur** \(\neq\) **robustesse du bassin**. +Même lorsque l’invariant persiste, la **géométrie du bassin** peut changer brutalement. Grebogi–Ott–Yorke (1982) analysent des « crises » : collisions entre orbites périodiques instables et attracteurs chaotiques entraînant élargissement soudain, apparition ou destruction d’un attracteur et/ou de son bassin (route vers chaos, transitoires). +Ce point justifie une distinction fondamentale : **robustesse de l’attracteur** \(\neq\) **robustesse du bassin**. ## Mesures structurelles et calcul -Les attracteurs fournissent une organisation qualitative; on peut quantifier cette organisation par des métriques adaptées au cadre (discret/continu). +Les attracteurs fournissent une organisation qualitative ; on peut quantifier cette organisation par des métriques adaptées au cadre (discret/continu). ### Taille des bassins et dominance (discret fini) -Soient \(C_1,\dots,C_K\) les cycles, \(B_i=B(C_i)\), et \(p_i=|B_i|/|X|\). +Soient \(C\_1,\dots,C\_K\) les cycles, \(B\_i=B(C\_i)\)\)), et \(((p\_i=|B\_i|/|X|\). -- **Dominance** : \(D=\max_i p_i\in[1/K,1]\). -- **Nombre d’attracteurs** : \(K\). +- **Dominance** : \(D=\max\_i p\_i\in[1/K,1]\). +- **Nombre d’attracteurs** : \(K\). Ces quantités décrivent la concentration des destinées asymptotiques. ### Entropie structurelle des bassins (Shannon) On définit l’entropie structurelle des bassins \[ -H_{\text{bassins}}=-\sum_{i=1}^K p_i\log p_i, +H\_{\text{bassins}}=-\sum\_{i=1}^K p\_i\log p\_i, \] -avec bornes \(0\le H_{\text{bassins}}\le \log K\), atteintes respectivement en cas de bassin unique (dominance totale) et d’équilibre parfait. Ces propriétés sont des conséquences standards de l’entropie de Shannon appliquée à une distribution finie. +avec bornes \(0\le H\_{\text{bassins}}\le \log K\), atteintes respectivement en cas de bassin unique (dominance totale) et d’équilibre parfait. Ces propriétés sont des conséquences standards de l’entropie de Shannon appliquée à une distribution finie. ### Entropie topologique (AKM) : complexité orbitale interne @@ -3242,55 +3218,55 @@ Cette quantité capture une complexité orbitale pouvant être positive même lo Pour comparer des états représentés comme mots/séquences (par ex. classes morphologiques), on utilise des métriques combinatoires. Levenshtein (1965/1966) propose des modèles de canaux avec insertions/suppressions/réversions et introduit la distance d’édition comme métrique naturelle associée à ces opérations. Une fois une métrique fixée, on peut définir des voisinages discrets, étudier la sensibilité locale et construire des versions « épaisses » des bassins (stabilité par petites modifications). -### Calcul et estimation : exact vs échantillonné +### Calcul et estimation : exact vs échantillonné -- En discret fini, cycles et bassins se calculent exactement en \(O(N)\) (graphe fonctionnel). -- Dans de très grands espaces, on estime les \(p_i\) par échantillonnage : tirer des états selon une loi \(\nu\), itérer jusqu’à convergence au cycle, estimer les fréquences de cycles. Sous hypothèses i.i.d., la convergence est gouvernée par la loi des grands nombres (consensus probabiliste). +- En discret fini, cycles et bassins se calculent exactement en \(O(N)\)\)) (graphe fonctionnel). +- Dans de très grands espaces, on estime les \(((p\_i\) par échantillonnage : tirer des états selon une loi \(\nu\), itérer jusqu’à convergence au cycle, estimer les fréquences de cycles. Sous hypothèses i.i.d., la convergence est gouvernée par la loi des grands nombres (consensus probabiliste). ## Implications strictement déduites (lecture conditionnelle) Cette section tire des conséquences **uniquement** des résultats mathématiques établis ci‑dessus, sans postuler d’intention, de sémantique ou d’« optimisation ». -Dans un cadre discret fini (ou à description effectivement finie), l’itération impose l’existence de cycles et donc de régimes persistants (attracteurs discrets). Il en résulte une partition en bassins : une information complète sur l’état initial est, en général, **superflue** pour déterminer le long terme, car seule la classe « bassin » importe pour l’asymptote. Cette réduction est une conséquence logique de la structure des graphes fonctionnels. +Dans un cadre discret fini (ou à description effectivement finie), l’itération impose l’existence de cycles et donc de régimes persistants (attracteurs discrets). Il en résulte une partition en bassins : une information complète sur l’état initial est, en général, **superflue** pour déterminer le long terme, car seule la classe « bassin » importe pour l’asymptote. Cette réduction est une conséquence logique de la structure des graphes fonctionnels. -Dans un cadre compact, la compacité garantit l’existence d’ensembles \(\omega(x)\) invariants. Si, de plus, une région piège existe, l’intersection décroissante des itérés fournit un attracteur topologique qui attire un voisinage entier. +Dans un cadre compact, la compacité garantit l’existence d’ensembles \(\omega(x)\)\)) invariants. Si, de plus, une région piège existe, l’intersection décroissante des itérés fournit un attracteur topologique qui attire un voisinage entier. Ainsi, la disponibilité de régimes stables n’est pas une hypothèse supplémentaire : elle est structurellement compatible et souvent forcée par les contraintes (finitude ou piégeage). -Concernant la « réplication interne » (au sens formel : production d’une occurrence persistante d’une même sous‑structure), ce chapitre n’assume aucun mécanisme de reproduction. Il établit seulement une condition nécessaire : tout mécanisme de duplication stable exige l’existence de motifs **suffisamment persistants** (ensembles invariants attractifs ou métastables) pour ne pas être détruits immédiatement par la dynamique. Cette condition est purement logique : sans invariants persistants, aucune structure ne peut être copiée « de manière répétée » dans le temps. +Concernant la « réplication interne » (au sens formel : production d’une occurrence persistante d’une même sous‑structure), ce chapitre n’assume aucun mécanisme de reproduction. Il établit seulement une condition nécessaire : tout mécanisme de duplication stable exige l’existence de motifs **suffisamment persistants** (ensembles invariants attractifs ou métastables) pour ne pas être détruits immédiatement par la dynamique. Cette condition est purement logique : sans invariants persistants, aucune structure ne peut être copiée « de manière répétée » dans le temps. -Enfin, on note une contrainte importante (sans extrapolation) : dans les systèmes conservatifs mesurés à volume fini, la récurrence de Poincaré (1890) implique des retours, ce qui rend impossible une monotonie stricte sur les micro‑états; ainsi, les attracteurs globaux au sens dissipatif exigent typiquement une dissipation, une ouverture, ou un niveau de description agrégé. +Enfin, on note une contrainte importante (sans extrapolation) : dans les systèmes conservatifs mesurés à volume fini, la récurrence de Poincaré (1890) implique des retours, ce qui rend impossible une monotonie stricte sur les micro‑états ; ainsi, les attracteurs globaux au sens dissipatif exigent typiquement une dissipation, une ouverture, ou un niveau de description agrégé. Cette remarque est une contrainte de cohérence entre « attracteurs dissipatifs » et « récurrence conservatrice », et non une hypothèse de physique supplémentaire. ## Analyse philosophique finale ### Nécessité ontologique minimale des attracteurs -La construction mathématique impose une thèse ontologique minimale : dans un système gouverné par des transformations itérées, l’analyse du long terme se fait alors en termes d’**ensembles invariants** et de **classes asymptotiques** (cycles, \(\omega\)-limites). L’état instantané n’a pas de privilège ontologique dans la description du long terme : ce qui « persiste » est un invariant, et ce qui « structure » l’espace des possibles est la partition en bassins. +La construction mathématique impose une thèse ontologique minimale : dans un système gouverné par des transformations itérées, l’analyse du long terme se fait alors en termes d’**ensembles invariants** et de **classes asymptotiques** (cycles, \(((\omega\)-limites). L’état instantané n’a pas de privilège ontologique dans la description du long terme : ce qui « persiste » est un invariant, et ce qui « structure » l’espace des possibles est la partition en bassins. -Cette thèse ne dépend pas d’une interprétation; elle découle de la structure démontrée (pré‑périodicité en fini, invariance des \(\omega\)-limites sur compacts). +Cette thèse ne dépend pas d’une interprétation ; elle découle de la structure démontrée (pré‑périodicité en fini, invariance des \(\omega\)-limites sur compacts). ### Limites du formalisme (et ce qu’il interdit) Le chapitre impose plusieurs interdictions méthodologiques. -- Il interdit d’assimiler « attracteur » à « optimum » : aucune fonction de coût ni principe de minimisation n’a été postulé; un attracteur est défini par invariance et attraction, pas par optimalité. +- Il interdit d’assimiler « attracteur » à « optimum » : aucune fonction de coût ni principe de minimisation n’a été postulé ; un attracteur est défini par invariance et attraction, pas par optimalité. - Il interdit toute téléologie : la convergence est une propriété de la dynamique et de la structure de l’espace, non un « but ». - Il interdit toute interprétation sémantique prématurée : attracteurs et bassins peuvent ultérieurement être interprétés comme supports de contraintes opératoires, mais ils ne sont pas, en eux‑mêmes, des « connaissances » ou des « significations ». - Il interdit de conclure à la robustesse sans hypothèse : la robustesse exige des conditions supplémentaires (Lyapunov, hyperbolicité, stabilité structurelle), et les bassins peuvent changer qualitativement (bifurcations, crises). -### Tableaux comparatifs +### Tableaux comparatifs — Ch. 10 -| Notion | Discret fini \((X,f)\) | Continu/compact \((X,d,f)\) ou flot | -|---|---|---| -| Invariant | \(f(S)\subseteq S\) | \(f(S)\subseteq S\) ou \(\varphi_t(S)=S\) | -| Asymptote | cycle atteint en temps fini | \(\omega(x)\) (compact invariant) | +| Notion | Discret fini \((X,f)\)\)) | Continu/compact \((((X,d,f)\)\)) ou flot | +| --- | --- | --- | +| Invariant | \(((f(S)\)\)subseteq S\) | \(((f(S)\)\)subseteq S\) ou \(((\varphi\_t(S)=S\) | +| Asymptote | cycle atteint en temps fini | \(\omega(x)\)\)) (compact invariant) | | Attracteur | cycle (déf. minimale) | compact invariant attirant un voisinage (trapping region possible) | -| Bassin | atteignabilité vers un cycle | convergence \(\mathrm{dist}(f^n(x),A)\to 0\) | -| Chaos | possible (cartes) | typiquement ≥3D pour flots; exclu en plan (P–B) | -| Mesure de complexité | \(H_{\text{bassins}}\) (Shannon) | \(h_{\text{top}}\) (AKM), stabilité/hyperbolicité (Smale) | +| Bassin | atteignabilité vers un cycle | convergence \(((\mathrm{dist}(f^n(x),A)\)\)to 0\) | +| Chaos | possible (cartes) | typiquement ≥3D pour flots ; exclu en plan (P–B) | +| Mesure de complexité | \(((H\_{\text{bassins}}\) (Shannon) | \(h\_{\text{top}}\) (AKM), stabilité/hyperbolicité (Smale) | | Propriété | Attracteur (existence) | Attracteur robuste (qualitative) | -|---|---|---| +| --- | --- | --- | | Définition | invariance + attraction | persistance sous perturbation | | Outils | \(\omega\)-limites, trapping region | Lyapunov, hyperbolicité, stabilité structurelle | | Sensibilité des bassins | peut être élevée | peut rester fragile (crises possibles) | @@ -3314,25 +3290,25 @@ Dans un système itératif, les attracteurs et invariants ne sont pas une option --- -# Chapitre 11 — Reproduction partielle et transmission +## Chapitre 11 — Reproduction partielle et transmission {#chapitre-11-reproduction-partielle-et-transmission} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 11 -Hypothèses (H). +**Hypothèses (H).** -- cadre discret avec non‑injectivité et classes (perte d’identifiabilité) ; +- cadre discret avec non‑injectivité et classes (perte d’identifiabilité) - transmission définie comme préservation partielle d’invariants sous fragmentation/recombinaison admissible. -Résultats (E). +**Résultats (E).** -- formalisation de la reproduction partielle comme transmission de contraintes plutôt que conservation d’origines ; +- formalisation de la reproduction partielle comme transmission de contraintes plutôt que conservation d’origines - mise en évidence que la persistance longue dépend de la transmissibilité de contraintes, pas d’une identité fine. -Statut. +**Statut.** - noyau ensembliste ; les lectures informationnelles restent des correspondances déclarées, non des axiomes. -## Introduction +## Introduction — Ch. 11 Les chapitres précédents ont établi successivement : l’existence d’espaces de configurations, l’itération nécessaire, la formation de cycles invariants, la non-injectivité structurelle, la formation de classes, la normalisation, la sélection différentielle, la consommation irréversible et l’apparition d’une flèche effective. @@ -3343,6 +3319,7 @@ Le présent chapitre introduit une propriété nouvelle : la reproduction partie L’objectif est triple : - formaliser mathématiquement la reproduction partielle, + - montrer que la transmission implique, dans ce cadre, perte et fragmentation, - établir que la persistance longue exige recombinaison admissible plutôt que conservation d’origine. @@ -3350,22 +3327,21 @@ Aucune hypothèse biologique n’est posée. Les résultats utilisés relèvent ## Définition formelle de la reproduction partielle -On considère un espace d’états admissibles \(X\) et une dynamique admissible \(f: X \to X\). +On considère un espace d’états admissibles \(X\) et une dynamique admissible \(f : X \to X\). -### Définition +### Définition — Ch. 11 Une structure \(S \subseteq X\) est dite reproductible partiellement s’il existe : -- un opérateur de génération \(G: X \to \mathcal{P}(X)\), -- une application de projection \(P: X \to X\), +- un opérateur de génération \(G : X \to \mathcal{P}(X)\)\)), -tels que, pour certains états \(x\) contenant \(S\) (au sens structurel défini au chapitre 6), on ait : +- une application de projection \(((P : X \to X\), -\[ -\exists y \in G(x)\ \text{tel que}\ P(y) \sim S, +tels que, pour certains états \(x\) contenant \(S\) (au sens structurel défini au chapitre 6), on ait : \[ +\exists y \in G(x)\)\) \text{tel que}\ P(y) \sim S, \] -où \(\sim\) désigne une relation d’équivalence structurelle. +où \(((\sim\) désigne une relation d’équivalence structurelle. Autrement dit : un état peut engendrer un nouvel état contenant une structure équivalente, sans que l’état global soit identique. @@ -3373,13 +3349,13 @@ La reproduction partielle ne préserve donc pas l’identité fine, seulement un ## Fragmentation structurelle -### Définition +### Définition — Ch. 11 (2) -Une fragmentation est une application \(F: X \to X^k\) (pour un certain \(k \ge 1\)) qui associe à un état un ensemble fini de sous-structures. +Une fragmentation est une application \(F : X \to X^k\) (pour un certain \(k \ge 1\)) qui associe à un état un ensemble fini de sous-structures. La fragmentation est admissible si chaque composant reste valide sous les contraintes du système. -### Propriété +### Propriété — Ch. 11 Toute reproduction partielle dans un espace non injectif implique une fragmentation implicite. @@ -3394,13 +3370,13 @@ La fragmentation n’est donc pas accidentelle, mais structurellement nécessair ## Recombinaison admissible -### Définition +### Définition — Ch. 11 (3) -Une recombinaison est une opération \(R: X^k \to X\) telle que l’état recomposé respecte les contraintes admissibles. +Une recombinaison est une opération \(R : X^k \to X\) telle que l’état recomposé respecte les contraintes admissibles. ### Condition d’admissibilité -Pour tout \((x_1, \ldots, x_k)\) admissible, \(R(x_1, \ldots, x_k) \in X\). +Pour tout \((x\_1, \ldots, x\_k)\)\)) admissible, \(((R(x\_1, \ldots, x\_k) \in X\). Dans les automates cellulaires étudiés par von Neumann, une machine auto-reproductrice n’est pas une copie directe d’elle-même, mais une construction progressive à partir de fragments d’information interprétés localement. La reproductibilité dépend de règles locales de recomposition, non d’une duplication globale instantanée. @@ -3408,13 +3384,11 @@ La recombinaison admissible constitue donc le mécanisme fondamental de transmis ## Perte contrôlée et non-conservation de l’origine -### Définition +### Définition — Ch. 11 (4) On appelle perte contrôlée une réduction de description telle que la quantité d’information perdue est bornée par un invariant de classe. -Soit \(K(x)\) la complexité descriptive minimale (au sens de Kolmogorov). La reproduction partielle satisfait typiquement : - -\[ +Soit \(K(x)\)\)) la complexité descriptive minimale (au sens de Kolmogorov). La reproduction partielle satisfait typiquement : \[ K(\text{descendant}) \le K(\text{ancêtre}) + c, \] @@ -3424,23 +3398,21 @@ avec perte d’information fine non reconstruisible. L’origine exacte d’une structure n’est pas reconstructible à partir de ses descendants. -Il n’existe pas d’application inverse globale \(G^{-1}\) compatible avec la dynamique irréversible. +Il n’existe pas d’application inverse globale \(((G^{-1}\) compatible avec la dynamique irréversible. Ainsi, la transmission n’est pas conservation. Elle est stabilisation d’invariants sous perte. ## Transmission comme persistance de classe -### Définition +### Définition — Ch. 11 (5) -Une classe \(C\) est transmissible si : - -\[ -\forall x \in C,\ \exists y \in G(x)\ \text{tel que}\ y \in C. +Une classe \(C\) est transmissible si : \[ +\forall x \in C,\ \exists y \in G(x)\)\) \text{tel que}\ y \in C. \] Autrement dit, la classe se reproduit sous la dynamique générative. -### Propriété +### Propriété — Ch. 11 (2) Une classe transmissible correspond à un attracteur de second ordre (chapitre 5) dans l’espace des classes. @@ -3451,6 +3423,7 @@ Ainsi, la reproduction partielle opère non sur les états individuels, mais sur La transmission exige : - fragmentation, + - recombinaison, - perte d’information fine, - stabilité d’invariants, @@ -3465,13 +3438,14 @@ La reproduction parfaite serait incompatible avec la non-injectivité et l’irr Si l’on considère un système dynamique soumis à consommation irréversible, la persistance à long terme n’est possible que pour des structures capables : - de générer des structures équivalentes, + - de tolérer la perte, - de se recomposer localement, - de stabiliser leurs invariants. Cette propriété n’est pas propre au vivant biologique ; elle est formellement nécessaire à toute accumulation historique durable. -## Analyse philosophique +## Analyse philosophique — Ch. 11 La reproduction partielle dissocie identité et persistance. @@ -3482,39 +3456,37 @@ Elle devient un nœud dans un graphe de transmissions irréversibles. La notion d’« essence conservée » est remplacée par celle de « contrainte transmissible ». -## Conclusion +## Conclusion — Ch. 11 Le chapitre 11 établit que la transmission exige la perte d’identité fine. La reproduction partielle n’est pas une copie, mais une projection stabilisée d’invariants sous fragmentation et recombinaison admissible. -Il s’ensuit : - -La persistance longue ne dépend pas de la conservation de l’origine, mais de la transmissibilité de contraintes structurelles. +Il s’ensuit : La persistance longue ne dépend pas de la conservation de l’origine, mais de la transmissibilité de contraintes structurelles. Le chapitre suivant étendra cette logique à la formation de lignées et à l’accumulation généalogique de contraintes. --- -# Chapitre 12 — Généalogies et lignées de formes +## Chapitre 12 — Généalogies et lignées de formes {#chapitre-12-genealogies-et-lignees-de-formes} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 12 -Hypothèses (H). +**Hypothèses (H).** -- relation d’engendrement orientée reconstruite (pas de temps externe) ; +- relation d’engendrement orientée reconstruite (pas de temps externe) - objets transmissibles (attributs, classes, signatures) définis avant usage, sous non‑injectivité. -Résultats (E). +**Résultats (E).** -- construction de lignées comme graphes orientés (et variantes) et formalisation de l’héritage sous collisions ; +- construction de lignées comme graphes orientés (et variantes) et formalisation de l’héritage sous collisions - articulation avec sélection structurelle comme effet de filtrage sous contraintes, sans téléologie. -Statut. +**Statut.** - noyau ensembliste/combinatoire ; toute quantification est indexée par les choix déclarés. -## Introduction +## Introduction — Ch. 12 Ce chapitre introduit la notion de lignée comme une structure combinatoire orientée décrivant la transmission de formes sous contraintes d’irréversibilité et de non‑injectivité. Le point de départ est une exigence minimale : une relation d’engendrement doit être orientée, mais l’orientation ne peut pas être imposée par un « temps » externe ; elle doit être reconstruite à partir des règles mêmes qui produisent les occurrences. La formalisation s’effectue donc en deux temps : d’abord la construction d’un graphe orienté de lignée à partir d’événements d’engendrement ; ensuite l’introduction d’objets transmissibles (attributs, classes, signatures) qui survivent malgré les collisions et la perte d’inversibilité. @@ -3527,25 +3499,25 @@ Les termes chargés de connotations (lignée, héritage, sélection) sont d’ab ### Graphes orientés, multigraphes, hypergraphes **Définition (graphe orienté).** -Un graphe orienté est un couple \(G=(V,E)\) où \(V\) est un ensemble de sommets et \(E\subseteq V\times V\) un ensemble d’arêtes orientées. Une arête \((u,v)\in E\) est notée \(u\to v\). +Un graphe orienté est un couple \(((G=(V,E)\)\)) où \(((V\) est un ensemble de sommets et \(E\subseteq V\times V\) un ensemble d’arêtes orientées. Une arête \((u,v)\)\)in E\) est notée \(((u\to v\). **Définition (multigraphe orienté).** -Un multigraphe orienté autorise plusieurs arêtes distinctes de \(u\) vers \(v\). On le modélise par une multiplicité \(m:V\times V\to \mathbb{N}\). +Un multigraphe orienté autorise plusieurs arêtes distinctes de \(u\) vers \(v\). On le modélise par une multiplicité \(m : V\times V\to \mathbb{N}\). **Définition (hyperarête dirigée).** -Une hyperarête dirigée est une paire \((P,c)\) où \(P\) est un multiensemble fini de sommets (les entrées) et \(c\in V\) est un sommet (la sortie). On note \(P\Rightarrow c\). L’arité est \(|P|\). +Une hyperarête dirigée est une paire \((P,c)\)\)) où \(((P\) est un multiensemble fini de sommets (les entrées) et \(c\in V\) est un sommet (la sortie). On note \(P\Rightarrow c\). L’arité est \(|P|\). Le passage d’un hypergraphe à un graphe ordinaire se fait en remplaçant \(P\Rightarrow c\) par les arêtes \(p\to c\) pour \(p\in P\), ce qui conserve l’information d’ascendance mais pas nécessairement l’information d’arité. ### Degrés, parents, enfants **Définition (degré entrant et sortant).** -Le degré entrant de \(v\) est \(\deg^-(v)=|\{u\in V:u\to v\}|\). -Le degré sortant de \(v\) est \(\deg^+(v)=|\{u\in V:v\to u\}|\). +Le degré entrant de \(v\) est \(\deg^-(v)=|\{u\in V : u\to v\}|\). +Le degré sortant de \(v\) est \(\deg^+(v)=|\{u\in V : v\to u\}|\). **Définition (ensemble des parents et des enfants).** \[ -\mathrm{Par}(v)=\{u\in V:u\to v\},\qquad \mathrm{Enf}(v)=\{u\in V:v\to u\}. +\mathrm{Par}(v)=\{u\in V : u\to v\},\qquad \mathrm{Enf}(v)=\{u\in V : v\to u\}. \] Ces notions permettent de discuter de branchement, sans présumer d’un mécanisme de copie. @@ -3553,33 +3525,33 @@ Ces notions permettent de discuter de branchement, sans présumer d’un mécani ### Chemins, atteignabilité, ascendance **Définition (chemin orienté).** -Un chemin orienté de \(u\) vers \(v\) est une suite \((v_0,\dots,v_k)\) telle que \(v_0=u\), \(v_k=v\) et \(v_i\to v_{i+1}\) pour tout \(i\in\{0,\dots,k-1\}\). Sa longueur est \(k\). +Un chemin orienté de \(u\) vers \(v\) est une suite \((v\_0,\dots,v\_k)\)\)) telle que \(((v\_0=u\), \(v\_k=v\) et \(v\_i\to v\_{i+1}\) pour tout \(i\in\{0,\dots,k-1\}\). Sa longueur est \(k\). **Définition (atteignabilité).** On note \(u\to^\* v\) l’existence d’un chemin orienté de \(u\) vers \(v\). **Définition (relation d’ascendance).** -On définit \(\preceq_G\) par +On définit \(\preceq\_G\) par \[ -u\preceq_G v \quad \Longleftrightarrow \quad u\to^\* v. +u\preceq\_G v \quad \Longleftrightarrow \quad u\to^\* v. \] Cette relation est réflexive et transitive. **Définition (ancêtres et descendants).** \[ -\mathrm{Anc}(v)=\{u\in V:u\preceq_G v\},\qquad \mathrm{Desc}(u)=\{v\in V:u\preceq_G v\}. +\mathrm{Anc}(v)=\{u\in V : u\preceq\_G v\},\qquad \mathrm{Desc}(u)=\{v\in V : u\preceq\_G v\}. \] ### Cycles, DAG et ordre topologique **Définition (cycle orienté).** -Un cycle orienté est un chemin \((v_0,\dots,v_k)\) avec \(k\ge 1\) tel que \(v_0=v_k\) et \(v_0,\dots,v_{k-1}\) distincts. +Un cycle orienté est un chemin \((v\_0,\dots,v\_k)\)\)) avec \(((k\ge 1\) tel que \(v\_0=v\_k\) et \(v\_0,\dots,v\_{k-1}\) distincts. **Définition (DAG).** Un DAG est un graphe orienté sans cycle orienté. **Définition (ordre topologique).** -Un ordre topologique d’un DAG fini est une bijection \(\tau:V\to\{1,\dots,|V|\}\) telle que \(u\to v\Rightarrow \tau(u)<\tau(v)\). +Un ordre topologique d’un DAG fini est une bijection \(\tau : V\to\{1,\dots,|V|\}\) telle que \(u\to v\Rightarrow \tau(u)<\tau(v)\)\)). **Proposition (existence d’un ordre topologique).** Tout DAG fini admet un ordre topologique. @@ -3587,18 +3559,18 @@ Tout DAG fini admet un ordre topologique. ### Ordre partiel, antichaînes, générations **Proposition (ordre partiel induit).** -Si \(G\) est un DAG, alors \(\preceq_G\) est un ordre partiel (réflexif, antisymétrique, transitif). +Si \(((G\) est un DAG, alors \(\preceq\_G\) est un ordre partiel (réflexif, antisymétrique, transitif). **Définition (antichaîne).** -Un ensemble \(A\subseteq V\) est une antichaîne si, pour tout \(u\neq v\) dans \(A\), ni \(u\preceq_G v\) ni \(v\preceq_G u\). +Un ensemble \(A\subseteq V\) est une antichaîne si, pour tout \(u\neq v\) dans \(A\), ni \(u\preceq\_G v\) ni \(v\preceq\_G u\). **Définition (racines, profondeur, générations).** Un sommet \(r\) est une racine si \(\deg^-(r)=0\). La profondeur (dans un DAG) est \[ -\mathrm{depth}(v)=\max\{k:\exists (v_0,\dots,v_k)\ \text{chemin avec}\ v_k=v\}. +\mathrm{depth}(v)=\max\{k : \exists (v\_0,\dots,v\_k)\)\) \text{chemin avec}\ v_k=v\}. \] -La génération \(n\) est \(V_n=\{v\in V:\mathrm{depth}(v)=n\}\). +La génération \(((n\) est \(V\_n=\{v\in V : \mathrm{depth}(v)=n\}\). ## Construction d’un graphe orienté de lignée @@ -3606,7 +3578,8 @@ La génération \(n\) est \(V_n=\{v\in V:\mathrm{depth}(v)=n\}\). Pour obtenir un objet « généalogique », il faut distinguer deux niveaux : -- niveau des occurrences, qui sont singulières et ne se répètent pas ; +- niveau des occurrences, qui sont singulières et ne se répètent pas + - niveau des types (formes), qui peuvent réapparaître par collision ou normalisation. Le graphe de lignée portera sur les occurrences. @@ -3617,41 +3590,43 @@ On fixe un ensemble \(V\) d’occurrences. Une occurrence est un jeton abstrait **Définition (ensemble de types et étiquetage).** Soit \(X\) un ensemble de types. Un étiquetage est une application \[ -\ell:V\to X. +\ell : V\to X. \] -Deux occurrences distinctes \(v\neq v'\) peuvent partager le même type \(\ell(v)=\ell(v')\). +Deux occurrences distinctes \(v\neq v'\) peuvent partager le même type \(\ell(v)=\ell(v')\)\)). ### Événements d’engendrement comme hyperarêtes **Définition (événement d’engendrement).** -Un événement est une paire \((P,c)\) où : +Un événement est une paire \((((P,c)\)\)) où : -- \(P=(p_1,\dots,p_k)\in V^k\) est une liste d’occurrences parentales, -- \(c\in V\) est l’occurrence enfant, +- \(((P=(p\_1,\dots,p\_k)\)\)in V^k\) est une liste d’occurrences parentales, + +- \(((c\in V\) est l’occurrence enfant, - \(k\ge 1\) est l’arité. -L’ensemble des événements est \(\mathcal{E}\subseteq \bigsqcup_{k\ge 1} (V^k\times V)\). +L’ensemble des événements est \(\mathcal{E}\subseteq \bigsqcup\_{k\ge 1} (V^k\times V)\)\)). **Définition (hypergraphe d’engendrement).** -Le hypergraphe est \(\mathcal{H}=(V,\mathcal{E})\) dont les hyperarêtes sont \(P\Rightarrow c\). +Le hypergraphe est \(((\mathcal{H}=(V,\mathcal{E})\)\)) dont les hyperarêtes sont \(((P\Rightarrow c\). **Définition (graphe de lignée associé).** -Le graphe orienté associé est \(\mathcal{T}=(V,E)\) avec +Le graphe orienté associé est \(\mathcal{T}=(V,E)\)\)) avec \[ -E=\{(p_i,c): (P,c)\in\mathcal{E},\ P=(p_1,\dots,p_k),\ i\in\{1,\dots,k\}\}. +E=\{(p_i,c) : (P,c)\in\mathcal{E},\ P=(p_1,\dots,p_k),\ i\in\{1,\dots,k\}\}. \] **Définition (lignée).** -La lignée est la relation d’ascendance \(\preceq_{\mathcal{T}}\). Une branche est un chemin maximal (par inclusion). Une chaîne est un sous‑ensemble totalement ordonné pour \(\preceq_{\mathcal{T}}\). +La lignée est la relation d’ascendance \(((\preceq\_{\mathcal{T}}\). Une branche est un chemin maximal (par inclusion). Une chaîne est un sous‑ensemble totalement ordonné pour \(\preceq\_{\mathcal{T}}\). ### Représentation bipartite des événements Dans certains raisonnements, on conserve l’information d’arité. Une représentation standard consiste à introduire explicitement les événements comme nœuds d’un graphe bipartite. **Définition (graphe d’incidence bipartite).** -On définit un graphe orienté bipartite \(\mathcal{B}=(V\sqcup \mathcal{E},E_B)\) par : +On définit un graphe orienté bipartite \(\mathcal{B}=(V\sqcup \mathcal{E},E\_B)\)\)) par : + +- pour tout événement \(((e=(P,c)\)\)) et tout parent \(((p\in P\), une arête \(p\to e\) -- pour tout événement \(e=(P,c)\) et tout parent \(p\in P\), une arête \(p\to e\) ; - une arête \(e\to c\). **Proposition (équivalence d’ascendance).** @@ -3662,24 +3637,25 @@ Cette représentation évite d’attribuer au seul degré entrant d’un sommet ### Acyclicité par construction inductive **Axiome (création).** -Chaque occurrence \(c\in V\) admet au plus un événement créateur \(e_c\in\mathcal{E}\) tel que \(c\) soit l’enfant de \(e_c\). Les occurrences sans événement créateur sont des racines. +Chaque occurrence \(c\in V\) admet au plus un événement créateur \(e\_c\in\mathcal{E}\) tel que \(c\) soit l’enfant de \(e\_c\). Les occurrences sans événement créateur sont des racines. **Axiome (engendrement vers l’inédit).** Il existe une filtration \(V^{(0)}\subset V^{(1)}\subset \dots\) telle que : - \(V^{(0)}\) est l’ensemble des racines, -- si \((P,c)\) est le \(n\)-ième événement, alors \(P\subseteq V^{(n-1)}\) et \(c\in V^{(n)}\setminus V^{(n-1)}\). + +- si \((P,c)\)\)) est le \(((n\)-ième événement, alors \(P\subseteq V^{(n-1)}\) et \(c\in V^{(n)}\setminus V^{(n-1)}\). **Proposition (acyclicité).** Sous ces axiomes, \(\mathcal{T}\) est un DAG. -_Preuve._ -Toute arête \(p\to c\) va d’un sommet déjà présent dans \(V^{(n-1)}\) vers un sommet nouvellement introduit dans \(V^{(n)}\). La fonction \(\tau(c)=n\) est alors un ordre topologique : \(p\to c\Rightarrow \tau(p)<\tau(c)\). Un cycle orienté violerait cette strict inégalité. □ +**Preuve.** +Toute arête \(p\to c\) va d’un sommet déjà présent dans \(V^{(n-1)}\) vers un sommet nouvellement introduit dans \(V^{(n)}\). La fonction \(\tau(c)=n\) est alors un ordre topologique : \(p\to c\Rightarrow \tau(p)<\tau(c)\)\)). Un cycle orienté violerait cette strict inégalité. □ ### Monotone de lignée issu d’une ressource non réutilisable **Définition (jetons consommés).** -Soit \(\Omega\) un ensemble de jetons. À chaque événement \(e\in\mathcal{E}\), on associe un ensemble fini \(J(e)\subset\Omega\) de jetons consommés. +Soit \(((\Omega\) un ensemble de jetons. À chaque événement \(e\in\mathcal{E}\), on associe un ensemble fini \(J(e)\)\)subset\Omega\) de jetons consommés. **Axiome (non‑réutilisation).** \[ @@ -3687,51 +3663,52 @@ e\neq e' \Longrightarrow J(e)\cap J(e')=\varnothing. \] **Définition (coût).** -Le coût est \(w(e)=|J(e)|\in\mathbb{N}\). +Le coût est \(((w(e)=|J(e)|\in\mathbb{N}\). **Définition (coût cumulatif).** -On définit \(C:V\to\mathbb{N}\) par récurrence : +On définit \(C : V\to\mathbb{N}\) par récurrence : -- si \(v\) est une racine, \(C(v)=0\) ; -- si \(v\) est créé par \(e_v=(P,v)\), alors +- si \(v\) est une racine, \(C(v)=0\) + +- si \(v\) est créé par \(e\_v=(P,v)\)\)), alors \[ C(v)=\max_{p\in P} C(p) + w(e_v). \] **Proposition (monotonicité stricte).** -Si \(p\to v\) est une arête (avec \(p\in P\) pour l’événement créateur de \(v\)) et si \(w(e_v)\ge 1\), alors \(C(p) **Déclaration M0** (section — héritage d’attributs). +> +> - espace d’état : \(Y\) inclut la structure d’événements \(\mathcal{T}\), l’étiquetage transmissible \(a : V\to\mathcal{A}\) et les règles \(H\_e\) +> - projection : \(\bar{\sigma}=\sigma\circ \ell\) lorsqu’on observe des signatures plutôt que des occurrences +> - statut markovien : markovien sur \(Y\) si les mises à jour portent sur \((\mathcal{T},a)\)\)) ; non markovien possible sur une projection oubliant des attributs ou des règles +> - type : mémoire‑structure (contrainte/attribut transmissible), pas mémoire‑état. ### Attributs et règles d’héritage **Définition (espace d’attributs).** -Soit \(\mathcal{A}\) un ensemble d’attributs. +Soit \(((\mathcal{A}\) un ensemble d’attributs. **Définition (étiquetage d’attribut).** -Un étiquetage est \(a:V\to\mathcal{A}\). +Un étiquetage est \(a : V\to\mathcal{A}\). **Définition (règle d’héritage).** -Pour un événement \(e=(P,c)\) d’arité \(k\), une règle d’héritage est +Pour un événement \(e=(P,c)\)\)) d’arité \(((k\), une règle d’héritage est \[ -H_e:\mathcal{A}^k\to\mathcal{A} +H\_e : \mathcal{A}^k\to\mathcal{A} \] -telle que \(a(c)=H_e(a(p_1),\dots,a(p_k))\). +telle que \(a(c)=H\_e(a(p\_1),\dots,a(p\_k))\)\)). **Définition (collision d’héritage).** Il y a collision si @@ -3744,15 +3721,15 @@ La collision formelle suffit à exprimer la non‑reconstructibilité de l’ori ### Équivalences, signatures et grammaire de classes **Définition (équivalence sur les types).** -Soit \(\sim\) une équivalence sur \(X\). Elle induit une équivalence sur \(V\) par \(v\sim_V v'\iff \ell(v)\sim \ell(v')\). +Soit \(((\sim\) une équivalence sur \(X\). Elle induit une équivalence sur \(V\) par \(v\sim\_V v'\iff \ell(v)\)\)sim \ell(v')\). **Définition (signature).** -Une signature est une application \(\sigma:X\to\Sigma\) vers un ensemble fini \(\Sigma\) telle que \(x\sim y\Rightarrow \sigma(x)=\sigma(y)\). On définit \(\bar{\sigma}=\sigma\circ \ell:V\to\Sigma\). +Une signature est une application \(((\sigma : X\to\Sigma\) vers un ensemble fini \(\Sigma\) telle que \(x\sim y\Rightarrow \sigma(x)=\sigma(y)\)\)). On définit \(((\bar{\sigma}=\sigma\circ \ell : V\to\Sigma\). **Définition (compatibilité de l’héritage avec la signature).** -Pour chaque événement \(e\) d’arité \(k\), il existe une application \(\widehat{H}_e:\Sigma^k\to\Sigma\) telle que +Pour chaque événement \(e\) d’arité \(k\), il existe une application \(\widehat{H}\_e : \Sigma^k\to\Sigma\) telle que \[ -\bar{\sigma}(c)=\widehat{H}_e\big(\bar{\sigma}(p_1),\dots,\bar{\sigma}(p_k)\big). +\bar{\sigma}(c)=\widehat{H}\_e\big(\bar{\sigma}(p\_1),\dots,\bar{\sigma}(p\_k)\)\)big). \] Cette définition transforme l’héritage en une opération sur un alphabet fini, sans postuler un mécanisme de copie. @@ -3762,33 +3739,32 @@ Cette définition transforme l’héritage en une opération sur un alphabet fin ### Quotient de lignée et coalescence au niveau signature **Définition (quotient des occurrences par signature).** -On définit \(v\equiv v'\) par \(\bar{\sigma}(v)=\bar{\sigma}(v')\). Le quotient est \(V/{\equiv}\), naturellement indexé par \(\Sigma\). +On définit \(((v\equiv v'\) par \(\bar{\sigma}(v)=\bar{\sigma}(v')\)\)). Le quotient est \(((V/{\equiv}\), naturellement indexé par \(\Sigma\). **Définition (graphe de signatures).** -On définit \(G_\Sigma=(\Sigma,E_\Sigma)\) par +On définit \(G\_\Sigma=(\Sigma,E\_\Sigma)\)\)) par \[ (\alpha,\beta)\in E_\Sigma \Longleftrightarrow \exists u\to v\ \text{dans}\ \mathcal{T}\ \text{avec}\ \bar{\sigma}(u)=\alpha,\ \bar{\sigma}(v)=\beta. \] **Proposition (cycles possibles sur les classes).** -Il est possible que \(G_\Sigma\) contienne des cycles même si \(\mathcal{T}\) est un DAG. +Il est possible que \(((G\_\Sigma\) contienne des cycles même si \(\mathcal{T}\) est un DAG. Cette proposition formalise l’idée suivante : la lignée (sur occurrences) encode une antériorité irréversible, tandis que la dynamique sur classes (signatures) peut réutiliser une même classe, car une classe peut être atteinte à des instants distincts et depuis des histoires distinctes. ### Accumulateur d’histoire sur DAG **Définition (monoïde d’agrégation).** -Soit \((\mathcal{M},\oplus,0)\) un monoïde commutatif. +Soit \((\mathcal{M},\oplus,0)\)\)) un monoïde commutatif. **Définition (accumulateur local).** -Une application \(m:V\to\mathcal{M}\) fournit une contribution locale. +Une application \(((m : V\to\mathcal{M}\) fournit une contribution locale. **Définition (accumulateur historique).** -Sur le DAG \(\mathcal{T}\), on définit \(M:V\to\mathcal{M}\) par récurrence : -\[ -M(v)=m(v)\ \oplus\ \bigoplus_{u\in \mathrm{Par}(v)} \big(W(u,v)\odot M(u)\big), +Sur le DAG \(\mathcal{T}\), on définit \(M : V\to\mathcal{M}\) par récurrence : \[ +M(v)=m(v)\)\) \oplus\ \bigoplus_{u\in \mathrm{Par}(v)} \big(W(u,v)\odot M(u)\big), \] -où \(W(u,v)\) est un poids et \(\odot\) une action compatible. +où \(((W(u,v)\)\)) est un poids et \(((\odot\) une action compatible. **Proposition (bien‑définition).** Un ordre topologique de \(\mathcal{T}\) garantit la définition sans ambiguïté de \(M\). @@ -3796,10 +3772,10 @@ Un ordre topologique de \(\mathcal{T}\) garantit la définition sans ambiguïté ### Mémoire des collisions **Définition (collision informationnelle).** -Une collision au niveau signature est une paire d’occurrences \(v\neq v'\) telle que \(\bar{\sigma}(v)=\bar{\sigma}(v')\). +Une collision au niveau signature est une paire d’occurrences \(v\neq v'\) telle que \(\bar{\sigma}(v)=\bar{\sigma}(v')\)\)). **Proposition (héritage des collisions passées).** -Si \(\bar{\sigma}(v)=\bar{\sigma}(v')\) mais \(M(v)\neq M(v')\), alors la classe transmissible \(\bar{\sigma}\) ne suffit pas à déterminer l’histoire accumulée. La collision transforme des histoires distinctes en un même état observable au niveau classe, tout en laissant subsister une multiplicité d’histoires possibles au niveau des contraintes cumulées. +Si \(((\bar{\sigma}(v)=\bar{\sigma}(v')\)\)) mais \(((M(v)\)\)neq M(v')\), alors la classe transmissible \(((\bar{\sigma}\) ne suffit pas à déterminer l’histoire accumulée. La collision transforme des histoires distinctes en un même état observable au niveau classe, tout en laissant subsister une multiplicité d’histoires possibles au niveau des contraintes cumulées. Cette proposition, formulée sans lecture externe, capture l’idée que « la fusion devient un fait hérité » : la non‑injectivité n’efface pas le passé, elle le rend indistinct. @@ -3808,52 +3784,52 @@ Cette proposition, formulée sans lecture externe, capture l’idée que « la f Paramètres - Alphabet \(\Sigma=\{A,B,C\}\). -- Monoïde \(\mathcal{M}=\mathbb{N}^3\) avec addition composante par composante et neutre \((0,0,0)\). -- \(m(v)=e_{\bar{\sigma}(v)}\) où \(e_A=(1,0,0)\), \(e_B=(0,1,0)\), \(e_C=(0,0,1)\). -- \(W(u,v)=1\), \(\odot\) triviale. +- Monoïde \(\mathcal{M}=\mathbb{N}^3\) avec addition composante par composante et neutre \((0,0,0)\)\)). +- \(((m(v)=e\_{\bar{\sigma}(v)}\) où \(e\_A=(1,0,0)\)\)), \(((e\_B=(0,1,0)\)\)), \(((e\_C=(0,0,1)\)\)). +- \(((W(u,v)=1\), \(\odot\) triviale. DAG -- Sommets \(v_0,v_1,v_2,v_3\). -- Arêtes \(v_0\to v_2\), \(v_1\to v_2\), \(v_2\to v_3\). -- Signatures \(\bar{\sigma}(v_0)=A\), \(\bar{\sigma}(v_1)=B\), \(\bar{\sigma}(v_2)=A\), \(\bar{\sigma}(v_3)=C\). +- Sommets \(v\_0,v\_1,v\_2,v\_3\). +- Arêtes \(v\_0\to v\_2\), \(v\_1\to v\_2\), \(v\_2\to v\_3\). +- Signatures \(\bar{\sigma}(v\_0)=A\), \(\bar{\sigma}(v\_1)=B\), \(\bar{\sigma}(v\_2)=A\), \(\bar{\sigma}(v\_3)=C\). Calculs détaillés -- \(M(v_0)=m(v_0)=(1,0,0)\). -- \(M(v_1)=m(v_1)=(0,1,0)\). -- Parents de \(v_2\) : \(\mathrm{Par}(v_2)=\{v_0,v_1\}\). +- \(M(v\_0)=m(v\_0)=(1,0,0)\)\)). +- \(((M(v\_1)=m(v\_1)=(0,1,0)\)\)). +- Parents de \(((v\_2\) : \(\mathrm{Par}(v\_2)=\{v\_0,v\_1\}\). \[ - M(v_2)=m(v_2)\oplus M(v_0)\oplus M(v_1) + M(v\_2)=m(v\_2)\)\)oplus M(v_0)\oplus M(v_1) \] - \(m(v_2)=(1,0,0)\). - \(M(v_0)\oplus M(v_1)=(1,0,0)+(0,1,0)=(1,1,0)\). - Donc \(M(v_2)=(1,0,0)+(1,1,0)=(2,1,0)\). -- Parents de \(v_3\) : \(\mathrm{Par}(v_3)=\{v_2\}\). + \(((m(v\_2)=(1,0,0)\)\)). + \(((M(v\_0)\)\)oplus M(v_1)=(1,0,0)+(0,1,0)=(1,1,0)\). + Donc \(((M(v\_2)=(1,0,0)+(1,1,0)=(2,1,0)\)\)). +- Parents de \(((v\_3\) : \(\mathrm{Par}(v\_3)=\{v\_2\}\). \[ - M(v_3)=m(v_3)\oplus M(v_2) + M(v\_3)=m(v\_3)\)\)oplus M(v_2) \] - \(m(v_3)=(0,0,1)\). - Donc \(M(v_3)=(0,0,1)+(2,1,0)=(2,1,1)\). + \(((m(v\_3)=(0,0,1)\)\)). + Donc \(((M(v\_3)=(0,0,1)+(2,1,0)=(2,1,1)\)\)). Conclusion de l’exemple -La signature \(C\) n’informe pas sur la composition historique. L’accumulateur \(M\) encode une mémoire strictement croissante sur le DAG. La ré‑apparition de \(A\) illustre que des classes peuvent se répéter sans annuler l’histoire : c’est exactement le régime où des structures transmissibles persistent malgré les collisions. +La signature \(((C\) n’informe pas sur la composition historique. L’accumulateur \(M\) encode une mémoire strictement croissante sur le DAG. La ré‑apparition de \(A\) illustre que des classes peuvent se répéter sans annuler l’histoire : c’est exactement le régime où des structures transmissibles persistent malgré les collisions. ## Disparition des branches instables ### Filtre de viabilité et élagage **Définition (prédicat de viabilité).** -Un prédicat est \(P:V\to\{0,1\}\). Un sommet est viable si \(P(v)=1\). +Un prédicat est \(P : V\to\{0,1\}\). Un sommet est viable si \(P(v)=1\). **Définition (sous‑DAG viable).** \[ -V_P=\{v\in V:P(v)=1\},\qquad E_P=E\cap (V_P\times V_P). +V\_P=\{v\in V : P(v)=1\},\qquad E\_P=E\cap (V\_P\times V\_P). \] -Le sous‑graphe \(G_P=(V_P,E_P)\) est le résultat d’un élagage. +Le sous‑graphe \(G\_P=(V\_P,E\_P)\)\)) est le résultat d’un élagage. **Proposition (idempotence).** -\(\mathfrak{E}(\mathfrak{E}(\mathcal{T}))=\mathfrak{E}(\mathcal{T})\). +\(((\mathfrak{E}(\mathfrak{E}(\mathcal{T}))=\mathfrak{E}(\mathcal{T})\)\)). **Définition (branche stable).** Dans un DAG infini, une branche est stable si elle contient une infinité de sommets viables. @@ -3861,11 +3837,11 @@ Dans un DAG infini, une branche est stable si elle contient une infinité de som ### Modèle stochastique minimal : processus de branchement **Définition.** -Soit \(K\) une variable aléatoire à valeurs dans \(\mathbb{N}\). On définit +Soit \(((K\) une variable aléatoire à valeurs dans \(\mathbb{N}\). On définit \[ -Z_0=1,\qquad Z_{n+1}=\sum_{i=1}^{Z_n} K_i, +Z\_0=1,\qquad Z\_{n+1}=\sum\_{i=1}^{Z\_n} K\_i, \] -où \((K_i)\) sont i.i.d. de loi \(K\). +où \((K\_i)\)\)) sont i.i.d. de loi \(((K\). **Définition (moyenne).** \[ @@ -3882,20 +3858,21 @@ Ce résultat exprime la disparition des branches instables sans hypothèse d’o ### Mesures sur les générations **Définition (poids).** -Un poids est \(w:V\to \mathbb{R}_+\). Exemples formels : +Un poids est \(w : V\to \mathbb{R}\_+\). Exemples formels : -- \(w(v)=g(M(v))\) pour une fonction \(g\), -- \(w(v)=|\mathrm{Desc}(v)\cap V_{n+k}|\) (descendance à horizon \(k\)), -- \(w(v)=\mathbb{P}(P(v)=1 \mid \text{informations})\). +- \(w(v)=g(M(v))\)\)) pour une fonction \(((g\), + +- \(w(v)=|\mathrm{Desc}(v)\)\)cap V_{n+k}|\) (descendance à horizon \(((k\)), +- \(w(v)=\mathbb{P}(P(v)=1 \mid \text{informations})\)\)). **Définition (mesure normalisée).** -Sur \(V_n\), +Sur \(((V\_n\), \[ -\pi_n(v)=\frac{w(v)}{\sum_{u\in V_n} w(u)}. +\pi\_n(v)=\frac{w(v)}{\sum\_{u\in V\_n} w(u)}. \] **Proposition (sélection).** -La sélection est définie ici comme la concentration de \(\pi_n\) sur un sous‑ensemble strict de \(V_n\). La concentration résulte d’inégalités de poids, donc d’inégalités de croissance ou de viabilité, sans finalité. +La sélection est définie ici comme la concentration de \(\pi\_n\) sur un sous‑ensemble strict de \(V\_n\). La concentration résulte d’inégalités de poids, donc d’inégalités de croissance ou de viabilité, sans finalité. ### Effet de conditionnement @@ -3906,7 +3883,7 @@ Conditionner sur la non‑extinction modifie la distribution observée. Les hist Lecture informationnelle - \(\bar{\sigma}\) représente une compression en classes. -- \(G_\Sigma\) rend visible l’héritage des collisions : retours sur classes sans retour sur occurrences. +- \(G\_\Sigma\) rend visible l’héritage des collisions : retours sur classes sans retour sur occurrences. - \(M\) est une mémoire distribuée définie sur un DAG. Lecture cosmologique minimale @@ -3921,11 +3898,11 @@ Lecture relative à des systèmes de transmission concrets ## Références consensuelles utiles -- Reinhard Diestel, _Graph Theory_ (théorie des graphes). -- Theodore E. Harris, _The Theory of Branching Processes_ (processus de branchement). -- Krishna B. Athreya, Peter E. Ney, _Branching Processes_ (processus de branchement). +- Reinhard Diestel, *Graph Theory* (théorie des graphes). +- Theodore E. Harris, *The Theory of Branching Processes* (processus de branchement). +- Krishna B. Athreya, Peter E. Ney, *Branching Processes* (processus de branchement). -## Conclusion +## Conclusion — Ch. 12 Les graphes orientés de lignées ont été introduits explicitement comme l’image combinatoire d’événements d’engendrement sur un ensemble d’occurrences, distinct du niveau des types. Une règle minimale de création orientée rend le graphe acyclique, et la consommation irréversible fournit un monotone cumulatif quantifiant l’histoire. L’héritage est formalisé par des règles sur attributs, puis ramené à des signatures discrètes par quotient, ce qui rend la perte d’identifiabilité structurelle. L’accumulation structurale est définie par un accumulateur sur DAG, et l’héritage des collisions passées apparaît lorsque plusieurs histoires se projettent sur la même signature malgré des historiques cumulés distincts. Enfin, la disparition des branches instables et la sélection sans finalité se décrivent par filtrage de viabilité, dynamique de branchement et concentration de mesure. @@ -3933,27 +3910,27 @@ On obtient : certaines structures transmissibles persistent sous contraintes, in --- -# Chapitre 13 — Structures persistantes et verrouillage des futurs +## Chapitre 13 — Structures persistantes et verrouillage des futurs {#chapitre-13-structures-persistantes-et-verrouillage-des-futurs} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 13 -Hypothèses (H). +**Hypothèses (H).** -- un espace d’états \(X\) et une famille de transformations admissibles \(\mathcal{T}\) (cadre discret) ; -- une description \(\Pi\) et une règle de restriction associée, fixées indépendamment de l’effet observé ; +- un espace d’états \(X\) et une famille de transformations admissibles \(\mathcal{T}\) (cadre discret) +- une description \(\Pi\) et une règle de restriction associée, fixées indépendamment de l’effet observé - quantification optionnelle par \(\mu\), \(d\) ou un coût \(c\) déclarés (si mobilisés). -Résultats (E). +**Résultats (E).** -- définition du futur accessible \(\mathcal{F}(x)\) et du verrouillage comme réduction monotone de l’atteignabilité sous contraintes actives ; -- distinction de statut entre verrouillage ensembliste (structurel) et quantifications (indexées) ; +- définition du futur accessible \(\mathcal{F}(x)\)\)) et du verrouillage comme réduction monotone de l’atteignabilité sous contraintes actives +- distinction de statut entre verrouillage ensembliste (structurel) et quantifications (indexées) - discipline de robustesse sous changements de granularité/description lorsque des comparaisons sont revendiquées. -Statut. +**Statut.** - verrouillage ensembliste : couche [E] ; quantification : couche [M] (indexée) ; probabiliste : couche [P] uniquement si un noyau est déclaré. -## Introduction +## Introduction — Ch. 13 Le chapitre précédent a établi un formalisme de filiation au moyen de graphes orientés acycliques, ainsi que des opérateurs de transmission et de composition permettant de décrire, sans vocabulaire substantiel, la propagation de structures partielles à travers des événements de séparation et de collision. @@ -3963,38 +3940,37 @@ Le présent chapitre introduit le mécanisme par lequel ces structures transmiss Soit : -- $(X,\mathcal{B})$ un espace mesurable d’états (ou un espace topologique $X$ muni de sa tribu borélienne ; le choix dépendra des résultats mobilisés). -- $\mathcal{T}$ un ensemble de transformations admissibles $f : X \to X$ (temps discret). -- $\langle \mathcal{T}\rangle$ le semi-groupe engendré par $\mathcal{T}$ par composition. +- \((((X,\mathcal{B})\)\)) un espace mesurable d’états (ou un espace topologique \(((X\) muni de sa tribu borélienne ; le choix dépendra des résultats mobilisés). -Remarque (admissibilité) -Le choix de l’ensemble $\mathcal{T}$ est une hypothèse structurale : il encode ce qui est disponible (symétries, localité, ressources) et reste indépendant de toute finalité. Lorsque plusieurs choix raisonnables de $\mathcal{T}$ existent, les énoncés quantifiés sont compris comme relatifs à ce choix, et la robustesse s’évalue par variation contrôlée de $\mathcal{T}$ (et des opérateurs de compatibilité associés). +- \(\mathcal{T}\) un ensemble de transformations admissibles \(f : X \to X\) (temps discret). +- \(\langle \mathcal{T}\rangle\) le semi-groupe engendré par \(\mathcal{T}\) par composition. -Pour $x \in X$ et $n \in \mathbb{N}$, l’ensemble des états atteignables en $n$ étapes est : -\[ -\operatorname{Reach}_n(x) -= +## Remarque (admissibilité) -\{ f_n \circ \cdots \circ f_1(x) \;:\; f_1,\ldots,f_n \in \mathcal{T} \}. +Le choix de l’ensemble \(\mathcal{T}\) est une hypothèse structurale : il encode ce qui est disponible (symétries, localité, ressources) et reste indépendant de toute finalité. Lorsque plusieurs choix raisonnables de \(\mathcal{T}\) existent, les énoncés quantifiés sont compris comme relatifs à ce choix, et la robustesse s’évalue par variation contrôlée de \(\mathcal{T}\) (et des opérateurs de compatibilité associés). + +Pour \(x \in X\) et \(n \in \mathbb{N}\), l’ensemble des états atteignables en \(n\) étapes est : \[ +\operatorname{Reach}\_n(x) = +\{ f\_n \circ \cdots \circ f\_1(x) \ ; : \ ; f\_1,\ldots,f\_n \in \mathcal{T} \}. \] -Le futur accessible (ensemble des états atteignables à horizon fini quelconque) est : -\[ -\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x), +Le futur accessible (ensemble des états atteignables à horizon fini quelconque) est : \[ +\mathcal{F}(x)=\bigcup\_{n\ge 0}\operatorname{Reach}\_n(x), \qquad -\operatorname{Reach}_0(x)=\{x\}. +\operatorname{Reach}\_0(x)=\{x\}. \] -Si une mesure de référence $\mu$ est disponible (mesure de volume, mesure stationnaire, etc.), la “taille” du futur accessible peut être mesurée par $\mu(\mathcal{F}(x))$. Dans un cadre fini, on utilisera plutôt la cardinalité $|\mathcal{F}(x)|$. +Si une mesure de référence \(\mu\) est disponible (mesure de volume, mesure stationnaire, etc.), la “taille” du futur accessible peut être mesurée par \(\mu(\mathcal{F}(x))\)\)). Dans un cadre fini, on utilisera plutôt la cardinalité \(((|\mathcal{F}(x)|\). -Dans les chapitres précédents, une structure a été introduite sous des formes compatibles : partition ou quotient de $X$, sous-tribu informative, ensemble de contraintes locales transportables, ou collection de motifs partiels transmissibles. Le chapitre présent n’impose pas un choix unique ; il impose en revanche un ordre logique minimal, garantissant l’absence d’auto-justification. +Dans les chapitres précédents, une structure a été introduite sous des formes compatibles : partition ou quotient de \(X\), sous-tribu informative, ensemble de contraintes locales transportables, ou collection de motifs partiels transmissibles. Le chapitre présent n’impose pas un choix unique ; il impose en revanche un ordre logique minimal, garantissant l’absence d’auto-justification. -Hypothèse de base (structure comme information opératoire) +## Hypothèse de base (structure comme information opératoire) Une structure est représentée par : -- un opérateur de description $\Pi$ qui associe à un état $x$ une description $s=\Pi(x)$ dans un espace de descriptions $S$ ; -- une règle de restriction indexée par $s$, qui sélectionne soit un ensemble d’états admissibles, soit une relation de transitions admissibles, soit une sous-famille de transformations admissibles. +- un opérateur de description \(\Pi\) qui associe à un état \(x\) une description \(s=\Pi(x)\)\)) dans un espace de descriptions \(((S\) + +- une règle de restriction indexée par \(s\), qui sélectionne soit un ensemble d’états admissibles, soit une relation de transitions admissibles, soit une sous-famille de transformations admissibles. Cette dissociation impose l’ordre : description puis contrainte. La structure n’est pas définie comme “ce qui restreint”, mais comme une description préalable associée à une règle de restriction fixée indépendamment de l’effet constaté. @@ -4005,52 +3981,50 @@ Cette dissociation impose l’ordre : description puis contrainte. La structure Une contrainte admet plusieurs représentations équivalentes. Toutes seront utilisées, car elles correspondent à des points de vue complémentaires sur “ce qui est interdit”. Contrainte d’état -Un sous-ensemble $A \subseteq X$ ; l’état est admissible si $x\in A$. +Un sous-ensemble \(A \subseteq X\) ; l’état est admissible si \(x\in A\). Contrainte de transition -Une relation $R \subseteq X\times X$ ; une transition $x\to y$ est admissible si $(x,y)\in R$. +Une relation \(R \subseteq X\times X\) ; une transition \(x\to y\) est admissible si \((x,y)\)\)in R\). Contrainte fonctionnelle -Une application $g:X\to Y$ et une condition $g(x)\in C_Y$ (notamment $g(x)=0$ ou $g(x)\le 0$). Cela induit l’ensemble admissible $A=\{x: g(x)\in C_Y\}$. +Une application \(((g : X\to Y\) et une condition \(g(x)\)\)in C_Y\) (notamment \(((g(x)=0\) ou \(g(x)\)\)le 0\)). Cela induit l’ensemble admissible \(((A=\{x : g(x)\)\)in C_Y\}\). Contrainte de coût -Une fonction $c:X\times X\to [0,+\infty]$ et un seuil $\kappa$ ; $(x,y)$ est admissible si $c(x,y)\le \kappa$. Le cas $c(x,y)=+\infty$ encode l’interdiction stricte. +Une fonction \(((c : X\times X\to [0,+\infty]\) et un seuil \(\kappa\) ; \((x,y)\)\)) est admissible si \(((c(x,y)\)\)le \kappa\). Le cas \(((c(x,y)=+\infty\) encode l’interdiction stricte. Interconversions utiles (sans perte) -- D’une contrainte d’état $A$, on déduit la contrainte de transition $R_A=A\times A$. -- D’une contrainte fonctionnelle $g(x)\in C_Y$, on déduit la contrainte d’état $A=\{x: g(x)\in C_Y\}$. -- D’une contrainte de coût $c(x,y)\le \kappa$, on déduit la contrainte de transition $R=\{(x,y): c(x,y)\le \kappa\}$. +- D’une contrainte d’état \(A\), on déduit la contrainte de transition \(R\_A=A\times A\). +- D’une contrainte fonctionnelle \(g(x)\)\)in C_Y\), on déduit la contrainte d’état \(((A=\{x : g(x)\)\)in C_Y\}\). +- D’une contrainte de coût \(((c(x,y)\)\)le \kappa\), on déduit la contrainte de transition \(((R=\{(x,y) : c(x,y)\)\)le \kappa\}\). ### Définition d’une contrainte active Le qualificatif “active” désigne un effet effectif sur l’atteignabilité, et non l’existence nominale d’une règle. -Soit $(X,\mathcal{T})$ et deux ensembles de transformations admissibles $\mathcal{T}\supseteq \mathcal{T}'$. Le passage de $\mathcal{T}$ à $\mathcal{T}'$ est une activation de contrainte au point $x$ si : -\[ -\mathcal{F}_{\mathcal{T}'}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x), +Soit \((((X,\mathcal{T})\)\)) et deux ensembles de transformations admissibles \(((\mathcal{T}\supseteq \mathcal{T}'\). Le passage de \(\mathcal{T}\) à \(\mathcal{T}'\) est une activation de contrainte au point \(x\) si : \[ +\mathcal{F}\_{\mathcal{T}'}(x) \subsetneq \mathcal{F}\_{\mathcal{T}}(x), \] -où $\mathcal{F}_{\mathcal{T}}(x)$ désigne le futur accessible construit avec $\mathcal{T}$, et $\mathcal{F}_{\mathcal{T}'}(x)$ celui construit avec $\mathcal{T}'$. +où \(\mathcal{F}\_{\mathcal{T}}(x)\)\)) désigne le futur accessible construit avec \(((\mathcal{T}\), et \(\mathcal{F}\_{\mathcal{T}'}(x)\)\)) celui construit avec \(((\mathcal{T}'\). Une contrainte est globalement active si l’inclusion stricte vaut sur un ensemble d’états non négligeable (mesure non nulle, ou partie dense, selon le cadre retenu). ### Structures et activation -Soit $\Pi:X\to S$ une description, et soit $\mathcal{T}(s)\subseteq \mathcal{T}$ une famille de transformations admissibles indexée par $s\in S$. +Soit \(\Pi : X\to S\) une description, et soit \(\mathcal{T}(s)\)\)subseteq \mathcal{T}\) une famille de transformations admissibles indexée par \(((s\in S\). -Une structure $s$ est dite active au point $x$ si, pour $\Pi(x)=s$, on a : -\[ -\mathcal{F}_{\mathcal{T}(s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x). +Une structure \(s\) est dite active au point \(x\) si, pour \(\Pi(x)=s\), on a : \[ +\mathcal{F}\_{\mathcal{T}(s)}(x) \subsetneq \mathcal{F}\_{\mathcal{T}}(x). \] -Cette définition impose que $(\Pi,\mathcal{T}(\cdot))$ soit donné avant toute interprétation : la structure n’est pas “ce qui réduit”, elle est “ce qui est décrit” et “ce qui impose ensuite une restriction”. +Cette définition impose que \((\Pi,\mathcal{T}(\cdot))\)\)) soit donné avant toute interprétation : la structure n’est pas “ce qui réduit”, elle est “ce qui est décrit” et “ce qui impose ensuite une restriction”. ### Contraintes endogènes et ensembles invariants Il est pertinent de distinguer deux sources de contraintes. Contraintes exogènes -Restrictions prescrites sur $\mathcal{T}$ (interdictions, règles externes). +Restrictions prescrites sur \(((\mathcal{T}\) (interdictions, règles externes). Contraintes endogènes Restrictions produites par la structure interne de la dynamique : ensembles invariants, classes absorbantes, attracteurs, dissipation, non-injectivité, réduction effective de dimension. @@ -4061,63 +4035,57 @@ Le verrouillage des futurs relève principalement des contraintes endogènes. L ### Verrouillage comme réduction monotone des futurs accessibles -On modélise l’accumulation ou l’activation progressive de contraintes par une suite d’ensembles de transformations admissibles $(\mathcal{T}_t)_{t\in\mathbb{N}}$ telle que : -\[ -\mathcal{T}_{t+1}\subseteq \mathcal{T}_t +On modélise l’accumulation ou l’activation progressive de contraintes par une suite d’ensembles de transformations admissibles \((\mathcal{T}\_t)\_{t\in\mathbb{N}}\) telle que : \[ +\mathcal{T}\_{t+1}\subseteq \mathcal{T}\_t \quad \text{pour tout } t. \] -Le futur accessible à partir du temps $t$ est défini par : -\[ -\mathcal{F}^{(t)}(x) -= - -\bigcup_{n\ge 0} +Le futur accessible à partir du temps \(t\) est défini par : \[ +\mathcal{F}^{(t)}(x) = +\bigcup\_{n\ge 0} \left\{ -f_{t+n}\circ \cdots \circ f_{t+1}(x) -: -f_{t+k}\in \mathcal{T}_{t+k} +f\_{t+n}\circ \cdots \circ f\_{t+1}(x) : f\_{t+k}\in \mathcal{T}\_{t+k} \right\}. \] -Alors, pour tout $x$ : -\[ -\mathcal{F}^{(t+1)}(x)\subseteq \mathcal{F}^{(t)}(x), +Alors, pour tout \(x\) : \[ +\mathcal{F}^{(t+1)}(x)\)\)subseteq \mathcal{F}^{(t)}(x), \] -donc la famille $(\mathcal{F}^{(t)}(x))_t$ est décroissante. +donc la famille \((((\mathcal{F}^{(t)}(x))\_t\) est décroissante. -Le verrouillage correspond à la situation où l’inclusion est strictement décroissante sur une suite de temps, ou, de façon plus structurelle, lorsque l’intersection limite est strictement plus petite : -\[ -\mathcal{F}^{(\infty)}(x)=\bigcap_{t\ge 0}\mathcal{F}^{(t)}(x) +Le verrouillage correspond à la situation où l’inclusion est strictement décroissante sur une suite de temps, ou, de façon plus structurelle, lorsque l’intersection limite est strictement plus petite : \[ +\mathcal{F}^{(\infty)}(x)=\bigcap\_{t\ge 0}\mathcal{F}^{(t)}(x) \subsetneq \mathcal{F}^{(0)}(x). \] **Cas fini** -Si $X$ est fini, les ensembles $\mathcal{F}^{(t)}(x)$ sont des sous-ensembles d’un ensemble fini ; la décroissance est donc stationnaire en temps fini. Le verrouillage est alors un phénomène à horizon fini, détectable par stabilisation des ensembles atteignables. +Si \(X\) est fini, les ensembles \(\mathcal{F}^{(t)}(x)\)\)) sont des sous-ensembles d’un ensemble fini ; la décroissance est donc stationnaire en temps fini. Le verrouillage est alors un phénomène à horizon fini, détectable par stabilisation des ensembles atteignables. **Cas infini** -Si $X$ est infini, l’intersection peut être non vide tout en étant strictement plus petite que $\mathcal{F}^{(0)}(x)$ ; l’analyse se fait alors via la mesure, la topologie, ou des invariants dynamiques (dimension effective, entropie topologique, etc.). +Si \(((X\) est infini, l’intersection peut être non vide tout en étant strictement plus petite que \(\mathcal{F}^{(0)}(x)\)\)) ; l’analyse se fait alors via la mesure, la topologie, ou des invariants dynamiques (dimension effective, entropie topologique, etc.). ### Niveaux, quantification et robustesse du verrouillage Dans le cas fini, la stabilisation d’une famille décroissante est automatique ; on caractérise alors le verrouillage par (i) l’intensité de la réduction, (ii) sa vitesse, (iii) sa structure (goulots, fragmentation), et (iv) sa robustesse aux choix de mesure, de projection et d’admissibilité. Niveau 1 — verrouillage ensembliste (noyau) -Le verrouillage est une inclusion de futurs accessibles. On dira qu’il est strict en `t1→t2` s’il existe `x` tel que \(\mathcal{F}^{(t_2)}(x)\subsetneq \mathcal{F}^{(t_1)}(x)\). +Le verrouillage est une inclusion de futurs accessibles. On dira qu’il est strict en `t1→t2` s’il existe `x` tel que \(((\mathcal{F}^{(t\_2)}(x)\)\)subsetneq \mathcal{F}^{(t_1)}(x)\). Niveau 2 — verrouillage quantifié (mesurable) On fixe un quantificateur et on mesure la réduction, par exemple : -- réduction de futur accessible (cas fini) : \(L_{\mathcal{F}}(t,x)=|\mathcal{F}^{(0)}(x)|-|\mathcal{F}^{(t)}(x)|\) et \(l_{\mathcal{F}}(t,x)=L_{\mathcal{F}}(t,x)/|\mathcal{F}^{(0)}(x)|\) lorsque \(|\mathcal{F}^{(0)}(x)|>0\) ; -- réduction de futur accessible (cas mesuré) : \(L_{\mathcal{F}}^{\mu}(t,x)=\mu(\mathcal{F}^{(0)}(x))-\mu(\mathcal{F}^{(t)}(x))\) et \(l_{\mathcal{F}}^{\mu}(t,x)=L_{\mathcal{F}}^{\mu}(t,x)/\mu(\mathcal{F}^{(0)}(x))\) lorsque \(\mu(\mathcal{F}^{(0)}(x))>0\) ; -- vitesse de verrouillage (seuil \(\theta\in (0,1)\)) : \(\tau_{\theta}(x)=\inf\{t\ge 0 : l_{\mathcal{F}}(t,x)\ge \theta\}\) (ou la variante mesurée) ; -- quantificateurs structurels : nombre de composantes fortement connexes atteignables, distribution des bassins, goulots (coupes) dans le graphe d’atteignabilité, diamètre de \(\mathcal{F}^{(t)}(x)\) sous une quasi‑métrique de chemin lorsque l’on introduit un coût de transition. +- réduction de futur accessible (cas fini) : \(((L\_{\mathcal{F}}(t,x)=|\mathcal{F}^{(0)}(x)|-|\mathcal{F}^{(t)}(x)|\) et \(l\_{\mathcal{F}}(t,x)=L\_{\mathcal{F}}(t,x)/|\mathcal{F}^{(0)}(x)|\) lorsque \(|\mathcal{F}^{(0)}(x)|>0\) + +- réduction de futur accessible (cas mesuré) : \(L\_{\mathcal{F}}^{\mu}(t,x)=\mu(\mathcal{F}^{(0)}(x))-\mu(\mathcal{F}^{(t)}(x))\)\)) et \(((l\_{\mathcal{F}}^{\mu}(t,x)=L\_{\mathcal{F}}^{\mu}(t,x)/\mu(\mathcal{F}^{(0)}(x))\)\)) lorsque \(((\mu(\mathcal{F}^{(0)}(x))>0\) +- vitesse de verrouillage (seuil \(\theta\in (0,1)\)\))) : \(((\tau\_{\theta}(x)=\inf\{t\ge 0 : l\_{\mathcal{F}}(t,x)\)\)ge \theta\}\) (ou la variante mesurée) +- quantificateurs structurels : nombre de composantes fortement connexes atteignables, distribution des bassins, goulots (coupes) dans le graphe d’atteignabilité, diamètre de \(((\mathcal{F}^{(t)}(x)\)\)) sous une quasi‑métrique de chemin lorsque l’on introduit un coût de transition. Niveau 3 — verrouillage robuste (statut) Une conclusion quantifiée est dite robuste si elle persiste qualitativement sous : -- variations raisonnables de mesure \(\mu\), +- variations raisonnables de mesure \(((\mu\), + - variations de projection / quotient \(\Pi\), - variations de l’admissibilité \(\mathcal{T}\) dans une classe déclarée, - et, lorsque des contraintes héritées interviennent, variations de l’opérateur \(\operatorname{Comp}\) dans une famille explicitée. @@ -4127,6 +4095,7 @@ Une conclusion quantifiée est dite robuste si elle persiste qualitativement sou Les résultats centraux de ce chapitre sont accompagnés d’une note structurée : - Hypothèses : liste explicite (finitude/compacité, piégeage/dissipativité, admissibilité fixée, mesure \(\mu\), projection \(\Pi\), etc.) + - Conclusion : énoncé exact - Ruptures : ce qui n’est plus garanti si une hypothèse est retirée @@ -4138,26 +4107,27 @@ Bibliothèque minimale de ruptures (vocabulaire standard pour ce chapitre) - H‑Adm (admissibilité fixée) retirée : reconfiguration du futur accessible ; quantités non comparables sans aligner la classe d’admissibilité (même \(\mathcal{T}\), même \(\operatorname{Comp}\), même règle d’activation). - Changement de projection/quotient \(\Pi\) : non‑Markovianité apparente possible ; conclusions sur verrouillage observé susceptibles d’être des artefacts de représentation. -Déclaration M0 (projection / non‑Markovianité). - -- espace d’état : \(S\) (état complet), observable \(X=\Pi(S)\) ; -- projection : \(\Pi\) ; -- statut markovien : markovien sur \(S\) ; non markovien possible sur \(X\) ; -- type : mémoire‑état (variable cachée), pas mémoire‑structure. +> **Déclaration M0** (projection / non‑Markovianité). +> +> - espace d’état : \(S\) (état complet), observable \(X=\Pi(S)\)\)) +> - projection : \(((\Pi\) +> - statut markovien : markovien sur \(S\) ; non markovien possible sur \(X\) +> - type : mémoire‑état (variable cachée), pas mémoire‑structure. ### Estimation, bornes et substituts (quand le futur est intractable) -Le futur accessible complet \(\mathcal{F}^{(t)}(x)\) est souvent trop coûteux à calculer (voire non calculable selon la classe de transformations). Toute quantification proposée sur \(\mathcal{F}^{(t)}(x)\) est donc accompagnée : +Le futur accessible complet \(\mathcal{F}^{(t)}(x)\)\)) est souvent trop coûteux à calculer (voire non calculable selon la classe de transformations). Toute quantification proposée sur \(((\mathcal{F}^{(t)}(x)\)\)) est donc accompagnée : -- d’au moins un estimateur calculable ; -- d’au moins une borne (supérieure ou inférieure) ; +- d’au moins un estimateur calculable + +- d’au moins une borne (supérieure ou inférieure) - et d’une note de statut (dépendances aux choix). Estimateurs par échantillonnage de trajectoires -- Échantillonnage de chemins de longueur bornée \(n\le n_{\max}\) sous une politique déclarée (uniforme, filtrée par ressource, locale). -- Estimation de \(\mu(\mathcal{F}^{(t)}(x))\) par couverture empirique : fraction d’états visités (fini) ou volume discrétisé (continu) sous une maille déclarée. -- Estimation d’un temps caractéristique de verrouillage \(\tau_{\theta}\) par répétitions (mêmes choix d’exploration et de quantificateur). +- Échantillonnage de chemins de longueur bornée \(((n\le n\_{\max}\) sous une politique déclarée (uniforme, filtrée par ressource, locale). +- Estimation de \(\mu(\mathcal{F}^{(t)}(x))\)\)) par couverture empirique : fraction d’états visités (fini) ou volume discrétisé (continu) sous une maille déclarée. +- Estimation d’un temps caractéristique de verrouillage \(((\tau\_{\theta}\) par répétitions (mêmes choix d’exploration et de quantificateur). Bornes supérieures et inférieures @@ -4167,7 +4137,7 @@ Bornes supérieures et inférieures Métriques de substitution -- Diamètre de futur (selon une quasi‑distance déclarée) : \(\mathrm{diam}(\mathcal{F}^{(t)}(x))\). +- Diamètre de futur (selon une quasi‑distance déclarée) : \(\mathrm{diam}(\mathcal{F}^{(t)}(x))\)\)). - Conductance / coupe minimale du graphe atteignable (si pondération). - Nombre et tailles des composantes fortement connexes atteignables. - Variation de diamètre ou de fragmentation sous verrouillage. @@ -4177,38 +4147,33 @@ Chaque estimateur précise : (i) la dépendance à la politique d’exploration ### Verrouillage via ensembles invariants, classes absorbantes et attracteurs -Dans le cas déterministe $F:X\to X$ : +Dans le cas déterministe \(((F : X\to X\) : -- $A$ est positivement invariant si $F(A)\subseteq A$. -- $A$ est invariant si $F(A)=A$. -- $A$ est absorbant si pour tout $x\in X$, il existe $n$ tel que $F^n(x)\in A$. +- \(A\) est positivement invariant si \(F(A)\)\)subseteq A\). -Si un ensemble absorbant strict $A\subsetneq X$ existe, alors tout futur accessible à partir de n’importe quel état devient contenu dans $A$ après un temps fini dépendant de l’état initial. Le verrouillage est ici un fait ensembliste. +- \(((A\) est invariant si \(F(A)=A\). +- \(A\) est absorbant si pour tout \(x\in X\), il existe \(n\) tel que \(F^n(x)\)\)in A\). -Dans les systèmes dissipatifs (au sens standard), les attracteurs offrent une forme stabilisée du verrouillage : un attracteur $A$ est un ensemble compact invariant possédant un bassin $B(A)$ (ensemble d’états initiaux dont l’orbite approche $A$). Alors, pour $x\in B(A)$, l’adhérence de l’orbite est contenue dans $A$, ce qui implique une restriction durable des devenirs. +Si un ensemble absorbant strict \(((A\subsetneq X\) existe, alors tout futur accessible à partir de n’importe quel état devient contenu dans \(A\) après un temps fini dépendant de l’état initial. Le verrouillage est ici un fait ensembliste. + +Dans les systèmes dissipatifs (au sens standard), les attracteurs offrent une forme stabilisée du verrouillage : un attracteur \(A\) est un ensemble compact invariant possédant un bassin \(B(A)\)\)) (ensemble d’états initiaux dont l’orbite approche \(((A\)). Alors, pour \(x\in B(A)\)\)), l’adhérence de l’orbite est contenue dans \(((A\), ce qui implique une restriction durable des devenirs. Le verrouillage n’implique pas unicité. Plusieurs attracteurs et bassins peuvent coexister ; la réduction du futur dépend alors du bassin effectif dans lequel l’état initial se situe. ### Verrouillage relatif à une observable (réduction par projection) -Soit une application de réduction $\Pi:X\to S$ (projection, quotient, codage). Pour une dynamique $F:X\to X$, le processus réduit est : -\[ -S_{t+1}=\Pi(F(X_t)), +Soit une application de réduction \(\Pi : X\to S\) (projection, quotient, codage). Pour une dynamique \(F : X\to X\), le processus réduit est : \[ +S\_{t+1}=\Pi(F(X\_t)), \qquad -S_t=\Pi(X_t). +S\_t=\Pi(X\_t). \] -En général, il n’existe pas de $G:S\to S$ tel que $\Pi\circ F = G\circ \Pi$ : le système réduit n’est pas autonome. - -On définit néanmoins l’ensemble des futurs observables depuis une description $s\in S$ : -\[ -\mathcal{F}_S(s) -= +En général, il n’existe pas de \(G : S\to S\) tel que \(\Pi\circ F = G\circ \Pi\) : le système réduit n’est pas autonome. +On définit néanmoins l’ensemble des futurs observables depuis une description \(s\in S\) : \[ +\mathcal{F}\_S(s) = \{ -\Pi(x') -: -x'\in \mathcal{F}(x) +\Pi(x') : x'\in \mathcal{F}(x) \text{ pour un } x\in \Pi^{-1}(s) \}. \] @@ -4217,75 +4182,73 @@ Même si le futur microscopique est large, le futur observable peut être fortem Monotonie et comparaison sous projection -- Pour un état \(x\), l’image \(\Pi(\mathcal{F}(x))\) (futur microscopique projeté) est toujours incluse dans \(\mathcal{F}_S(\Pi(x))\), puisque \(\mathcal{F}_S\) est défini comme union sur la fibre \(\Pi^{-1}(s)\). -- Lorsque la réduction est compatible (cas rare) au sens où il existe \(G:S\to S\) tel que \(\Pi\circ F = G\circ \Pi\), la dynamique projetée est autonome et l’on peut comparer directement des futurs accessibles en \(S\). En dehors de ce cas, toute conclusion “au niveau \(S\)” doit rappeler la définition adoptée pour \(\mathcal{F}_S\). +- Pour un état \(x\), l’image \(\Pi(\mathcal{F}(x))\)\)) (futur microscopique projeté) est toujours incluse dans \(((\mathcal{F}\_S(\Pi(x))\)\)), puisque \(((\mathcal{F}\_S\) est défini comme union sur la fibre \(\Pi^{-1}(s)\)\)). +- Lorsque la réduction est compatible (cas rare) au sens où il existe \(((G : S\to S\) tel que \(\Pi\circ F = G\circ \Pi\), la dynamique projetée est autonome et l’on peut comparer directement des futurs accessibles en \(S\). En dehors de ce cas, toute conclusion “au niveau \(S\)” doit rappeler la définition adoptée pour \(\mathcal{F}\_S\). Artefacts de quotient (faux positifs / faux négatifs) - Identifier des états distincts peut produire un verrouillage artificiel (faux positif) si l’on confond une faible diversité descriptive avec une réduction effective des futurs microscopiques. -- À l’inverse, définir le futur d’une description comme une union sur toute la fibre \(\Pi^{-1}(s)\) peut masquer un verrouillage (faux négatif) : la fibre agrège des micro‑états soumis à des restrictions différentes. +- À l’inverse, définir le futur d’une description comme une union sur toute la fibre \(\Pi^{-1}(s)\)\)) peut masquer un verrouillage (faux négatif) : la fibre agrège des micro‑états soumis à des restrictions différentes. Double granularité (robustesse à la description) -Toute conclusion quantifiée sur verrouillage est vérifiée sur au moins deux granularités \(\Pi_1,\Pi_2\) déclarées pertinentes, où “pertinent” signifie : (i) invariance opérationnelle pour l’analyse visée, ou (ii) correspondance à une observation explicitée. +Toute conclusion quantifiée sur verrouillage est vérifiée sur au moins deux granularités \(((\Pi\_1,\Pi\_2\) déclarées pertinentes, où “pertinent” signifie : (i) invariance opérationnelle pour l’analyse visée, ou (ii) correspondance à une observation explicitée. Règle de cohérence : formuler d’abord sur l’état étendu lorsqu’un registre de contraintes intervient -Lorsque le verrouillage dépend d’un registre de contraintes \(K\) (contraintes héritées, consommation, compatibilité), l’énoncé principal est formulé sur l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) (chapitre 15), puis seulement projeté sur \(X\). +Lorsque le verrouillage dépend d’un registre de contraintes \(K\) (contraintes héritées, consommation, compatibilité), l’énoncé principal est formulé sur l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) (chapitre 15), puis seulement projeté sur \(((X\). Gabarit minimal -- espace étendu : \(y_t=(x_t,K_t)\) -- futur étendu : \(\mathcal{F}_Y(y)\) -- projection : \(\pi_X(y)=x\) -- énoncé de verrouillage : inclusion sur \(\mathcal{F}_Y\) +- espace étendu : \(y\_t=(x\_t,K\_t)\)\)) +- futur étendu : \(((\mathcal{F}\_Y(y)\)\)) +- projection : \(((\pi\_X(y)=x\) +- énoncé de verrouillage : inclusion sur \(\mathcal{F}\_Y\) - effet observé : inclusion (ou non) sur \(\mathcal{F}\) après projection, discutée séparément ## Dépendance au passé sans mémoire explicite Dans un système Markovien au niveau de l’état complet (ou d’une variable d’état suffisante), le futur ne dépend que du présent. La dépendance au passé apparaît lorsque : -- la variable suivie est une description partielle $\Pi(x)$ ; +- la variable suivie est une description partielle \(\Pi(x)\)\)) + - ou des variables internes de contrainte existent mais ne sont pas incluses dans l’observation. Deux mécanismes couvrent exhaustivement le cadre présent. Dans les deux cas, la dépendance au passé au niveau observé ne suffit pas, à elle seule, à conclure à une mémoire transmissible : elle peut provenir d’un état incomplet (variable cachée) ou d’un registre interne non observé, et se reformule sur un espace d’état étendu où la dynamique est fermée. -Déclaration M0 (section — dépendance au passé). - -- mécanisme A (réduction) : mémoire‑état (variable cachée) ; espace d’état complet \(S\), observable \(X=\Pi(S)\) ; markovien sur \(S\), non markovien possible sur \(X\) ; -- mécanisme B (variable interne \(m\)) : espace étendu \(Y=X\times M\) ; markovien sur \(Y\) ; type mémoire‑état si \(m\) est interne non transmissible, et mémoire‑structure si \(m\) est un registre transmissible \(K\). +> **Déclaration M0** (section — dépendance au passé). +> +> - mécanisme A (réduction) : mémoire‑état (variable cachée) ; espace d’état complet \(((S\), observable \(X=\Pi(S)\)\)) ; markovien sur \(((S\), non markovien possible sur \(X\) +> - mécanisme B (variable interne \(m\)) : espace étendu \(Y=X\times M\) ; markovien sur \(Y\) ; type mémoire‑état si \(m\) est interne non transmissible, et mémoire‑structure si \(m\) est un registre transmissible \(K\). ### Mécanisme A : non-Markovianité induite par réduction (système caché) -Soit $(X_t)_{t\ge 0}$ une chaîne de Markov sur $X$ de noyau $K(x,\mathrm{d}x')$. Soit $\Pi:X\to S$ et $S_t=\Pi(X_t)$. +Soit \((X\_t)\_{t\ge 0}\) une chaîne de Markov sur \(X\) de noyau \(K(x,\mathrm{d}x')\)\)). Soit \(((\Pi : X\to S\) et \(S\_t=\Pi(X\_t)\)\)). -En général, $(S_t)$ n’est pas Markovien. Il existe un noyau effectif dépendant de l’histoire : -\[ -\mathbb{P}(S_{t+1}\in \cdot \mid S_0,\ldots,S_t) -= - -\mathcal{K}_t(S_0,\ldots,S_t;\cdot). +En général, \((((S\_t)\)\)) n’est pas Markovien. Il existe un noyau effectif dépendant de l’histoire : \[ +\mathbb{P}(S_{t+1}\in \cdot \mid S_0,\ldots,S_t) = +\mathcal{K}_t(S_0,\ldots,S_t ; \cdot). \] -Raison structurelle -La connaissance de $S_t$ fixe seulement la fibre $\Pi^{-1}(S_t)$, mais pas la distribution conditionnelle de $X_t$ sur cette fibre ; cette distribution dépend de l’histoire. Ainsi, la loi de $S_{t+1}$ dépend de l’histoire sans qu’une variable “mémoire” explicite ne soit introduite dans $S_t$. +## Raison structurelle -Cas limite où le processus réduit redevient Markovien -Le processus réduit est Markovien si la partition induite par $\Pi$ est compatible avec le noyau (lumpabilité), c’est-à-dire si tous les états d’une même cellule induisent la même loi sur les cellules futures. En dehors de ce cas, la dépendance au passé est générique. +La connaissance de \(((S\_t\) fixe seulement la fibre \(\Pi^{-1}(S\_t)\)\)), mais pas la distribution conditionnelle de \(((X\_t\) sur cette fibre ; cette distribution dépend de l’histoire. Ainsi, la loi de \(S\_{t+1}\) dépend de l’histoire sans qu’une variable “mémoire” explicite ne soit introduite dans \(S\_t\). + +## Cas limite où le processus réduit redevient Markovien + +Le processus réduit est Markovien si la partition induite par \(\Pi\) est compatible avec le noyau (lumpabilité), c’est-à-dire si tous les états d’une même cellule induisent la même loi sur les cellules futures. En dehors de ce cas, la dépendance au passé est générique. ### Mécanisme B : variables internes de contrainte non observées (hystérésis) -Soit une dynamique augmentée sur $X\times M$ : -\[ -(x_{t+1},m_{t+1})=\Psi(x_t,m_t), +Soit une dynamique augmentée sur \(X\times M\) : \[ +(x\_{t+1},m\_{t+1})=\Psi(x\_t,m\_t), \] -où $M$ représente un registre interne de contrainte (paramètre lent, ressource consommée, défaut cumulé, variable dissipative, etc.). +où \(M\) représente un registre interne de contrainte (paramètre lent, ressource consommée, défaut cumulé, variable dissipative, etc.). -Si seule la composante $x_t$ est observée, la dynamique apparente sur $X$ n’est pas autonome : -\[ -x_{t+1}=\pi_X(\Psi(x_t,m_t)). +Si seule la composante \(x\_t\) est observée, la dynamique apparente sur \(X\) n’est pas autonome : \[ +x\_{t+1}=\pi\_X(\Psi(x\_t,m\_t)). \] -Deux histoires différentes peuvent mener au même $x_t$ avec des valeurs différentes de $m_t$. Or $m_t$ restreint les transitions futures ; les futurs accessibles depuis $x_t$ dépendent donc du passé, sans que cette dépendance ne soit portée par une variable explicite dans l’espace observé. +Deux histoires différentes peuvent mener au même \(x\_t\) avec des valeurs différentes de \(m\_t\). Or \(m\_t\) restreint les transitions futures ; les futurs accessibles depuis \(x\_t\) dépendent donc du passé, sans que cette dépendance ne soit portée par une variable explicite dans l’espace observé. ### Correspondance entre les deux mécanismes @@ -4295,8 +4258,9 @@ Tout processus réduit non Markovien peut être réalisé comme la projection d La robustesse cumulative formalise le fait que certaines contraintes persistantes deviennent progressivement moins sensibles : -- aux fluctuations d’état dans un voisinage ; -- aux perturbations (déterministes ou stochastiques) ; +- aux fluctuations d’état dans un voisinage + +- aux perturbations (déterministes ou stochastiques) - aux recompositions via collisions. Elle repose sur deux mécanismes non exclusifs : l’emboîtement de régions admissibles et la contraction (au sens métrique ou probabiliste), auxquels s’ajoute un mécanisme de redondance interne. @@ -4305,35 +4269,33 @@ Elle repose sur deux mécanismes non exclusifs : l’emboîtement de régions ad Les notions standards suivantes sont toutes pertinentes et non redondantes : -- stabilité de Lyapunov autour d’un ensemble invariant ; -- attractivité ; -- stabilité asymptotique ; -- stabilité structurelle (conjugaison sous perturbations) ; +- stabilité de Lyapunov autour d’un ensemble invariant + +- attractivité +- stabilité asymptotique +- stabilité structurelle (conjugaison sous perturbations) - robustesse probabiliste (persistance en probabilité sous bruit faible). Le chapitre n’en privilégie aucune par principe : elles servent d’outillage pour caractériser différents régimes de persistance. ### Emboîtement d’ensembles admissibles -On modélise l’accumulation de contraintes par une suite d’ensembles admissibles $(A_t)_{t\ge 0}$ telle que : -\[ -A_{t+1}\subseteq A_t\subseteq X, +On modélise l’accumulation de contraintes par une suite d’ensembles admissibles \((A\_t)\_{t\ge 0}\) telle que : \[ +A\_{t+1}\subseteq A\_t\subseteq X, \qquad -x_t\in A_t \Rightarrow x_{t+1}\in A_{t+1}. +x\_t\in A\_t \Rightarrow x\_{t+1}\in A\_{t+1}. \] -Toute trajectoire admissible est confinée dans : -\[ -A_{\infty}=\bigcap_{t\ge 0}A_t. +Toute trajectoire admissible est confinée dans : \[ +A\_{\infty}=\bigcap\_{t\ge 0}A\_t. \] Interprétation strictement mathématique -Même si $A_t$ reste large pour des temps initiaux, l’intersection peut être strictement plus petite, éventuellement de dimension effective plus faible. La robustesse cumulative se lit alors comme une concentration progressive des trajectoires ou des mesures images sur $A_{\infty}$. +Même si \(A\_t\) reste large pour des temps initiaux, l’intersection peut être strictement plus petite, éventuellement de dimension effective plus faible. La robustesse cumulative se lit alors comme une concentration progressive des trajectoires ou des mesures images sur \(A\_{\infty}\). ### Contraction et perte effective de degrés de liberté -Dans un espace métrique $(X,d)$, une condition suffisante de robustesse est l’existence d’une contraction locale ou en moyenne : -\[ +Dans un espace métrique \((X,d)\)\)), une condition suffisante de robustesse est l’existence d’une contraction locale ou en moyenne : \[ d(F(x),F(y))\le \lambda\,d(x,y), \qquad 0\le \lambda < 1, @@ -4349,11 +4311,12 @@ Dans les systèmes où coexistent directions contractantes et expansives, la th Un mécanisme complémentaire, distinct de la contraction, est la redondance : une contrainte macroscopique peut admettre de nombreuses réalisations microscopiques connectées par les transformations admissibles. -Formellement, si une contrainte macroscopique correspond à une fibre $A=\Pi^{-1}(s)$, la robustesse dépend : +Formellement, si une contrainte macroscopique correspond à une fibre \(((A=\Pi^{-1}(s)\)\)), la robustesse dépend : -- de la taille de $A$ (nombre ou mesure de réalisations) ; -- de la connectivité de $A$ sous les transformations admissibles (possibilité de “changer de réalisation” tout en conservant $s$) ; -- de l’existence d’un bassin (au sens ensembliste ou probabiliste) qui renvoie vers $A$ après perturbation. +- de la taille de \(((A\) (nombre ou mesure de réalisations) + +- de la connectivité de \(A\) sous les transformations admissibles (possibilité de “changer de réalisation” tout en conservant \(s\)) +- de l’existence d’un bassin (au sens ensembliste ou probabiliste) qui renvoie vers \(A\) après perturbation. Ce mécanisme explique une robustesse qui n’est pas due à la rigidité, mais à la multiplicité des réalisations. @@ -4363,19 +4326,16 @@ Les chapitres antérieurs ont introduit des graphes orientés de filiation et de ### Espace des contraintes et ordre naturel -Soit $\mathfrak{C}$ un ensemble de contraintes élémentaires. On considère l’ensemble des collections : -\[ +Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. On considère l’ensemble des collections : \[ \mathcal{P}(\mathfrak{C}) \] muni de l’ordre par inclusion. -À toute collection $K\subseteq \mathfrak{C}$, on associe : +À toute collection \(K\subseteq \mathfrak{C}\), on associe : -- un ensemble admissible $A(K)\subseteq X$ (intersection des contraintes d’état induites) ; -- une relation admissible $R(K)\subseteq X\times X$ (intersection des contraintes de transition induites) ; +- un ensemble admissible \(A(K)\)\)subseteq X\) (intersection des contraintes d’état induites) -avec cohérence monotone : -\[ +- une relation admissible \(((R(K)\)\)subseteq X\times X\) (intersection des contraintes de transition induites) ; avec cohérence monotone : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1), @@ -4387,19 +4347,16 @@ La lecture est purement ordinale : “plus de contraintes” implique “moins d ### Transport le long d’une arête -Soit un graphe orienté acyclique $G=(V,E)$. À chaque arête $e=(u\to v)$, on associe un opérateur de transmission : -\[ -\tau_e:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}). +Soit un graphe orienté acyclique \(((G=(V,E)\)\)). À chaque arête \(((e=(u\to v)\)\)), on associe un opérateur de transmission : \[ +\tau_e : \mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}). \] -Le nœud $v$ hérite de $u$ le long de $e$ si : -\[ -\tau_e(K_u)\subseteq K_v. +Le nœud \(((v\) hérite de \(u\) le long de \(e\) si : \[ +\tau\_e(K\_u)\)\)subseteq K_v. \] Propriété de monotonicité attendue -Il est naturel d’exiger : -\[ +Il est naturel d’exiger : \[ K_1\subseteq K_2 \Rightarrow \tau_e(K_1)\subseteq \tau_e(K_2), @@ -4408,27 +4365,24 @@ afin de préserver l’ordre “plus de contraintes” le long des transmissions ### Collisions et compatibilité -Si $v$ possède des prédécesseurs $u_1,\ldots,u_k$, les contraintes candidates transmises sont : -\[ -\widetilde{K}_v -= - -\bigcup_{i=1}^k \tau_{(u_i\to v)}(K_{u_i}). +Si \(((v\) possède des prédécesseurs \(u\_1,\ldots,u\_k\), les contraintes candidates transmises sont : \[ +\widetilde{K}\_v = +\bigcup\_{i=1}^k \tau\_{(u\_i\to v)}(K\_{u\_i}). \] -L’union peut créer des incompatibilités (ensemble admissible vide, relation admissible vide). On introduit un opérateur de compatibilité : -\[ -\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}) +L’union peut créer des incompatibilités (ensemble admissible vide, relation admissible vide). On introduit un opérateur de compatibilité : \[ +\operatorname{Comp} : \mathcal{P}(\mathfrak{C})\)\)to \mathcal{P}(\mathfrak{C}) \] tel que : -- $\operatorname{Comp}(K)\subseteq K$ ; -- $A(\operatorname{Comp}(K))\neq \varnothing$ et/ou $R(\operatorname{Comp}(K))\neq \varnothing$ ; -- si $K$ est déjà compatible, $\operatorname{Comp}(K)=K$. +- \(((\operatorname{Comp}(K)\)\)subseteq K\) + +- \(((A(\operatorname{Comp}(K))\)\)neq \varnothing\) et/ou \(((R(\operatorname{Comp}(K))\)\)neq \varnothing\) +- si \(((K\) est déjà compatible, \(\operatorname{Comp}(K)=K\). Règle minimale de composition \[ -K_v \supseteq \operatorname{Comp}(\widetilde{K}_v). +K\_v \supseteq \operatorname{Comp}(\widetilde{K}\_v). \] Aucune optimisation n’est requise : seule la satisfaisabilité est imposée. @@ -4446,64 +4400,57 @@ Statut des résultats (invariant vs dépendant) Noyau d’axiomes minimal \(A0\) (pour revendiquer “invariant”) - \(A0.1\) (bien‑typé) : \(\operatorname{Comp}\) agit sur l’espace des contraintes et retourne une collection de contraintes. -- \(A0.2\) (compatibilité déclarée) : il existe un prédicat de satisfaisabilité \(\mathrm{Sat}\) (global) ou \(\mathrm{Sat}_r\) (local) tel que la sortie \(\operatorname{Comp}(K)\) soit compatible au sens déclaré. -- \(A0.3\) (monotonie, si utilisée) : lorsqu’un résultat invoque des points fixes ou une convergence par ordre, la monotonie requise (de \(\operatorname{Comp}\) ou de l’opérateur global \(F(K)=\operatorname{Comp}(K\cup \Phi(\cdot))\)) est posée comme hypothèse, jamais présumée. -- \(A0.4\) (idempotence/extensivité, si utilisées) : ces propriétés ne sont exigées que lorsqu’un résultat les emploie (logique de fermeture) ; elles ne sont pas implicites. +- \(A0.2\) (compatibilité déclarée) : il existe un prédicat de satisfaisabilité \(\mathrm{Sat}\) (global) ou \(\mathrm{Sat}\_r\) (local) tel que la sortie \(\operatorname{Comp}(K)\)\)) soit compatible au sens déclaré. +- \(((A0.3\) (monotonie, si utilisée) : lorsqu’un résultat invoque des points fixes ou une convergence par ordre, la monotonie requise (de \(\operatorname{Comp}\) ou de l’opérateur global \(F(K)=\operatorname{Comp}(K\cup \Phi(\cdot))\)\))) est posée comme hypothèse, jamais présumée. +- \(((A0.4\) (idempotence/extensivité, si utilisées) : ces propriétés ne sont exigées que lorsqu’un résultat les emploie (logique de fermeture) ; elles ne sont pas implicites. - \(A0.5\) (changement de granularité, si revendiqué) : si un résultat est annoncé stable sous projection/quotient, l’hypothèse correspondante est déclarée (commutation exacte ou contrôle explicite de l’écart). Classes canoniques de compatibilités (à nommer et à limiter) -- **Classe fermeture** \(\mathcal{C}_{\mathrm{closure}}\) : compatibilités de type fermeture (monotonie + idempotence ; extensivité selon convention). Elles sont le régime naturel pour les arguments de points fixes et d’auto‑stabilisation par ordre. -- **Classe réparation minimale** \(\mathcal{C}_{\mathrm{repair\_min}}\) : \(\operatorname{Comp}\) “répare” en supprimant un minimum de contraintes pour rétablir \(\mathrm{Sat}\), selon un critère de minimalité déclaré (inclusion, cardinalité, coût de vérification, etc.). Cela introduit un choix donc un biais à déclarer. -- **Classe locale** \(\mathcal{C}_{\mathrm{local},r}\) : compatibilités approximatives \(\operatorname{Comp}_r\) maintenant une cohérence locale \(\mathrm{Sat}_r\) (paramètre \(r\) ou autre budget). Les résultats sont soit robustes sur un intervalle de \(r\), soit indexés par \(r\). -- **Classe choix** \(\mathcal{C}_{\mathrm{choice}}\) : \(\operatorname{Comp}\) choisit explicitement une solution parmi plusieurs satisfaisables. C’est une source directe de biais (et donc de sélection) : la politique de choix est déclarée et testée en robustesse. +- **Classe fermeture** \(\mathcal{C}\_{\mathrm{closure}}\) : compatibilités de type fermeture (monotonie + idempotence ; extensivité selon convention). Elles sont le régime naturel pour les arguments de points fixes et d’auto‑stabilisation par ordre. +- **Classe réparation minimale** \(\mathcal{C}\_{\mathrm{repair_min}}\) : \(\operatorname{Comp}\) “répare” en supprimant un minimum de contraintes pour rétablir \(\mathrm{Sat}\), selon un critère de minimalité déclaré (inclusion, cardinalité, coût de vérification, etc.). Cela introduit un choix donc un biais à déclarer. +- **Classe locale** \(\mathcal{C}\_{\mathrm{local},r}\) : compatibilités approximatives \(\operatorname{Comp}\_r\) maintenant une cohérence locale \(\mathrm{Sat}\_r\) (paramètre \(r\) ou autre budget). Les résultats sont soit robustes sur un intervalle de \(r\), soit indexés par \(r\). +- **Classe choix** \(\mathcal{C}\_{\mathrm{choice}}\) : \(\operatorname{Comp}\) choisit explicitement une solution parmi plusieurs satisfaisables. C’est une source directe de biais (et donc de sélection) : la politique de choix est déclarée et testée en robustesse. Politique d’introduction - Un nouveau type de compatibilité est introduit seulement s’il relève d’une classe canonique ci‑dessus, ou s’il justifie l’ajout d’une nouvelle classe par une motivation structurale et par au moins un résultat invariant non trivial. -- Toute compatibilité paramétrée est décrite comme une famille \((\operatorname{Comp}_{\theta})_{\theta}\) ; ses résultats ne sont dits “structurels” que s’ils persistent sur un ensemble non trivial de paramètres. +- Toute compatibilité paramétrée est décrite comme une famille \((\operatorname{Comp}\_{\theta})\_{\theta}\) ; ses résultats ne sont dits “structurels” que s’ils persistent sur un ensemble non trivial de paramètres. -Critère de robustesse à \(\operatorname{Comp}\) -Un phénomène est déclaré “structurel” vis‑à‑vis de la compatibilité s’il persiste sur plusieurs classes canoniques, ou sur une région non triviale de paramètres, ou sous variation de politique dans \(\mathcal{C}_{\mathrm{choice}}\). Sinon, il est traité comme dépendant d’instanciation. +## Critère de robustesse à \(\operatorname{Comp}\) + +Un phénomène est déclaré “structurel” vis‑à‑vis de la compatibilité s’il persiste sur plusieurs classes canoniques, ou sur une région non triviale de paramètres, ou sous variation de politique dans \(\mathcal{C}\_{\mathrm{choice}}\). Sinon, il est traité comme dépendant d’instanciation. ### Verrouillage induit par héritage -Déclaration M0 (section — héritage comme registre transmissible). - -- espace d’état : \(Y=X\times\mathcal{P}(\mathfrak{C})\) avec \(y=(x,K)\) ; -- projection : \(s=\Pi(x)\) si lecture sur une description \(S\), et \(\Pi_X(x,K)=x\) ; -- statut markovien : markovien sur \(Y\) si \(K\) est mis à jour explicitement ; non markovien possible sur une projection omettant \(K\) ; -- type : mémoire‑structure (registre transmissible \(K\)), pas mémoire‑état. +> **Déclaration M0** (section — héritage comme registre transmissible). +> +> - statut markovien : markovien sur \(Y\) si \(K\) est mis à jour explicitement ; non markovien possible sur une projection omettant \(K\) +> - type : mémoire‑structure (registre transmissible \(K\)), pas mémoire‑état. Une contrainte héritée devient facteur de verrouillage dès qu’elle restreint l’atteignabilité des descendants. -On associe à $K$ un ensemble de transformations admissibles induites, par exemple : -\[ -\mathcal{T}(K) -= - -\{ f\in\mathcal{T} : -\forall x\in A(K),\ (x,f(x))\in R(K) +On associe à \(K\) un ensemble de transformations admissibles induites, par exemple : \[ +\mathcal{T}(K) = +\{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\)\)in R(K) \}. \] -Le futur accessible depuis le nœud $v$ est alors : -\[ -\mathcal{F}_{\mathcal{T}(K_v)}(x_v). +Le futur accessible depuis le nœud \(((v\) est alors : \[ +\mathcal{F}\_{\mathcal{T}(K\_v)}(x\_v). \] Forme explicite de “le passé agit sans être représenté” -Il peut exister deux nœuds $v$ et $v'$ tels que $\Pi(x_v)=\Pi(x_{v'})$ (même description observable) mais $K_v\neq K_{v'}$ (contraintes héritées différentes). Alors, en général : -\[ -\mathcal{F}_{\mathcal{T}(K_v)}(x_v) +Il peut exister deux nœuds \(v\) et \(v'\) tels que \(\Pi(x\_v)=\Pi(x\_{v'})\)\)) (même description observable) mais \(((K\_v\neq K\_{v'}\) (contraintes héritées différentes). Alors, en général : \[ +\mathcal{F}\_{\mathcal{T}(K\_v)}(x\_v) \neq -\mathcal{F}_{\mathcal{T}(K_{v'})}(x_{v'}). +\mathcal{F}\_{\mathcal{T}(K\_{v'})}(x\_{v'}). \] -Le passé agit via la variable de contrainte $K$, sans que la description observée $\Pi(x)$ porte une mémoire explicite de ce passé. +Le passé agit via la variable de contrainte \(K\), sans que la description observée \(\Pi(x)\)\)) porte une mémoire explicite de ce passé. ### Stabilisation -Une contrainte $c\in\mathfrak{C}$ est stabilisée le long d’une suite de descendants $(v_n)$ si, à partir d’un rang, $c\in K_{v_n}$ pour tout $n$ ultérieur. Plus généralement, un sous-ensemble $K^\star$ est stabilisé si $K^\star\subseteq K_{v_n}$ à partir d’un rang. +Une contrainte \(((c\in\mathfrak{C}\) est stabilisée le long d’une suite de descendants \((v\_n)\)\)) si, à partir d’un rang, \(((c\in K\_{v\_n}\) pour tout \(n\) ultérieur. Plus généralement, un sous-ensemble \(K^\star\) est stabilisé si \(K^\star\subseteq K\_{v\_n}\) à partir d’un rang. La stabilisation est le passage d’un verrouillage local (lié à un événement de transmission ou de collision) à un verrouillage durable (lié à la persistance de contraintes au long cours). @@ -4511,9 +4458,10 @@ La stabilisation est le passage d’un verrouillage local (lié à un événemen Les constructions précédentes conduisent à une proposition strictement ensembliste : -- une structure devient contrainte active dès qu’elle réduit le futur accessible ; -- toute accumulation monotone de contraintes produit une réduction monotone des futurs accessibles ; -- toute réduction par projection, ou tout oubli de variables internes de contrainte, induit une dépendance au passé au niveau des descriptions ; +- une structure devient contrainte active dès qu’elle réduit le futur accessible + +- toute accumulation monotone de contraintes produit une réduction monotone des futurs accessibles +- toute réduction par projection, ou tout oubli de variables internes de contrainte, induit une dépendance au passé au niveau des descriptions - l’héritage de contraintes sur un graphe orienté suffit à faire varier l’ensemble des futurs accessibles sans modifier nécessairement la description observée. La phrase « le passé agit sans être représenté » est donc un énoncé technique : la variable descriptive peut rester constante tandis que l’ensemble admissible des transformations change, via des contraintes héritées ou cachées. @@ -4522,14 +4470,15 @@ La phrase « le passé agit sans être représenté » est donc un énoncé tech Les notions mobilisées ici appartiennent à des cadres standard : -- systèmes dynamiques (invariance, classes absorbantes, attracteurs, stabilité) ; -- chaînes de Markov et modèles cachés (réduction non Markovienne, compatibilité de partitions, lumpabilité) ; -- théorie de l’information (projection, perte d’information, suffisance) ; +- systèmes dynamiques (invariance, classes absorbantes, attracteurs, stabilité) + +- chaînes de Markov et modèles cachés (réduction non Markovienne, compatibilité de partitions, lumpabilité) +- théorie de l’information (projection, perte d’information, suffisance) - semi-groupes d’opérateurs (cadre temps continu, dissipation). Aucune hypothèse non standard n’est requise pour établir les résultats ensemblistes du chapitre. -## Conclusion +## Conclusion — Ch. 13 Le verrouillage des futurs a été défini comme une propriété d’atteignabilité : des structures persistantes, lorsqu’elles se traduisent en contraintes actives, réduisent l’espace des trajectoires futures. La dépendance au passé a été formalisée sans variable de mémoire explicite, par réduction non Markovienne ou par variables internes non observées. Enfin, l’héritage sur graphes orientés a été articulé à ces notions pour produire un mécanisme de verrouillage durable. @@ -4537,27 +4486,27 @@ Le chapitre suivant pourra exploiter ce cadre pour étudier une sélection struc --- -# Chapitre 14 — Sélection structurelle sans optimisation +## Chapitre 14 — Sélection structurelle sans optimisation {#chapitre-14-selection-structurelle-sans-optimisation} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 14 -Hypothèses (H). +**Hypothèses (H).** -- un espace d’états \(X\), une admissibilité \(\mathcal{T}\) et un espace de contraintes \(\mathfrak{C}\) ; -- un opérateur de compatibilité \(\operatorname{Comp}\) choisi (classe/politique/paramètres déclarés) ; +- un espace d’états \(X\), une admissibilité \(\mathcal{T}\) et un espace de contraintes \(\mathfrak{C}\) +- un opérateur de compatibilité \(\operatorname{Comp}\) choisi (classe/politique/paramètres déclarés) - couche probabiliste optionnelle : noyau \(P\) déclaré lorsque des énoncés stochastiques sont formulés. -Résultats (E). +**Résultats (E).** -- reconstruction de la sélection comme filtrage induit par la compatibilité et la géométrie de l’admissible, sans optimisation ; -- séparation explicite entre satisfaisabilité (\(\operatorname{Comp}_{\mathrm{sat}}\)) et choix (\(\operatorname{Comp}_{\mathrm{choice}}\)) ; +- reconstruction de la sélection comme filtrage induit par la compatibilité et la géométrie de l’admissible, sans optimisation +- séparation explicite entre satisfaisabilité (\(\operatorname{Comp}\_{\mathrm{sat}}\)) et choix (\(\operatorname{Comp}\_{\mathrm{choice}}\)) - observables et tests de robustesse indexés par \(\Pi\), \(\mu\) et \(P\) lorsque ces objets sont mobilisés. -Statut. +**Statut.** - noyau ensembliste : couche [E] ; résultats mesurés/probabilistes : couches [M]/[P] indexées. -## Introduction +## Introduction — Ch. 14 Les chapitres précédents ont construit, sans hypothèse téléologique, une dynamique de formes reposant sur quatre ingrédients abstraits : un espace d’états admissibles, une famille de transformations admissibles, une irréversibilité cumulée (au sens d’une consommation non récupérable), et une transmission partielle décrite par des graphes orientés de filiation. Le chapitre 13 a ajouté un mécanisme de verrouillage des futurs : certaines structures, lorsqu’elles s’énoncent comme contraintes actives, réduisent l’ensemble des trajectoires accessibles. @@ -4572,16 +4521,12 @@ Les énoncés ensemblistes de ce chapitre ne supposent aucun noyau de transition ### Espace d’états, transformations et atteignabilité -Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) une famille de transformations admissibles \(f : X \to X\). Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble des états atteignables en \(n\) étapes est : - -\[ -\operatorname{Reach}_n(x)=\{ f_n\circ\cdots\circ f_1(x) : f_1,\ldots,f_n\in\mathcal{T}\}. +Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) une famille de transformations admissibles \(f : X \to X\). Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble des états atteignables en \(n\) étapes est : \[ +\operatorname{Reach}\_n(x)=\{ f\_n\circ\cdots\circ f\_1(x) : f\_1,\ldots,f\_n\in\mathcal{T}\}. \] -Le futur accessible est : - -\[ -\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x). +Le futur accessible est : \[ +\mathcal{F}(x)=\bigcup\_{n\ge 0}\operatorname{Reach}\_n(x). \] Ces objets ont été introduits pour rendre explicite la dépendance de l’évolution à l’ensemble des transformations admissibles, sans présupposer de métrique ni de finalité. @@ -4590,49 +4535,40 @@ Ces objets ont été introduits pour rendre explicite la dépendance de l’évo Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : -- un ensemble admissible d’états \(A(K)\subseteq X\), -- une relation admissible de transitions \(R(K)\subseteq X\times X\), +- un ensemble admissible d’états \(A(K)\)\)subseteq X\), -avec monotonie par inclusion : +- une relation admissible de transitions \(((R(K)\)\)subseteq X\times X\), -\[ +avec monotonie par inclusion : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] Définition (compatibilité). -Une collection \(K\) est dite compatible si \(A(K)\neq\varnothing\) et si \(R(K)\) autorise au moins une transition depuis \(A(K)\), c’est-à-dire : - -\[ +Une collection \(((K\) est dite compatible si \(A(K)\)\)neq\varnothing\) et si \(((R(K)\)\)) autorise au moins une transition depuis \(((A(K)\)\)), c’est-à-dire : \[ \exists x\in A(K),\ \exists y\in X,\ (x,y)\in R(K). \] Cette définition est minimale : la compatibilité n’est pas une propriété sémantique, seulement la non-contradiction opérationnelle. Définition (transformations induites). -La famille de transformations admissibles sous contraintes \(K\) est définie par : - -\[ -\mathcal{T}(K)=\{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\in R(K)\}. +La famille de transformations admissibles sous contraintes \(((K\) est définie par : \[ +\mathcal{T}(K)=\{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\)\)in R(K)\}. \] -Ainsi, les contraintes agissent comme un filtre sur \(\mathcal{T}\). +Ainsi, les contraintes agissent comme un filtre sur \(((\mathcal{T}\). ### Occurrences, graphes de filiation et transmission de contraintes -Le chapitre 12 a introduit un graphe orienté acyclique \(G=(V,E)\) (éventuellement enrichi en hyperarêtes), où chaque sommet \(v\in V\) représente une occurrence (un état situé dans une trajectoire), et chaque arête \(u\to v\) représente une relation d’engendrement admissible. +Le chapitre 12 a introduit un graphe orienté acyclique \(G=(V,E)\)\)) (éventuellement enrichi en hyperarêtes), où chaque sommet \(((v\in V\) représente une occurrence (un état situé dans une trajectoire), et chaque arête \(u\to v\) représente une relation d’engendrement admissible. -On note \(x_v\in X\) l’état associé au sommet \(v\), et \(K_v\subseteq\mathfrak{C}\) la collection de contraintes portée par \(v\) (contraintes actives, héritées, ou produites par compatibilité). +On note \(x\_v\in X\) l’état associé au sommet \(v\), et \(K\_v\subseteq\mathfrak{C}\) la collection de contraintes portée par \(v\) (contraintes actives, héritées, ou produites par compatibilité). -Pour chaque arête \(e=(u\to v)\), on suppose donné un opérateur de transmission : - -\[ -\tau_e:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), +Pour chaque arête \(e=(u\to v)\)\)), on suppose donné un opérateur de transmission : \[ +\tau_e : \mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), \] -monotone pour l’inclusion. La mise en commun de contraintes lors d’une collision (plusieurs parents) est suivie d’un opérateur de compatibilité \(\operatorname{Comp}\) produisant une sous-collection compatible : - -\[ -\widetilde{K}_v=\bigcup_{u\to v}\tau_{(u\to v)}(K_u),\qquad K_v \supseteq \operatorname{Comp}(\widetilde{K}_v). +monotone pour l’inclusion. La mise en commun de contraintes lors d’une collision (plusieurs parents) est suivie d’un opérateur de compatibilité \(((\operatorname{Comp}\) produisant une sous-collection compatible : \[ +\widetilde{K}*v=\bigcup\_{u\to v}\tau\_{(u\to v)}(K\_u),\qquad K\_v \supseteq \operatorname{Comp}(\widetilde{K}\_v). \] L’opérateur \(\operatorname{Comp}\) n’optimise rien : il réalise une fermeture par satisfaisabilité (éviter l’ensemble vide). @@ -4640,20 +4576,21 @@ L’opérateur \(\operatorname{Comp}\) n’optimise rien : il réalise une ferme Remarque (compatibilité : satisfaisabilité vs choix) Selon l’instanciation, \(\operatorname{Comp}\) peut se situer dans deux régimes conceptuellement distincts : -- \(\operatorname{Comp}_{\mathrm{sat}}\) : maintien de satisfaisabilité sans préférence (suppression minimale de contradictions locales, ou règle déterminée). -- \(\operatorname{Comp}_{\mathrm{choice}}\) : choix parmi plusieurs sous‑collections satisfaisables. +- \(\operatorname{Comp}\_{\mathrm{sat}}\) : maintien de satisfaisabilité sans préférence (suppression minimale de contradictions locales, ou règle déterminée). + +- \(\operatorname{Comp}\_{\mathrm{choice}}\) : choix parmi plusieurs sous‑collections satisfaisables. Dans le second cas, le critère de choix (s’il existe) est déclaré et appartient à une classe non téléologique (coût de vérification, stabilité historique, localité, contraintes d’architecture). Un biais de compatibilité est un biais de sélection : s’il existe, il est explicite et fait l’objet d’un test de robustesse. Discipline (statut des résultats) -Dans la suite, lorsqu’un passage dépend de la **classe** de compatibilité (fermeture, réparation minimale, cohérence locale \(\operatorname{Comp}_r\), choix), ou d’une **politique** de choix, ou d’un **paramètre**, cette dépendance est explicitement annoncée et l’énoncé est indexé en conséquence (cf. chapitre 13, collisions et compatibilité). +Dans la suite, lorsqu’un passage dépend de la **classe** de compatibilité (fermeture, réparation minimale, cohérence locale \(\operatorname{Comp}\_r\), choix), ou d’une **politique** de choix, ou d’un **paramètre**, cette dépendance est explicitement annoncée et l’énoncé est indexé en conséquence (cf. chapitre 13, collisions et compatibilité). ## Rejet de la téléologie et définition opérationnelle de la sélection ### Rejet formel de l’optimisation comme primitive Définition (optimisation explicite). -On dit qu’une dynamique introduit une optimisation explicite si elle suppose donnée une fonction \(U:X\to\mathbb{R}\) (ou \(U:S\to\mathbb{R}\) sur un espace de descriptions), et si les transitions admissibles sont sélectionnées en vue de maximiser \(U\) (localement ou globalement). +On dit qu’une dynamique introduit une optimisation explicite si elle suppose donnée une fonction \(U : X\to\mathbb{R}\) (ou \(U : S\to\mathbb{R}\) sur un espace de descriptions), et si les transitions admissibles sont sélectionnées en vue de maximiser \(U\) (localement ou globalement). Le cadre de l’ouvrage exclut une telle primitive. Les objets admis sont : admissibilité, compatibilité, transmission, consommation irréversible, verrouillage des futurs. Par construction, aucun \(U\) n’est requis. @@ -4662,10 +4599,8 @@ Le cadre de l’ouvrage exclut une telle primitive. Les objets admis sont : admi Définition (filtre de sélection). Soit \(\Omega\) l’ensemble des trajectoires candidates (au sens d’enchaînements de transformations dans \(\mathcal{T}\)) depuis un état initial \(x\). Soit \(\mathcal{A}\subseteq\Omega\) l’ensemble des trajectoires admissibles au regard des contraintes actives (compatibilité locale, transitions autorisées, contraintes héritées). -La sélection ensembliste est l’application : - -\[ -\operatorname{Sel}:\Omega \mapsto \mathcal{A}, +La sélection ensembliste est l’application : \[ +\operatorname{Sel} : \Omega \mapsto \mathcal{A}, \] c’est-à-dire la restriction de l’ensemble des trajectoires possibles aux trajectoires admissibles. @@ -4676,63 +4611,56 @@ Cette définition ne produit pas une préférence ; elle produit une éliminatio Pour comparer quantitativement des régimes, une mesure (ou probabilité) sur les trajectoires est pertinente. -Soit \(\mathbb{P}\) une loi a priori sur \(\Omega\) (issue, par exemple, d’un choix stochastique de transformations dans \(\mathcal{T}\), ou d’un bruit sur les transitions). La sélection probabiliste est le conditionnement sur l’admissibilité : - -\[ -\mathbb{P}_{\text{sel}}(\cdot)=\mathbb{P}(\cdot \mid \mathcal{A}). +Soit \(\mathbb{P}\) une loi a priori sur \(\Omega\) (issue, par exemple, d’un choix stochastique de transformations dans \(\mathcal{T}\), ou d’un bruit sur les transitions). La sélection probabiliste est le conditionnement sur l’admissibilité : \[ +\mathbb{P}\_{\text{sel}}(\cdot)=\mathbb{P}(\cdot \mid \mathcal{A}). \] Lorsque \(\mathbb{P}(\mathcal{A})=0\), l’ensemble admissible est vide au sens probabiliste : il n’existe pas de trajectoire réalisable sous la loi considérée. Dans ce formalisme, “sélection” signifie : renormalisation sur le sous-ensemble admissible. -Encadré (exploration vs sélection) -Une dominance observée peut provenir du mécanisme d’exploration (noyau \(P\), politique d’application des transformations, filtrage par ressource) plutôt que de la structure de l’espace admissible. On distingue donc : - -- topologie du graphe d’atteignabilité : attracteurs, bassins, composantes fortement connexes, goulots ; -- mécanisme d’exploration : \(P\) (ou loi a priori sur \(\Omega\)), politiques et contraintes de ressource ; -- test de robustesse : variation de \(P\) dans une famille \(\mathcal{P}\) déclarée, en vérifiant la stabilité qualitative des conclusions. +> **Encadré** (exploration vs sélection). +> +> Une dominance observée peut provenir du mécanisme d’exploration (noyau \(P\), politique d’application des transformations, filtrage par ressource) plutôt que de la structure de l’espace admissible. On distingue donc : +> +> - topologie du graphe d’atteignabilité : attracteurs, bassins, composantes fortement connexes, goulots +> - mécanisme d’exploration : \(P\) (ou loi a priori sur \(\Omega\)), politiques et contraintes de ressource +> - test de robustesse : variation de \(P\) dans une famille \(\mathcal{P}\) déclarée, en vérifiant la stabilité qualitative des conclusions. ## Sélection par compatibilité ### Viabilité et compatibilité : une même notion à deux niveaux Définition (viabilité locale). -Un état \(x\in X\) est viable sous contraintes \(K\) si : - -\[ -x\in A(K)\quad \text{et}\quad \exists f\in\mathcal{T}(K)\ \text{tel que}\ f(x)\in A(K'). +Un état \(x\in X\) est viable sous contraintes \(K\) si : \[ +x\in A(K)\)\)quad \text{et}\quad \exists f\in\mathcal{T}(K)\ \text{tel que}\ f(x)\in A(K'). \] -Cette définition explicite qu’une compatibilité statique (être dans \(A(K)\)) n’est pas suffisante : il faut aussi une possibilité de continuation. +Cette définition explicite qu’une compatibilité statique (être dans \(((A(K)\)\))) n’est pas suffisante : il faut aussi une possibilité de continuation. Définition (chemin compatible). -Une trajectoire \(x_0\to x_1\to\cdots\to x_n\) est compatible si, pour une suite de contraintes \((K_t)\), on a : - -\[ +Une trajectoire \(((x\_0\to x\_1\to\cdots\to x\_n\) est compatible si, pour une suite de contraintes \((K\_t)\)\)), on a : \[ x_t\in A(K_t),\quad (x_t,x_{t+1})\in R(K_t),\quad K_{t+1}\supseteq \operatorname{Comp}\Big(\bigcup \tau(K_t)\Big). \] -Ici, \(\tau\) désigne l’ensemble des transmissions actives à l’étape. +Ici, \(((\tau\) désigne l’ensemble des transmissions actives à l’étape. ### Lemmes de filtrage Lemme (monotonie de la sélection en contrainte). -Si \(K_1\subseteq K_2\), alors l’ensemble des trajectoires compatibles sous \(K_2\) est inclus dans celui sous \(K_1\). +Si \(K\_1\subseteq K\_2\), alors l’ensemble des trajectoires compatibles sous \(K\_2\) est inclus dans celui sous \(K\_1\). Démonstration. -Par monotonie, \(A(K_2)\subseteq A(K_1)\) et \(R(K_2)\subseteq R(K_1)\), donc toute trajectoire satisfaisant les contraintes plus fortes satisfait aussi les contraintes plus faibles. +Par monotonie, \(A(K\_2)\)\)subseteq A(K_1)\) et \(((R(K\_2)\)\)subseteq R(K_1)\), donc toute trajectoire satisfaisant les contraintes plus fortes satisfait aussi les contraintes plus faibles. Conclusion : augmenter les contraintes ne peut qu’éliminer des trajectoires. Lemme (compatibilité comme géométrie d’ensemble). -Dans un espace mesurable, la “force” d’un filtre peut être mesurée par la diminution de mesure : - -\[ +Dans un espace mesurable, la “force” d’un filtre peut être mesurée par la diminution de mesure : \[ \Delta(K)=\mu(A(\varnothing))-\mu(A(K)). \] -Dans un espace fini, on remplace \(\mu\) par la cardinalité. La sélection, vue comme filtrage, se quantifie alors par une réduction de “volume” admissible. +Dans un espace fini, on remplace \(((\mu\) par la cardinalité. La sélection, vue comme filtrage, se quantifie alors par une réduction de “volume” admissible. La dépendance au volume et à la connectivité est une première manifestation du caractère géométrique. @@ -4741,17 +4669,17 @@ La dépendance au volume et à la connectivité est une première manifestation ### Définition de transmissibilité Définition (transmissibilité d’une description). -Soit \(\Pi:X\to S\) une projection vers un espace de descriptions \(S\). Une description \(s\in S\) est transmissible si, pour toute occurrence \(v\) telle que \(\Pi(x_v)=s\), il existe au moins un descendant \(w\) accessible depuis \(v\) dans le graphe de filiation, tel que \(\Pi(x_w)=s\) (ou appartienne à un voisinage fixé de \(s\), si \(S\) est topologique). +Soit \(\Pi : X\to S\) une projection vers un espace de descriptions \(S\). Une description \(s\in S\) est transmissible si, pour toute occurrence \(v\) telle que \(\Pi(x\_v)=s\), il existe au moins un descendant \(w\) accessible depuis \(v\) dans le graphe de filiation, tel que \(\Pi(x\_w)=s\) (ou appartienne à un voisinage fixé de \(s\), si \(S\) est topologique). Cette définition est structurelle : elle n’utilise ni objectif ni récompense. Définition (transmissibilité sous contraintes héritées). -Une contrainte \(c\in\mathfrak{C}\) est transmissible le long d’une arête \(e\) si \(c\in K\Rightarrow c\in \tau_e(K)\). Elle est transmissible sur un sous-graphe si elle est transmissible le long de toutes ses arêtes. +Une contrainte \(c\in\mathfrak{C}\) est transmissible le long d’une arête \(e\) si \(c\in K\Rightarrow c\in \tau\_e(K)\)\)). Elle est transmissible sur un sous-graphe si elle est transmissible le long de toutes ses arêtes. ### Proposition de disparition Proposition (extinction en modèle probabiliste). -Soit une dynamique stochastique sur un ensemble fini de classes \(S\), modélisée par une matrice de transition \(P=(p_{ij})\) avec \(p_{ij}\ge 0\) et \(\sum_j p_{ij}=1\). Soit \(B\subseteq S\) l’ensemble des classes compatibles et transmissibles (au sens où elles possèdent au moins une sortie dans \(B\)). Alors l’ensemble \(S\setminus B\) est transitoire au sens de Markov : la probabilité d’y rester indéfiniment est nulle, et la masse finit par se concentrer sur les classes récurrentes incluses dans \(B\). +Soit une dynamique stochastique sur un ensemble fini de classes \(((S\), modélisée par une matrice de transition \(P=(p\_{ij})\)\)) avec \(((p\_{ij}\ge 0\) et \(\sum\_j p\_{ij}=1\). Soit \(B\subseteq S\) l’ensemble des classes compatibles et transmissibles (au sens où elles possèdent au moins une sortie dans \(B\)). Alors l’ensemble \(S\setminus B\) est transitoire au sens de Markov : la probabilité d’y rester indéfiniment est nulle, et la masse finit par se concentrer sur les classes récurrentes incluses dans \(B\). Interprétation technique. Les classes non transmissibles n’ont pas de cycles internes ni de retours compatibles : elles ne peuvent pas porter de régime stationnaire. Leur “disparition” signifie : absence dans le support des mesures limites (stationnaires, quasi-stationnaires, ou limites conditionnées). @@ -4764,21 +4692,17 @@ Pour parler de “dominance” sans optimisation, il faut une notion quantitativ ### Opérateur de transition restreint et Perron-Frobenius -Soit \(B\subseteq S\) l’ensemble des classes compatibles. On définit la matrice restreinte \(P_B\) en ne conservant que les transitions à l’intérieur de \(B\). Deux situations se présentent. +Soit \(B\subseteq S\) l’ensemble des classes compatibles. On définit la matrice restreinte \(P\_B\) en ne conservant que les transitions à l’intérieur de \(B\). Deux situations se présentent. Cas sans absorption externe -Si \(P_B\) est stochastique (chaque ligne somme à 1), alors une distribution stationnaire \(\pi\) satisfait : - -\[ -\pi=\pi P_B,\qquad \sum_{i\in B}\pi_i=1,\quad \pi_i\ge 0. +Si \(P\_B\) est stochastique (chaque ligne somme à 1), alors une distribution stationnaire \(\pi\) satisfait : \[ +\pi=\pi P\_B,\qquad \sum\_{i\in B}\pi\_i=1,\quad \pi\_i\ge 0. \] Lorsque le sous-système est irréductible et apériodique (conditions standard), \(\pi\) est unique et décrit un régime dominant au sens probabiliste : la distribution des classes converge vers \(\pi\) indépendamment de l’état initial (dans \(B\)). Cas avec fuite (filtrage fort, verrouillage) -Si des transitions sortent de \(B\) (événements incompatibles, consommation empêchant la continuation), la dynamique sur \(B\) peut être modélisée par une matrice sous-stochastique \(Q\) (lignes de somme \(\le 1\)). La théorie standard des distributions quasi-stationnaires montre qu’il existe des distributions \(\nu\) sur \(B\) telles que : - -\[ +Si des transitions sortent de \(B\) (événements incompatibles, consommation empêchant la continuation), la dynamique sur \(B\) peut être modélisée par une matrice sous-stochastique \(Q\) (lignes de somme \(\le 1\)). La théorie standard des distributions quasi-stationnaires montre qu’il existe des distributions \(\nu\) sur \(B\) telles que : \[ \nu Q = \lambda \nu,\qquad 0<\lambda<1, \] @@ -4796,23 +4720,22 @@ Dans les deux cas, la dominance dépend de la géométrie des régions admissibl ### Définition de stabilisation (rappel) -Une contrainte \(c\in\mathfrak{C}\) est stabilisée le long d’une lignée si, à partir d’un rang, elle est présente dans toutes les occurrences ultérieures. Une collection \(K^\star\) est stabilisée si \(K^\star\subseteq K_v\) pour toutes les occurrences suffisamment tardives d’une lignée. +Une contrainte \(c\in\mathfrak{C}\) est stabilisée le long d’une lignée si, à partir d’un rang, elle est présente dans toutes les occurrences ultérieures. Une collection \(K^\star\) est stabilisée si \(K^\star\subseteq K\_v\) pour toutes les occurrences suffisamment tardives d’une lignée. ### Proposition de stabilisation par filtrage monotone On suppose : -- monotonie d’héritage : pour toute arête \(u\to v\), \(\tau_{(u\to v)}(K_u)\subseteq K_v\), -- compatibilité non expansive : \(\operatorname{Comp}(K)\subseteq K\), +- monotonie d’héritage : pour toute arête \(u\to v\), \(\tau\_{(u\to v)}(K\_u)\)\)subseteq K_v\), + +- compatibilité non expansive : \(((\operatorname{Comp}(K)\)\)subseteq K\), - verrouillage : l’ensemble des transitions admissibles se réduit le long des trajectoires (au sens du chapitre 13). -Alors, le long de toute trajectoire admissible, la suite \((K_t)\) est croissante pour l’inclusion (ou, plus exactement, non décroissante après fermeture compatible), et donc admet une limite ensembliste : - -\[ +Alors, le long de toute trajectoire admissible, la suite \((((K\_t)\)\)) est croissante pour l’inclusion (ou, plus exactement, non décroissante après fermeture compatible), et donc admet une limite ensembliste : \[ K_\infty=\bigcup_{t\ge 0}K_t. \] -Dans le cas où \(\mathfrak{C}\) est fini (ou où seules un nombre fini de contraintes sont activables à résolution finie), la stabilisation se produit en un temps fini : il existe \(T\) tel que \(K_t=K_T\) pour tout \(t\ge T\). Dans un cadre infini, la stabilisation peut être asymptotique. +Dans le cas où \(((\mathfrak{C}\) est fini (ou où seules un nombre fini de contraintes sont activables à résolution finie), la stabilisation se produit en un temps fini : il existe \(T\) tel que \(K\_t=K\_T\) pour tout \(t\ge T\). Dans un cadre infini, la stabilisation peut être asymptotique. Ce résultat est une propriété combinatoire d’emboîtement : il n’a pas besoin d’une fonction objectif. @@ -4839,21 +4762,19 @@ Les conclusions des niveaux 2–3 acquièrent un statut robuste lorsqu’elles p Observables (avec statut d’indexation) - Observables structurelles (invariantes) : existence d’ensembles invariants/attracteurs ensemblistes, composantes fortement connexes atteignables, goulots, fragmentation. -- Observables mesurées (indexées par \(\mu\)) : volumes de bassins, densités atteignables, \(D_{\mu}(S)\) ou variantes. -- Observables stochastiques (indexées par \(P\)) : temps d’absorption, poids stationnaire/quasi‑stationnaire, spectre dominant (quand défini). +- Observables mesurées (indexées par \(\mu\)) : volumes de bassins, densités atteignables, \(D\_{\mu}(S)\)\)) ou variantes. +- Observables stochastiques (indexées par \(((P\)) : temps d’absorption, poids stationnaire/quasi‑stationnaire, spectre dominant (quand défini). Chaque observable porte explicitement son indexation : sans \(\mu\) ou sans \(P\), elle n’a pas de statut quantitatif. ### Critère ensembliste -La sélection dépend d’ensembles admissibles \(A(K)\) et de relations admissibles \(R(K)\). Deux systèmes ayant même couple \((A,R)\) (à isomorphisme près) induisent les mêmes filtrages de trajectoires, indépendamment de toute interprétation. +La sélection dépend d’ensembles admissibles \(A(K)\)\)) et de relations admissibles \(((R(K)\)\)). Deux systèmes ayant même couple \((((A,R)\)\)) (à isomorphisme près) induisent les mêmes filtrages de trajectoires, indépendamment de toute interprétation. ### Critère métrique ou de mesure -Dans un espace muni d’une mesure \(\mu\), l’intensité de la sélection se lit comme réduction de mesure des ensembles atteignables : - -\[ -\mu(\mathcal{F}_{\mathcal{T}(K)}(x)) \le \mu(\mathcal{F}_{\mathcal{T}}(x)). +Dans un espace muni d’une mesure \(((\mu\), l’intensité de la sélection se lit comme réduction de mesure des ensembles atteignables : \[ +\mu(\mathcal{F}\_{\mathcal{T}(K)}(x)) \le \mu(\mathcal{F}\_{\mathcal{T}}(x)). \] Dans un espace fini, le même énoncé vaut pour les cardinalités. @@ -4864,13 +4785,13 @@ Dans un modèle probabiliste sur classes, les régimes dominants sont détermin Ces trois critères sont cohérents : ensemble admissible, volume accessible, et spectre principal sont trois expressions d’une même dépendance à la forme des contraintes. -## Portée minimale (lecture conditionnelle) +## Portée minimale (lecture conditionnelle) — Ch. 14 Une dynamique de transformations admissibles, soumise à des contraintes héritées et à une consommation irréversible, produit une sélection structurelle dès qu’elle élimine des trajectoires incompatibles. La sélection ne requiert ni intention, ni objectif, ni notion de bénéfice : elle est l’effet d’un espace de possibles restreint, dans lequel seules certaines structures sont transmissibles et stabilisables. La conséquence minimale est la suivante : dès que la transmission est possible, l’espace des lignées se stratifie en sous-graphes de persistance et sous-graphes d’extinction. Les régimes dominants sont ceux qui correspondent à des sous-graphes fortement connectés, à de grands bassins, ou à un spectre principal favorable, selon le régime (déterministe, stochastique, ou mixte). -## Analyse philosophique +## Analyse philosophique — Ch. 14 Le terme “sélection” est souvent associé à une lecture finaliste (comme si une entité choisissait). Le cadre présent le rend superflu : la sélection est un filtrage imposé par la compatibilité et la transmissibilité. @@ -4887,7 +4808,7 @@ Décrire pourquoi certaines structures persistent n’implique aucune justificat La sélection structurelle sans optimisation constitue ainsi une catégorie logique : elle explique des distributions et des dominances comme conséquences d’une géométrie de contraintes, sans introduire de finalité dans les primitives. -## Conclusion +## Conclusion — Ch. 14 La sélection structurelle a été reconstruite comme un mécanisme de filtrage et de conditionnement imposé par la compatibilité, l’héritage et le verrouillage des futurs. Les structures non transmissibles disparaissent au sens strict : elles ne peuvent pas appartenir au support des mesures limites ni aux composantes récurrentes des dynamiques restreintes. Les régimes dominants sont déterminés par des propriétés géométriques (bassins, connectivité, volume admissible) et, dans les modèles probabilistes, par le spectre d’opérateurs non négatifs. @@ -4895,27 +4816,27 @@ Ainsi, la formule “la sélection est géométrique” admet un contenu précis --- -# Chapitre 15 — Structures contraignant leur propre évolution +## Chapitre 15 — Structures contraignant leur propre évolution {#chapitre-15-structures-contraignant-leur-propre-evolution} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 15 -Hypothèses (H). +**Hypothèses (H).** -- passage à un espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) et règle d’actualisation \(\Phi\) posée comme paramètre de modèle ; -- opérateur \(\operatorname{Comp}\) et admissibilité \(\mathcal{T}(K)\) déclarés (classe et paramètres annoncés) ; +- passage à un espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) et règle d’actualisation \(((\Phi\) posée comme paramètre de modèle +- opérateur \(\operatorname{Comp}\) et admissibilité \(\mathcal{T}(K)\)\)) déclarés (classe et paramètres annoncés) - stabilisation : régimes et paquets d’hypothèses (H22‑PF/TR/RB/CT) explicités lorsque revendiqués. -Résultats (E). +**Résultats (E).** -- définition d’auto‑stabilisation non réflexive via boucles de contraintes (points fixes/cycles) ; -- taxonomie des régimes de stabilisation (S1/S2/S3) et dépendances locales ; +- définition d’auto‑stabilisation non réflexive via boucles de contraintes (points fixes/cycles) +- taxonomie des régimes de stabilisation (S1/S2/S3) et dépendances locales - définition de quasi‑invariance et de limites de transformation comme invariants d’intersection/conditionnement. -Statut. +**Statut.** - noyau ensembliste pour les définitions/implications ; quantifications et conclusions probabilistes seulement sous indexation déclarée. -## Introduction +## Introduction — Ch. 15 Les chapitres précédents ont établi un cadre où l’évolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes d’équivalence, transmission partielle (graphe orienté de filiation) et, plus récemment, sélection structurelle comme filtrage par compatibilité. Le chapitre 13 a formalisé le verrouillage des futurs comme réduction monotone de l’atteignabilité, et le chapitre 14 a reformulé la sélection comme effet géométrique (volume, connectivité, spectre d’un opérateur restreint) sans optimisation. @@ -4924,82 +4845,73 @@ Le présent chapitre introduit un seuil logique : certaines structures ne se con On définit : - l’espace étendu où les contraintes deviennent des variables d’état, + - les boucles de contraintes comme propriétés d’un opérateur d’actualisation, - les régimes quasi-invariants comme invariance asymptotique ou conditionnelle, - les limites de transformation comme intersections de familles admissibles, - les niveaux d’organisation comme tours de quotients stabilisés. -## Cadre et notations +## Cadre et notations — Ch. 15 ### Espace d’états et transformations admissibles -Soit \(X\) un ensemble d’états, fini ou muni d’une structure mesurable ou topologique. Soit \(\mathcal{T}\) une famille de transformations admissibles \(f:X\to X\) (temps discret). Pour \(x\in X\), le futur accessible (atteignabilité) est : - -\[ -\mathcal{F}_{\mathcal{T}}(x)=\bigcup_{n\ge 0}\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}. +Soit \(((X\) un ensemble d’états, fini ou muni d’une structure mesurable ou topologique. Soit \(\mathcal{T}\) une famille de transformations admissibles \(f : X\to X\) (temps discret). Pour \(x\in X\), le futur accessible (atteignabilité) est : \[ +\mathcal{F}\_{\mathcal{T}}(x)=\bigcup\_{n\ge 0}\{f\_n\circ\cdots\circ f\_1(x) : f\_1,\ldots,f\_n\in\mathcal{T}\}. \] ### Contraintes élémentaires et familles induites Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : -- un ensemble admissible d’états \(A(K)\subseteq X\), -- une relation admissible de transitions \(R(K)\subseteq X\times X\), +- un ensemble admissible d’états \(A(K)\)\)subseteq X\), -avec monotonie : +- une relation admissible de transitions \(((R(K)\)\)subseteq X\times X\), -\[ +avec monotonie : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] -On définit la famille de transformations admissibles induite par \(K\) : - -\[ -\mathcal{T}(K)=\{f\in\mathcal{T}: \forall x\in A(K),\ (x,f(x))\in R(K)\}. +On définit la famille de transformations admissibles induite par \(((K\) : \[ +\mathcal{T}(K)=\{f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\)\)in R(K)\}. \] -Une collection \(K\) est dite compatible si \(A(K)\neq\varnothing\) et si au moins une transition est réalisable depuis \(A(K)\) : - -\[ +Une collection \(((K\) est dite compatible si \(A(K)\)\)neq\varnothing\) et si au moins une transition est réalisable depuis \(((A(K)\)\)) : \[ \exists x\in A(K),\ \exists y\in X,\ (x,y)\in R(K). \] -Pour éliminer les contradictions, on suppose donné un opérateur de compatibilité : - -\[ -\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), +Pour éliminer les contradictions, on suppose donné un opérateur de compatibilité : \[ +\operatorname{Comp} : \mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), \] -tel que \(\operatorname{Comp}(K)\subseteq K\), et \(\operatorname{Comp}(K)\) soit compatible dès que cela est possible (au sens où il existe une sous-collection compatible). Cette définition est minimale : aucune optimalité n’est requise, seulement la satisfaisabilité. +tel que \(((\operatorname{Comp}(K)\)\)subseteq K\), et \(((\operatorname{Comp}(K)\)\)) soit compatible dès que cela est possible (au sens où il existe une sous-collection compatible). Cette définition est minimale : aucune optimalité n’est requise, seulement la satisfaisabilité. Remarque (calculabilité et coût de satisfaisabilité) -Le rôle de \(\operatorname{Comp}\) est de maintenir une forme de satisfaisabilité : l’existence d’une sous‑collection compatible. Selon l’instanciation des contraintes, décider ou construire une telle sous‑collection peut être coûteux, voire indécidable ; ce point doit être assumé comme hypothèse, et non traité comme un détail “gratuit”. +Le rôle de \(((\operatorname{Comp}\) est de maintenir une forme de satisfaisabilité : l’existence d’une sous‑collection compatible. Selon l’instanciation des contraintes, décider ou construire une telle sous‑collection peut être coûteux, voire indécidable ; ce point doit être assumé comme hypothèse, et non traité comme un détail “gratuit”. Deux statuts doivent donc être distingués : -- statut fort : on suppose un prédicat global de satisfaisabilité \(\mathrm{Sat}(K)\) effectif, et \(\operatorname{Comp}\) garantissant \(\mathrm{Sat}(\operatorname{Comp}(K))\) lorsqu’une sous‑collection compatible existe ; -- statut faible : on remplace \(\mathrm{Sat}\) par une cohérence locale \(\mathrm{Sat}_r\) et \(\operatorname{Comp}\) par une approximation \(\operatorname{Comp}_r\), sans garantie générale (les conclusions deviennent conditionnelles à l’approximation). +- statut fort : on suppose un prédicat global de satisfaisabilité \(\mathrm{Sat}(K)\)\)) effectif, et \(((\operatorname{Comp}\) garantissant \(\mathrm{Sat}(\operatorname{Comp}(K))\)\)) lorsqu’une sous‑collection compatible existe + +- statut faible : on remplace \(((\mathrm{Sat}\) par une cohérence locale \(\mathrm{Sat}\_r\) et \(\operatorname{Comp}\) par une approximation \(\operatorname{Comp}\_r\), sans garantie générale (les conclusions deviennent conditionnelles à l’approximation). Ce changement de statut affecte directement les garanties de points fixes, la robustesse et l’existence de régions piégées (selon les hypothèses retenues plus loin). Discipline (classe et paramètres) -Lorsque l’on raisonne en régime de fermeture/point fixe, la monotonie/idempotence requises situent \(\operatorname{Comp}\) dans une classe de fermeture \(\mathcal{C}_{\mathrm{closure}}\) (ou, plus généralement, exigent la monotonie de l’opérateur global de mise à jour). Lorsque l’on travaille avec une cohérence locale \(\mathrm{Sat}_r\), la dépendance au paramètre \(r\) est traitée comme une famille \((\operatorname{Comp}_r)_r\) : les énoncés sont soit robustes sur un intervalle de \(r\), soit explicitement indexés. +Lorsque l’on raisonne en régime de fermeture/point fixe, la monotonie/idempotence requises situent \(\operatorname{Comp}\) dans une classe de fermeture \(\mathcal{C}\_{\mathrm{closure}}\) (ou, plus généralement, exigent la monotonie de l’opérateur global de mise à jour). Lorsque l’on travaille avec une cohérence locale \(\mathrm{Sat}\_r\), la dépendance au paramètre \(r\) est traitée comme une famille \((\operatorname{Comp}\_r)\_r\) : les énoncés sont soit robustes sur un intervalle de \(r\), soit explicitement indexés. ### Description structurelle -Soit \(\Pi:X\to S\) une application de description vers un espace \(S\) (ensemble fini, espace mesurable, ou espace topologique). Une « structure » sera ici une valeur \(s\in S\) ou une cellule \(\Pi^{-1}(s)\subseteq X\). Les niveaux d’organisation seront traités plus loin comme des compositions de telles descriptions. +Soit \(\Pi : X\to S\) une application de description vers un espace \(S\) (ensemble fini, espace mesurable, ou espace topologique). Une « structure » sera ici une valeur \(s\in S\) ou une cellule \(\Pi^{-1}(s)\)\)subseteq X\). Les niveaux d’organisation seront traités plus loin comme des compositions de telles descriptions. ## Auto-stabilisation non réflexive ### Espace étendu des états et des contraintes -Le verrouillage des futurs et l’héritage de contraintes montrent que l’évolution effective dépend non seulement de \(x\in X\), mais aussi d’un registre de contraintes actives. On définit donc l’espace étendu : - -\[ +Le verrouillage des futurs et l’héritage de contraintes montrent que l’évolution effective dépend non seulement de \(((x\in X\), mais aussi d’un registre de contraintes actives. On définit donc l’espace étendu : \[ Y = X \times \mathcal{P}(\mathfrak{C}). \] -Un élément \(y=(x,K)\in Y\) encode un état \(x\) et une collection \(K\) de contraintes actives. +Un élément \(y=(x,K)\)\)in Y\) encode un état \(((x\) et une collection \(K\) de contraintes actives. ### Règle d’actualisation des contraintes @@ -5012,59 +4924,47 @@ Définition (règle d’actualisation). Une règle d’actualisation est une application \[ -\Phi: Y \to \mathcal{P}(\mathfrak{C}) +\Phi : Y \to \mathcal{P}(\mathfrak{C}) \] -telle que, pour tout \((x,K)\), la collection mise à jour soit : - -\[ +telle que, pour tout \((x,K)\)\)), la collection mise à jour soit : \[ K^+ = \operatorname{Comp}(K \cup \Phi(x,K)). \] Interprétation technique. -\(\Phi(x,K)\) représente l’ensemble des contraintes nouvellement activées par la situation \((x,K)\) : consommation irréversible cumulée, incompatibilités révélées par transitions réalisées, contraintes héritées d’un graphe de filiation, ou activation endogène par entrée dans un régime invariant. Le formalisme ne présuppose pas la nature de ces mécanismes : il exige seulement que \(\Phi\) soit donné avant l’analyse. +\(((\Phi(x,K)\)\)) représente l’ensemble des contraintes nouvellement activées par la situation \((((x,K)\)\)) : consommation irréversible cumulée, incompatibilités révélées par transitions réalisées, contraintes héritées d’un graphe de filiation, ou activation endogène par entrée dans un régime invariant. Le formalisme ne présuppose pas la nature de ces mécanismes : il exige seulement que \(((\Phi\) soit donné avant l’analyse. ### Dynamique augmentée On suppose que l’évolution de \(x\) dépend de \(K\) par restriction de la famille de transformations. Deux cas, exhaustifs dans ce cadre, sont utiles. Cas déterministe conditionné (choix de transformation fixé). -On fixe un sélecteur \(\sigma:Y\to \mathcal{T}\) tel que \(\sigma(x,K)\in \mathcal{T}(K)\) lorsque cela est possible, et on définit : - -\[ +On fixe un sélecteur \(\sigma : Y\to \mathcal{T}\) tel que \(\sigma(x,K)\)\)in \mathcal{T}(K)\) lorsque cela est possible, et on définit : \[ x^+ = \sigma(x,K)(x),\qquad K^+ = \operatorname{Comp}(K\cup\Phi(x,K)). \] Cas stochastique conditionné (loi sur les transformations). -On fixe une loi \(\mathbb{P}(\cdot\mid x,K)\) supportée sur \(\mathcal{T}(K)\), puis \(x^+=f(x)\) avec \(f\sim \mathbb{P}(\cdot\mid x,K)\), et \(K^+\) comme ci-dessus. +On fixe une loi \(((\mathbb{P}(\cdot\mid x,K)\)\)) supportée sur \(((\mathcal{T}(K)\)\)), puis \(((x^+=f(x)\)\)) avec \(((f\sim \mathbb{P}(\cdot\mid x,K)\)\)), et \(((K^+\) comme ci-dessus. -Dans les deux cas, on obtient une dynamique sur \(Y\) : - -\[ -\Psi:Y\to Y,\qquad \Psi(x,K)=(x^+,K^+). +Dans les deux cas, on obtient une dynamique sur \(Y\) : \[ +\Psi : Y\to Y,\qquad \Psi(x,K)=(x^+,K^+). \] ### Définition d’auto-stabilisation non réflexive Définition (auto-stabilisation). -Une description \(s\in S\) est dite auto-stabilisante (non réflexive) s’il existe une collection \(K_s\subseteq\mathfrak{C}\) compatible et un ensemble non négligeable \(B_s\subseteq \Pi^{-1}(s)\) tels que, pour tout \(x\in B_s\), en posant \(K_0=K_s\), la dynamique augmentée vérifie : - -1. persistance descriptive : - \[ - \Pi(x_t)=s\ \text{pour tout } t\ge 0; - \] -2. stabilité des contraintes (au moins au sens de la limite) : - \[ - K_s \subseteq K_t\ \text{pour tout } t,\quad \text{et}\quad \exists K_\infty\ \text{tel que}\ K_t\uparrow K_\infty; - \] +Une description \(s\in S\) est dite auto-stabilisante (non réflexive) s’il existe une collection \(K\_s\subseteq\mathfrak{C}\) compatible et un ensemble non négligeable \(B\_s\subseteq \Pi^{-1}(s)\)\)) tels que, pour tout \(((x\in B\_s\), en posant \(K\_0=K\_s\), la dynamique augmentée vérifie : 1. persistance descriptive : \[ + \Pi(x\_t)=s\ \text{pour tout } t\ge 0 ; \] +2. stabilité des contraintes (au moins au sens de la limite) : \[ + K\_s \subseteq K\_t\ \text{pour tout } t,\quad \text{et}\quad \exists K\_\infty\ \text{tel que}\ K\_t\uparrow K\_\infty ; \] 3. activité : la restriction est effective, c’est-à-dire \[ - \mathcal{F}_{\mathcal{T}(K_s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x). + \mathcal{F}\_{\mathcal{T}(K\_s)}(x) \subsetneq \mathcal{F}\_{\mathcal{T}}(x). \] Remarques. -- La condition \(K_t\uparrow K_\infty\) est entendue au sens d’inclusion non décroissante (éventuellement après application de \(\operatorname{Comp}\)). +- La condition \(K\_t\uparrow K\_\infty\) est entendue au sens d’inclusion non décroissante (éventuellement après application de \(\operatorname{Comp}\)). - La persistance peut être remplacée par une quasi-persistance (définie plus loin) lorsque des fuites rares ou un bruit sont présents. - Aucune intention n’est postulée : la stabilité est un fait de fermeture de la dynamique dans \(Y\). @@ -5072,9 +4972,10 @@ Remarques. Sans critères observables explicites, l’auto-stabilisation reste difficile à falsifier. Dans une instanciation donnée, on évalue donc au minimum : -- invariance d’une région \(U\subseteq Y\) : proposer \(U\) et tester \(\Psi(U)\subseteq U\) (région piégée) ; -- régime du registre \(K_t\) : convergence vers un point fixe, ou apparition d’un cycle/quasi‑cycle (selon un critère et une distance déclarés sur l’espace des contraintes) ; -- effet sur le futur accessible : vérifier un verrouillage strict (ensembliste ou quantifié) entre \(\mathcal{F}_{\mathcal{T}}(x)\) et \(\mathcal{F}_{\mathcal{T}(K)}(x)\). +- invariance d’une région \(U\subseteq Y\) : proposer \(U\) et tester \(\Psi(U)\)\)subseteq U\) (région piégée) + +- régime du registre \(((K\_t\) : convergence vers un point fixe, ou apparition d’un cycle/quasi‑cycle (selon un critère et une distance déclarés sur l’espace des contraintes) +- effet sur le futur accessible : vérifier un verrouillage strict (ensembliste ou quantifié) entre \(\mathcal{F}\_{\mathcal{T}}(x)\)\)) et \(((\mathcal{F}\_{\mathcal{T}(K)}(x)\)\)). ## Boucles de contraintes @@ -5083,7 +4984,7 @@ Sans critères observables explicites, l’auto-stabilisation reste difficile à Lorsque l’actualisation est monotone (activation cumulée), la notion de boucle pertinente est le point fixe. Définition (point fixe de contrainte). -Une collection \(K^\star\subseteq\mathfrak{C}\) est un point fixe de la mise à jour si, pour un ensemble \(E\subseteq X\), +Une collection \(((K^\star\subseteq\mathfrak{C}\) est un point fixe de la mise à jour si, pour un ensemble \(E\subseteq X\), \[ \forall x\in E,\quad \operatorname{Comp}(K^\star\cup\Phi(x,K^\star))=K^\star. @@ -5092,7 +4993,7 @@ Une collection \(K^\star\subseteq\mathfrak{C}\) est un point fixe de la mise à Dans ce cas, la contrainte est stabilisée : aucune nouvelle contrainte ne peut être activée (dans \(E\)) sans contradiction. Proposition (existence en cas fini de contraintes). -Si \(|\mathfrak{C}|<\infty\) et si la suite \((K_t)\) est non décroissante pour l’inclusion, alors elle se stabilise en temps fini : il existe \(T\) tel que \(K_t=K_T\) pour tout \(t\ge T\). +Si \(|\mathfrak{C}|<\infty\) et si la suite \((K\_t)\)\)) est non décroissante pour l’inclusion, alors elle se stabilise en temps fini : il existe \(((T\) tel que \(K\_t=K\_T\) pour tout \(t\ge T\). Démonstration. @@ -5100,7 +5001,7 @@ Démonstration. - Chaque étape peut ajouter au moins une contrainte nouvelle ou stabiliser. - Le nombre maximal d’ajouts stricts est \(M\). - Donc au plus \(M\) étapes strictement croissantes ; au-delà, stabilisation. -Conclusion : il existe \(T\le M\) tel que \(K_T=K_{T+1}=\cdots\). +Conclusion : il existe \(T\le M\) tel que \(K\_T=K\_{T+1}=\cdots\). Cette proposition est combinatoire et ne dépend d’aucune interprétation. @@ -5108,51 +5009,51 @@ Cette proposition est combinatoire et ne dépend d’aucune interprétation. La stabilisation en temps fini repose sur la finitude de \(\mathfrak{C}\). Dans un cadre infini, l’existence de points fixes devient un résultat non trivial qui peut être garanti sous hypothèses d’ordre. -On munit \(\mathcal{P}(\mathfrak{C})\) de l’ordre par inclusion, ce qui en fait un treillis complet. Soit \(F:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C})\) un opérateur de mise à jour de contraintes (opérateur « effectif » d’actualisation, obtenu en fixant un régime d’évolution). Si \(F\) est monotone, alors il admet des points fixes ; plus précisément, \(F\) admet un plus petit et un plus grand point fixe (théorème de Tarski). +On munit \(\mathcal{P}(\mathfrak{C})\)\)) de l’ordre par inclusion, ce qui en fait un treillis complet. Soit \(((F : \mathcal{P}(\mathfrak{C})\)\)to \mathcal{P}(\mathfrak{C})\) un opérateur de mise à jour de contraintes (opérateur « effectif » d’actualisation, obtenu en fixant un régime d’évolution). Si \(((F\) est monotone, alors il admet des points fixes ; plus précisément, \(F\) admet un plus petit et un plus grand point fixe (théorème de Tarski). -Dans le cas cumulatif \(K\subseteq F(K)\) (activation sans relâchement), l’itération \(K_{t+1}=F(K_t)\) depuis \(\varnothing\) construit le plus petit point fixe, ce qui justifie l’usage de « points fixes » comme notion structurante même lorsque \(\mathfrak{C}\) est infini. +Dans le cas cumulatif \(K\subseteq F(K)\)\)) (activation sans relâchement), l’itération \(((K\_{t+1}=F(K\_t)\)\)) depuis \(((\varnothing\) construit le plus petit point fixe, ce qui justifie l’usage de « points fixes » comme notion structurante même lorsque \(\mathfrak{C}\) est infini. ### Régions piégées dans l’espace étendu \(Y\) (attracteurs de second ordre) -La notion de point fixe de contraintes décrit une stabilisation de \(K\). Une stabilisation complète de la paire \((x,K)\) s’exprime naturellement par une région piégée dans \(Y\). +La notion de point fixe de contraintes décrit une stabilisation de \(K\). Une stabilisation complète de la paire \((x,K)\)\)) s’exprime naturellement par une région piégée dans \(((Y\). Définition (région piégée). -Un ensemble \(U\subseteq Y\) est une région piégée si \(\Psi(U)\subseteq U\). +Un ensemble \(U\subseteq Y\) est une région piégée si \(\Psi(U)\)\)subseteq U\). -Si \(Y\) est fini (ou, plus généralement, si \(U\) est non vide compact dans un cadre topologique où \(\Psi\) est continue), l’intersection décroissante +Si \(((Y\) est fini (ou, plus généralement, si \(U\) est non vide compact dans un cadre topologique où \(\Psi\) est continue), l’intersection décroissante \[ -A=\bigcap_{n\ge 0}\Psi^{(n)}(U) +A=\bigcap\_{n\ge 0}\Psi^{(n)}(U) \] est non vide et invariante. Elle décrit un attracteur de second ordre dans \(Y\) : un régime stable pour l’état et les contraintes. ### Boucles non monotones (cas avec relâchement) -Si \(\operatorname{Comp}\) ou \(\Phi\) peut retirer des contraintes (par incompatibilité révélée, changement de régime, bascule de réalisation microscopique), alors des cycles \(K_0\to K_1\to\cdots\to K_0\) deviennent possibles. +Si \(\operatorname{Comp}\) ou \(\Phi\) peut retirer des contraintes (par incompatibilité révélée, changement de régime, bascule de réalisation microscopique), alors des cycles \(K\_0\to K\_1\to\cdots\to K\_0\) deviennent possibles. Définition (cycle de contraintes). -Une suite finie distincte \((K_0,\ldots,K_{p-1})\) est un cycle si +Une suite finie distincte \((K\_0,\ldots,K\_{p-1})\)\)) est un cycle si \[ K_{t+1}=\operatorname{Comp}(K_t\cup\Phi(x_t,K_t)),\quad K_p=K_0, \] -pour une trajectoire \((x_t)\). +pour une trajectoire \((((x\_t)\)\)). Dans le cadre présent, on ne postule pas l’existence de tels cycles ; on les traite comme un cas possible lorsque l’actualisation n’est pas monotone. Détection, statut et interprétation. -Un cycle se détecte par simulation de la mise à jour (sur \(Y\), ou sur \(K\) lorsqu’elle est fermée), en recherchant un \(p>1\) tel que \(K_{t+p}=K_t\) après un transitoire. Sans hypothèses de monotonie, ce régime a un statut faible : observation conditionnelle à l’instanciation et au protocole d’exploration. Un cycle de contraintes correspond alors à une stabilisation non ponctuelle mais récurrente : la restriction imposée au futur est périodique plutôt que fixe. +Un cycle se détecte par simulation de la mise à jour (sur \(((Y\), ou sur \(K\) lorsqu’elle est fermée), en recherchant un \(p>1\) tel que \(K\_{t+p}=K\_t\) après un transitoire. Sans hypothèses de monotonie, ce régime a un statut faible : observation conditionnelle à l’instanciation et au protocole d’exploration. Un cycle de contraintes correspond alors à une stabilisation non ponctuelle mais récurrente : la restriction imposée au futur est périodique plutôt que fixe. ## Hypothèses et régimes de stabilisation (paquets H22) ### Paquets d’hypothèses standard -On note \(\mathcal{K}=\mathcal{P}(\mathfrak{C})\) l’espace des registres de contraintes. +On note \(\mathcal{K}=\mathcal{P}(\mathfrak{C})\)\)) l’espace des registres de contraintes. H22‑PF (point fixe, ordre/monotonie) -- \(\mathcal{K}\) est un treillis complet (ordre par inclusion). -- l’opérateur global de mise à jour \(F:\mathcal{K}\to\mathcal{K}\) est monotone (isotone). +- \(((\mathcal{K}\) est un treillis complet (ordre par inclusion). +- l’opérateur global de mise à jour \(F : \mathcal{K}\to\mathcal{K}\) est monotone (isotone). - si \(F\) est construit à partir de \(\operatorname{Comp}\), alors \(\operatorname{Comp}\) est monotone et compatible au sens déclaré (chapitre 13, collisions et compatibilité). - optionnel : idempotence/extensivité lorsque l’on raisonne en logique de fermeture. @@ -5161,21 +5062,21 @@ Conclusion typique : existence d’au moins un point fixe (Tarski) et, dans cert H22‑TR (région piégée en espace étendu) - espace étendu \(Y=X\times\mathcal{K}\). -- existence d’un ensemble \(U\subseteq Y\) tel que \(\Psi(U)\subseteq U\). +- existence d’un ensemble \(U\subseteq Y\) tel que \(\Psi(U)\)\)subseteq U\). -Conclusion typique : l’évolution \((x_t,K_t)\) reste dans un domaine contrôlé, condition de possibilité pour parler de stabilisation ou de récurrence sans “fuite”. +Conclusion typique : l’évolution \((((x\_t,K\_t)\)\)) reste dans un domaine contrôlé, condition de possibilité pour parler de stabilisation ou de récurrence sans “fuite”. H22‑RB (robustesse sous perturbations/approximations) -- variations contrôlées de \(\operatorname{Comp}\) ou de \(\Phi\) (familles déclarées), ou -- cohérence locale \(\mathrm{Sat}_r\) et opérateur \(\operatorname{Comp}_r\) monotone, avec statut déclaré. +- variations contrôlées de \(((\operatorname{Comp}\) ou de \(\Phi\) (familles déclarées), ou +- cohérence locale \(\mathrm{Sat}\_r\) et opérateur \(\operatorname{Comp}\_r\) monotone, avec statut déclaré. Conclusion typique : stabilité qualitative des diagnostics sous ces variations (sinon, propriété dépendante d’instanciation). H22‑CT (contraction/vitesse, si revendiquée) -- existence d’une distance \(d_{\mathcal{K}}\) sur \(\mathcal{K}\). -- contraction locale d’une application de mise à jour dans \(d_{\mathcal{K}}\), avec un facteur \(q<1\). +- existence d’une distance \(d\_{\mathcal{K}}\) sur \(\mathcal{K}\). +- contraction locale d’une application de mise à jour dans \(d\_{\mathcal{K}}\), avec un facteur \(q<1\). Conclusion typique : vitesse de convergence contrôlée. @@ -5189,7 +5090,7 @@ Régime S1 (point fixe / limite en inclusion) Régime S2 (cycle / invariant non ponctuel) - applicable lorsque la monotonie échoue ou lorsque des relâchements/substitutions sont possibles. -- \(K_t\) peut entrer dans un cycle \(K_{t+p}=K_t\) ; l’objet invariant pertinent est alors une orbite périodique (ou un ensemble invariant), pas un point fixe. +- \(K\_t\) peut entrer dans un cycle \(K\_{t+p}=K\_t\) ; l’objet invariant pertinent est alors une orbite périodique (ou un ensemble invariant), pas un point fixe. Régime S3 (quasi‑stationnaire / métastable) @@ -5212,10 +5113,10 @@ La persistance stricte (invariance) est trop forte dès qu’un bruit, une rédu ### Quasi-invariance ensembliste (déterministe) Définition (ensemble quasi-invariant). -Soit \(F:X\to X\) une dynamique déterministe. Un ensemble \(B\subseteq X\) est quasi-invariant à tolérance \(\varepsilon\) sur un horizon \(n\) si +Soit \(F : X\to X\) une dynamique déterministe. Un ensemble \(B\subseteq X\) est quasi-invariant à tolérance \(\varepsilon\) sur un horizon \(n\) si \[ -\#\{x\in B : F^n(x)\notin B\}\ \le\ \varepsilon\,\#B +\#\{x\in B : F^n(x)\)\)notin B\}\ \le\ \varepsilon\,\#B \] dans un cadre fini, ou @@ -5230,7 +5131,7 @@ Cette définition est exhaustive au regard du choix d’un critère de fuite : c ### Quasi-stationnarité (stochastique avec fuite) -Dans un modèle de transitions sur un ensemble \(B\) avec fuite (matrice sous-stochastique \(Q\)), une distribution quasi-stationnaire \(\nu\) satisfait +Dans un modèle de transitions sur un ensemble \(((B\) avec fuite (matrice sous-stochastique \(Q\)), une distribution quasi-stationnaire \(\nu\) satisfait \[ \nu Q = \lambda\,\nu,\qquad 0<\lambda<1, @@ -5240,14 +5141,15 @@ et décrit un régime stable conditionnellement à la non-sortie de \(B\). Ce r ### Quasi-invariance dans l’espace étendu \(Y\) -Dans \(Y=X\times\mathcal{P}(\mathfrak{C})\), un régime quasi-invariant peut concerner : +Dans \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)), un régime quasi-invariant peut concerner : -- la description \(s=\Pi(x)\), -- les contraintes \(K\), -- ou la paire \((s,K)\). +- la description \(((s=\Pi(x)\)\)), + +- les contraintes \(((K\), +- ou la paire \((s,K)\)\)). Définition (quasi-invariance de paire). -Un ensemble \(D\subseteq S\times\mathcal{P}(\mathfrak{C})\) est quasi-invariant si, à partir d’une mesure initiale supportée sur \(D\), la probabilité (ou mesure) de sortie de \(D\) reste inférieure à un seuil \(\varepsilon\) sur l’horizon considéré. +Un ensemble \(((D\subseteq S\times\mathcal{P}(\mathfrak{C})\)\)) est quasi-invariant si, à partir d’une mesure initiale supportée sur \(((D\), la probabilité (ou mesure) de sortie de \(D\) reste inférieure à un seuil \(\varepsilon\) sur l’horizon considéré. Cela permet de traiter les « régimes quasi-invariants » du plan comme objets mathématiques, sans vocabulaire substantiel. @@ -5257,33 +5159,27 @@ Le verrouillage des futurs peut être lu comme une diminution de l’ensemble de ### Intersection limite des familles admissibles -Pour une trajectoire \((x_t,K_t)\), on définit la famille admissible à l’instant \(t\) : - -\[ -\mathcal{T}_t=\mathcal{T}(K_t). +Pour une trajectoire \((x\_t,K\_t)\)\)), on définit la famille admissible à l’instant \(((t\) : \[ +\mathcal{T}\_t=\mathcal{T}(K\_t). \] -Dans le cas monotone \(K_{t+1}\supseteq K_t\), on a \(\mathcal{T}_{t+1}\subseteq \mathcal{T}_t\). On définit alors la limite : - -\[ -\mathcal{T}_\infty = \bigcap_{t\ge 0} \mathcal{T}_t. +Dans le cas monotone \(K\_{t+1}\supseteq K\_t\), on a \(\mathcal{T}\_{t+1}\subseteq \mathcal{T}\_t\). On définit alors la limite : \[ +\mathcal{T}\_\infty = \bigcap\_{t\ge 0} \mathcal{T}\_t. \] Définition (limite de transformation). -On appelle limite de transformation l’ensemble \(\mathcal{T}_\infty\), interprété comme le résidu des transformations compatibles avec les contraintes stabilisées. +On appelle limite de transformation l’ensemble \(\mathcal{T}\_\infty\), interprété comme le résidu des transformations compatibles avec les contraintes stabilisées. Propriété (stabilisation en cas fini de contraintes). -Si \(|\mathfrak{C}|<\infty\) et si \(K_t\) stabilise à \(K_T\), alors \(\mathcal{T}_\infty=\mathcal{T}(K_T)\) et la limite est atteinte en temps fini. +Si \(|\mathfrak{C}|<\infty\) et si \(K\_t\) stabilise à \(K\_T\), alors \(\mathcal{T}\_\infty=\mathcal{T}(K\_T)\)\)) et la limite est atteinte en temps fini. ### Limite par observable (frontière effective) -Si l’analyse porte sur une description \(s=\Pi(x)\), la limite de transformation peut être relative : des transformations distinctes au niveau de \(X\) peuvent être indiscernables au niveau de \(S\). On définit alors la famille effective sur \(S\) : - -\[ -\mathcal{G}_t(s)=\{\Pi(f(x)) : x\in \Pi^{-1}(s),\ f\in \mathcal{T}_t\}. +Si l’analyse porte sur une description \(((s=\Pi(x)\)\)), la limite de transformation peut être relative : des transformations distinctes au niveau de \(((X\) peuvent être indiscernables au niveau de \(S\). On définit alors la famille effective sur \(S\) : \[ +\mathcal{G}\_t(s)=\{\Pi(f(x)) : x\in \Pi^{-1}(s),\ f\in \mathcal{T}\_t\}. \] -Une frontière effective apparaît lorsque \(\mathcal{G}_t(s)\) se stabilise alors que \(\mathcal{T}_t\) continue de se réduire à l’échelle microscopique. Cela formalise une limite de transformation au niveau descriptif. +Une frontière effective apparaît lorsque \(\mathcal{G}\_t(s)\)\)) se stabilise alors que \(((\mathcal{T}\_t\) continue de se réduire à l’échelle microscopique. Cela formalise une limite de transformation au niveau descriptif. ## Niveaux d’organisation @@ -5295,22 +5191,22 @@ Définition (tour de descriptions). Une tour de descriptions est une suite \[ -X \xrightarrow{\Pi_1} S_1 \xrightarrow{\Pi_2} S_2 \xrightarrow{\Pi_3} \cdots \xrightarrow{\Pi_m} S_m, +X \xrightarrow{\Pi\_1} S\_1 \xrightarrow{\Pi\_2} S\_2 \xrightarrow{\Pi\_3} \cdots \xrightarrow{\Pi\_m} S\_m, \] -où chaque \(\Pi_{k+1}:S_k\to S_{k+1}\) est une réduction (quotient, projection, agrégation). On note \(\Pi^{(k)}=\Pi_k\circ\cdots\circ\Pi_1 : X\to S_k\). +où chaque \(\Pi\_{k+1} : S\_k\to S\_{k+1}\) est une réduction (quotient, projection, agrégation). On note \(\Pi^{(k)}=\Pi\_k\circ\cdots\circ\Pi\_1 : X\to S\_k\). Cette liste de transformations est exhaustive au regard du mécanisme considéré : toute hiérarchie d’observables est une composition de réductions. ### Niveau comme description autonome (approximation de fermeture) -Un niveau \(S_k\) est dit quasi-autonome si la dynamique induite sur \(S_k\) est approximativement fermée, au sens suivant. +Un niveau \(S\_k\) est dit quasi-autonome si la dynamique induite sur \(S\_k\) est approximativement fermée, au sens suivant. Définition (fermeture approximative). -Il existe une application \(G_k:S_k\to S_k\) telle que +Il existe une application \(G\_k : S\_k\to S\_k\) telle que \[ -\Pi^{(k)}\circ F \approx G_k\circ \Pi^{(k)}, +\Pi^{(k)}\circ F \approx G\_k\circ \Pi^{(k)}, \] où \(\approx\) signifie égalité sauf sur un ensemble de mesure au plus \(\varepsilon\), ou en probabilité au moins \(1-\varepsilon\), selon le cadre. @@ -5319,18 +5215,19 @@ Ce critère est standard : il formalise qu’une description est suffisante pour ### Relation avec auto-stabilisation et verrouillage -Lorsque \((\Pi^{(k)}(x_t),K_t)\) est quasi-invariant et que \(K_t\) se stabilise, le niveau \(S_k\) devient un niveau d’organisation effectif : la description est stable, et les transformations futures sont confinées dans une sous-dynamique. +Lorsque \((\Pi^{(k)}(x\_t),K\_t)\)\)) est quasi-invariant et que \(((K\_t\) se stabilise, le niveau \(S\_k\) devient un niveau d’organisation effectif : la description est stable, et les transformations futures sont confinées dans une sous-dynamique. Proposition (niveau comme condition de possibilité). -Si un niveau \(S_k\) est quasi-autonome et si les contraintes associées se stabilisent vers \(K_\infty\), alors l’ensemble des futurs descriptifs accessibles depuis une description initiale \(s\in S_k\) est contenu dans un sous-ensemble strict \(\mathcal{F}_{S_k}(s)\subsetneq S_k\), dès que la contrainte est active. +Si un niveau \(S\_k\) est quasi-autonome et si les contraintes associées se stabilisent vers \(K\_\infty\), alors l’ensemble des futurs descriptifs accessibles depuis une description initiale \(s\in S\_k\) est contenu dans un sous-ensemble strict \(\mathcal{F}\_{S\_k}(s)\)\)subsetneq S_k\), dès que la contrainte est active. Cette proposition reformule, au niveau des descriptions, le verrouillage des futurs : la structure décrite ne se contente pas de persister, elle restreint les descriptions futures possibles. -## Portée minimale (lecture conditionnelle) +## Portée minimale (lecture conditionnelle) — Ch. 15 Dans un cadre formel où : -- certaines descriptions \(s=\Pi(x)\) sont transmissibles, +- certaines descriptions \(((s=\Pi(x)\)\)) sont transmissibles, + - les contraintes se cumulent ou se stabilisent, - la dynamique est restreinte par compatibilité et héritage, @@ -5338,7 +5235,7 @@ il existe des structures qui deviennent des conditions de possibilité : leur ma Le contenu est modal : il concerne des ensembles d’états atteignables et des futurs accessibles, non des finalités. -## Analyse philosophique +## Analyse philosophique — Ch. 15 Trois distinctions permettent d’éviter l’ambiguïté. @@ -5346,40 +5243,40 @@ Condition de possibilité versus cause Une cause est un événement situé dans une trajectoire. Une condition de possibilité est une restriction durable sur l’ensemble des trajectoires admissibles. Le chapitre traite des secondes. Stabilité versus identité -L’auto-stabilisation formalisée ici porte sur une description et un registre de contraintes, non sur la conservation d’un individu. La stabilité est une propriété d’orbite dans l’espace étendu \(Y\). +L’auto-stabilisation formalisée ici porte sur une description et un registre de contraintes, non sur la conservation d’un individu. La stabilité est une propriété d’orbite dans l’espace étendu \(((Y\). Futur possible versus futur réalisé Le verrouillage concerne l’ensemble des futurs accessibles ; il ne sélectionne pas une trajectoire unique. La distinction entre “impossible” et “non réalisé” est ici mathématique : l’impossible correspond à l’absence d’atteignabilité sous les transformations admissibles. -## Conclusion +## Conclusion — Ch. 15 -Le chapitre a défini un mécanisme d’auto-stabilisation non réflexive en introduisant l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) et une règle explicite d’actualisation des contraintes. Les boucles de contraintes ont été traitées comme points fixes (cas monotone) ou cycles (cas non monotone). Les régimes quasi-invariants ont été définis en versions ensembliste et probabiliste, et les limites de transformation ont été formalisées par intersection d’ensembles admissibles. Enfin, les niveaux d’organisation ont été introduits comme tours de descriptions quasi-autonomes, stabilisées par verrouillage. +Le chapitre a défini un mécanisme d’auto-stabilisation non réflexive en introduisant l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) et une règle explicite d’actualisation des contraintes. Les boucles de contraintes ont été traitées comme points fixes (cas monotone) ou cycles (cas non monotone). Les régimes quasi-invariants ont été définis en versions ensembliste et probabiliste, et les limites de transformation ont été formalisées par intersection d’ensembles admissibles. Enfin, les niveaux d’organisation ont été introduits comme tours de descriptions quasi-autonomes, stabilisées par verrouillage. Il s’ensuit : certaines structures deviennent des conditions de possibilité, car elles restreignent durablement l’espace de leurs propres transformations futures, sans qu’aucune optimisation ni finalité ne soit postulée. --- -# Chapitre 16 — Interprétation épistémique minimale +## Chapitre 16 — Interprétation épistémique minimale {#chapitre-16-interpretation-epistemique-minimale} -## Hypothèses et résultats (repères) +## Hypothèses et résultats (repères) — Ch. 16 -Hypothèses (H). +**Hypothèses (H).** -- fermeture prédictive sur l’état étendu \(Y\) (Markovianité au niveau complet \((x,K)\)) ; -- lecture sur observable partielle : projection \(\Pi\) déclarée, avec statut (dépendant/robuste) explicite ; +- fermeture prédictive sur l’état étendu \(((Y\) (Markovianité au niveau complet \((x,K)\)\))) +- lecture sur observable partielle : projection \(((\Pi\) déclarée, avec statut (dépendant/robuste) explicite - couche probabiliste optionnelle : noyau \(P\) déclaré lorsqu’on parle de lois conditionnelles du futur. -Résultats (E). +**Résultats (E).** -- définition de la connaissance comme classe d’équivalence prédictive (ensembliste/probabiliste) ou comme résidu de contraintes stabilisées transmissibles ; -- critère de stabilité sous changements de description (raffinement/coarsening) lorsque une robustesse est revendiquée ; +- définition de la connaissance comme classe d’équivalence prédictive (ensembliste/probabiliste) ou comme résidu de contraintes stabilisées transmissibles +- critère de stabilité sous changements de description (raffinement/coarsening) lorsque une robustesse est revendiquée - correspondances inter‑disciplinaires annoncées comme dictionnaire, sans rétro‑inférence vers le noyau. -Statut. +**Statut.** - noyau ensembliste (classes/futurs) ; couche [P] uniquement si \(P\) est déclaré ; ponts énergétiques annoncés comme optionnels et indexés. -## Introduction +## Introduction — Ch. 16 Les chapitres précédents ont construit un cadre où l’évolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes d’équivalence, transmission partielle sur graphes orientés, verrouillage des futurs, sélection structurelle sans optimisation et, enfin, auto-stabilisation non réflexive dans l’espace étendu états–contraintes. @@ -5387,8 +5284,9 @@ Le présent chapitre introduit tardivement le terme « connaissance ». La conna On obtient : -- des trajectoires différentes deviennent indistinguables pour le futur dès lors qu’elles induisent le même futur accessible (ou la même loi du futur) ; -- l’objet qui capture cette indistinguabilité est une classe d’équivalence sur les histoires ; +- des trajectoires différentes deviennent indistinguables pour le futur dès lors qu’elles induisent le même futur accessible (ou la même loi du futur) + +- l’objet qui capture cette indistinguabilité est une classe d’équivalence sur les histoires - lorsqu’une collection de contraintes se stabilise et se transmet, elle réalise une compression opérationnelle des histoires en un objet prédictif, au sens où elle suffit à déterminer l’ensemble des futurs admissibles. La connaissance, dans ce sens minimal, est ce qui reste d’une histoire lorsqu’on ne conserve que ce qui contraint encore le futur. @@ -5397,89 +5295,81 @@ La connaissance, dans ce sens minimal, est ce qui reste d’une histoire lorsqu Dans ce chapitre, « connaissance » est un alias tardif entièrement défini par les constructions qui suivent. Il peut être remplacé sans perte par : -- « classe d’équivalence prédictive » (définie par futur accessible / loi de futur) ; +- « classe d’équivalence prédictive » (définie par futur accessible / loi de futur) + - ou « registre de contraintes stabilisées transmissibles » (défini par \(K\), \(\Phi\), \(\operatorname{Comp}\) et la filiation). Les lectures cognitives, biologiques, physiques ou computationnelles, lorsqu’elles sont proposées, sont explicitement signalées comme interprétations optionnelles indexées par leurs hypothèses d’instanciation ; elles n’altèrent pas le noyau minimal. -## Cadre et notations +## Cadre et notations — Ch. 16 ### États, transformations et futur accessible -Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) un ensemble de transformations admissibles \(f:X\to X\). +Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) un ensemble de transformations admissibles \(f : X\to X\). -Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble atteignable en \(n\) étapes est : -\[ -\operatorname{Reach}_n(x)=\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}. +Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble atteignable en \(n\) étapes est : \[ +\operatorname{Reach}*n(x)=\{f\_n\circ\cdots\circ f\_1(x) : f\_1,\ldots,f\_n\in\mathcal{T}\}. \] -Le futur accessible (atteignabilité à horizon fini quelconque) est : -\[ -\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x). +Le futur accessible (atteignabilité à horizon fini quelconque) est : \[ +\mathcal{F}(x)=\bigcup\_{n\ge 0}\operatorname{Reach}\_n(x). \] ### Contraintes et dynamique conditionnée Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : -- un ensemble admissible \(A(K)\subseteq X\), -- une relation admissible \(R(K)\subseteq X\times X\), +- un ensemble admissible \(A(K)\)\)subseteq X\), -avec monotonie par inclusion : -\[ +- une relation admissible \(((R(K)\)\)subseteq X\times X\), + +avec monotonie par inclusion : \[ K_1\subseteq K_2\Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] -La famille de transformations admissibles induite par \(K\) est : -\[ -\mathcal{T}(K)=\{f\in\mathcal{T}:\forall x\in A(K),\ (x,f(x))\in R(K)\}. +La famille de transformations admissibles induite par \(((K\) est : \[ +\mathcal{T}(K)=\{f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\)\)in R(K)\}. \] -Un opérateur de compatibilité \(\operatorname{Comp}\) est supposé donné : -\[ -\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), +Un opérateur de compatibilité \(((\operatorname{Comp}\) est supposé donné : \[ +\operatorname{Comp} : \mathcal{P}(\mathfrak{C})\)\)to\mathcal{P}(\mathfrak{C}), \] -tel que \(\operatorname{Comp}(K)\subseteq K\), et tel que \(\operatorname{Comp}(K)\) soit compatible dès lors qu’une sous-collection compatible existe. Cette définition ne contient aucune optimisation : il s’agit uniquement d’éviter la contradiction opérationnelle. +tel que \(((\operatorname{Comp}(K)\)\)subseteq K\), et tel que \(((\operatorname{Comp}(K)\)\)) soit compatible dès lors qu’une sous-collection compatible existe. Cette définition ne contient aucune optimisation : il s’agit uniquement d’éviter la contradiction opérationnelle. ### Espace étendu et actualisation des contraintes -Comme au chapitre 15, on introduit l’espace étendu : -\[ +Comme au chapitre 15, on introduit l’espace étendu : \[ Y=X\times \mathcal{P}(\mathfrak{C}), \] -dont un élément \(y=(x,K)\) encode un état et ses contraintes actives. +dont un élément \(((y=(x,K)\)\)) encode un état et ses contraintes actives. -On suppose donnée une règle d’actualisation : -\[ -\Phi:Y\to \mathcal{P}(\mathfrak{C}), +On suppose donnée une règle d’actualisation : \[ +\Phi : Y\to \mathcal{P}(\mathfrak{C}), \] -et une mise à jour : -\[ +et une mise à jour : \[ K^+=\operatorname{Comp}(K\cup \Phi(x,K)). \] -L’évolution de \(x\) dépend de \(K\) via une restriction de \(\mathcal{T}\). Dans une version stochastique (commode pour l’énoncé d’objets prédictifs), on suppose une loi conditionnelle \(\mathbb{P}(\cdot\mid x,K)\) supportée sur \(\mathcal{T}(K)\). +L’évolution de \(((x\) dépend de \(K\) via une restriction de \(\mathcal{T}\). Dans une version stochastique (commode pour l’énoncé d’objets prédictifs), on suppose une loi conditionnelle \(\mathbb{P}(\cdot\mid x,K)\)\)) supportée sur \(((\mathcal{T}(K)\)\)). -La dynamique est alors : -\[ +La dynamique est alors : \[ (x_{t+1},K_{t+1})=\Psi(x_t,K_t), \] -où \(\Psi\) résume le mécanisme « choisir une transformation admissible sous \(K_t\), l’appliquer, puis actualiser \(K\) ». +où \(((\Psi\) résume le mécanisme « choisir une transformation admissible sous \(K\_t\), l’appliquer, puis actualiser \(K\) ». ### Histoires et futurs -On note une histoire (temps discret) : -\[ -h_t=(x_0,x_1,\ldots,x_t), +On note une histoire (temps discret) : \[ +h\_t=(x\_0,x\_1,\ldots,x\_t), \] -ou, dans l’espace étendu : -\[ -\tilde{h}_t=((x_0,K_0),(x_1,K_1),\ldots,(x_t,K_t)). +ou, dans l’espace étendu : \[ +\tilde{h}\_t=((x\_0,K\_0),(x\_1,K\_1),\ldots,(x\_t,K\_t)). \] Pour distinguer l’approche déterministe et probabiliste, deux objets de futur seront utilisés : -- futur ensembliste : \(\mathcal{F}(x)\) ou \(\mathcal{F}_{\mathcal{T}(K)}(x)\) ; -- futur probabiliste : la loi conditionnelle du futur \((X_{t+1},X_{t+2},\ldots)\) sachant l’histoire. +- futur ensembliste : \(\mathcal{F}(x)\)\)) ou \(((\mathcal{F}\_{\mathcal{T}(K)}(x)\)\)) + +- futur probabiliste : la loi conditionnelle du futur \((((X\_{t+1},X\_{t+2},\ldots)\)\)) sachant l’histoire. Ces deux notions sont compatibles : l’approche probabiliste raffine l’approche ensembliste lorsqu’une loi a priori sur les transformations (ou un bruit) est fixée. @@ -5490,8 +5380,9 @@ Ces deux notions sont compatibles : l’approche probabiliste raffine l’approc Définition (principe minimal). On appellera « connaissance » un objet qui : -- est déterminé par l’histoire passée ; -- est plus pauvre que l’histoire (compression) ; +- est déterminé par l’histoire passée + +- est plus pauvre que l’histoire (compression) - conserve exactement ce qui est pertinent pour le futur, au sens où deux histoires qui produisent le même objet de connaissance induisent le même futur (ensembliste ou probabiliste). Ce principe ne suppose pas de sujet : il définit une propriété relationnelle entre passé et futur, à l’intérieur du système. @@ -5499,28 +5390,27 @@ Ce principe ne suppose pas de sujet : il définit une propriété relationnelle Critère de non-trivialité (usage du mot « connaissance ») Les relations d’équivalence ci-dessous existent même dans des cas dégénérés. Pour éviter qu’une contrainte stabilisée sans effet, ou qu’une variable constante, soit appelée « connaissance », on réserve ce terme aux cas où l’effet prédictif est strict : -- en version ensembliste : existence d’un verrouillage strict (réduction non nulle du futur accessible) ; -- en version probabiliste : gain prédictif strict pour un horizon déclaré (par exemple \(I(Z_t;X_{t+1:t+n})>0\), ou \(H(X_{t+1:t+n}\mid Z_t) < H(X_{t+1:t+n})\)). +- en version ensembliste : existence d’un verrouillage strict (réduction non nulle du futur accessible) + +- en version probabiliste : gain prédictif strict pour un horizon déclaré (par exemple \(((I(Z\_t ; X\_{t+1 : t+n})>0\), ou \(H(X\_{t+1 : t+n}\mid Z\_t) < H(X\_{t+1 : t+n})\)\))). ### Définition ensembliste (équivalence par futur accessible) -Soit une dynamique conditionnée par contraintes sur l’espace étendu \(Y\). Pour une histoire étendue \(\tilde{h}_t\), on note \(y_t=(x_t,K_t)\) son dernier état. +Soit une dynamique conditionnée par contraintes sur l’espace étendu \(((Y\). Pour une histoire étendue \(\tilde{h}\_t\), on note \(y\_t=(x\_t,K\_t)\)\)) son dernier état. -On définit le futur accessible sous contraintes à partir de \(y_t\) par : -\[ -\mathcal{F}_Y(y_t)=\bigcup_{n\ge 0}\{y_{t+n}:\exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}. +On définit le futur accessible sous contraintes à partir de \(((y\_t\) par : \[ +\mathcal{F}\_Y(y\_t)=\bigcup\_{n\ge 0}\{y\_{t+n} : \exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}. \] Définition (équivalence prédictive ensembliste). -Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont dites équivalentes, noté \(\tilde{h}_t\sim_{\mathrm{ens}}\tilde{h}'_t\), si leurs derniers états \(y_t\) et \(y'_t\) induisent le même futur accessible : -\[ -\mathcal{F}_Y(y_t)=\mathcal{F}_Y(y'_t). +Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont dites équivalentes, noté \(\tilde{h}_t\sim\_{\mathrm{ens}}\tilde{h}'_t\), si leurs derniers états \(y\_t\) et \(y'\_t\) induisent le même futur accessible : \[ +\mathcal{F}\_Y(y\_t)=\mathcal{F}\_Y(y'\_t). \] -La classe d’équivalence \([\tilde{h}_t]_{\mathrm{ens}}\) est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre l’ensemble des futurs admissibles ». +La classe d’équivalence \([\tilde{h}_t]\_{\mathrm{ens}}\) est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre l’ensemble des futurs admissibles ». Définition (connaissance ensembliste minimale). -La connaissance ensembliste associée à une histoire est la classe d’équivalence \([\tilde{h}_t]_{\mathrm{ens}}\). +La connaissance ensembliste associée à une histoire est la classe d’équivalence \([\tilde{h}_t]\_{\mathrm{ens}}\). Cette définition est interne au système : elle n’utilise aucune sémantique et ne suppose aucun observateur. @@ -5528,34 +5418,31 @@ Cette définition est interne au système : elle n’utilise aucune sémantique Soit maintenant une version stochastique, où la dynamique sur \(Y\) induit une loi \(\mathbb{P}\) sur les trajectoires. -Définition (équivalence prédictive probabiliste). -Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont équivalentes, noté \(\tilde{h}_t\sim_{\mathrm{prob}}\tilde{h}'_t\), si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) : -\[ -\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}_t\big) -= +## Définition (équivalence prédictive probabiliste) -\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'_t\big). +Deux histoires étendues \(\tilde{h}\_t\) et \(\tilde{h}'\_t\) sont équivalentes, noté \(\tilde{h}\_t\sim\_{\mathrm{prob}}\tilde{h}'\_t\), si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) : \[ +\mathbb{P}\big((Y\_{t+1},Y\_{t+2},\ldots)\)\)in \cdot\ \big|\ \tilde{h}\_t\big) = +\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'\_t\big). \] -La classe \([\tilde{h}_t]_{\mathrm{prob}}\) est un objet de connaissance au sens probabiliste. +La classe \((([\tilde{h}\_t]\_{\mathrm{prob}}\) est un objet de connaissance au sens probabiliste. Remarque de consensus. Cette notion est standard : elle est équivalente à la notion de statistique suffisante pour la prédiction du futur, et se relie aux constructions de filtrations et de conditionnements en probabilités. La formulation ici évite toute référence à une tâche ou à une fonction objectif : seule la loi du futur importe. -### Mesures d’information prédictive (sans critère de tâche) +## Mesures d’information prédictive (sans critère de tâche) -Pour quantifier le contenu prédictif d’une variable interne \(Z_t=g(\tilde{h}_t)\), on peut utiliser des objets standard de théorie de l’information. +Pour quantifier le contenu prédictif d’une variable interne \(Z_t=g(\tilde{h}_t)\)\)), on peut utiliser des objets standard de théorie de l’information. Définition (entropie conditionnelle). -Pour des variables aléatoires \(U,V\), l’entropie conditionnelle est \(H(U\mid V)\). +Pour des variables aléatoires \(((U,V\), l’entropie conditionnelle est \(H(U\mid V)\)\)). Définition (information mutuelle). -L’information mutuelle est : -\[ -I(U;V)=H(U)-H(U\mid V). +L’information mutuelle est : \[ +I(U ; V)=H(U)-H(U\mid V). \] -Dans le cadre présent, si l’on fixe un horizon \(n\) et \(U=X_{t+1:t+n}\) (bloc futur), on peut quantifier l’information prédictive portée par \(Z_t\) via \(I(Z_t;X_{t+1:t+n})\). Aucun « bénéfice » n’est invoqué : seule la dépendance statistique est mesurée. +Dans le cadre présent, si l’on fixe un horizon \(((n\) et \(U=X\_{t+1 : t+n}\) (bloc futur), on peut quantifier l’information prédictive portée par \(Z\_t\) via \(I(Z\_t ; X\_{t+1 : t+n})\)\)). Aucun « bénéfice » n’est invoqué : seule la dépendance statistique est mesurée. ## Connaissance comme contrainte stabilisée transmissible @@ -5563,28 +5450,25 @@ Le plan impose une définition : « connaissance comme contrainte stabilisée tr ### Définition (contrainte stabilisée) -Soit une trajectoire \((x_t,K_t)\) dans \(Y\). Une collection \(K^\star\subseteq\mathfrak{C}\) est dite stabilisée le long de la trajectoire s’il existe \(T\) tel que : -\[ -K^\star\subseteq K_t \quad \text{pour tout } t\ge T, +Soit une trajectoire \((((x\_t,K\_t)\)\)) dans \(((Y\). Une collection \(K^\star\subseteq\mathfrak{C}\) est dite stabilisée le long de la trajectoire s’il existe \(T\) tel que : \[ +K^\star\subseteq K\_t \quad \text{pour tout } t\ge T, \] -et si la suite \((K_t)\) admet une limite en inclusion : -\[ +et si la suite \((K\_t)\)\)) admet une limite en inclusion : \[ K_t\uparrow K_\infty=\bigcup_{t\ge 0}K_t \quad \text{(éventuellement après application de }\operatorname{Comp}\text{).} \] -Dans le cas \(|\mathfrak{C}|<\infty\) et d’une actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15). +Dans le cas \(((|\mathfrak{C}|<\infty\) et d’une actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15). Statut (renvoi explicite). -La stabilisation au sens ci-dessus correspond au régime S1 (point fixe / limite en inclusion) et suppose une actualisation monotone (H22‑PF, et souvent H22‑TR pour exclure la fuite en espace étendu). En l’absence de ces hypothèses, le registre peut relever d’un régime S2 (cycle) ou S3 (métastable) : dans ce cas, l’unité pertinente n’est plus un \(K_\infty\) unique, et les définitions qui suivent doivent être relues comme dépendantes d’un régime de stabilisation (voir chapitre 15, “Boucles de contraintes” et “Hypothèses et régimes de stabilisation (paquets H22)”). +La stabilisation au sens ci-dessus correspond au régime S1 (point fixe / limite en inclusion) et suppose une actualisation monotone (H22‑PF, et souvent H22‑TR pour exclure la fuite en espace étendu). En l’absence de ces hypothèses, le registre peut relever d’un régime S2 (cycle) ou S3 (métastable) : dans ce cas, l’unité pertinente n’est plus un \(K\_\infty\) unique, et les définitions qui suivent doivent être relues comme dépendantes d’un régime de stabilisation (voir chapitre 15, “Boucles de contraintes” et “Hypothèses et régimes de stabilisation (paquets H22)”). ### Définition (transmissibilité de contrainte sur graphe) -Soit un graphe orienté acyclique \(G=(V,E)\) de filiation (chapitre 12). À chaque sommet \(v\) est associée une occurrence \(y_v=(x_v,K_v)\). À chaque arête \(e=(u\to v)\) est associé un opérateur de transmission \(\tau_e\). +Soit un graphe orienté acyclique \(G=(V,E)\)\)) de filiation (chapitre 12). À chaque sommet \(((v\) est associée une occurrence \(y\_v=(x\_v,K\_v)\)\)). À chaque arête \(((e=(u\to v)\)\)) est associé un opérateur de transmission \(((\tau\_e\). -Une contrainte élémentaire \(c\in\mathfrak{C}\) est transmissible sur une arête \(e\) si : -\[ -c\in K \Rightarrow c\in \tau_e(K). +Une contrainte élémentaire \(c\in\mathfrak{C}\) est transmissible sur une arête \(e\) si : \[ +c\in K \Rightarrow c\in \tau\_e(K). \] Une collection \(K^\star\) est transmissible sur un sous-graphe si chaque \(c\in K^\star\) est transmissible sur toutes les arêtes de ce sous-graphe. @@ -5593,39 +5477,41 @@ Une collection \(K^\star\) est transmissible sur un sous-graphe si chaque \(c\in Hypothèses minimales : -- la dynamique dans \(Y\) est Markovienne (au niveau complet \((x,K)\)) ; -- l’évolution de \(x\) dépend de \(K\) uniquement via \(\mathcal{T}(K)\) ; -- le mécanisme d’actualisation \(K^+=\operatorname{Comp}(K\cup \Phi(x,K))\) est donné et ne dépend pas du futur. +- la dynamique dans \(Y\) est Markovienne (au niveau complet \((x,K)\)\))) + +- l’évolution de \(((x\) dépend de \(K\) uniquement via \(\mathcal{T}(K)\)\)) +- le mécanisme d’actualisation \(((K^+=\operatorname{Comp}(K\cup \Phi(x,K))\)\)) est donné et ne dépend pas du futur. Note de statut. -Ces hypothèses garantissent la fermeture prédictive sur l’état étendu \(y_t=(x_t,K_t)\) ; elles ne garantissent pas la stabilisation de \(K_t\). Les conditions suffisantes pour une stabilisation S1 (H22‑PF, souvent H22‑TR), ainsi que les alternatives S2/S3, sont traitées au chapitre 15. +Ces hypothèses garantissent la fermeture prédictive sur l’état étendu \(((y\_t=(x\_t,K\_t)\)\)) ; elles ne garantissent pas la stabilisation de \(((K\_t\). Les conditions suffisantes pour une stabilisation S1 (H22‑PF, souvent H22‑TR), ainsi que les alternatives S2/S3, sont traitées au chapitre 15. Alors : -- le futur ensembliste accessible depuis \(y_t=(x_t,K_t)\) dépend uniquement de \(y_t\), et non de l’histoire complète ; -- de même, le futur probabiliste (loi conditionnelle) dépend uniquement de \(y_t\). +- le futur ensembliste accessible depuis \(y\_t=(x\_t,K\_t)\)\)) dépend uniquement de \(((y\_t\), et non de l’histoire complète -Autrement dit, dans l’espace étendu \(Y\), \(y_t\) est une statistique suffisante au sens prédictif : l’histoire se résume sans perte (pour le futur) à l’état étendu présent. +- de même, le futur probabiliste (loi conditionnelle) dépend uniquement de \(y\_t\). + +Autrement dit, dans l’espace étendu \(Y\), \(y\_t\) est une statistique suffisante au sens prédictif : l’histoire se résume sans perte (pour le futur) à l’état étendu présent. Conséquence (connaissance comme résidu). -Si \(K_t\) se stabilise vers \(K_\infty\) au sens S1 (sous H22‑PF et, si nécessaire, H22‑TR), et si \(K_\infty\) est transmissible le long des arêtes d’un sous-graphe de filiation, alors la composante \(K_\infty\) constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant qu’il est prédictif (il détermine \(\mathcal{T}(K_\infty)\) et donc l’atteignabilité), réalise une notion minimale de connaissance. Sa réutilisabilité exige en outre une robustesse au sens H22‑RB sous les perturbations, projections et approximations déclarées (sinon, artefact d’instanciation). +Si \(K\_t\) se stabilise vers \(K\_\infty\) au sens S1 (sous H22‑PF et, si nécessaire, H22‑TR), et si \(K\_\infty\) est transmissible le long des arêtes d’un sous-graphe de filiation, alors la composante \(K\_\infty\) constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant qu’il est prédictif (il détermine \(\mathcal{T}(K\_\infty)\)\)) et donc l’atteignabilité), réalise une notion minimale de connaissance. Sa réutilisabilité exige en outre une robustesse au sens H22‑RB sous les perturbations, projections et approximations déclarées (sinon, artefact d’instanciation). Cette proposition ne requiert aucune sémantique : la “connaissance” est un registre de restrictions stabilisées qui suffisent à prédire les futurs admissibles au sens du modèle. ### Lien avec le verrouillage des futurs -Le chapitre 13 a défini le verrouillage comme une décroissance de l’atteignabilité. Dans le cadre présent, si \(K_t\uparrow K_\infty\), alors \(\mathcal{T}(K_t)\) est décroissante et : -\[ +Le chapitre 13 a défini le verrouillage comme une décroissance de l’atteignabilité. Dans le cadre présent, si \(((K\_t\uparrow K\_\infty\), alors \(\mathcal{T}(K\_t)\)\)) est décroissante et : \[ \mathcal{T}(K_\infty)=\bigcap_{t\ge 0}\mathcal{T}(K_t), \] -d’où une limite de transformation. Le registre \(K_\infty\) encode donc explicitement le mécanisme par lequel le passé réduit l’espace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : l’une en terme de futur, l’autre en terme de contrainte stabilisée. +d’où une limite de transformation. Le registre \(((K\_\infty\) encode donc explicitement le mécanisme par lequel le passé réduit l’espace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : l’une en terme de futur, l’autre en terme de contrainte stabilisée. ## Absence de sujet Le plan exige « absence de sujet ». Cela signifie ici : -- aucune entité “sait” ; -- aucune intention n’oriente les transitions ; +- aucune entité “sait” + +- aucune intention n’oriente les transitions - aucun vocabulaire de représentation n’est posé comme causal. Cette absence est garantie par construction : la connaissance est une classe d’équivalence sur les histoires (définie par des futurs), ou un registre de contraintes stabilisées (défini par une actualisation et une transmissibilité). Dans les deux cas, l’objet est une propriété de la dynamique. @@ -5639,11 +5525,11 @@ La définition dérivée obtenue est compatible avec plusieurs cadres standards, ### Statistique et apprentissage -La notion de connaissance comme classe d’équivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable \(Z_t\) est “suffisante” si elle conserve toute l’information nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive. +La notion de connaissance comme classe d’équivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable \(Z\_t\) est “suffisante” si elle conserve toute l’information nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive. ### Théorie de l’information -La quantification du contenu prédictif par \(I(Z_t;X_{t+1:t+n})\) est standard et ne dépend pas d’un critère de tâche. Une lecture ensembliste existe également : une variable \(Z_t\) est prédictive (au sens minimal) si, en fixant \(Z_t\), l’ensemble des futurs accessibles se restreint (cardinalité ou mesure), ce qui relie directement l’épistémique au verrouillage des futurs. La notion pertinente est l’information prédictive, non une information définie par la performance sur une tâche. En particulier, la théorie ne requiert aucune tâche externe ; elle caractérise un couplage statistique entre états internes et futurs. +La quantification du contenu prédictif par \(I(Z\_t ; X\_{t+1 : t+n})\)\)) est standard et ne dépend pas d’un critère de tâche. Une lecture ensembliste existe également : une variable \(((Z\_t\) est prédictive (au sens minimal) si, en fixant \(Z\_t\), l’ensemble des futurs accessibles se restreint (cardinalité ou mesure), ce qui relie directement l’épistémique au verrouillage des futurs. La notion pertinente est l’information prédictive, non une information définie par la performance sur une tâche. En particulier, la théorie ne requiert aucune tâche externe ; elle caractérise un couplage statistique entre états internes et futurs. Note (pont optionnel). La lecture prédictive (lois conditionnelles) et la lecture géométrique (restriction d’atteignabilité) sont internes au cadre. Tout pont vers une lecture énergétique (coût/dissipation) est optionnel et déclaré : il dépend d’un choix de coût, d’une indexation (métrique/mesure) et, le cas échéant, d’un modèle d’implémentation ; aucune équivalence générale n’est postulée. @@ -5674,19 +5560,19 @@ La définition de connaissance est minimale et dépend de choix explicites. Dépendance au modèle de futur -- En version ensembliste : \(\sim_{\mathrm{ens}}\) dépend du choix d’admissibilité (contraintes, transformations). -- En version probabiliste : \(\sim_{\mathrm{prob}}\) dépend de la loi \(\mathbb{P}\) sur les transformations et des variables observées. +- En version ensembliste : \(\sim\_{\mathrm{ens}}\) dépend du choix d’admissibilité (contraintes, transformations). +- En version probabiliste : \(\sim\_{\mathrm{prob}}\) dépend de la loi \(\mathbb{P}\) sur les transformations et des variables observées. Dépendance à la description -Si l’on observe uniquement \(s=\Pi(x)\) au lieu de \((x,K)\), la connaissance devient relative à \(\Pi\) : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Autrement dit, le processus peut être non markovien en \(s\) tout en restant markovien sur l’état étendu \((x,K)\) (où la dynamique est fermée). Cela n’invalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que l’observable oublie. +Si l’on observe uniquement \(s=\Pi(x)\)\)) au lieu de \((((x,K)\)\)), la connaissance devient relative à \(((\Pi\) : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Autrement dit, le processus peut être non markovien en \(s\) tout en restant markovien sur l’état étendu \((x,K)\)\)) (où la dynamique est fermée). Cela n’invalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que l’observable oublie. Stabilité sous raffinement/coarsening (robustesse). -Lorsqu’une notion de connaissance est revendiquée comme stable au‑delà d’une observable \(\Pi\), la stabilité est vérifiée sous changements bornés de description : au minimum sur deux granularités \(\Pi_1,\Pi_2\) déclarées, et, lorsque pertinent, sous morphismes de facteurs (commutation avec la dynamique ou contrôle explicite de l’écart). À défaut, l’énoncé est annoncé comme indexé par \(\Pi\) et ne se propage pas comme résultat générique (cf. chap. 13, “Double granularité”, et protocole de robustesse). +Lorsqu’une notion de connaissance est revendiquée comme stable au‑delà d’une observable \(((\Pi\), la stabilité est vérifiée sous changements bornés de description : au minimum sur deux granularités \(\Pi\_1,\Pi\_2\) déclarées, et, lorsque pertinent, sous morphismes de facteurs (commutation avec la dynamique ou contrôle explicite de l’écart). À défaut, l’énoncé est annoncé comme indexé par \(\Pi\) et ne se propage pas comme résultat générique (cf. chap. 13, “Double granularité”, et protocole de robustesse). Caractère non unique des représentations internes -Plusieurs variables \(Z_t\) peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes d’équivalence, mais sa représentation peut ne pas être unique. +Plusieurs variables \(Z\_t\) peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes d’équivalence, mais sa représentation peut ne pas être unique. -## Analyse philosophique +## Analyse philosophique — Ch. 16 L’introduction dérivée de la connaissance modifie trois oppositions classiques. @@ -5699,11 +5585,12 @@ La connaissance est définie par la conservation de ce qui détermine le futur a Sujet versus structure L’absence de sujet n’élimine pas la possibilité d’un sujet ; elle montre que la notion de connaissance peut être construite sans lui. Si un sujet apparaît dans un prolongement, il apparaît comme une structure particulière au sein de \(X\), portant un registre \(K\) et une description \(\Pi\), et non comme une primitive transcendantale. -## Conclusion +## Conclusion — Ch. 16 Le terme « connaissance » a été introduit tardivement et défini de manière dérivée, sans être posé comme cause. Deux définitions minimales ont été construites : -- une définition ensembliste : connaissance comme classe d’équivalence d’histoires induisant le même futur accessible ; +- une définition ensembliste : connaissance comme classe d’équivalence d’histoires induisant le même futur accessible + - une définition probabiliste : connaissance comme classe d’équivalence d’histoires induisant la même loi conditionnelle du futur. Le lien avec les chapitres précédents est direct : lorsque des contraintes se stabilisent et se transmettent, elles constituent un résidu du passé qui continue à restreindre les transformations admissibles et donc les futurs accessibles. En ce sens précis, la connaissance est un résidu nécessaire : l’histoire se compresse en contraintes prédictives, sans sujet, sans sémantique, et sans finalité. @@ -5725,21 +5612,21 @@ Règle. - Cette table est une aide de lecture historique ; elle n’ajoute aucun axiome et ne justifie aucun énoncé du noyau. | Terme NCI | Terme canonique (ouvrage) | Couche | Note de décontamination | -|---|---|---|---| +| --- | --- | --- | --- | | NCI | — | — | acronyme historique ; ne définit aucun objet formel. | -| Néon | contrainte stabilisée ; registre \(K\) stabilisé | [E] | évite l’unité “substantielle” : renvoie à une contrainte/registre défini et à son effet sur \(\mathcal{T}(K)\). | +| Néon | contrainte stabilisée ; registre \(K\) stabilisé | [E] | évite l’unité “substantielle” : renvoie à une contrainte/registre défini et à son effet sur \(\mathcal{T}(K)\)\)). | | vortex | cycle ; composante fortement connexe ; récurrence | [E] | évite l’import thermodynamique : renvoie à une structure d’atteignabilité (sans “flux” implicite). | | bit utile | classe d’équivalence prédictive | [E] (puis [P]) | évite finalité/optimisation : renvoie à l’indistinguabilité prédictive (chap. 16). | | entropie produite | instanciation thermo (hors noyau) | [M]/[P] | n’apparaît qu’avec dictionnaire physique et hypothèses additionnelles déclarées. | -| detailed balance | réversibilité (statut probabiliste) | [P] | n’apparaît qu’avec noyau \(P\) et mesure stationnaire déclarés. | +| detailed balance | réversibilité (statut probabiliste) | [P] | n’apparaît qu’avec noyau \(((P\) et mesure stationnaire déclarés. | ### Table synthétique des dépendances (audit) Le tableau ci-dessous sert à auditer rapidement le statut d’un résultat : dépendances aux hypothèses structurales et aux couches (\(\mu\), \(P\), \(\Pi\), \(\operatorname{Comp}\)). | Résultat (référence) | Hypothèses structurales (exemples) | dépend de \(\mu\) | dépend de \(P\) | dépend de \(\Pi\) | dépend de \(\operatorname{Comp}\) | -|---|---|---|---|---|---| -| Verrouillage ensembliste (chap. 13) | admissibilité décroissante \(\mathcal{T}_{t+1}\subseteq\mathcal{T}_t\) | non | non | non | non | +| --- | --- | --- | --- | --- | --- | +| Verrouillage ensembliste (chap. 13) | admissibilité décroissante \(\mathcal{T}\_{t+1}\subseteq\mathcal{T}\_t\) | non | non | non | non | | Verrouillage quantifié (chap. 13) | idem + quantificateur déclaré | oui | non | oui (si observable) | non | | Verrouillage robuste (chap. 13) | idem + variations contrôlées déclarées | oui | non | oui | oui (si contraintes héritées) | | Sélection ensembliste (chap. 14) | compatibilité + admissibilité | non | non | non | oui | @@ -5754,6 +5641,7 @@ Le tableau ci-dessous sert à auditer rapidement le statut d’un résultat : d Voir aussi la section « Statut des énoncés » en fermeture. Dans 13–16 : - Définition / Proposition / Théorème : blocs techniques. + - Interprétation : explicitement optionnelle et séparée. Aucune interprétation n’est insérée dans un bloc démonstratif. @@ -5768,7 +5656,8 @@ Règles. - Un terme technique canonique par concept : les synonymes rejetés sont explicitement listés et ne réapparaissent pas dans le noyau. - Tout résultat est indexé par une couche de validité, compatible avec la stratification introduite en début d’ouvrage : - - [E] ensembliste + +- [E] ensembliste - [M] métrique/mesurée - [P] probabiliste - [D] décisionnelle (optionnelle) @@ -5800,21 +5689,21 @@ Glossaire normatif (structure). Glossaire normatif (minimal). | Terme canonique | Définition (renvoi) | Couche | Dépendances (hypothèses / paramètres) | Renvois internes | Synonymes rejetés | -|---|---|---|---|---|---| -| état | élément \(x\in X\). | [E] | \(X\) déclaré. | chap. 1, chap. 4 (axiomes) | | -| transformation admissible | application \(f:X\to X\) appartenant à une admissibilité \(\mathcal{T}\) déclarée. | [E] | admissibilité \(\mathcal{T}\) fixée (H‑Adm). | chap. 1, chap. 13–15 | | -| atteignabilité | relation “atteignable en \(n\) étapes” via composition d’éléments de \(\mathcal{T}\). | [E] | admissibilité \(\mathcal{T}\), horizon \(n\). | chap. 13–15 | | -| futur accessible | \(\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x)\). | [E] | admissibilité \(\mathcal{T}\), état \(x\). | chap. 13–15 | cône de futur ; espace des futurs ; futur possible | -| contrainte | règle restreignant \(A(K)\subseteq X\) et/ou \(R(K)\subseteq X\times X\), induisant \(\mathcal{T}(K)\subseteq\mathcal{T}\). | [E] | espace des contraintes \(\mathfrak{C}\), sémantique (état/transition) déclarée. | chap. 13–15 | | -| compatibilité | non‑contradiction opérationnelle : \(A(K)\neq\varnothing\) et continuation possible via \(R(K)\). | [E] | \(\mathfrak{C}\), \(A(\cdot)\), \(R(\cdot)\) déclarés. | chap. 14–15 | | -| verrouillage (niveaux) | réduction monotone des futurs accessibles : niveau 1 ensembliste ; niveau 2 quantifié (indexé) ; niveau 3 robuste (statut). | [E]/[M] | quantification indexée par \(\mu/d/c\) (couches [M]) ; robustesse par familles déclarées. | chap. 13 | | -| sélection (niveaux) | filtrage par admissibilité/compatibilité (ensembliste), puis dominance mesurée (indexée par \(\mu\)) ou stochastique (indexée par \(P\)). | [E]/[M]/[P] | \(\mu\) (mesure), \(P\) (noyau) déclarés lorsque utilisés. | chap. 14 | | -| auto‑stabilisation (régimes) | boucles de contraintes en espace étendu \(Y\) : S1 (point fixe), S2 (cycle), S3 (métastable). | [E] (puis [M]/[P] si quantifié) | dépendances H22 (ordre/monotonie, piégeage, robustesse, contraction) déclarées lorsque revendiquées. | chap. 15 | | -| transmission | opérateurs \(\tau_e\) transportant des contraintes/structures le long d’arêtes de filiation (éventuellement hyperarêtes). | [E] | graphe de filiation \(G=(V,E)\), opérateurs \(\tau_e\) déclarés. | chap. 12, chap. 14–15 | | -| mémoire transmissible | registre \(K\) de contraintes, opératoire (\(\mathcal{T}(K)\subseteq\mathcal{T}\)), stabilisable (S1/S2/S3) et transmissible le long d’une filiation. | [E] (puis [P] si Markov) | espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\), mise à jour \(G\), transmission \(\tau_e\), régimes H22 si stabilisation revendiquée. | chap. 13, chap. 15–16 | dépendance au passé | -| variable cachée | composante \(H\) de l’état telle que \((X,H)\) ferme la dynamique (markovien) alors que \(X\) seul présente une dépendance au passé. | [P] (pont [E]) | projection \(\Pi\), état complet \(S\) ou espace étendu \(Y=X\times H\). | chap. 13 | mémoire transmissible | -| ancrage / irréversibilité logique | perte d’identifiabilité/non‑injectivité (et, en instanciation physique, borne de Landauer). | [E] (ponts [M]/[P] optionnels) | couche physico‑thermodynamique annoncée comme optionnelle. | chap. 5, chap. 8 | | -| classe d’équivalence prédictive | quotient sur histoires/états par indistinguabilité des futurs (ensembles ou lois conditionnelles). | [E] (puis [P] si loi du futur) | horizon, projection \(\Pi\), noyau \(P\) si mobilisé. | chap. 16 | | +| --- | --- | --- | --- | --- | --- | +| état | élément \(x\in X\). | [E] | \(X\) déclaré. | chap. 1, chap. 4 (axiomes) | | +| transformation admissible | application \(f : X\to X\) appartenant à une admissibilité \(\mathcal{T}\) déclarée. | [E] | admissibilité \(\mathcal{T}\) fixée (H‑Adm). | chap. 1, chap. 13–15 | | +| atteignabilité | relation “atteignable en \(n\) étapes” via composition d’éléments de \(\mathcal{T}\). | [E] | admissibilité \(\mathcal{T}\), horizon \(n\). | chap. 13–15 | | +| futur accessible | \(\mathcal{F}(x)=\bigcup\_{n\ge 0}\operatorname{Reach}\_n(x)\)\)). | [E] | admissibilité \(((\mathcal{T}\), état \(x\). | chap. 13–15 | cône de futur ; espace des futurs ; futur possible | +| contrainte | règle restreignant \(A(K)\)\)subseteq X\) et/ou \(((R(K)\)\)subseteq X\times X\), induisant \(((\mathcal{T}(K)\)\)subseteq\mathcal{T}\). | [E] | espace des contraintes \(((\mathfrak{C}\), sémantique (état/transition) déclarée. | chap. 13–15 | | +| compatibilité | non‑contradiction opérationnelle : \(A(K)\)\)neq\varnothing\) et continuation possible via \(((R(K)\)\)). | [E] | \(((\mathfrak{C}\), \(A(\cdot)\)\)), \(((R(\cdot)\)\)) déclarés. | chap. 14–15 | | +| verrouillage (niveaux) | réduction monotone des futurs accessibles : niveau 1 ensembliste ; niveau 2 quantifié (indexé) ; niveau 3 robuste (statut). | [E]/[M] | quantification indexée par \(((\mu/d/c\) (couches [M]) ; robustesse par familles déclarées. | chap. 13 | | +| sélection (niveaux) | filtrage par admissibilité/compatibilité (ensembliste), puis dominance mesurée (indexée par \(\mu\)) ou stochastique (indexée par \(P\)). | [E]/[M]/[P] | \(\mu\) (mesure), \(P\) (noyau) déclarés lorsque utilisés. | chap. 14 | | +| auto‑stabilisation (régimes) | boucles de contraintes en espace étendu \(Y\) : S1 (point fixe), S2 (cycle), S3 (métastable). | [E] (puis [M]/[P] si quantifié) | dépendances H22 (ordre/monotonie, piégeage, robustesse, contraction) déclarées lorsque revendiquées. | chap. 15 | | +| transmission | opérateurs \(\tau\_e\) transportant des contraintes/structures le long d’arêtes de filiation (éventuellement hyperarêtes). | [E] | graphe de filiation \(G=(V,E)\)\)), opérateurs \(((\tau\_e\) déclarés. | chap. 12, chap. 14–15 | | +| mémoire transmissible | registre \(K\) de contraintes, opératoire (\(\mathcal{T}(K)\)\)subseteq\mathcal{T}\)), stabilisable (S1/S2/S3) et transmissible le long d’une filiation. | [E] (puis [P] si Markov) | espace étendu \(((Y=X\times\mathcal{P}(\mathfrak{C})\)\)), mise à jour \(((G\), transmission \(\tau\_e\), régimes H22 si stabilisation revendiquée. | chap. 13, chap. 15–16 | dépendance au passé | +| variable cachée | composante \(H\) de l’état telle que \((X,H)\)\)) ferme la dynamique (markovien) alors que \(((X\) seul présente une dépendance au passé. | [P] (pont [E]) | projection \(\Pi\), état complet \(S\) ou espace étendu \(Y=X\times H\). | chap. 13 | mémoire transmissible | +| ancrage / irréversibilité logique | perte d’identifiabilité/non‑injectivité (et, en instanciation physique, borne de Landauer). | [E] (ponts [M]/[P] optionnels) | couche physico‑thermodynamique annoncée comme optionnelle. | chap. 5, chap. 8 | | +| classe d’équivalence prédictive | quotient sur histoires/états par indistinguabilité des futurs (ensembles ou lois conditionnelles). | [E] (puis [P] si loi du futur) | horizon, projection \(\Pi\), noyau \(P\) si mobilisé. | chap. 16 | | Protocole de conformité (relecture mécanique). @@ -5835,7 +5724,7 @@ Artefacts attendus dans le manuscrit. - **Index des symboles** : symbole, type, sens, première introduction, renvois. - **Table des hypothèses (paquets)** : identifiants stables pour des familles d’hypothèses récurrentes (par exemple : paquets H22 pour les régimes de stabilisation ; noyau d’axiomes A0 pour revendiquer des résultats invariants vis‑à‑vis de \(\operatorname{Comp}\)). - **Registre des choix quantitatifs** : identifiants `Q1`, `Q2`, … pour les choix \(\mu, P, d, c, L\) lorsque des quantités sont introduites. -- **Protocole de robustesse** : familles de variations \( \mathcal{M},\mathcal{P},\mathcal{D},\mathcal{C}_{\mathrm{cost}},\mathcal{L} \) et statut annoncé (robuste / dépendant). +- **Protocole de robustesse** : familles de variations \( \mathcal{M},\mathcal{P},\mathcal{D},\mathcal{C}\_{\mathrm{cost}},\mathcal{L} \) et statut annoncé (robuste / dépendant). Table des hypothèses (bibliothèque minimale et paquets). @@ -5845,15 +5734,15 @@ Bibliothèque minimale (hypothèses atomiques). - H‑D (dénombrable) : \(X\) est dénombrable. - H‑Cpt (compacité) : \(X\) est compact (topologie déclarée). - H‑Met (métrique/quasi‑métrique) : \(X\) est muni d’une distance \(d\) (ou quasi‑distance) déclarée. -- H‑Det (déterminisme) : la dynamique est une fonction \(f:X\to X\). +- H‑Det (déterminisme) : la dynamique est une fonction \(f : X\to X\). - H‑Rel (relation) : la dynamique est une relation \(R\subseteq X\times X\). - H‑Cont (continuité) : \(f\) est continue (dans la topologie déclarée). -- H‑Diss (piégeage/dissipativité) : il existe une région piégée \(B\) telle que les trajectoires pertinentes entrent dans \(B\) et \(f(B)\subseteq B\). -- H‑Adm (admissibilité fixée) : une admissibilité \(\mathcal{T}\) (ou \(T\)) est fixée. +- H‑Diss (piégeage/dissipativité) : il existe une région piégée \(B\) telle que les trajectoires pertinentes entrent dans \(B\) et \(f(B)\)\)subseteq B\). +- H‑Adm (admissibilité fixée) : une admissibilité \(((\mathcal{T}\) (ou \(T\)) est fixée. - H‑AdmLoc (localité) : \(\mathcal{T}\) satisfait une localité structurelle déclarée. - H‑Res (ressource) : \(\mathcal{T}\) est filtrée par un budget de ressource déclaré. -- H‑P (noyau) : un noyau de transition \(P(\cdot\mid\cdot)\) est déclaré (couche [P]). -- H‑Stat (stationnarité) : une mesure stationnaire \(\pi\) existe pour \(P\) (couche [P]). +- H‑P (noyau) : un noyau de transition \(P(\cdot\mid\cdot)\)\)) est déclaré (couche [P]). +- H‑Stat (stationnarité) : une mesure stationnaire \(((\pi\) existe pour \(P\) (couche [P]). Paquets (hypothèses récurrentes). @@ -5863,13 +5752,13 @@ Paquets (hypothèses récurrentes). Index des symboles (minimal, noyau 13–16). | Symbole | Type | Sens | Introduction | Renvois | -|---|---|---|---|---| -| \(Y=X\times\mathcal{P}(\mathfrak{C})\) | espace d’état étendu | état + registre de contraintes | chap. 15 | chap. 16 (prédiction) | -| \(\mathfrak{C}\) | ensemble | espace des contraintes élémentaires | chap. 15 | chap. 16 | -| \(K\in\mathcal{P}(\mathfrak{C})\) | registre | collection de contraintes actives | chap. 15 | chap. 16 | -| \(\Phi:Y\to\mathcal{P}(\mathfrak{C})\) | opérateur | règle d’actualisation des contraintes | chap. 15 | chap. 16 | -| \(\operatorname{Comp}\) | opérateur | compatibilité / fermeture choisie | chap. 13 | chap. 14–15 | -| \(\Pi:X\to S\) | description | observable/projection vers un espace \(S\) | chap. 13 | chap. 15–16 | +| --- | --- | --- | --- | --- | +| \(Y=X\times\mathcal{P}(\mathfrak{C})\)\)) | espace d’état étendu | état + registre de contraintes | chap. 15 | chap. 16 (prédiction) | +| \(((\mathfrak{C}\) | ensemble | espace des contraintes élémentaires | chap. 15 | chap. 16 | +| \(K\in\mathcal{P}(\mathfrak{C})\)\)) | registre | collection de contraintes actives | chap. 15 | chap. 16 | +| \(((\Phi : Y\to\mathcal{P}(\mathfrak{C})\)\)) | opérateur | règle d’actualisation des contraintes | chap. 15 | chap. 16 | +| \(((\operatorname{Comp}\) | opérateur | compatibilité / fermeture choisie | chap. 13 | chap. 14–15 | +| \(\Pi : X\to S\) | description | observable/projection vers un espace \(S\) | chap. 13 | chap. 15–16 | | \(\mu\) | mesure | quantification (taille, volume, fréquence) | chap. 13–14 | chap. 14 (sélection mesurée) | | \(P\) | noyau | transitions probabilistes conditionnelles | chap. 14 | chap. 16 (loi du futur) | @@ -5901,24 +5790,25 @@ Registre des choix quantitatifs (format minimal). Protocole de robustesse (statut annoncé). -- Variation de \(\mu\) dans une famille \(\mathcal{M}\) ; variation de \(P\) dans \(\mathcal{P}\) ; variation de \(d\) dans \(\mathcal{D}\) ; variation de \(c\) dans \(\mathcal{C}_{\mathrm{cost}}\) (si une quantification par coût est revendiquée) ; variation de \(L\) dans \(\mathcal{L}\) (si [D]). +- Variation de \(\mu\) dans une famille \(\mathcal{M}\) ; variation de \(P\) dans \(\mathcal{P}\) ; variation de \(d\) dans \(\mathcal{D}\) ; variation de \(c\) dans \(\mathcal{C}\_{\mathrm{cost}}\) (si une quantification par coût est revendiquée) ; variation de \(L\) dans \(\mathcal{L}\) (si [D]). - Classement : **robuste** (stabilité sur une région non triviale) ou **dépendant** (sensibilité forte aux choix). ### Validation éditoriale (navigabilité scientifique) Une version est considérée navigable si : -- chaque résultat structurant a une entrée dans l’index des dépendances ; -- chaque symbole réutilisé hors de sa section d’introduction figure dans l’index des symboles ; -- chaque terme technique appartient au glossaire normatif et reste stable dans le noyau ; -- aucune conclusion quantitative n’est présentée sans indexation (\(\mu,P,d,c,L\)) et sans couche ; +- chaque résultat structurant a une entrée dans l’index des dépendances + +- chaque symbole réutilisé hors de sa section d’introduction figure dans l’index des symboles +- chaque terme technique appartient au glossaire normatif et reste stable dans le noyau +- aucune conclusion quantitative n’est présentée sans indexation (\(\mu,P,d,c,L\)) et sans couche - aucune inférence de couche implicite n’est introduite ([P]/[D] → [E]). --- -# Fermeture +## Fermeture {#fermeture} -## Introduction +## Introduction — Ch. 16 (2) La construction part d’un espace de configurations et d’un ensemble de transformations admissibles, puis dérive, par étapes nécessaires, les notions de non-injectivité, de classes, de stabilisation, de consommation irréversible, de transmission partielle et de sélection structurelle, jusqu’à rendre possible une lecture épistémique minimale. @@ -5958,89 +5848,90 @@ La connaissance n’a pas été posée comme primitive. Elle a été dérivée c Trois niveaux ont été distingués, et leur mélange a été évité. -Énoncés définitionnels +**Énoncés définitionnels** Ils introduisent les objets (atteignabilité, compatibilité, contraintes, graphes, quasi-invariance, équivalences prédictives). Leur validité est conventionnelle, au sens où ils fixent le langage et les opérations. -Énoncés logiques et combinatoires +**Énoncés logiques et combinatoires** Ils expriment des conséquences nécessaires de définitions monotones ou finies (stabilisation en temps fini lorsque l’espace des contraintes est fini, décroissance d’ensembles atteignables sous restriction, extinction de classes transientes dans des chaînes finies). Leur statut est démonstratif. -Énoncés de portées minimales +**Énoncés de portées minimales** Ils relient les résultats formels à des lectures générales (interprétatives ou philosophiques) sous forme conditionnelle : si un système satisfait les hypothèses, alors tel type de persistance, de verrouillage ou de filtration doit apparaître. Ce sont des implications, non des proclamations ontologiques. ## Limites du cadre Les limites définissent les conditions de validité. -Dépendance à l’admissibilité +**Dépendance à l'admissibilité** Le futur accessible dépend de l’ensemble des transformations admissibles. Toute application à un domaine exige de rendre explicite ce choix, ainsi que la règle d’actualisation des contraintes. -Choix de la variable d’état +**Choix de la variable d’état** La connaissance minimale est définie sur l’état étendu états–contraintes (où la dynamique est fermée). Une projection trop grossière peut induire une non-Markovianité apparente : la dépendance au passé observée est alors déplacée vers des variables cachées, c’est-à-dire vers des composantes d’état omises par la description. -Cadre discret +**Cadre discret** La construction a été menée en temps discret. Le passage au temps continu est prospectif : il requiert des hypothèses additionnelles (topologie, action de semi‑groupe, régularité, dissipativité/piégeage, et, dès qu’une quantification est revendiquée, une métrique ou une mesure) et modifie le statut de plusieurs résultats (convergence asymptotique au lieu de stabilisation en temps fini, disparition de garanties combinatoires comme les cycles). Discipline (continuisation, sans sur‑promesse). Toute mention de continuisation est formulée comme programme de recherche conditionnel, et inclut explicitement : -- les hypothèses additionnelles requises ; -- les résultats du discret qui survivent sous ces hypothèses ; -- les résultats qui échouent ou changent de nature ; +- les hypothèses additionnelles requises + +- les résultats du discret qui survivent sous ces hypothèses +- les résultats qui échouent ou changent de nature - la couche mobilisée (en particulier : les opérateurs de transfert relèvent d’une couche mesurée/probabiliste et ne sont pas une conséquence du noyau ensembliste). -Quantification de la “taille” des futurs +**Quantification de la “taille” des futurs** La réduction de futur a été formulée en termes ensemblistes et, lorsque nécessaire, en termes de mesure ou de cardinalité. La comparaison quantitative entre régimes dépend du choix d’une mesure de référence et de son invariance éventuelle. -Neutralité sémantique +**Neutralité sémantique** La lecture épistémique minimale ne dit pas ce qu’une structure « signifie » ; elle dit ce qu’elle « contraint encore ». Toute sémantique additionnelle doit être posée comme couche explicite. ## Perspectives de développement Les prolongements naturels respectent la méthode : ajouter des couches seulement lorsqu’elles sont nécessaires et définies. -Extension opératorielle +**Extension opératorielle** Formaliser le passage au temps continu et aux opérateurs de transfert pour articuler verrouillage, quasi-stationnarité et spectre dans des espaces non finis, en évitant toute sur‑promesse. Repères (dictionnaire minimal discret ↔ continu). -- **temps et dynamique** : itération \(x_{n+1}=f(x_n)\) ↔ semi‑groupe \(x(t)=T_t(x(0))\), avec \(T_{t+s}=T_t\circ T_s\), \(T_0=\mathrm{Id}\) ; -- **admissibilité** : ensemble de transformations admissibles \(\mathcal{T}\) ↔ famille de générateurs admissibles (ou famille de semi‑groupes admissibles) ; -- **futur accessible** : \(\mathcal{F}_n(x)\) ↔ \(\mathcal{F}_{[0,\tau]}(x)=\{T_t(x):0\le t\le\tau\}\) (ou atteignabilité sous contrôle) ; -- **verrouillage** : décroissance d’ensembles de futurs accessibles / restrictions de transitions ↔ piégeage, contraction d’ensembles atteignables, ou décroissance d’un fonctionnel monotone sous hypothèses de dissipativité ; +- **temps et dynamique** : itération \(x\_{n+1}=f(x\_n)\)\)) ↔ semi‑groupe \(((x(t)=T\_t(x(0))\)\)), avec \(((T\_{t+s}=T\_t\circ T\_s\), \(T_0=\mathrm{Id}\) +- **admissibilité** : ensemble de transformations admissibles \(\mathcal{T}\) ↔ famille de générateurs admissibles (ou famille de semi‑groupes admissibles) +- **futur accessible** : \(\mathcal{F}_n(x)\)\)) ↔ \(((\mathcal{F}_{[0,\tau]}(x)=\{T_t(x) : 0\le t\le\tau\}\) (ou atteignabilité sous contrôle) +- **verrouillage** : décroissance d’ensembles de futurs accessibles / restrictions de transitions ↔ piégeage, contraction d’ensembles atteignables, ou décroissance d’un fonctionnel monotone sous hypothèses de dissipativité - **auto‑stabilisation** : point fixe d’opérateurs (discret) ↔ invariance sous flot / point fixe fonctionnel (continu). Résultats transférables (sous hypothèses explicites). -- **invariance, attracteurs, piégeage** : sous hypothèses de semi‑groupe continu et d’ensemble piégé compact (dissipativité/absorption), les notions d’invariance et d’attracteurs se transportent partiellement ; sans compacité/piégeage, aucune garantie générale n’est annoncée ; -- **verrouillage** : sous dissipativité et existence d’un fonctionnel monotone ou d’une contraction, le verrouillage se lit comme réduction du futur atteignable sur des horizons croissants ; la stabilisation “en temps fini” devient typiquement convergence asymptotique ; -- **points fixes (contraintes)** : sous structure d’ordre/treillis et monotonie (ou contraction selon le cadre), l’existence de points fixes se transporte, au prix d’hypothèses de complétude/continuité et d’une calculabilité plus délicate ; +- **invariance, attracteurs, piégeage** : sous hypothèses de semi‑groupe continu et d’ensemble piégé compact (dissipativité/absorption), les notions d’invariance et d’attracteurs se transportent partiellement ; sans compacité/piégeage, aucune garantie générale n’est annoncée +- **verrouillage** : sous dissipativité et existence d’un fonctionnel monotone ou d’une contraction, le verrouillage se lit comme réduction du futur atteignable sur des horizons croissants ; la stabilisation “en temps fini” devient typiquement convergence asymptotique +- **points fixes (contraintes)** : sous structure d’ordre/treillis et monotonie (ou contraction selon le cadre), l’existence de points fixes se transporte, au prix d’hypothèses de complétude/continuité et d’une calculabilité plus délicate - **opérateurs de transfert** : (Perron–Frobenius/Koopman) exigent une structure mesurée et appartiennent à une couche mesurée/probabiliste ; leurs propriétés spectrales nécessitent des hypothèses fortes et sont annoncées comme telles. Résultats non transférables ou changeant de nature (points d’attention). -- **cycles garantis par finitude** : en continu/infini, il n’y a pas de garantie de cycles ; au mieux, des formes de récurrence sous hypothèses spécifiques (préservation de mesure, finitude de mesure) ; -- **stationnarité en temps fini** : les arguments combinatoires de stabilisation en temps fini deviennent convergence asymptotique ou métastabilité ; -- **quantification sans indexation** : toute “taille du futur” en continu est indexée par une métrique \(d\) ou une mesure \(\mu\) déclarée ; +- **cycles garantis par finitude** : en continu/infini, il n’y a pas de garantie de cycles ; au mieux, des formes de récurrence sous hypothèses spécifiques (préservation de mesure, finitude de mesure) +- **stationnarité en temps fini** : les arguments combinatoires de stabilisation en temps fini deviennent convergence asymptotique ou métastabilité +- **quantification sans indexation** : toute “taille du futur” en continu est indexée par une métrique \(d\) ou une mesure \(\mu\) déclarée - **calculabilité** : la continuisation peut rendre l’atteignabilité plus délicate ; le statut reste programmatique tant qu’un protocole d’approximation et de robustesse n’est pas posé. Jalons (structure du programme de recherche). -- formaliser un cadre continu minimal (espace \(X\), famille de semi‑groupes admissibles \((T_t)\), futur accessible sur \([0,\tau]\)) ; -- établir des hypothèses de dissipativité/piégeage (ensemble absorbant compact) ; -- définir des quantificateurs robustes indexés par \(d/\mu\) ; -- introduire les opérateurs de transfert seulement comme couche optionnelle (mesurée/probabiliste) ; +- formaliser un cadre continu minimal (espace \(X\), famille de semi‑groupes admissibles \((T\_t)\)\)), futur accessible sur \([0,\tau]\)) +- établir des hypothèses de dissipativité/piégeage (ensemble absorbant compact) +- définir des quantificateurs robustes indexés par \(d/\mu\) +- introduire les opérateurs de transfert seulement comme couche optionnelle (mesurée/probabiliste) - relier au discret par discrétisation (section de Poincaré, pas d’échantillonnage) et tests de stabilité des phénomènes. -Théorie des descriptions et tours de quotients +**Théorie des descriptions et tours de quotients** Développer une théorie des tours de descriptions, leurs conditions de fermeture approximative, et leurs critères de quasi-autonomie, en lien avec la stabilité structurelle. -Articulation computationnelle +**Articulation computationnelle** Étudier la minimisation de prédicteurs (quotients prédictifs) comme objets canoniques, indépendamment de toute fonction objectif, en reliant classes d’équivalence et automates minimaux. -Applications à l’intelligence artificielle +**Applications à l’intelligence artificielle** Concevoir des architectures où les variables internes jouent le rôle de contraintes stabilisées transmissibles, puis tester si ces variables constituent des statistiques suffisantes pour la prédiction sous contraintes d’admissibilité (ressources, bruit, latence). Dans ce cadre, l’apprentissage devient estimation d’un quotient prédictif et stabilisation de contraintes, plutôt qu’optimisation d’un objectif sémantique. -## Conclusion +## Conclusion — Ch. 16 (2) Le résultat principal de l’ouvrage est une reconstruction progressive d’objets souvent introduits comme intuitions : flèche du temps effective, sélection, transmission, persistance, connaissance. Dans le cadre retenu, ces objets ne sont ni des primitives ni des métaphores ; ils apparaissent comme conséquences d’un calcul d’atteignabilité sous contraintes cumulatives, combiné à des opérations de quotient et de stabilisation. @@ -6048,23 +5939,23 @@ Toute extension conserve la règle fondatrice : définir chaque élément avant --- -# Table des matières +## Table des matières - [Introduction](#introduction) - [Chapitre 1 — Espaces de configurations et transformations admissibles](#chapitre-1-espaces-de-configurations-et-transformations-admissibles) -- [Chapitre 2 — Itération, finitude locale et répétition nécessaire](#chapitre-2-itération-finitude-locale-et-répétition-nécessaire) +- [Chapitre 2 — Itération, finitude locale et répétition nécessaire](#chapitre-2-iteration-finitude-locale-et-repetition-necessaire) - [Chapitre 3 — Attracteurs, cycles et ensembles invariants](#chapitre-3-attracteurs-cycles-et-ensembles-invariants) -- [Chapitre 4 — Temps comme ordre induit par l’itération](#chapitre-4-temps-comme-ordre-induit-par-litération) -- [Chapitre 5 — Compression, non‑injectivité et classes de formes](#chapitre-5-compression-non-injectivité-et-classes-de-formes) -- [Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique](#chapitre-6-reproduction-partielle-recombinaison-et-héritage-morphologique) -- [Chapitre 7 — Généalogies, lignées et accumulation d’histoire](#chapitre-7-généalogies-lignées-et-accumulation-dhistoire) -- [Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques](#chapitre-8-stabilisation-contraintes-sur-lavenir-et-émergence-de-propriétés-épistémiques) -- [Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification](#chapitre-9-sélection-structurelle-invariants-et-dynamique-de-complexification) +- [Chapitre 4 — Temps comme ordre induit par l’itération](#chapitre-4-temps-comme-ordre-induit-par-literation) +- [Chapitre 5 — Compression, non‑injectivité et classes de formes](#chapitre-5-compression-non-injectivite-et-classes-de-formes) +- [Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique](#chapitre-6-reproduction-partielle-recombinaison-et-heritage-morphologique) +- [Chapitre 7 — Généalogies, lignées et accumulation d’histoire](#chapitre-7-genealogies-lignees-et-accumulation-dhistoire) +- [Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques](#chapitre-8-stabilisation-contraintes-sur-lavenir-et-emergence-de-proprietes-epistemiques) +- [Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification](#chapitre-9-selection-structurelle-invariants-et-dynamique-de-complexification) - [Chapitre 10 — Attracteurs, cycles et ensembles invariants](#chapitre-10-attracteurs-cycles-et-ensembles-invariants) - [Chapitre 11 — Reproduction partielle et transmission](#chapitre-11-reproduction-partielle-et-transmission) -- [Chapitre 12 — Généalogies et lignées de formes](#chapitre-12-généalogies-et-lignées-de-formes) +- [Chapitre 12 — Généalogies et lignées de formes](#chapitre-12-genealogies-et-lignees-de-formes) - [Chapitre 13 — Structures persistantes et verrouillage des futurs](#chapitre-13-structures-persistantes-et-verrouillage-des-futurs) -- [Chapitre 14 — Sélection structurelle sans optimisation](#chapitre-14-sélection-structurelle-sans-optimisation) -- [Chapitre 15 — Structures contraignant leur propre évolution](#chapitre-15-structures-contraignant-leur-propre-évolution) -- [Chapitre 16 — Interprétation épistémique minimale](#chapitre-16-interprétation-épistémique-minimale) +- [Chapitre 14 — Sélection structurelle sans optimisation](#chapitre-14-selection-structurelle-sans-optimisation) +- [Chapitre 15 — Structures contraignant leur propre évolution](#chapitre-15-structures-contraignant-leur-propre-evolution) +- [Chapitre 16 — Interprétation épistémique minimale](#chapitre-16-interpretation-epistemique-minimale) - [Fermeture](#fermeture)