--- livre: "Théorie des futurs accessibles" version: v0 auteur: Nicolas Cantu --- # Introduction Un livre peut tenter de décrire le monde, ou bien tenter de décrire les conditions minimales sous lesquelles une description du monde devient possible. Le présent ouvrage relève de la seconde ambition. Il ne part pas d’une ontologie, d’une physique, d’une psychologie, ni d’une théorie de l’information déjà constituée. Il part d’un problème plus nu : comment une structure, au sein d’un ensemble de transformations possibles, peut-elle devenir assez stable pour être réutilisée, transmise, et agir comme contrainte sur ce qui peut advenir ensuite. Cette question n’est pas traitée ici comme une question “de sens” ou “d’interprétation”, mais comme une question de construction : quelles définitions sont nécessaires, quelles hypothèses sont réellement employées, quels résultats sont démontrés, et quelles lectures ne sont que des traductions optionnelles d’un même noyau formel. L’ouvrage adopte donc une discipline explicite : distinguer, à chaque étape, ce qui est choisi (définitions), ce qui est déduit (propositions, lemmes, théorèmes), et ce qui est seulement proposé comme lecture possible (interprétations conditionnelles, instanciations physiques ou computationnelles). ## Objet et thèse directrice L’objet central est un triplet conceptuel minimal : - un espace d’états, entendu au sens le plus large (configurations, descriptions, classes, états internes, états d’un système abstrait) ; - un ensemble de transformations admissibles, c’est-à-dire un catalogue de transitions autorisées, dont la composition induit une dynamique ; - un mécanisme de contraintes, qui réduit ou organise ces transformations au cours de l’évolution. À partir de ce triplet, l’ouvrage construit progressivement des notions qui sont habituellement posées comme primitives : temps effectif, irréversibilité, mémoire, transmission, sélection, et finalement connaissance. La thèse directrice peut être formulée sans métaphysique et sans agent : une “connaissance” est une contrainte stabilisée, opératoire et transmissible, qui réduit durablement l’espace des futurs accessibles pour une classe de trajectoires, et dont la stabilisation peut être étudiée indépendamment d’une sémantique. Note de méthode (mémoire). Dans l’ouvrage, le mot « mémoire » n’est pas un synonyme de « dépendance au passé ». On distingue : - une **mémoire transmissible** : un registre de contraintes stabilisé et transmissible (p. ex. un registre \(K\) ou \(M\)), opératoire sur les transitions admissibles et réduisant durablement l’espace des futurs accessibles ; - une **variable cachée** : une composante de l’état omise par choix de description/projection, telle qu’un processus observé devienne non markovien alors qu’il redevient markovien sur un espace d’état étendu où la dynamique est fermée. Dès qu’un passage invoque la mémoire, il précise l’espace d’état utilisé, la projection éventuelle, et si l’on parle d’un registre transmissible ou d’un état incomplet (variable cachée). Cette formulation ne présuppose ni sujet connaissant, ni objectif, ni valeur, ni finalité. Elle ne présuppose pas non plus que l’information soit une substance : elle la reconstruit, lorsque cela devient nécessaire, comme une mesure dérivée d’indistinguabilités et de restrictions sur l’atteignabilité. ## Positionnement scientifique et neutralité sémantique L’ouvrage se situe à l’intersection de plusieurs traditions, sans se confondre avec aucune : - la théorie des systèmes dynamiques (attracteurs, invariants, régions piégées, stabilité) ; - la théorie des graphes et des automates (atteignabilité, composantes, cycles, quotients) ; - la théorie de l’ordre et des points fixes (monotonie, treillis, fermetures, convergence par itération) ; - la théorie de l’information (entropies, informations mutuelles) uniquement comme couche optionnelle, lorsque des structures probabilistes sont explicitement introduites ; - la thermodynamique de non-équilibre uniquement comme instanciation possible, sous hypothèses additionnelles, et jamais comme conséquence du noyau minimal. Ce positionnement impose une règle de méthode : aucune notion empruntée à une discipline ne doit être importée comme évidence. Si un mot est employé (stabilité, sélection, mémoire, information, contrainte), il doit soit être défini dans le cadre, soit être explicitement présenté comme un raccourci terminologique dont les conditions d’usage sont déclarées. La conséquence est une neutralité sémantique volontaire. Les objets formels construits peuvent recevoir des lectures variées : lecture computationnelle (contraintes comme règles de calcul), lecture biologique (contraintes comme architectures héritées), lecture sociale (contraintes comme normes), lecture physique (contraintes comme restrictions de transitions). Aucune de ces lectures n’est “la” lecture par défaut. Elles deviennent pertinentes seulement lorsqu’un dictionnaire d’instanciation est fourni et que ses hypothèses sont assumées. ## Hypothèses minimales et stratification en couches L’ouvrage est construit par couches, afin de contrôler la puissance explicative sans perdre la rigueur. ### Couche ensembliste et dynamique Elle ne suppose aucune probabilité. Elle utilise des ensembles d’états et des transformations admissibles, puis définit atteignabilité, futurs accessibles, cycles, bassins, et restrictions. À ce niveau, les résultats portent sur des inclusions, des quotients, des obstructions (absence d’inverse, non-injectivité), et des ordres induits. ### Couche métrique et quantitative Elle introduit des distances, coûts de chemin, quasi-métriques ou mesures de taille, non comme réalités physiques, mais comme instruments de quantification. Elle permet de comparer des intensités de verrouillage, des vitesses de stabilisation, des goulots, des fragmentations de futurs. Encadré (statut et instanciations d’un coût de transition \(c\)). Lorsqu’un coût \(c(x\to y)\) est introduit pour quantifier des chemins, des barrières ou des restrictions, il a par défaut le statut d’un **poids de graphe** (couche quantitative). Une lecture physico‑thermodynamique n’est mobilisée qu’après déclaration d’un dictionnaire d’instanciation et de ses hypothèses. Instanciations typiques (à déclarer, non équivalentes). - déterministe : \(c\) est un poids de transition ou de chemin (longueur, pénalité, ressource abstraite). - stochastique : \(c\) est dérivé d’un noyau \(P\) (par exemple via des rapports de probabilités de trajectoires) ; ses propriétés sont alors indexées par \(P\). - thermodynamique de l’information : \(c\) est relié à un protocole d’implémentation et à un effacement logique ; Landauer fournit une borne minimale sous hypothèses explicites, sans identifier \(c\) à une grandeur unique. Le texte sépare explicitement ce qui relève d’un consensus (conditions d’application, formes de bornes) de ce qui relève d’un choix de modèle (niveau de description, protocole, indexation). ### Couche probabiliste Elle n’apparaît que si un noyau de transition est explicitement défini (comment les transformations admissibles sont choisies ou appliquées). À ce niveau seulement, les notions spectrales, stationnaires ou quasi-stationnaires deviennent légitimes. Toute conclusion probabiliste est alors indexée par le noyau choisi. ### Couche décisionnelle / prédictive (optionnelle) Elle n’apparaît que lorsqu’une tâche est explicitement déclarée. On introduit alors une perte `L` (loss) pour comparer des prédictions ou des actions (et, si besoin, un noyau probabiliste \(P\) pour modéliser l’exploration ou le bruit). Toute conclusion à ce niveau est indexée par `L` (et par \(P\) le cas échéant), et ne sert jamais à établir un résultat du noyau. Tout passage qui introduit `L` le signale explicitement comme « couche décisionnelle (optionnelle) ». Lorsqu’un diagnostic est présenté comme stable, il est testé sur une famille de pertes \(\mathcal{L}\) déclarée ; sinon, il est annoncé comme dépendant de tâche. ### Couche physico-thermodynamique (optionnelle) Elle exige des hypothèses spécifiques (système ouvert, flux, conditions de stationnarité, structure d’échanges). Elle peut relier certaines asymétries de transitions à des productions d’entropie, mais sans rétro-inférer cette lecture dans le noyau minimal. ## Ce que l’ouvrage ne fait pas Pour éviter les malentendus, plusieurs refus sont constitutifs du projet. ### Absence de téléologie primitive Aucune maximisation, aucun critère de tâche, aucune fonction objectif n’est posé comme moteur. Si des quantités ressemblant à des coûts ou à des pertes sont introduites (par exemple une perte `L`), elles sont traitées comme des paramètres d’instanciation optionnels, explicitement étiquetés, non comme des fins. ### Absence de psychologie et de subjectivité Le livre ne décrit pas un sujet qui connaît. Il décrit des structures qui contraignent, se stabilisent, se transmettent, et qui, une fois stabilisées, peuvent servir de supports à une prédictivité. L’éventuelle interprétation cognitive, si elle est souhaitée, est une lecture secondaire. ### Absence d’exclusivité ontologique Aucune thèse n’est avancée sur “ce que le monde est”. Les résultats sont conditionnels : si un système a telles propriétés structurelles, alors tels phénomènes (cycles, verrouillage, stabilisation, sélection) apparaissent. ### Absence de promesse de quantification universelle La quantification (mesures, entropies, distances) dépend de choix. L’ouvrage cherche donc moins une “valeur” universelle qu’un ensemble de quantificateurs contrôlables et testables, accompagnés de protocoles de robustesse. ## Programme de lecture La progression suit une logique d’engendrement. - D’abord, établir les objets de base : états, transformations admissibles, atteignabilité, itération. - Ensuite, montrer comment la répétition, les cycles, les classes et les quotients apparaissent sans hypothèse de finalité. - Puis, introduire des mécanismes d’irréversibilité : non-injectivité, projections, pertes d’identifiabilité, monotones. - Construire ensuite des mécanismes de transmission : ce qui passe d’une trajectoire à une autre sans supposer l’identité fine des états. - Définir le verrouillage des futurs : réduction monotone des transformations admissibles et de l’atteignabilité, puis en proposer des quantifications non triviales. - Reconstruire la sélection comme filtrage structurel : dominance géométrique, bassins, effets spectraux éventuels lorsqu’une couche probabiliste est posée. - Étendre enfin l’espace d’état en incluant les contraintes elles-mêmes, afin de formaliser l’auto-stabilisation : points fixes, régions piégées, attracteurs de second ordre. - Conclure par une lecture épistémique minimale : ce qui mérite d’être appelé “connaissance” dans ce cadre, et ce que cette appellation n’ajoute pas. À chaque étape, la question de la robustesse est centrale : quels résultats survivent au changement de granularité (projections, quotients), au changement de mesure, au changement de noyau de transition, ou au changement de règle de compatibilité des contraintes. ## Critères de validité et exigence de réfutabilité Un cadre abstrait peut devenir invulnérable aux critiques s’il est trop flexible. ### Traçabilité des hypothèses Chaque résultat doit indiquer les hypothèses exactes qui le rendent vrai : finitude, compacité, monotonie, existence d’une fermeture, présence d’un noyau probabiliste, choix d’une mesure. ### Déclaration des dépendances Toute conclusion quantitative doit être indexée par les choix qui la rendent possible (mesure de référence, coût, noyau de transition, quotient). Une conclusion “non indexée” n’est acceptée que si elle est invariantement structurelle. ### Protocoles de robustesse Lorsqu’une notion est sensible à des choix (par exemple la dominance d’un attracteur selon la mesure), la sensibilité n’est pas un défaut : elle devient un objet d’étude, au moyen de protocoles explicites (familles de mesures, familles de noyaux, variations contrôlées, comparaison multi-granularité). --- # Chapitre 1 — Espaces de configurations et transformations admissibles ## Hypothèses et résultats (repères) Hypothèses (H). - un espace de configurations \(X\) (ensemble d’états) ; - une notion d’admissibilité (contraintes) fixée avant l’analyse ; - une famille de transformations admissibles (déterministes ou stochastiques) décrivant l’évolution. Résultats (E). - définitions de configuration, contrainte admissible et transformation admissible ; - mise en place de la dynamique (itération/succession) et du rôle structural des collisions comme indiscernabilité relative à une description. Statut. - noyau ensembliste ; la topologie/métrique, si mentionnée, reste un ajout optionnel et déclaré. ## Espace de configurations et contraintes admissibles On définit un espace de configurations comme l’ensemble abstrait de tous les états possibles d’un système considéré. Mathématiquement, il peut s’agir d’un ensemble fini ou infini (dénombrable, voire continu), potentiellement muni d’une structure additionnelle (topologie, métrique) pour refléter des proximités ou relations entre configurations. Chaque configuration $C$ représente une disposition complète des éléments ou paramètres du système à un instant donné. Par exemple, en mécanique classique, l’espace de configurations correspond à toutes les positions possibles des corps; en informatique, l’ensemble des valeurs de toutes les variables du programme; et dans un contexte plus général, l’espace de formes ou de connaissances possibles. Toute construction rigoureuse d’un espace de configurations nécessite aussi de spécifier les contraintes admissibles qui le caractérisent. Celles-ci sont les conditions ou règles logiques limitant les configurations possibles ou leurs enchaînements. Autrement dit, parmi toutes les configurations concevables, les contraintes admissibles définissent celles qui sont physiquement, logiquement ou structurellement réalisables par le système. Par exemple, dans un système physique, les lois de conservation (énergie, charge, etc.) imposent des contraintes qui restreignent l’ensemble des états accessibles. De même, pour un système d’information structuré, on peut avoir des invariants (comme l’intégrité référentielle dans une base de données, ou la syntaxe dans une phrase) qui excluent certaines combinaisons. Ces contraintes admissibles peuvent être vues comme définissant un sous-espace valide à l’intérieur de l’espace de configurations, garantissant la cohérence interne de chaque état autorisé. Il est important de noter que l’espace de configurations n’est pas nécessairement un espace géométrique au sens habituel, mais peut être purement relationnel ou combinatoire. Par exemple, en théorie des graphes (ou dans les topologies relationnelles), on considère des états définis par des relations entre objets plutôt que par des positions dans un espace métrique. Un graphe de $N$ nœuds possède un espace de configurations représentant toutes les manières dont les arêtes peuvent relier ces nœuds – espace contraint par des règles éventuelles (degré maximal, connexité requise, etc.). On peut doter un tel espace d’une notion de distance ou de voisinage (par exemple en comptant le nombre d’arêtes différentes entre deux graphes) afin de le munir d’une topologie relationnelle pertinente. Cela illustre comment l’abstraction de configuration s’adapte à la nature du système : qu’il s’agisse de variables numériques continues, d’objets discrets ou de relations, on vise une description suffisamment générale pour englober tout état possible sans perdre la cohérence imposée par les contraintes. ## Transformations et dynamique des états Un transformation dans ce contexte est une opération qui, appliquée à une configuration initiale $C(t)$ à un « temps » $t$, produit une nouvelle configuration $C(t+1)$ à l’instant suivant (dans un cadre discret) ou $C(t+\mathrm{d}t)$ (en temps continu). Les transformations peuvent être déterministes (règle fixe donnant un état suivant unique) ou stochastiques. Collectivement, elles définissent la dynamique du système, c’est-à-dire l’évolution possible des configurations au fil du temps. Formellement, on peut voir la dynamique comme une application $\Phi^t$ qui à un temps $t$ et un état initial $x$ associe l’état $\Phi^t(x)$ atteint après évolution pendant $t$ unités de temps[1]. Dans un système à temps discret, $\Phi^{1}$ correspond à l’application d’une étape de transformation élémentaire, et l’itération de cette fonction décrit l’évolution itérative du système. Les contraintes admissibles mentionnées plus haut jouent un rôle double dans cette dynamique. D’une part, elles peuvent restreindre l’ensemble des transformations autorisées – par exemple, une transformation doit conserver certains invariants ou respecter des lois de conservation. D’autre part, même si une transformation est théoriquement applicable, la configuration résultante doit encore satisfaire les contraintes pour être un état valide. Ainsi, on parle de transformations admissibles pour désigner les transformations qui conduisent toujours d’une configuration admissible vers une autre configuration elle-même admissible. Ces transformations forment l’ensemble des opérations élémentaires qui préservent le cadre du système. En pratique, elles découlent souvent de lois fondamentales (équations du mouvement en physique, règles d’inférence en logique, règles de mise à jour dans un automate, etc.). La dynamique discrète – où l’on évolue par sauts successifs d’une configuration à la suivante – est un cas particulièrement important. Elle permet une analyse itérative des comportements du système et donne lieu à des propriétés bien étudiées comme la convergence éventuelle vers des états particuliers. Un exemple canonique en est la routine de Kaprekar, un processus numérique itératif sur les chiffres d’un nombre qui conduit fréquemment à des points fixes ou des cycles attracteurs connus (par exemple 6174 en base 10)[2]. Plus généralement, dans tout système dynamique (discret ou continu), on s’intéresse aux configurations particulières qui structurent l’évolution à long terme : les attracteurs. Avant d’y venir en détail, notons un aspect essentiel des transformations admissibles : elles induisent souvent des collisions dans l’espace de configurations. Deux configurations distinctes $C_1$ et $C_2$ sont en collision s’il existe une transformation (ou une séquence de transformations) $T$ telle que $T(C_1) = T(C_2)$. Dans le cas d’une dynamique déterministe, cela signifie que des états initialement différents aboutissent à un même état futur. Loin d’être nécessairement un problème, de telles collisions peuvent au contraire avoir une portée structurante. En effet, si $C_1 \neq C_2$ évoluent vers une même configuration $C_f$, cela indique que $C_1$ et $C_2$ appartiennent à une même classe de comportement – elles sont indiscernables vis-à-vis de l’observateur qui ne regarde que l’état final $C_f$. Un tel phénomène de collision structurante peut être exploité pour regrouper des configurations par similarité de dynamique ou de forme, à l’instar des fonctions de hachage « locality-sensitive » en informatique qui organisent volontairement des collisions afin de refléter une proximité sémantique ou morphologique[3]. Plutôt que de proscrire ces collisions, on peut les voir comme la manifestation de contraintes de compatibilité : différentes conditions initiales mènent au même motif final, révélant ainsi une robustesse du motif ou une perte d’information quant aux détails initiaux. En résumé, les transformations admissibles définissent comment on peut naviguer dans l’espace de configurations. Elles tracent un graphe orienté sur cet espace (chaque configuration pointant vers sa ou ses transformées), généralement non bijectif (plusieurs antécédents pouvant conduire à un même état futur, d’où les collisions). L’étude de la dynamique revient alors à analyser la structure de ce graphe : existe-t-il des cycles ? des chemins menant à des impasses ou à des attracteurs ? quelle est la taille des bassins conduisant à telle configuration stable ? Ces questions introduisent la notion d’attracteur et de stabilité. ## Attracteurs, basins et topologie de la stabilité On appelle attracteur un ensemble de configurations vers lequel le système évolue de manière irréversible à partir d’un grand nombre d’états initiaux différents. Plus formellement, un attracteur $\mathcal{A}$ est un sous-ensemble de l’espace des configurations qui vérifie deux propriétés essentielles : (1) $\mathcal{A}$ est invariant par la dynamique (toute transformation admissible d’un état de $\mathcal{A}$ reste dans $\mathcal{A}$, i.e. $\Phi^t(\mathcal{A})=\mathcal{A}$ pour $t$ suffisamment grand) et (2) $\mathcal{A}$ attire un ensemble voisinage de lui-même[4][5]. En d’autres termes, il existe un voisinage $\mathcal{B}$ de $\mathcal{A}$ tel que tout état initial appartenant à $\mathcal{B}$ finira par évoluer dans $\mathcal{A}$. L’ensemble de tous les états qui convergent vers $\mathcal{A}$ constitue ce qu’on nomme le bassin d’attraction de $\mathcal{A}$[6]. Intuitivement, $\mathcal{A}$ représente un comportement asymptotique stable du système : une fois l’état entré dans $\mathcal{A}$ (ou suffisamment proche de $\mathcal{A}$), il s’y maintient ou y revient après de petites perturbations. Un attracteur peut être trivial, par exemple un point fixe (état unique $C^$ tel que $\Phi^t(C^) = C^$ pour tout $t$). Un tel état est stationnaire et, s’il attire ses voisins, on parle d’équilibre stable. Les attracteurs peuvent aussi être plus complexes : un cycle limite* (ou attracteur périodique) est un ensemble fini de configurations ${C_1, C_2, ..., C_k}$ telles que $\Phi^k(C_i) = C_i$ pour chaque $i$ (avec un $k$ minimal, période du cycle), et ${C_1,\dots,C_k}$ attire les configurations aux alentours. Dans un système continu, on rencontre également des attracteurs étranges (fractal, de dimension non entière) dans les systèmes chaotiques, mais dans le cadre discret et fini, toute trajectoire finit par aboutir à un cycle ou un point fixe (puisque l’espace d’états est fini, une trajectoire dynamique finira forcément par revisiter un état antérieur, engendrant un cycle de périodicité finie). La topologie de la stabilité désigne ici l’organisation globale des attracteurs et de leurs bassins au sein de l’espace de configurations. On peut la concevoir comme une **structure d'atteignabilité** (ou, lorsqu'une métrique ou une fonction de potentiel est choisie, une **géométrie induite**) où les attracteurs jouent le rôle de vallées ou de points bas (états vers lesquels la dynamique descend), séparés par des cols ou des crêtes définissant les bassins d’attraction. Cette analogie est courante en dynamique : si l’on peut définir une fonction de potentiel ou une mesure de « hauteur » (par exemple une entropie ou une énergie libre associée à chaque configuration), les attracteurs correspondent aux minima locaux de cette fonction. Les chemins d’évolution suivent alors plus ou moins la pente vers ces minima, et la topologie de la stabilité décrit comment ces minima sont distribués, comment les bas-fonds (bassins) se connectent ou sont séparés par des barrières. La pertinence de cette lecture dépend d’hypothèses explicites sur l’état (finitude, compacité, dissipativité) et sur le choix de métrique ou de mesure. Dans un cadre strictement déterministe, deux attracteurs distincts sont disjoints : un état du bassin de l’attracteur $\mathcal{A}_1$ ne peut pas, sans perturbation extérieure, basculer spontanément dans le bassin d’un autre attracteur $\mathcal{A}_2$. Cependant, si l’on introduit de légères perturbations aléatoires ou des modifications paramétriques (par exemple du « bruit » ou une variation continue de paramètres), la stabilité des attracteurs peut être mise à l’épreuve. On étudie alors la robustesse des attracteurs : certains persistent sous de petites perturbations (on parle de stabilité structurelle du système dynamique), tandis que d’autres peuvent bifurquer ou disparaître. La topologie de la stabilité englobe ainsi non seulement la répartition des attracteurs et de leurs bassins, mais aussi les voisinages de stabilité de ces attracteurs – c’est-à-dire jusqu’où s’étend, en termes de perturbations possibles, la conservation du comportement attracteur. Un aspect essentiel de cette topologie est la présence éventuelle d’attracteurs dominants, c’est-à-dire ayant un bassin d’attraction extrêmement large par rapport aux autres[7][8]. Dans les systèmes finis, on observe parfois qu’une poignée d’attracteurs concentrent l’essentiel des trajectoires possibles (presque tout état initial finit dans l’un d’entre eux), alors que d’autres attracteurs plus « exotiques » ont des bassins ténus (par exemple, des configurations très particulières mènent à un cycle rare). La structure des bassins peut se quantifier par une entropie ou une mesure de diversité : plus les trajectoires se répartissent uniformément entre de nombreux attracteurs, plus l’entropie est élevée; à l’inverse, si quelques attracteurs absorbent presque tout, l’entropie structurelle de la dynamique est faible (le système a tendance à « oublier » ses conditions initiales en ne conservant qu’un petit nombre de motifs finaux possibles). Enfin, la stabilité d’un attracteur se manifeste aussi par la résistance aux transformations internes. Un attracteur peut être vu comme une configuration (ou un motif) invariant par transformation – éventuellement au sens élargi d’invariance statistique. Par exemple, un motif qui se répète périodiquement dans le temps est invariant par la transformation « avancer de la période $T$ ». De même, un motif spatial auto-similaire est invariant par certaines transformations d’échelle ou de rotation. Cette invariance confère à l’attracteur une identité propre. On peut alors étudier la stabilité sous transformation : une configuration est stable sous une transformation donnée si l’application de cette transformation ne l’éjecte pas de son attracteur. Un attracteur est par définition stable sous la dynamique du système (puisqu’il est invariant par $\Phi^t$), mais on peut élargir la notion à d’autres transformations du système, par exemple des transformations sémantiques ou des perturbations contrôlées. Dans les systèmes complexes, on attend des attracteurs qu’ils conservent leurs propriétés qualitatives face à des changements mineurs ou non structurants – c’est un critère de robustesse. Par exemple, en reconnaissance de formes, une image d’un même objet reste reconnue malgré de petites rotations ou changements d’échelle : le concept représenté par l’attracteur « objet » demeure stable sous ces transformations non essentielles. La notion de transformation structurante émerge lorsque l’application d’une transformation provoque non pas la destruction d’un motif, mais au contraire la création d’une nouvelle structure organisée. Dans certains systèmes, deux configurations peuvent interagir (on peut penser à une « collision » entre deux motifs dans un automate cellulaire) pour en produire une troisième de complexité supérieure. Si cette nouvelle configuration est elle-même stable ou donne naissance à un attracteur, la transformation a joué un rôle structurant. On touche ici à l’idée que des interactions locales peuvent engendrer de la nouveauté stable – concept intimement lié à l’auto-organisation. ## Auto-organisation et attracteurs morphologiques Un système est dit auto-organisé lorsqu’il est capable de faire émerger spontanément de l’ordre à partir du désordre, sans contrôle externe imposé. L’auto-organisation se manifeste typiquement par l’apparition de structures cohérentes, de motifs ou de comportements globaux à partir d’interactions locales entre constituants simples. Ce principe, formulé en termes généraux, souligne la capacité de composants simples à former des structures complexes de manière autonome, sans intervention extérieure[9]. De nombreux systèmes physiques, chimiques et biologiques illustrent ce phénomène : on peut citer la formation de motifs de convection hexagonaux dans une couche fluide chauffée (cellules de Bénard), les oscillations chimiques de la réaction de Belousov-Zhabotinski, la cristallisation, ou en biologie la morphogenèse (apparition de motifs pigmentaires, de rayures, de tâches sur les animaux, expliquée dès 1952 par les modèles réaction-diffusion de Turing). Dans tous ces exemples, un état initial homogène ou chaotique évolue vers un état structuré présentant des corrélations à longue portée entre éléments du système. Prigogine a formalisé ce phénomène dans sa théorie des structures dissipatives, montrant que loin de l’équilibre, des phénomènes ordonnés peuvent se produire qui sont impossibles à proximité de l’équilibre thermique[10][11]. En régime loin de l’équilibre, l’énergie dissipée alimente des fluctuations qui, au-delà d’un certain seuil d’instabilité, se stabilisent en nouveaux modes organisés. En ce sens, la dissipation d’énergie devient source d’ordre – une idée paradoxale du point de vue de l’entropie classique, mais parfaitement illustrée par ces structures auto-organisées. Le lien entre attracteurs et auto-organisation se fait naturellement : les attracteurs sont les structures ordonnées vers lesquelles tend un système auto-organisé. On parle parfois d’attracteurs morphologiques pour souligner que ces attracteurs correspondent à des formes ou motifs stables. Par exemple, dans un automate cellulaire comme le Jeu de la Vie de Conway, on observe une multitude de structures émergentes : certaines configurations finissent par osciller (clignoteurs), d’autres convergent vers des motifs stables figés (« blocs », « bateaux »), et d’autres encore produisent des vaisseaux mobiles comme le fameux glider (planeur) qui se déplace indéfiniment sur la grille. Chaque tel motif stable ou périodique peut être vu comme un attracteur morphologique de la dynamique de l’automate. Fait remarquable, ces structures apparaissent spontanément à partir de configurations initiales aléatoires – un désordre initial « cuisiné » en quelque sorte en configurations structurées. Dans l’analogie de la soupe primitive chère aux biologistes, le Jeu de la Vie démontre comment, avec quelques règles locales de survie et reproduction, des motifs très sophistiqués peuvent émerger et rappeler la diversité des formes vivantes issues du chaos primordial[12][13]. La soupe primordiale du Jeu de la Vie correspond à une grille initialement remplie au hasard de cellules vivantes ou mortes ; très vite, on voit surgir des arrangements réguliers – c’est une illustration ludique mais profonde du principe d’auto-organisation. Du point de vue scientifique général, ces attracteurs morphologiques relient notre construction à divers corpus établis. D’une part, la dynamique discrète et la théorie générale des systèmes dynamiques fournissent le langage mathématique pour décrire ces attracteurs, leurs basins, et les bifurcations possibles[2][14]. Ce cadre est bien consensuel : depuis Poincaré jusqu’à la théorie du chaos déterministe, on dispose d’outils pour comprendre la convergence vers des ensembles invariants, la robustesse aux perturbations et la dépendance sensible aux conditions initiales. D’autre part, les systèmes auto-organisés relèvent d’un domaine de recherche interdisciplinaire actif, englobant la thermodynamique hors-équilibre (Prigogine, Haken), la physique statistique des processus d’ordre émergent, la chimie prébiotique, la science des matériaux (auto-assemblage) et bien sûr la biologie du développement et de l’évolution. Un consensus s’est formé sur le fait que l’auto-organisation est un ingrédient fondamental dans l’émergence du vivant et des structures complexes, même s’il reste beaucoup de questions ouvertes quant aux détails (par exemple, comment quantifier précisément l’information produite lors de l’auto-organisation, comment prédire l’apparition de tel ou tel attracteur en fonction des paramètres, etc.). En parlant d’information, il faut souligner le lien avec la notion d’entropie structurelle. Classiquement, l’entropie mesure le désordre microscopique d’un système. L’entropie informationnelle de Shannon, formulée en 1948, quantifie l’incertitude associée à une distribution d’états ou de symboles[15]. Un système complètement désordonné ou imprévisible a une entropie élevée, tandis qu’un système très ordonné (donc prévisible) a une entropie faible. Lorsqu’une structure émerge – par exemple un cristal se forme à partir d’atomes en solution, ou un motif régulier apparaît – l’entropie associée à la configuration diminue localement (il y a moins de surprise, plus de régularité). Schrödinger notait dès 1944 que la vie se caractérise par sa capacité à absorber de la « négentropie » pour maintenir son ordre interne[16]. En d’autres termes, un organisme vivant puise de l’énergie dans son environnement et l’utilise pour réduire son entropie interne (créer et maintenir des structures hautement improbables du point de vue de l’équilibre). Dans le cadre de notre modèle, on peut définir l’entropie structurelle comme une mesure de la diversité ou du désordre des configurations du système au niveau macroscopique. Par exemple, si l’espace de configurations se répartit en quelques attracteurs dominants et que presque toutes les trajectoires finissent dans l’un d’eux, on dira que l’entropie structurelle du système est faible – il y a peu de diversité finale. En revanche, s’il existe de très nombreux attracteurs de taille comparable, ou si la dynamique conserve une richesse de formes au cours du temps, l’entropie structurelle est élevée. L’information produite par le système au cours du temps peut se mesurer par la réduction d’entropie qu’il opère en formant des structures. Landauer a établi en 1961 un lien fondamental entre information et physique : « toute manipulation logique irréversible de l’information... est nécessairement accompagnée d’une augmentation de l’entropie dans l’environnement »[17]. Effacer un bit d’information – c’est-à-dire détruire de l’information pour aller vers un état plus ordonné – coûte au minimum $kT\ln 2$ d’énergie dissipée sous forme de chaleur[18]. Cette limite de Landauer montre que créer de l’ordre (réduire l’entropie informationnelle interne) a un prix énergétique. Notre cadre s’inscrit dans cette compréhension : l’émergence d’un attracteur (ordre organisé) suppose en contrepartie une dissipation d’énergie ou une exportation d’entropie ailleurs. Il est donc crucial, dans une perspective physique, de toujours considérer où part l’entropie perdue quand de l’ordre apparaît localement. Cela évite de violer le second principe de la thermodynamique, même si, à première vue, un système auto-organisé semble « décréer » du désordre. En réalité, il le délocalise ou le transforme. Le pont conceptuel jeté par E.T. Jaynes dans les années 1950 vient ici éclairer la situation d’un jour unifié : Jaynes a soutenu que l’entropie de Shannon et l’entropie de Gibbs (thermodynamique statistique) sont en fait la même notion conceptuelle, l’une appliquée à de l’information abstraite, l’autre à des micro-états physiques[19]. Le fait qu’elles obéissent à des formules identiques n’est pas une coïncidence mais le signe que la physique statistique peut se voir comme un cas particulier d’un principe d’inférence logique (le principe de maximum d’entropie). Ainsi, la formation d’une structure dans notre espace de configurations peut être interprétée à deux niveaux : (i) concrètement, comme l’établissement d’un ordre dans le système (baisse d’entropie physique interne, augmentation corrélative de l’entropie dans l’environnement dissipatif) et (ii) informationnellement, comme une gain d’information sur l’état du système (on a réduit l’incertitude sur sa configuration en observant l’émergence d’un motif précis). Cette double lecture, garantie cohérente par les principes de Landauer, Shannon et Jaynes, confère au concept d’attracteur une portée à la fois physique et informationnelle : un attracteur, c’est un condensé d’information (la description de l’attracteur est relativement simple comparée à celle d’un état aléatoire) et c’est un puits de dissipation (de l’énergie a été dissipée pour y parvenir). ## Lecture conditionnelle et implications ontologiques En posant ces bases mathématiques – espace de configurations, contraintes, transformations, attracteurs et stabilité – nous avons esquissé un cadre minimal pour qu’une dynamique d’expression structurale puisse exister. Il s’agit fondamentalement des conditions d’existence d’un « substrat » capable de porter des formes, de les faire évoluer, interagir et éventuellement se complexifier. Nous allons maintenant situer ce cadre par rapport à des questions plus fondamentales d’ontologie (philosophie de l’existence et de la connaissance). L’enjeu est de comprendre si un tel formalisme peut modéliser des systèmes particuliers (physiques, biologiques, informatiques) et, sous hypothèses explicites, fournir une lecture interprétative – sans énoncé sur la structure du réel en général. Les lectures interprétatives (lorsqu’elles sont proposées) sont formulées avec hypothèses \(H\), énoncé \(E\), lecture optionnelle \(I\), et ruptures \(C\) si une hypothèse est retirée. Une question philosophique millénaire, renouvelée à l’ère de l’information, est celle de la primauté de la matière ou de l’information. Traditionnellement, on considère que la matière est première et que l’information n’est qu’une configuration de la matière (par exemple, l’encre sur du papier pour écrire un texte)[20]. Toutefois, on peut inverser cette perspective et concevoir la matière elle-même comme une expression émergente d’une information sous-jacente. Le physicien John Wheeler a popularisé cette idée provocatrice par la formule « it from bit » – « l’objet provient du bit » – signifiant que l’information est conceptuellement première, et que la matière ainsi que les lois physiques émergent d’un monde fondamental d’information[21]. Autrement dit, les particules, les champs, l’énergie que nous percevons seraient des manifestations d’un substrat informatif plus profond, tout comme, dans un automate cellulaire, un « glider » tangible n’est au fond qu’une certaine configuration de bits sur la grille. Notre modèle ontologique unifié de la connaissance comme substrat pré-énergétique s’inscrit dans cette lignée d’idées en explorant la possibilité qu’au fondement de la réalité, avant même les concepts d’énergie ou de matière, il y ait une structure d’information ou de connaissance pure – un espace de configurations primordial dont les transformations engendreraient ce que nous appelons ensuite particules, forces, et pourquoi pas, conscience. Par pré-énergétique, on entend que ce substrat n’est pas de l’énergie au sens physique, mais peut-être quelque chose de plus abstrait duquel l’énergie dérivera ultérieurement. Cette hypothèse est à ce stade spéculative et conceptuelle (aucun consensus scientifique n’affirme l’existence d’un tel substrat immatériel), mais elle s’inspire de plusieurs pistes reconnues : outre Wheeler, on peut citer la recherche en gravitation quantique qui suggère que l’espace-temps lui-même pourrait être discret et issu d’informations quantiques (approches « it from qubit »), ou encore les travaux en informatique fondamentale cherchant à reformuler les lois de la physique comme des algorithmes d’évolution d’un système d’information. Ce que notre construction mathématique offre, c’est un langage pour penser cette possibilité sans quitter la rigueur scientifique. En effet, si l’on considère un espace de configurations (éventuellement très grand), satisfaisant des hypothèses explicites, évoluant suivant des règles (transformations admissibles) et contraint par certaines cohérences internes (contraintes admissibles fondamentales, qu’on pourrait assimiler aux principes de symétrie ou de conservation les plus profonds), alors l’émergence du monde matériel pourrait se lire comme l’apparition d’attracteurs dans cet espace abstrait. Les particules élémentaires, par exemple, pourraient correspondre aux attracteurs stables d’une dynamique informationnelle sous-jacente – des formes invariantes (comme des solitons) dans un substrat de calcul ou de relation. Cette idée rejoint en partie des vues déjà explorées en cosmologie et en physique théorique : on pense aux automates cellulaires universels envisagés par Zel’dovich ou Fredkin pour simuler des dynamiques à grande échelle, aux théories décrivant la physique comme calcul (Zuse), ou plus récemment aux spéculations sur un substrat de calcul comme réseau de neurones ou comme programme exécutable. La nouveauté de notre approche est d’y intégrer explicitement la dimension de connaissance : ce substrat informationnel peut être vu non seulement comme de l’information brute, mais comme une ontologie de la connaissance – une structure formelle dans laquelle ce qui existe, c’est ce qui peut être distingué, organisé, connu en puissance. Dans un tel cadre, les collisions structurantes évoquées plus tôt peuvent recevoir une lecture interprétative (sous hypothèses explicites) : deux « configurations » d’un espace de configurations qui entrent en collision (au sens d’interaction dans la dynamique) peuvent donner naissance à une nouvelle structure stable – on pourrait y voir une analogie avec deux ondes se rencontrant pour créer une particule stable, ou deux événements fusionnant en un concept nouveau. De même, la notion de reproductibilité interne revêt une portée fondamentale : pour qu’une complexification croissante se produise dans le système sans apport extérieur, il faut que certaines structures une fois apparues puissent se copier ou se répliquer à l’intérieur du système. Sans reproduction, pas d’accumulation d’information structurale sur le long terme – c’est l’apanage du vivant, mais peut-être aussi d’autres processus naturels. Or, on sait depuis les travaux de von Neumann qu’un système purement formel peut tout à fait engendrer des entités auto-réplicatives : dès 1948, von Neumann décrivit un automate cellulaire capable de se copier lui-même, anticipant conceptuellement le mécanisme de l’ADN bien avant sa découverte[22]. Il montra qu’en munissant un automate d’un ensemble suffisant d’états et de règles, on peut avoir une configuration $P$ (un « programme ») qui crée une copie $P'$ d’elle-même à côté, tout en se conservant – établissant ainsi la possibilité d’une machine virtuelle autoreproductrice[23][24]. Autrement dit, la logique de la vie (duplication de l’information génétique et construction d’un nouvel individu à partir de cette information) peut être capturée dans un espace de configurations purement informationnel. La reproductibilité interne dans notre modèle consisterait en de tels attracteurs capables de générer, via les transformations admissibles, des copies d’eux-mêmes au sein du même espace. Un tel phénomène permettrait la transmission et l’accumulation de structures, ouvrant la voie à une évolution endogène du système. Cette idée est bien sûr spéculative à grande échelle, mais elle s’aligne avec l’intuition qu’un système, pour engendrer de la complexité, requiert (sous hypothèses explicites) la capacité de conserver et de répliquer certains agencements informationnels stables à travers le temps, en plus de simplement les produire de manière isolée. Philosophiquement, envisager la connaissance comme substrat pré-énergétique conduit à repenser la notion même d’être. Dans cette optique, être signifierait peut-être être informé, c’est-à-dire occuper une configuration distinctive dans l’espace ontologique fondamental. La connaissance, quant à elle, ne serait plus seulement une faculté émergente de certains systèmes (comme le cerveau humain), mais un ingrédient constitutif de la réalité – dans le sens où les « lois de la physique » pourraient n’être que des contraintes admissibles de cet espace, et les « états physiques » des attracteurs informationnels. Une telle vue écho à des courants de pensée en physique et en philosophie des sciences tels que l’informationalisme ontologique ou le digital ontology, qui soutiennent que l’information est le tissu premier du réel. Elle doit cependant être maniée avec prudence : si elle ouvre des perspectives unifiantes (en liant par exemple l’existence matérielle, le processus de mesure quantique – où l’information d’observation joue un rôle –, et l’émergence de l’esprit dans une continuité conceptuelle), elle ne fait pas consensus et reste une interprétation parmi d’autres. Nous la signalons donc comme une orientation possible (structured speculation), à confronter aux faits et aux théories établies. Pour conclure ce chapitre de fondations, nous soulignons la progression logique suivie : nous sommes partis de notions mathématiques pures (ensemble de configurations, applications dynamiques, attracteurs) pour arriver à effleurer les questions d’interprétation (origine de l’ordre dans un modèle, primauté de l’information) et ontologiques (qu’est-ce qui est fondamentalement réel ? la matière ou la connaissance ?). Cette progression s’est faite sans rupture de ton, car le même formalisme sous-tend chaque étape. Les attracteurs que nous avons définis formellement peuvent représenter aussi bien un motif dans un automate que l’état stationnaire d’un système modélisé ou l’idée stable dans un système de pensée. Le fil conducteur est la stabilité structurelle et la reproductibilité : ces deux caractéristiques rendent compte de la persistance et de l’organisation du réel à toutes les échelles. En effet, dans tout modèle satisfaisant les hypothèses de stabilité, la stabilité structurelle est ce qui permet à des structures élémentaires (particules, atomes) de perdurer suffisamment pour se combiner en structures plus complexes (molécules, cellules, étoiles), et la reproductibilité (ou du moins la multiplicabilité) est ce qui permet d’en avoir de multiples exemplaires pour construire les niveaux supérieurs. Du point de vue de la connaissance, la stabilité correspond à la fiabilité des concepts ou des informations (une connaissance stable est une connaissance qui reste vraie ou opérante sous diverses transformations de contexte), et la reproductibilité correspond à la communicabilité et à la transférabilité du savoir (une idée reproductible peut être transmise, recopiée, enseignée, rejouée dans un autre esprit ou un autre support). Ainsi, espaces de configurations, transformations admissibles, attracteurs et stabilité constituent les briques d’un modèle ontologique unifié où la distinction entre physique, vie et connaissance s’estompe au profit de notions communes de forme, d’information et de dynamique. Les chapitres suivants poursuivront cette exploration en détaillant comment ce cadre peut être enrichi et appliqué à divers domaines, mais les bases rigoureuses posées ici resteront notre fil d’Ariane. Nous garderons à l’esprit les différentes portées – scientifique établie, recherche active, spéculation – en les distinguant clairement : ce qui relève du consensus (par exemple, le rôle de l’entropie en physique, la théorie des attracteurs en dynamique) a fondé notre édifice, ce qui relève de la recherche en cours (auto-organisation, complexité, vie artificielle) lui donne sa direction, et ce qui relève de l’interprétation philosophique (primauté de l’information, substrat de connaissance) lui donne son horizon. Toute extrapolation sera soigneusement balisée comme telle, l’objectif étant de construire un discours continu et cohérent de la mathématique à l'interprétation conditionnelle, sans jamais sacrifier la rigueur en chemin. Références utilisées : Landauer (principe thermodynamique de l’information)[17], Shannon (entropie d’information)[15], Jaynes (principe de maximum d’entropie et correspondance avec la thermo)[19], Schrödinger (néguentropie du vivant)[16], Prigogine (structures dissipatives et ordre hors-équilibre)[10][11], von Neumann (automates auto-reproducteurs)[22], Wheeler (« it from bit »)[21], entre autres. Chaque concept introduit s’appuie sur un corpus solide (consensus lorsqu’il existe, ou indications explicites lorsqu’il s’agit d’hypothèses de travail). Ce chapitre a ainsi établi le socle conceptuel sur lequel bâtir une modélisation unifiée de la connaissance, conçue comme structure ontologique fondamentale – avant que l’énergie, la matière ou toute autre manifestation n’en émergent. [1] [4] [5] [6] Attracteur — Wikipédia https://fr.wikipedia.org/wiki/Attracteur [2] [3] Signatures_genetiques_Kaprekar_manuscrit_complet.docx file://file_0000000026e071f49117ec4b3b473db8 [7] [8] [14] Signatures_genetiques_Kaprekar_fondamentaux.md file://file_000000009b3471f4b506d9eb26d55ffe [9] [12] [13] Le jeu de la vie - Bio-Info https://bioinfo-fr.net/jeu-de-la-vie-intro [10] [11] Qu’est-ce que des structures issues du non-équilibre ? - Matière et Révolution https://www.matierevolution.fr/spip.php?article2079 [15] Entropy (information theory) - Wikipedia https://en.wikipedia.org/wiki/Entropy_(information_theory) [16] Qu'est-ce que la vie ? — Wikipédia https://fr.wikipedia.org/wiki/Qu%27est-ce_que_la_vie_%3F [17] [18] Principe de Landauer — Wikipédia https://fr.wikipedia.org/wiki/Principe_de_Landauer [19] Principle of maximum entropy - Wikipedia https://en.wikipedia.org/wiki/Principle_of_maximum_entropy [20] [21] « It from bit », la matière repensée | Cairn.info https://stm.cairn.info/magazine-pour-la-science-2019-2-page-24?lang=fr [22] [23] [24] John von Neumann's Cellular Automata | Embryo Project Encyclopedia https://embryo.asu.edu/pages/john-von-neumanns-cellular-automata --- # Chapitre 2 — Itération, finitude locale et répétition nécessaire ## Hypothèses et résultats (repères) Hypothèses (H). - temps discret et itération d’une transformation \(f:X\to X\) (déterministe pour l’exposé) ; - finitude globale (\(|X|<\infty\)) ou finitude effective au niveau d’une description/partition. Résultats (E). - dérivation combinatoire de la répétition (réapparition d’états) puis de l’entrée en régime cyclique après transitoire ; - distinction de statut entre répétition, invariance et lectures interprétatives. Statut. - noyau ensembliste/combinatoire ; aucune quantification n’est requise. ## Introduction Le chapitre précédent a établi un cadre minimal : un espace de configurations, des contraintes d’admissibilité, et une famille de transformations qui induit une dynamique (éventuellement discrète) sur cet espace. Le présent chapitre introduit la contrainte formelle suivante : l’itération, combinée à une forme de finitude (globale ou locale), entraîne la réapparition d’états, puis l’entrée dans des régimes cycliques. Cette conséquence ne dépend ni d’une interprétation physique ni d’une hypothèse finaliste : elle résulte d’un fait combinatoire élémentaire, puis d’une lecture dynamique. ## Itération comme contrainte première On se donne un ensemble de configurations admissibles (X) et une transformation admissible [ f: X \to X, ] déterministe (pour simplifier l’exposé ; les extensions stochastiques seront distinguées plus loin). Une trajectoire issue d’un état initial (x_0 \in X) est la suite [ x_0,; x_1=f(x_0),; x_2=f(x_1)=f^{(2)}(x_0),; \dots,; x_t=f^{(t)}(x_0). ] L’itération n’est pas un détail de mise à jour : elle constitue une contrainte ontologique minimale dès lors qu’un système (au sens abstrait) se prolonge par mise à jour d’état, c’est-à-dire produit un état suivant à partir de l’état présent. En ce sens, l’itération impose l’existence d’orbites ({f^{(t)}(x_0)}_{t\ge 0}) et fait apparaître la question de leur structure globale. Deux remarques disciplinaires encadrent la suite. Premièrement, l’itération n’implique pas le temps comme primitive. Il s’agit d’un index d’étapes, qui ne présuppose aucune métrique temporelle ; la reconstruction d’une flèche temporelle sera traitée plus tard, comme conséquence supplémentaire (chapitre 4 du plan). Deuxièmement, l’itération ne suppose pas non plus l’existence d’une quantité conservée, d’une énergie, ni d’une notion de coût. Ici, l’objet est strictement : “que devient une suite (x_{t+1}=f(x_t)) sous des hypothèses minimales sur (X) ?”. ## Finitude globale : répétition nécessaire par combinatoire On suppose d’abord que (X) est fini, de cardinal [ |X| = N, ] avec (N) entier strictement positif. Considérons les (N+1) premiers termes d’une trajectoire : [ x_0, x_1, \dots, x_N. ] Ces (N+1) éléments appartiennent tous à (X) qui ne contient que (N) éléments. Par le principe des tiroirs (pigeonhole), deux indices (0 \le i < j \le N) existent tels que [ x_i = x_j. ] Cette égalité entraîne immédiatement un régime périodique à partir de (i). En effet, comme (f) est déterministe, l’état (x_i) engendre un unique successeur (x_{i+1}), donc l’égalité (x_i=x_j) impose [ x_{i+1}=f(x_i)=f(x_j)=x_{j+1}, ] et par récurrence [ x_{i+k}=x_{j+k}\quad \text{pour tout }k\ge 0. ] Ainsi, la trajectoire entre (i) et (j-1) se répète avec une période [ p = j-i,\quad 1 \le p \le N. ] Calcul détaillé (borne de répétition dans le cas fini) Paramètre : (N = |X|) Suite considérée : ((x_t)*{t\ge 0}) avec (x*{t+1}=f(x_t)) Nombre d’états examinés : (N+1) états (x_0,\dots,x_N) Principe : (N+1) objets dans (N) classes (\Rightarrow) collision (x_i=x_j) Conclusion : entrée en cycle au plus tard à l’étape (N), avec période (p=j-i\le N) Ce résultat est strictement mathématique : il ne requiert aucune hypothèse de “dissipation”, d’“optimisation” ou de “tendance”. Il exprime une nécessité : l’itération sur un ensemble fini force une récurrence, donc une périodicité après un transitoire. Une formulation équivalente (commode pour la suite) consiste à représenter ((X,f)) comme un graphe orienté fonctionnel : chaque (x\in X) a exactement une arête sortante vers (f(x)). La structure de tels graphes est complètement caractérisée : chaque composante connexe contient exactement un cycle dirigé, et des arbres dirigés (arborescences) alimentent ce cycle. Toute orbite finit par tomber sur le cycle de la composante. L’“attracteur” au sens discret (point fixe ou cycle) apparaît donc déjà comme un fait de combinatoire structurale, avant toute notion d’attraction métrique. Ce point est cohérent avec une formulation interne déjà utilisée ailleurs dans la base : l’itération d’une application sur un espace discret fini aboutit en temps fini à un cycle, précisément parce que “toute trajectoire finit par répéter un état” (propriété structurelle). ## Distinction entre répétition et invariance La conséquence “il existe une répétition” ne doit pas être confondue avec “il existe une invariance”. Répétition (récurrence) Il existe (i orb["Orbite (f^t(x))_{t≥0}"] orb --> rep["Répétition forcée (f^i(x)=f^j(x))"] rep --> cyc["Cycle C (ensemble invariant)"] cyc --> inv["Invariance: f(C)=C"] x --> bas["Bassin B(C): états menant à C"] bas --> cyc ``` ## Extension au cadre topologique et métrique On généralise maintenant à un espace \(X\) muni d’une structure topologique (ou métrique) et une application \(f:X\to X\) continue, ou à un flot \(\{\varphi_t\}_{t\in\mathbb{R}}\) engendré par une équation différentielle. ### Notions de voisinage, \(\omega\)-limite, attraction Soit \((X,d)\) un espace métrique (ou compact métrisable), \(f\) continue. **\(\omega\)-limite.** Pour \(x\in X\), l’ensemble \(\omega(x)\) est l’ensemble des points limites de la suite \(\{f^{(n)}(x)\}\). C’est un invariant asymptotique standard en dynamique (et il généralise le « cycle final » du cas fini). citeturn21view4 **Distance à un ensemble.** Pour \(A\subseteq X\) fermé, on définit \[ \operatorname{dist}(y,A)=\inf_{a\in A} d(y,a). \] **Attraction vers un ensemble.** On dit que l’orbite de \(x\) est attirée par \(A\) si \[ \operatorname{dist}(f^{(n)}(x),A)\to 0\quad (n\to\infty). \] ### Définition standard d’attracteur (topologique) Il existe plusieurs définitions non équivalentes dans la littérature (topologiques, mesurales, « Milnor attractors », etc.). Pour un socle consensuel, on adopte une définition topologique classique (suffisante ici). **Définition (attracteur topologique).** Un compact non vide \(A\subseteq X\) est un attracteur si : 1. **invariance** : \(f(A)=A\) ; 2. il existe un voisinage ouvert \(U\supseteq A\) tel que \[ \operatorname{dist}(f^{(n)}(x),A)\to 0\quad \forall x\in U; \] 3. (souvent ajouté) **minimalité** : \(A=\bigcap_{n\ge 0} f^{(n)}(\overline U)\). Le **bassin** de \(A\) est alors \[ B(A)=\{x\in X:\operatorname{dist}(f^{(n)}(x),A)\to 0\}. \] Cette définition rend explicite le rôle de la topologie : le bassin n’est plus seulement atteignabilité, mais convergence (au sens de \(d\)). ### Stabilité au sens de Lyapunov (cadre métrique et flots) La stabilité « géométrique » des attracteurs se formule via les définitions introduites par Lyapunov dans l’étude de la stabilité des mouvements, formulation devenue canonique. citeturn17view0turn15view1 Pour une équation autonome \(\dot x = F(x)\) et un équilibre \(x^\*\) (i.e. \(F(x^\*)=0\)) : **Stabilité de Lyapunov.** \(x^\*\) est stable si \[ \forall \varepsilon>0,\ \exists \delta>0:\ \|x(0)-x^\*\|<\delta\Rightarrow \forall t\ge 0,\ \|x(t)-x^\*\|<\varepsilon. \] **Stabilité asymptotique.** \(x^\*\) est asymptotiquement stable si, en plus, \(x(t)\to x^\*\) quand \(t\to\infty\). Ces notions ont des analogues pour les points fixes des applications discrètes continues (avec \(t\) remplacé par \(n\in\mathbb{N}\)), et elles sont systématiquement utilisées pour relier « attraction » et « robustesse sous perturbation » dans les cadres différentiables. citeturn21view4 ### Types d’attracteurs en dynamique continue Sous hypothèses de régularité, plusieurs classes de comportements invariants attirants sont bien établies : - **équilibre stable** : point fixe du flot (un point) ; - **cycle limite** : orbite périodique attirante (un cercle topologique) ; - **tore invariant attirant** (quasi-périodicité) ; - **attracteur chaotique** (dit souvent « étrange ») : ensemble invariant attirant présentant une dynamique sensible et typiquement une géométrie fractale. Le résultat de Poincaré–Bendixson (consensus) joue un rôle de frontière : en dimension plane, sous conditions standard, les \(\omega\)-limites compactes non vides sont essentiellement des équilibres ou des orbites périodiques, ce qui exclut l’existence d’attracteurs étranges pour les flots \(C^1\) sur le plan (dans le régime couvert par le théorème). citeturn21view4turn2search2 ### Attracteurs « étranges » : définition opérationnelle et sources classiques Le terme « attracteur étrange » n’a pas une définition unique universelle; on retient une définition opérationnelle, standard dans la pratique : Un attracteur \(A\) est dit **étrange** s’il est (i) attractif (au sens précédent), et (ii) porte une dynamique non périodique avec sensibilité aux conditions initiales, et (iii) présente typiquement une structure géométrique non régulière (dimension fractale) ou un étirement–repliement de type hyperbolique. Trois jalons consensuels structurent cette notion : - **Lorenz (1963)** exhibe un flot déterministe en dimension 3 admettant un comportement non périodique et instable aux conditions initiales, devenu paradigme d’attracteur chaotique. citeturn1search3 - **Ruelle–Takens (1971)** proposent un mécanisme menant à des régimes chaotiques dans des systèmes dissipatifs via perte de stabilité et apparition d’ensembles invariants complexes. citeturn3search6turn5view5 - **Hénon (1976)** fournit une application de \(\mathbb{R}^2\) (diffeomorphisme dissipatif) dont les itérés tendent vers un attracteur étrange pour des paramètres spécifiques, montrant que le chaos attractif n’est pas réservé aux flots continus. citeturn20search0turn20search16 ## Robustesse, bifurcations et stabilité structurelle Le concept d’attracteur, compris comme « structure asymptotique », ne suffit pas : une structure peut exister mais être détruite par une perturbation arbitrairement petite. D’où l’introduction de la **robustesse**. ### Robustesse : définitions formelles minimales Soit une famille dépendant d’un paramètre \(\{f_\lambda\}_{\lambda\in\Lambda}\) (applications ou flots). On distingue au moins trois niveaux : **Robustesse d’un ensemble invariant.** Un invariant \(A_\lambda\) est robuste si, pour \(\lambda'\) proche de \(\lambda\), il existe un invariant \(A_{\lambda'}\) « de même type » (conjugué topologiquement, ou continu en Hausdorff, selon le cadre retenu). **Stabilité structurelle (définition standard).** Un système \(f\) est structurellement stable (dans une topologie \(C^r\)) si tout système \(g\) suffisamment proche est topologiquement conjugué à \(f\) (au moins sur l’ensemble non errant / non wandering). Cette notion est au cœur du programme de Smale et de ses prolongements. citeturn10search1turn23search10 **Robustesse des bassins.** Même si un attracteur persiste, son bassin peut changer fortement (frontières fractales, crises), rendant la « prévisibilité macroscopique » instable. ### Bifurcations : principe Une **bifurcation** est une valeur de paramètre où la structure qualitative de la dynamique change (nombre/stabilité d’équilibres ou d’orbites périodiques, apparition/disparition d’attracteurs, changement topologique de bassins). Les bifurcations sont donc des points où la stabilité structurelle échoue. ### Exemple canonique : bifurcation de Hopf La bifurcation de Hopf formalise la naissance (ou mort) d’une orbite périodique à partir d’un équilibre lorsque une paire de valeurs propres complexes conjuguées traverse l’axe imaginaire (forme continue) ; c’est un mécanisme de création d’un **cycle limite**, donc d’un attracteur périodique. Ce résultat est exposé de manière classique dans la tradition Hopf–Andronov–Poincaré, et sa présentation moderne est standardisée dans la littérature. citeturn30search0turn30search5 On distingue typiquement : - **Hopf supercritique** : naissance d’un cycle limite stable (attracteur périodique) ; - **Hopf subcritique** : apparition d’un cycle instable et perte de stabilité brutale de l’équilibre. Le point méthodologique important pour l’ouvrage : Hopf illustre que des attracteurs périodiques peuvent être **créés par variation infinitésimale** des contraintes dynamiques. ### Crises et changements de bassins (dynamique chaotique) Au-delà des bifurcations locales, des phénomènes de type **crise** décrivent des changements soudains d’un attracteur chaotique (élargissement, disparition) liés à une collision avec une orbite périodique instable. citeturn23search4 Ces événements sont particulièrement pertinents pour la notion de « dominance d’attracteurs » : un attracteur peut rester invariant mais devenir inatteignable pour la plupart des conditions initiales si son bassin se fragmente. ### Critères de stabilité structurelle : repères de consensus Deux repères classiques (énoncés comme consensus, sans preuve ici) : - En dimension 2 pour les flots sur surfaces compactes, la stabilité structurelle admet une caractérisation et une densité (théorèmes de Peixoto). citeturn3search4turn3search8 - Dans le cadre différentiable de Smale, les systèmes hyperboliques \(Axiom\,A\) (avec conditions additionnelles type « no cycles ») jouent un rôle central dans la stabilité \(C^1\) et la décomposition spectrale (programme de Smale et prolongements). citeturn10search1turn23search10 Ces repères justifient la séparation conceptuelle : il existe des attracteurs **non robustes**, et des attracteurs **robustes** (hyperboliques au sens large), ces derniers étant fondamentaux pour toute théorie de formes persistantes sous perturbations. ## Mesures structurelles et quantification Après avoir défini attracteurs et bassins, il devient possible de quantifier la « topologie de stabilité » (au sens d’organisation globale des bassins). ### Quantités combinatoires (discret fini) Dans \((X,f)\) fini, chaque attracteur discret correspond à un cycle \(C_i\). On définit : - **taille de bassin** : \(b_i = |B(C_i)|\) ; - **dominance** : \(D=\max_i \frac{b_i}{N}\) ; - **nombre d’attracteurs** : \(K = \#\{C_i\}\). Ces quantités sont calculables exactement. **Proposition D (borne et calcul de dominance).** \(1/N \le D \le 1\). De plus, \(D=1\) ssi il n’existe qu’un seul cycle (un attracteur discret unique absorbant tout \(X\)). *Preuve.* \(D\) est le maximum d’une distribution \(\{b_i/N\}\) dont la somme vaut 1. Le maximum est au moins \(1/K\ge 1/N\) et au plus 1; l’égalité \(D=1\) implique qu’un seul terme vaut 1. □ **Proposition E (entropie structurelle des bassins).** Définissons \[ p_i=\frac{b_i}{N},\qquad H_{\text{bassins}} = -\sum_{i=1}^K p_i \log p_i. \] Alors \[ 0 \le H_{\text{bassins}} \le \log K \] avec \(H_{\text{bassins}}=0\) ssi \(K=1\), et \(H_{\text{bassins}}=\log K\) ssi \(p_i=1/K\) pour tout \(i\). *Preuve.* Propriété standard de l’entropie de Shannon sur une distribution finie. citeturn13view0 Cette « entropie structurelle » n’est ici qu’une **fonctionnelle** appliquée à la distribution des tailles de bassins. Elle quantifie la dispersion des destinées asymptotiques : faible entropie → attracteurs dominants; forte entropie → pluralité équilibrée des attracteurs. ### Entropies dynamiques (topologique et métrique) : extension consensuelle Dans le cadre topologique, l’**entropie topologique** \(h_{\text{top}}(f)\) a été introduite comme invariant pour les applications continues sur espaces compacts. citeturn24search0 Conceptuellement, elle mesure une croissance du nombre d’orbites distinguables à résolution finie, et fournit une quantité globale de « complexité temporelle ». Dans le cadre mesuré, l’entropie métrique (Kolmogorov–Sinai / Sinai) formalise une notion de production d’incertitude par itération (sous mesure invariante), utilisée pour caractériser le chaos. citeturn24search2 Ces deux notions ne remplacent pas \(H_{\text{bassins}}\) : elles répondent à une autre question (instabilité/complexité dans l’invariant), tandis que \(H_{\text{bassins}}\) décrit la distribution d’accessibilité des régimes. ### Métriques discrètes pour structures d’atteignabilité (bassins) Pour relier les structures d’attracteurs à des notions de proximité entre états discrets, on introduit des métriques compatibles avec l’interprétation (sans l’imposer). Exemples génériques : - **distance de Hamming** sur des mots de longueur \(m\) ; - **distance d’édition (Levenshtein)** sur des séquences ; - **distance sur graphes** (nombre minimal de modifications locales: arêtes/sommets). Ces métriques permettent de définir des voisinages \(B_\varepsilon(x)\) et donc des versions « métriques » de bassins et de stabilité, même en contexte discret (commode pour relier, plus tard, l’agrégation et la quantification). La théorie de Shannon fournit le prototype de mesure d’incertitude sur un ensemble fini et sur des sources finies, indépendamment de toute sémantique. citeturn13view0 ### Schéma de structure d’atteignabilité (attracteurs, idée structurale) ```mermaid flowchart LR subgraph U["Espace des états (structure d’atteignabilité)"] direction LR B1["Bassin B(A₁)"] --> A1["Attracteur A₁"] B2["Bassin B(A₂)"] --> A2["Attracteur A₂"] B3["Bassin B(A₃)"] --> A3["Attracteur A₃"] B1 --- Sep12["Frontière de bassin"] B2 --- Sep12 B2 --- Sep23["Frontière de bassin"] B3 --- Sep23 end ``` ## Implications déduites strictement des résultats précédents (lecture conditionnelle) Les implications suivantes ne sont pas des hypothèses additionnelles : elles découlent des constructions mathématiques précédentes. ### Disponibilité nécessaire de régimes persistants Dans tout cadre abstrait où : - une dynamique itérative est définie (chapitres 1–2), - l’espace effectif est fini (ou compact avec dissipation/contraction dans le continu), il existe des **ensembles invariants** et, sous conditions, des **attracteurs** au sens topologique. Dans le cas fini déterministe, l’existence de cycles est forcée, et chaque composante admet une structure d’absorption (bassin → cycle). Donc un tel système est structurellement capable de produire des **formes persistantes** (au sens de régimes invariants atteints asymptotiquement). Cette « persistance » n’est pas un concept biologique ou cognitif : c’est une propriété de fermeture et d’invariance. ### Effet d’effacement des détails initiaux Dans le cas fini, deux états distincts peuvent partager le même attracteur (ils appartiennent au même bassin). Cela implique un **effet d’oubli structurel** : la dynamique identifie des classes d’états par leur destinée asymptotique, sans préserver l’identité des conditions initiales. Cette conclusion est purement logique (partition par bassins). ### Condition nécessaire (mais non suffisante) pour une réplication interne Sans introduire encore les notions ultérieures de composition et de transmission (qui viendront plus tard), on peut déjà énoncer une nécessité minimale : - toute « réplication interne » (au sens strictement formel : production itérative d’occurrences persistantes d’une même sous-structure) exige l’existence de régimes invariants suffisamment stables pour ne pas être détruits immédiatement. Autrement dit, l’existence d’attracteurs (régimes invariants attractifs) constitue une **condition de possibilité** pour toute accumulation ultérieure de structures, mais ne garantit pas la réplication : celle-ci requiert des opérations de composition/couplage non encore introduites dans la spirale (chapitres ultérieurs du plan). ## Analyse philosophique finale : nécessité ontologique, limites, interdits ### Nécessité ontologique minimale Ce chapitre permet une thèse philosophique strictement négative (au sens méthodologique) : - si un monde est décrit par itération d’opérateurs sur un espace effectif fini (ou par une dynamique continue possédant des ensembles \(\omega\)-limites attractifs), alors l’existence d’ensembles invariants et d’attracteurs n’est pas un ajout sémantique : c’est une conséquence de la structure même de l’évolution. En termes ontologiques : l’« être à long terme » d’un état n’est pas l’état lui-même, mais sa **classe asymptotique** (cycle, attracteur). Cette réduction n’a rien d’interprétatif ; elle formalise le fait que la dynamique ne conserve pas, en général, les différences microscopiques. ### Ce que le formalisme interdit à ce stade Conformément à la stratégie de l’ouvrage, ce chapitre interdit explicitement (par insuffisance de structure) : - d’interpréter un attracteur comme « information », « mémoire » ou « connaissance » (ces lectures sont possibles mais exigent des constructions supplémentaires, notamment sur la non-injectivité, la composition, et l’irréversibilité en tant que coût — spirales suivantes) ; - de confondre « attracteur » et « optimum » : aucune fonction de coût n’a été postulée; l’attraction est définie par convergence/invariance, pas par maximisation. ### Limite conceptuelle majeure : pluralité des définitions d’attracteur Même en mathématiques, « attracteur » est un terme à définitions multiples (topologiques, mesurales, physiques). ### Ouverture disciplinée vers la physique (sans fondation) Une remarque finale, sans changer le statut mathématique : en thermodynamique hors équilibre, l’émergence d’états organisés (structures dissipatives) peut être lue comme l’apparition de régimes attractifs dans l’espace des états macroscopiques; Prigogine a insisté sur le rôle des instabilités et fluctuations dans la genèse de telles structures. citeturn31search0 Cette remarque ne sert pas de preuve; elle indique seulement que le concept abstrait d’attracteur a des instanciations reconnues dans des sciences empiriques. ## Tableaux comparatifs ### Définitions et objets entre cadre discret fini et cadre continu/métrique | Objet | Discret fini \((X,f)\) | Continu / métrique \((X,d,f)\) ou flot \(\varphi_t\) | |---|---|---| | État | \(x\in X\) | \(x\in X\) (souvent variété / espace métrique) | | Orbite | \(\{f^{(n)}(x)\}_{n\ge 0}\) | \(\{f^{(n)}(x)\}\) ou \(\{\varphi_t(x)\}_{t\ge 0}\) | | Invariance | \(f(S)\subseteq S\) | \(f(S)\subseteq S\) ou \(\varphi_t(S)=S\) | | Point fixe | \(f(x)=x\) | \(f(x)=x\) ou équilibre \(F(x)=0\) | | Orbit. périodique | \(f^{(p)}(x)=x\) | \(\varphi_T(x)=x\) (cycle limite) | | Attracteur | cycle (avec bassin) | compact invariant + voisinage attiré citeturn21view4 | | Bassin | atteignabilité vers un cycle | convergence : \(\operatorname{dist}(f^{(n)}(x),A)\to 0\) | | Stabilité | graph-theoretic (cycle) | Lyapunov / hyperbolicité citeturn17view0turn15view1 | ### Types d’attracteurs et mécanismes d’apparition | Type | Support | Mécanisme canonical | Source jalon | |---|---|---|---| | Équilibre stable | point | linéarisation + Lyapunov | Lyapunov (stabilité) citeturn17view0turn15view1 | | Cycle limite | orbite périodique | bifurcation de Hopf | Marsden et al. (Hopf) citeturn30search0 | | Chaos attractif | ensemble non lisse | étirement–repliement, hyperbolicité partielle | Lorenz; Ruelle–Takens; Hénon citeturn1search3turn3search6turn20search0 | | Chaos en discret 1D | intervalle | période 3 ⇒ chaos (au sens Li–Yorke) | Li–Yorke citeturn21view3 | --- # Chapitre 4 — Temps comme ordre induit par l’itération ## Hypothèses et résultats (repères) Hypothèses (H). - itération (ou action de semi‑groupe) définie à partir de transformations admissibles ; - choix d’une granularité d’observation explicite si une “durée” est mobilisée. Résultats (E). - reconstruction du temps minimal comme ordre induit par l’atteignabilité (préordre, puis ordre sur quotient) ; - clarification du statut de la flèche (semi‑groupe effectif) et des horloges internes comme quantifications optionnelles. Statut. - noyau ensembliste pour l’ordre ; quantifications (durées/coûts) indexées et optionnelles ; ancrages physiques annoncés comme correspondances sous hypothèses. ## Résumé exécutif Ce chapitre reconstruit le « temps » **sans le postuler**. Partant uniquement de primitives non sémantiques — un espace de configurations \(X\), des transformations admissibles, et l’itération — on montre que la dynamique induit naturellement une **relation d’antériorité** entre états, définie par l’atteignabilité (transitive closure) plutôt que par un paramètre temporel préalable. Cette relation est toujours un **préordre** (réflexif, transitif) et devient un **ordre partiel** lorsque l’on quotient par l’équivalence de récurrence (mutuelle atteignabilité). Dans le cas discret fini, l’interprétation en graphe fonctionnel rend explicite la décomposition en **composantes** et en **cycles**, et l’on obtient un DAG (« condensation ») qui fournit une flèche d’ordre. On étend ensuite la construction à des cadres continus en remplaçant l’itération par une **action de semi-groupe** \((\mathbb{R}_+,+)\) (semi-flot), et en distinguant soigneusement le cas **réversible** (action de groupe \((\mathbb{R},+)\), flots bijectifs) du cas **irréversible** (absence d’inverse global, semi-groupes). La « flèche du temps » apparaît alors comme la non-extensibilité d’un semi-groupe en groupe, ce qui peut provenir soit de la non-injectivité (fusion de passés), soit de la perte d’information par agrégation, soit de la présence d’une grandeur monotone (fonction de Lyapunov / ressource consommée). La métrique temporelle (durée, échelle, granularité) est ensuite reconstruite par des **horloges internes** : compteurs d’événements, longueurs minimales de chaînes, ou temps pondéré par coûts de transitions. Enfin, le chapitre relie ces constructions à deux consensuses : (i) la flèche thermodynamique et l’entropie comme monotone (deuxième loi), et (ii) l’irréversibilité de l’effacement logique et son coût minimal (principe de Landauer). La lecture conditionnelle dérivée reste strictement minimale : dans tout modèle itératif satisfaisant les hypothèses du chapitre, le système peut porter un ordre historique seulement si, au niveau pertinent de description, l’évolution induit un ordre non symétrique (semi-groupe effectif, ou monotone empêchant les retours). La section philosophique conclut sur ce que le formalisme autorise et interdit : il autorise une ontologie du temps comme **structure d’ordre**; il interdit de traiter le temps comme primitif, et interdit d’inférer une métrique unique sans horloge ni convention. ## Primitives non sémantiques et construction de l’ordre induit ### Axiomes minimaux On fixe un cadre volontairement pauvre. **A0 — Configurations.** Un ensemble non vide \(X\), dont les éléments sont appelés configurations. **A1 — Transformations admissibles.** Un ensemble \(\mathcal{T}\subseteq X^X\) d’applications \(T:X\to X\), stable par composition et contenant l’identité. Autrement dit, \((\mathcal{T},\circ,\mathrm{Id})\) est un monoïde d’endomorphismes admissibles. **A2 — Générateur d’évolution.** On choisit un élément \(f\in\mathcal{T}\). La dynamique « élémentaire » est l’itération de \(f\), et le sous-monoïde engendré par \(f\) est \[ \langle f\rangle \;=\;\{f^{(n)}\;:\;n\in\mathbb{N}\}, \] où \(f^{(0)}=\mathrm{Id}\) et \(f^{(n+1)}=f\circ f^{(n)}\). Ces axiomes n’introduisent encore aucun « temps » : ils définissent seulement une fermeture opératoire par composition. ### Relation d’antériorité comme atteignabilité On définit une relation binaire \(\preceq\) sur \(X\) par : \[ x\preceq y \quad\Longleftrightarrow\quad \exists\,T\in\langle f\rangle,\; y=T(x). \] Sans mentionner \(n\), on peut dire : \(y\) appartient à la plus petite partie \(S\subseteq X\) qui contient \(x\) et est stable par \(f\) (i.e. \(f(S)\subseteq S\)). **Proposition 1 — \(\preceq\) est un préordre.** La relation \(\preceq\) est réflexive et transitive. *Démonstration.* Réflexivité : \(x = f^{(0)}(x)\), donc \(x\preceq x\). Transitivité : si \(x\preceq y\) et \(y\preceq z\), il existe \(m,n\) tels que \(y=f^{(m)}(x)\) et \(z=f^{(n)}(y)\). Alors \(z=f^{(n)}(f^{(m)}(x))=f^{(m+n)}(x)\), donc \(x\preceq z\). □ **Remarque structurale.** La définition ne dépend d’aucune métrique ni d’aucun paramètre géométrique : \(\preceq\) est une structure d’ordre issue du seul fait qu’il existe un « successeur admissible » (application de \(f\)). ### Antisymétrie et cycles : pourquoi l’ordre échoue sur \(X\) Un préordre devient un ordre partiel si, en plus, il est antisymétrique : \[ (x\preceq y\ \&\ y\preceq x)\ \Rightarrow\ x=y. \] Or, dès qu’il existe une périodicité (cycle), l’antisymétrie échoue : si \(y=f^{(k)}(x)\) et \(x=f^{(p)}(y)\), alors \(x\preceq y\) et \(y\preceq x\) sans que \(x=y\). Cette obstruction est exactement la présence d’ensembles invariants périodiques (chapitre 3). ### Quotient par récurrence et apparition d’un ordre partiel canonique On introduit l’équivalence de récurrence (mutuelle atteignabilité) : \[ x\sim y \quad\Longleftrightarrow\quad (x\preceq y)\ \text{et}\ (y\preceq x). \] **Proposition 2 — \(\sim\) est une relation d’équivalence.** Elle est réflexive (Proposition 1), symétrique par définition, transitive par composition des atteignabilités. On considère le quotient \(X/{\sim}\) et on définit une relation \(\preceq^\*\) sur les classes \([x]\) par \[ [x]\preceq^\*[y]\quad\Longleftrightarrow\quad x\preceq y. \] **Proposition 3 — \(\preceq^\*\) est un ordre partiel sur \(X/{\sim}\).** Elle est réflexive, transitive, et antisymétrique. *Démonstration (antisymétrie).* Supposons \([x]\preceq^\*[y]\) et \([y]\preceq^\*[x]\). Alors \(x\preceq y\) et \(y\preceq x\), donc \(x\sim y\), donc \([x]=[y]\). □ Ainsi, **le temps comme ordre** n’est pas d’abord un ordre sur les états, mais un ordre sur les **classes asymptotiques de récurrence** (cycles et leurs « noyaux »), objets construits au chapitre 3. ### Lecture en graphe fonctionnel et condensation en DAG Dans le cas discret (un seul successeur), on associe le graphe orienté \(G_f\) des arcs \((x,f(x))\). Le préordre \(\preceq\) est exactement l’atteignabilité le long des arcs. Les classes \(\sim\) sont les **composantes fortement connexes**; dans un graphe fonctionnel fini, elles correspondent aux cycles, et la condensation (graphe des classes) est acyclique, donc un DAG. Cette « acyclicité au niveau des classes » est l’ombre combinatoire de ce qui sera plus tard appelé flèche (absence de retour inter-classes). ```mermaid flowchart TD subgraph X["Configurations X"] a --> b --> c --> d d --> e --> f --> d g --> h --> e end subgraph Q["Quotient X/∼"] C1["Classe transitoire"] --> C2["Classe-cycle [d,e,f]"] C3["Classe transitoire [g,h]"] --> C2 end ``` ## Temps discret, temps continu, flots et semi-groupes La structure précédente suggère une thèse de méthode : **le temps est le paramètre qui indexe une action de monoïde**. On le construit alors à partir de la propriété de composition. ### Discret : action de \((\mathbb{N},+)\) et itération Définissons \(\Phi:\mathbb{N}\times X\to X\) par \(\Phi(n,x)=f^{(n)}(x)\). Alors \[ \Phi(0,x)=x,\qquad \Phi(n+m,x)=\Phi(n,\Phi(m,x)). \] C’est une action du monoïde \((\mathbb{N},+)\) sur \(X\). Réciproquement, toute action \(\Phi\) de \((\mathbb{N},+)\) sur \(X\) est déterminée par \(f(x):=\Phi(1,x)\). Autrement dit, « discret » signifie : le paramètre est construit comme **longueur de composition**. Ce point est exactement celui que von Neumann met en évidence lorsqu’il souligne que, pour les automates, il ne suffit pas qu’un résultat soit atteignable en un nombre fini d’étapes ; **le nombre d’étapes** et les « ordres de grandeur de durée » deviennent constitutifs de la théorie. citeturn17view1 ### Continu : flots (groupes) et semi-flots (semi-groupes) Pour un champ de vecteurs générant une équation différentielle, on dispose d’une application de flot \(\Phi_t\) (quand elle existe globalement) qui envoie une condition initiale sur l’état à l’instant \(t\). Lorsque le flot est défini pour tout \(t\ge 0\), on parle d’invariance positive et de dynamique comme application \(\Phi_t:D\to D\) avec \(\Phi_t(D)\subseteq D\) pour tout \(t\ge 0\). citeturn4view0 La distinction structurante est la suivante : - **Flot** : action de \((\mathbb{R},+)\) (groupe), donc existence d’une évolution pour \(t<0\) et d’inverses \(\Phi_{-t}=\Phi_t^{-1}\). - **Semi-flot / semi-groupe** : action de \((\mathbb{R}_+,+)\), définie uniquement pour \(t\ge 0\), sans inverse global. Dans un cadre plus abstrait (Banach, opérateurs), cette propriété de semi-groupe est formulée explicitement : identité à \(t=0\), et propriété \(\,S_{t+s}=S_tS_s\) pour \(t,s\ge 0\). citeturn4view1 Ainsi, « temps continu » n’est pas une donnée primitive : il apparaît comme **paramètre d’une loi de composition**. Le temps devient « réel » lorsque l’action est compatible avec une structure topologique et une continuité \(t\mapsto S_t x\). citeturn4view1turn4view0 ### Condition de réversibilité comme extensibilité en groupe **Proposition 4 — Réversibilité discrète.** L’action discrète se prolonge en action de \((\mathbb{Z},+)\) si et seulement si \(f\) est bijective (donc \(f^{-1}\) existe). *Démonstration.* Si \(f\) est bijective, définir \(f^{(-n)}=(f^{-1})^{(n)}\) donne une action de \(\mathbb{Z}\). Réciproquement, si une action de \(\mathbb{Z}\) existe, l’élément correspondant à \(-1\) est un inverse de \(f\), donc \(f\) est bijective. □ Cette proposition formalise la flèche du temps au niveau le plus nu : **absence d’inverse = absence de temps négatif**, donc semi-groupe plutôt que groupe. ## Flèche du temps : irréversibilité formelle, non-injectivité et consommation Le plan de l’ouvrage exige ici des « premiers critères » d’irréversibilité, sans encore fonder les mécanismes généalogiques ultérieurs. On distingue trois sources formelles d’orientation. ### Irréversibilité comme non-injectivité Une application non injective fusionne des passés : il existe \(x\neq y\) tels que \(f(x)=f(y)\). Alors le prédécesseur n’est pas déterminable à partir du seul présent. Cette propriété suffit à empêcher l’extension en groupe (Proposition 4) et à imposer une asymétrie intrinsèque. Dans un langage de théorie des automates, cela correspond exactement à une fonction de transition sans inverse univoque, phénomène que Landauer décrit comme « logical functions that do not have a single-valued inverse », associées à une irréversibilité physique. citeturn5view0 ### Irréversibilité comme perte par agrégation (non-injectivité effective) Même si la dynamique microscopique était bijective, l’irréversibilité peut apparaître à un niveau de description agrégé. Cela se formalise par une application d’observation/quantification \(q:X\to A\) (alphabet fini ou espace grossier). La dynamique observée est \[ a_{n+1} = \tilde f(a_n) \quad\text{avec}\quad a_n=q(x_n), \] mais \(\tilde f\) n’est pas nécessairement bien définie sans hypothèse; plus généralement, on obtient une relation de transition sur \(A\) qui est typiquement non injective (plusieurs micro-états distincts deviennent le même macro-état). Ce mécanisme rejoint un consensus de la physique statistique : l’irréversibilité macroscopique provient du fait que l’on travaille sur des descriptions incomplètes, et Jaynes discute explicitement le lien entre « information loss » et irréversibilité dans l’extension de la mécanique statistique aux phénomènes dépendant du temps. citeturn6view1 ### Irréversibilité par monotone : ressources et fonctions de Lyapunov Un troisième critère, purement formel, consiste à enrichir le système d’une « grandeur » monotone le long des trajectoires. **Définition — Monotone d’évolution.** Soit \((S,\le)\) un ordre (souvent bien fondé). Une fonction \(V:X\to S\) est un monotone si \(V(f(x))\le V(x)\) pour tout \(x\). Elle est strictement dissipative si \(V(f(x))|événement e0 : f| x1["État f(x)"] x1 -->|événement e1 : f| x2["État f²(x)"] x2 -->|...| xk["État ..."] subgraph Clock["Horloge interne"] c0["h=0"] --> c1["h=h+1 si P(x)"] end x0 -. "observe P(x0)" .-> c1 x1 -. "observe P(x1)" .-> c1 ``` ### Horloge pondérée : temps comme somme de coûts On peut enrichir l’horloge par un poids \(w:X\to\mathbb{R}_+\) (ou sur les arêtes) et définir un temps accumulé \[ t_{n+1}=t_n+w(x_n). \] On obtient alors une métrique de durée dépendant de la trajectoire, sans introduire d’horloge externe : l’horloge est un **fonctionnel de chemin**. Cette construction devient particulièrement significative lorsqu’on relie \(w\) à une dissipation, une dépense, ou à une production d’entropie (section suivante), mais elle existe purement formellement. ## Thermodynamique de l’information et flèche thermodynamique Cette section n’introduit aucune entité sémantique. Elle relie deux consensuses : la flèche thermodynamique (entropie) et l’irréversibilité de certaines opérations logiques (Landauer). ### Shannon : mesure logarithmique non sémantique Shannon insiste explicitement sur le fait que les aspects sémantiques sont hors champ de la théorie de la communication, et que l’information pertinente est celle d’un choix parmi des messages possibles, mesurée naturellement par une fonction logarithmique. citeturn10view1 Ce rappel n’est pas historique : il légitime une méthode où la « structure d’ordre » (ici, l’ordre temporel) est construite sans signification préalable. ### Boltzmann : probabilité, entropie et tendance macroscopique Dans sa formulation cinétique, Boltzmann affirme que l’explication des lois thermiques doit s’appuyer sur la théorie des probabilités et sur une fonction de distribution décrivant le nombre de molécules dans chaque état au cours du temps. citeturn9view1turn9view1 Cette approche fonde l’idée qu’une flèche (croissance de l’entropie) n’est pas un axiome mécanique, mais une propriété typique à l’échelle de grandes multiplicités. Dans son texte de 1877 (traduit), Boltzmann relie explicitement le second principe à des calculs de probabilité et à une mesure de « permutabilité » des distributions d’état, ouvrant une définition statistique de l’entropie applicable au-delà de l’équilibre. citeturn12view0 ### Poincaré : récurrence et limite d’une flèche absolue au niveau microscopique Le théorème de récurrence (version conservatrice) établit qu’un système préservant une mesure finie (volume de phase) présente une récurrence : des points reviennent arbitrairement près de leur état initial. Une démonstration-type utilise exactement un argument de finitude de mesure (impossibilité d’images disjointes infinies d’un ouvert). citeturn9view0 Conséquence (consensus) : si la dynamique microscopique est réversible et conservatrice sur un espace de volume fini, alors aucune grandeur strictement monotone ne peut exister sur les micro-états eux-mêmes. La flèche doit donc être cherchée soit dans une description agrégée, soit dans un couplage à un extérieur (système ouvert), soit dans une notion de typicité/probabilité. Cette contrainte mathématique est l’une des raisons pour lesquelles le « temps comme ordre » doit être construit au niveau adéquat (classes, observables, ou monotones), et non imposé comme absolu. ### Landauer : non-injectivité logique \(\Rightarrow\) coût thermodynamique minimal Landauer formule un lien direct entre opérations logiquement irréversibles — celles qui « n’ont pas d’inverse à valeur unique » — et irréversibilité physique, avec un coût minimal de dissipation typiquement de l’ordre de \(kT\) par opération irréversible. citeturn5view0 Dans notre langage, une opération d’effacement est une application non injective \[ \{0,1\}\to\{0\},\quad 0\mapsto 0,\ 1\mapsto 0, \] qui contracte l’espace des passés possibles. La non-injectivité est donc non seulement un critère formel d’irréversibilité (Proposition 4), mais aussi un critère physiquement contraint lorsqu’il s’agit d’implémentation matérielle. Note de méthode (statut du lien modèle ↔ physique). - non‑injectivité formelle : propriété d’une application/quotient dans le modèle. - irréversibilité logique : absence d’inverse univoque au niveau computationnel. - irréversibilité thermodynamique : coût de dissipation dans une implémentation matérielle donnée. Landauer borne le coût minimal de certains effacements logiques dans un cadre thermodynamique donné ; il n’implique ni que toute non‑injectivité abstraite soit réalisée comme effacement, ni que la dissipation observée atteigne la borne. Bennett clarifie le même point en montrant qu’on peut rendre une computation logiquement réversible en conservant l’information sur une « bande d’historique », mais que le problème réapparaît lors de l’effacement de cet historique, ce qui rejoint explicitement l’argument de Landauer. citeturn13view0 Il donne aussi une borne thermodynamique en termes de \(kT\ln 2\) pour une perte d’environ un bit par opération irréversible. citeturn13view0 Enfin, le consensus en thermodynamique de la computation admet que des modèles de computation thermodynamiquement réversible existent (dissipation tendant vers 0 dans une limite quasi-statique), mais qu’ils exigent une logique réversible et une conduite suffisamment lente. citeturn9view3turn13view0 ### Prigogine : entropie, histoire et diversification des niveaux de temps Prigogine rappelle la centralité du second principe, introduit la distinction réversible/irréversible et insiste sur le fait que l’entropie (et sa production) fournit une direction privilégiée, avec la possibilité d’états organisés hors équilibre (« structures dissipatives »). citeturn11view0 Il formule aussi explicitement que l’incorporation d’éléments thermodynamiques conduit à un sens du temps lié à l’irréversibilité et à l’histoire, et distingue des niveaux de temps (dynamique, Lyapunov/entropie, historique via bifurcations). citeturn11view0 Dans la logique de ce livre, cette remarque est une **correspondance** : notre construction purement formelle (ordre via monotone, semi-groupe effectif) est précisément ce que la thermodynamique réalise empiriquement via entropie/production d’entropie. ## Implications déduites et analyse philosophique finale ### Implications strictement déduites (statut explicite) On se limite à ce qui suit des sections mathématiques. 1. **Un système itératif porte un ordre interne minimal.** Dès qu’un successeur admissible est défini (A2), la relation d’atteignabilité \(\preceq\) existe et fournit une structure d’antériorité (préordre). Le « temps » au sens minimal est donc l’ordre d’engendrement des configurations. 2. **Une flèche exige une rupture de symétrie au niveau pertinent.** Si la dynamique est bijective et se prolonge en groupe, « aller en arrière » est défini formellement; la structure d’ordre n’est pas antisymétrique sur \(X\) et la récurrence (en contexte conservatif) rend impossible un monotone strict sur micro-états. citeturn9view0 À l’inverse, une flèche apparaît si l’évolution effective au niveau considéré est une action de semi-groupe non extensible en groupe : non-injectivité, agrégation, ou monotone strict (Proposition 5). 3. **Accumulation historique : condition nécessaire.** Pour qu’une accumulation (au sens strict : une impossibilité structurelle de « défaire exactement » la succession) soit possible, il faut au moins une des deux conditions : - (i) perte irréversible d’antécédents (non-injectivité) ; - (ii) présence d’un monotone strict (ressource/entropie/coût) empêchant les cycles au niveau pertinent. Landauer fournit un ancrage physique : lorsqu’une instanciation réalise effectivement une contraction des passés comme effacement logique, une borne minimale borne le coût associé, ce qui rend plausible une orientation irréductible dans les transformations matériellement réalisables. citeturn5view0turn13view0 ### Ontologie du temps comme ordre et limites du formalisme Le point philosophique ici n’est pas une doctrine, mais une **lecture de nécessité**. - Le temps n’apparaît pas d’abord comme une substance ni comme une dimension géométrique, mais comme une **structure d’ordre** induite par la composition des transformations. - Une « durée » n’est pas donnée : elle est une mesure (horloge) construite sur des chaînes d’événements, et une granularité est une propriété de l’instrument d’indexation (sous-échantillonnage, compteur, poids). Ce que le formalisme **interdit** à ce stade : - d’identifier le temps à une métrique unique universelle : sans horloge (compteur) ni structure supplémentaire, on ne dispose que d’un ordre (préordre / ordre sur classes) ; - d’affirmer une flèche absolue au niveau microscopique dans un cadre strictement réversible et conservatif : la récurrence (au sens large) impose des retours, donc la flèche doit être située au niveau de description effectif (classe/observable/système ouvert). citeturn9view0turn11view0 - de confondre « ordre temporel » et « optimisation » : aucune fonction objectif n’a été postulée; seules des contraintes d’atteignabilité et de monotonicité (si ajoutée) sont en jeu. Ce que le formalisme **autorise** dès maintenant : - une définition du « présent » comme classe d’équivalence de récurrence (quotient \(X/\sim\)) ; - une définition opérationnelle de l’« irréversibilité » comme non-extensibilité d’un semi-groupe en groupe, compatible avec les contraintes thermodynamiques connues (Landauer, second principe) et avec la stabilité au sens Lyapunov (monotones). citeturn5view0turn11view0turn15view0 ### Tableau comparatif synthétique | Cadre | Paramètre d’évolution | Structure algébrique | Inverses | Flèche formelle | Obstruction typique | |---|---|---|---|---|---| | Discret (itération) | composition de \(f\) | monoïde \(\langle f\rangle\) | non si \(f\) non bijective | oui (semi-groupe) | non-injectivité, cycles | | Discret réversible | idem + \(f^{-1}\) | groupe \(\langle f\rangle\simeq\mathbb{Z}\) | oui | non intrinsèque | récurrence/cycles (si fini) | | Continu (semi-flot) | \(t\ge 0\) | semi-groupe \((\mathbb{R}_+,+)\) | non en général | oui | dissipation, perte d’info | | Continu (flot) | \(t\in\mathbb{R}\) | groupe \((\mathbb{R},+)\) | oui | non intrinsèque | récurrence (conservatif) | | Propriété | Injectif | Non injectif | |---|---|---| | Reconstruction du passé (unique) | possible (en principe) | impossible (passés fusionnés) | | Extension en groupe | possible | impossible | | Coût thermodynamique d’effacement | non requis si tout est réversible | borne minimale si effacement logique (Landauer) citeturn5view0 | Le chapitre suivant pourra donc porter sur la conséquence déjà annoncée dans le plan : comment cette structure d’ordre, lorsqu’elle s’accompagne de non-injectivité et de contraintes de transformation, prépare une notion plus forte d’irréversibilité et d’histoire (chapitres 9–10), puis de transmission et de généalogie (chapitres 11–12). --- # Chapitre 5 — Compression, non‑injectivité et classes de formes ## Hypothèses et résultats (repères) Hypothèses (H). - existence d’une description/projection \(q:X\to A\) (contrainte de description) ; - possibilité de non‑injectivité (collisions) induite par finitude, compression ou observabilité agrégée. Résultats (E). - construction des fibres, partitions et classes d’équivalence induites par \(q\) ; - formalisation de la compression comme projection/quotient et de la dynamique induite sur les classes (système facteur) ; - mise en place de quantificateurs (entropies, complexités) comme couches optionnelles indexées. Statut. - noyau ensembliste pour partitions/quotients ; quantifications informationnelles annoncées comme couches mesurée/probabiliste déclarées. ## Résumé exécutif Ce chapitre formalise un mécanisme structural déjà latent dans les chapitres précédents : dès qu’un système itératif opère sous **contraintes de description** (finitude globale, finitude locale, ou observabilité agrégée), les transformations effectives deviennent typiquement **non injectives**. Cette non‑injectivité engendre des **collisions** (plusieurs antécédents pour un même résultat), lesquelles imposent à leur tour des **partitions** de l’espace des configurations en **fibres** et en **classes d’équivalence**. D’abord, on établit des résultats élémentaires mais structurants : toute application \(q:X\to A\) avec \(|A|<|X|\) induit une partition par fibres; le degré de collision se borne par des arguments de comptage (principe des tiroirs) et, sous contraintes de codage, par des inégalités de type Kraft–McMillan (existence de codes à longueurs données) et par les bornes de Shannon sur la compression sans perte. Ensuite, on formalise la compression comme **projection** (idempotente) ou comme **quotient** (factorisation), et on introduit des « attracteurs de second ordre » : attracteurs de la dynamique induite sur un espace **des classes** (système facteur). Enfin, on relie ces constructions à des quantités de consensus : entropie de Shannon (et entropie conditionnelle) pour mesurer la perte induite par une projection déterministe, et complexité algorithmique de Kolmogorov comme mesure intrinsèque de compressibilité (non calculable en général, mais conceptuellement fondatrice). citeturn7view2turn14view0turn16view0 La partie « héritage morphologique » reste formelle : elle définit un **registre transmissible** comme mémoire de collisions (cooccurrences de classes) et montre quelles conditions minimales (flèche d’événements, disponibilité de projections stables) sont requises pour qu’une accumulation historique devienne possible, sans invoquer finalité ni sémantique. ## Fondations formelles : non‑injectivité, collisions, partitions, fibres Soit \(X\) un ensemble de configurations (fini ou non), et \(q:X\to A\) une application. **Définition (injectivité / non‑injectivité).** \(q\) est injective si \(q(x)=q(y)\Rightarrow x=y\). Elle est non injective s’il existe \(x\neq y\) tels que \(q(x)=q(y)\). **Définition (collision).** Une collision est un couple \((x,y)\) avec \(x\neq y\) et \(q(x)=q(y)\). Le modèle ne qualifie pas moralement la collision : c’est un fait structurel. **Définition (fibre).** Pour \(a\in A\), la fibre (préimage) est \[ F_a \;=\; q^{-1}(a)\;=\;\{x\in X:\ q(x)=a\}. \] **Proposition 1 (partition par fibres).** L’ensemble \(\{F_a\}_{a\in A}\) forme une partition de \(X\) restreinte à l’image : (i) \(X=\bigsqcup_{a\in q(X)} F_a\) ; (ii) \(F_a\cap F_b=\varnothing\) si \(a\neq b\). *Preuve.* Chaque \(x\in X\) appartient à \(F_{q(x)}\), donc \(X=\bigcup_{a\in q(X)}F_a\). Si \(x\in F_a\cap F_b\), alors \(q(x)=a=b\), contradiction si \(a\neq b\). □ ### Collisions imposées par compression de cardinal Supposons \(X\) fini, \(|X|=N\), et \(|q(X)|=M\). **Proposition 2 (principe des tiroirs → collision).** Si \(M|q : quotient par permutations| A["Classes (multisets de chiffres)"] A -->|r : représentant canonique (tri)| Xc["Représentants triés"] Xc -->|d : transformation (différence)| X2["États suivants"] X2 -->|itération| X ``` Note de méthode (Kaprekar : caractérisation de régimes). Cet exemple sert ici de fil directeur (compression + dynamique). Toute conclusion quantitative sur l’opérateur \(\kappa\) est indexée par \((B,D)\) et par le protocole (distribution initiale, éventuelles règles de bruit/réparation). Un usage de type « signature » exige une caractérisation explicite des régimes : nombre et types d’attracteurs, tailles de bassins, seuils de dominance, robustesse sous perturbations et sous transformations non sémantiques. Cette caractérisation est traitée comme un programme d’analyse, distinct des résultats généraux du noyau. ## Mesures de compression : entropies, complexités, distances ### Entropie de Shannon et perte induite par une projection déterministe Soit une variable aléatoire \(X\) à valeurs dans un ensemble fini, et \(Y=q(X)\) une projection déterministe. Shannon établit les relations fondamentales (entropie jointe, conditionnelle) et la relation de chaîne \[ H(X,Y)=H(X)+H_X(Y), \] ainsi que des inégalités de sous‑additivité et le fait que l’incertitude ne croît pas lorsqu’on conditionne. citeturn7view2 Comme \(Y\) est une fonction de \(X\), on a \(H(Y|X)=0\) et donc \[ H(X) = H(Y) + H(X|Y). \] Interprétation strictement formelle : - \(H(Y)\) mesure l’incertitude au niveau des classes (partitions) ; - \(H(X|Y)\) mesure l’incertitude résiduelle à l’intérieur d’une fibre (information perdue par la projection). **Proposition 5 (borne par la plus grande fibre).** \[ H(X|Y)\ \le\ \log |F_{\max}| \quad\text{où}\quad |F_{\max}|=\max_{a}|F_a|. \] *Preuve.* Conditionnellement à \(Y=a\), la variable \(X\) prend ses valeurs dans \(F_a\), donc son entropie conditionnelle est \(\le \log|F_a|\); en moyennant, \(\le \log|F_{\max}|\). □ ### Compression sans perte et contraintes de codage Un « codage sans perte » impose que le décodage soit injectif sur les messages possibles. Shannon démontre que l’entropie borne par le bas le taux de compression atteignable en moyenne (noiseless coding theorem) et relie directement compression, redondance, et codages efficaces. citeturn7view0turn7view2 Sur le plan combinatoire, l’existence de codes instantanés/préfixes est contrainte par l’inégalité de Kraft, et l’extension aux codes uniquement déchiffrables par McMillan. Un cours MIT OCW rappelle cette contrainte classique et sa construction par arbres \(D\)-aires. citeturn4search3 Huffman fournit ensuite une procédure constructive d’optimalité (minimum de redondance moyenne) pour ensembles finis de messages, explicitement dans la continuité de Shannon et en citant Kraft. citeturn19view1 Ces résultats sont utilisés ici de façon non sémantique : ils montrent que vouloir raccourcir systématiquement les descriptions (compression) impose soit des collisions (non‑injectivité du codage), soit des redondances explicites (longueurs suffisantes), soit une probabilité d’erreur. ### Entropie combinatoire et « entropie structurelle des classes » Kolmogorov rappelle qu’avant toute probabilité, on peut définir une entropie combinatoire \(H(x)=\log_2 N\) lorsque \(x\) prend ses valeurs dans un ensemble fini de taille \(N\), et introduit aussi une entropie conditionnelle combinatoire via les ensembles possibles \(Y_a\) compatibles avec \(x=a\). citeturn14view0 Dans notre cadre, si \(q:X\to A\) induit des classes, une mesure structurelle minimale, indépendante de la dynamique, est \[ H_{\text{classes}} \;=\;-\sum_{a\in A} p_a \log p_a, \quad p_a=\frac{|F_a|}{|X|} \] en supposant une distribution uniforme sur \(X\). C’est l’entropie de Shannon de la variable « classe » quand on pick un état uniformément (un cas particulier du cadre mesuré). ### Complexité de Kolmogorov : compressibilité intrinsèque (consensus, non constructive) Kolmogorov introduit un troisième point de vue : mesurer l’information d’un objet par la longueur de la plus courte description algorithmique produisant cet objet (approche algorithmique), après avoir exposé les approches combinatoire et probabiliste. citeturn14view0 On en retient ici une conséquence structurale (de consensus dans la théorie) : il existe des objets (chaînes) **incompressibles** au sens algorithmique, pour lesquels aucune description significativement plus courte n’existe, tandis que d’autres objets sont compressibles parce qu’ils possèdent des régularités exploitables. Dans ce livre, cela n’est pas interprété comme « sens » ou « finalité », mais comme propriété intrinsèque de description. ## Calcul effectif en contexte discret : algorithmes et complexité Ce chapitre requiert des outils effectifs : calculer classes, fibres, et parfois bassins, dans des cadres finis. ### Calcul des fibres d’une projection Entrée : représentation explicite de \(X\) (liste des états) et de \(q\). Sortie : dictionnaire \(a \mapsto F_a\). Algorithme : un seul parcours, insertion dans une table de hachage. - Temps : \(O(|X|)\) évaluations de \(q\) + coût de hachage (amorti). - Mémoire : \(O(|X|)\) au pire si on stocke tous les éléments. ### Calcul des cycles et bassins d’une fonction \(f:X\to X\) Dans un cadre fini déterministe, le graphe est fonctionnel (degré sortant 1). Les cycles et bassins se calculent en temps linéaire \(O(N)\) via élimination des arbres (méthode par degrés entrants) ou via détection de cycles. Pseudocode (élimination des non‑cycliques) : ```pseudo Input: f[1..N] // successeur de chaque nœud indeg[1..N] = 0 for v in 1..N: indeg[f[v]]++ queue = all v with indeg[v]==0 mark_noncycle[v]=false while queue not empty: v = pop(queue) mark_noncycle[v]=true u = f[v] indeg[u]-- if indeg[u]==0: push(u) cycles = all v with mark_noncycle[v]==false // cycles contiennent les sommets sur cycles; les bassins se déduisent par parcours inverse ``` Cette structure « phase space » est précisément l’objet central des dynamiques discrètes finies (points fixes, orbites périodiques, réversibilité, réductions), comme le souligne la littérature SDS citée plus haut. citeturn10view0 ### Détection locale d’un cycle sur une trajectoire : accès constant Lorsqu’on n’a pas accès à tout \(X\) mais seulement à un oracle \(f\) et un état initial, on peut détecter une périodicité par la méthode de la « tortue et du lièvre » (rho‑Floyd), présentée en français dans des notes d’agrégation. citeturn1search13 Dans l’économie de notre livre, ce point illustre une propriété simple : la cyclicité n’est pas seulement un fait théorique, elle est détectable par des algorithmes légers. ## Transmission structurale : mémoire des collisions et sous‑structures transmissibles ### Registre de collisions comme objet transmissible Fixons une projection \(q:X\to A\), permettant de remplacer les états par leurs classes \(a\in A\). Considérons une trajectoire \((x_t)\) et la trajectoire projetée \((a_t)\) avec \(a_t=q(x_t)\). On définit un registre de cooccurrences (mémoire purement combinatoire) : \[ M(a,b)\;=\;\#\{t:\ a_t=a,\ a_{t+1}=b\}, \] ou, plus généralement, une version multi‑distance \(M_\Delta(a,b)=\#\{t:\ a_t=a,\ a_{t+\Delta}=b\}\). Ce registre encode l’histoire **au niveau des classes**, non des identités fines : il est invariant à l’intérieur des fibres, donc compatible avec le principe même de compression. ### Génotype minimal comme quadruplet formel On définit un objet transmissible \(\Gamma\) (sans interprétation biologique requise) : \[ \Gamma=(S, M, \mathcal{I}, \mathcal{R}) \] où : - \(S\in A^{n}\) est une séquence de classes (trace compressée) ; - \(M\) est un registre de cooccurrences comme ci‑dessus ; - \(\mathcal{I}\) est un ensemble d’invariants dérivés (par exemple, attracteur(s) dans l’espace des classes, période, temps de convergence dans l’espace quotient) ; - \(\mathcal{R}\) est un ensemble de règles admissibles de transformation (mutations de \(S\), mises à jour de \(M\), contraintes de compatibilité). ### Gamète comme sous‑structure (fragment) et recombinaison On définit un opérateur de fragmentation \[ \mathrm{Frag}(\Gamma) = \gamma = (S_\gamma, M_\gamma, \mathcal{I}_\gamma), \] où \(S_\gamma\) est une sous‑séquence (ou un ensemble de segments), \(M_\gamma\) est la restriction correspondante (sous‑matrice), et \(\mathcal{I}_\gamma\) les invariants associés. Une recombinaison minimale est une opération de somme/concaténation sous contraintes : \[ \Gamma'=\mathrm{Recombine}(\gamma_1,\gamma_2;\Theta), \] où \(\Theta\) fixe les règles d’assemblage et de conflit. ### Condition formelle pour accumulation historique Les objets précédents restent stériles si l’on autorise des boucles « généalogiques » illimitées : l’accumulation exige une flèche structurelle (chapitre 4). Dans la logique interne, une condition minimale est l’acyclicité du graphe d’événements (DAG) ou l’existence d’une ressource consommée monotone interdisant les retours exacts. À ce point, Landauer fournit un ancrage de consensus : lorsqu’une implémentation réalise effectivement une opération d’effacement logique (fonction sans inverse univoque) dans un cadre thermodynamique donné, un coût minimal de dissipation borne l’opération ; cela rend plausible (au niveau des implémentations) la non‑gratuité des compressions destructives. citeturn16view0turn16view1 Diagramme minimal (état → fibre → classe → registre → fragments transmissibles) : ```mermaid flowchart TD x["État x ∈ X"] -->|q| a["Classe a ∈ A"] a --> Fa["Fibre F_a = q^{-1}(a)"] a --> S["Trace S ∈ A^n"] S --> M["Cooccurrences M(a,b)"] subgraph Gamma["Registre Γ=(S,M,ℐ,ℛ)"] S M end Gamma -->|Frag| g1["Fragment γ₁"] Gamma -->|Frag| g2["Fragment γ₂"] g1 -->|Recombine| Gp["Nouveau registre Γ'"] g2 -->|Recombine| Gp ``` ## Conséquences déduites strictement (lecture conditionnelle) Cette section se limite à des implications déduites des mathématiques ci‑dessus (sous les hypothèses explicitement posées). **Disponibilité de classes de formes.** Dès qu’une description effective est bornée (alphabet de classes \(A\), code plus court, quotient par symétries), la non‑injectivité est structurellement imposée (Proposition 2) : des classes apparaissent alors sous ces hypothèses. Ces classes sont des « formes » au sens minimal : des ensembles d’états indiscernables sous la projection considérée. **Renforcement de stabilité par projection.** Une projection idempotente \(P=r\circ q\) crée un sous‑ensemble invariant \(\mathrm{Im}(P)\) atteint en temps borné (Proposition 4). Donc, indépendamment de toute physique, la compression peut produire des régimes stables au niveau des représentants, et plus généralement au niveau du quotient (attracteurs de second ordre). **Condition de possibilité de canaux d’héritage.** Un canal d’héritage au sens strictement formel exige (i) une représentation stable et transmissible (classe/registre), et (ii) une flèche empêchant le recyclage parfait des événements. Le premier point est fourni par la partition et par des invariants de quotient; le second relève des mécanismes d’irréversibilité (non‑injectivité, monotones) établis au chapitre 4. fileciteturn2file0 ## Analyse philosophique finale : ontologie de la compression, limites et interdits **Nécessité ontologique minimale.** Dans un système défini par transformations admissibles, l’identité fine n’est pas une primitive garantie : elle est un luxe qui exige injectivité ou traçabilité complète. Or, toute contrainte de description ou de symétrie impose des quotients. Ainsi, « persister » à niveau donné signifie, le plus souvent, persister comme **classe** (fibre) plutôt que comme individu. **Compression n’implique ni finalité ni sémantique.** Le vocabulaire de « compression » peut suggérer un acte, un but, une optimisation. Ici, il ne désigne qu’une relation structurale : une factorisation \(X\to A\) entraînant des collisions. Les entropies et complexités ne qualifient pas un sens, mais une quantité de distinction possible (Shannon) ou une longueur minimale de description (Kolmogorov). citeturn7view2turn14view0 **Ce que le formalisme interdit à ce stade.** - Il interdit d’inférer une « meilleure » compression : sans fonction objectif, « mieux » n’a pas de sens mathématique. - Il interdit d’identifier une classe à une essence : une classe est relative à une projection \(q\). Changer \(q\) change l’ontologie des formes. - Il interdit toute téléologie cachée : un quotient peut être imposé par une symétrie, par une limitation de code, ou par une observation; aucune de ces raisons n’est une intention. **Limite structurale : pluralité des niveaux.** La coexistence de plusieurs projections \(q_1,q_2,\dots\) implique une pluralité de mondes de classes. La philosophie rigoureuse qui suit de ce fait est une philosophie stratifiée : il n’existe pas « la » classe absolue sans spécification du niveau de description. Ce résultat n’est pas un relativisme : c’est la conséquence logique que l’équivalence est toujours définie par une relation (ou un observateur formel) et non par l’objet nu. **Transition logique vers les chapitres suivants.** Ce chapitre a montré que la non‑injectivité contraint le système à se décrire par classes, et que la dynamique peut se factoriser sur ces classes. Le chapitre suivant (classes d’équivalence et invariants) pourra donc : (i) stabiliser les constructions de quotient, (ii) étudier la persistance relative des invariants sous transformation, et (iii) préparer la grammaire compositionnelle des formes (chapitres 6–8). fileciteturn2file5 --- # Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique ## Hypothèses et résultats (repères) Hypothèses (H). - objets discrets transmissibles (alphabet fini, séquences) et opérations admissibles (fragmentation, recombinaison, réparation) ; - orientation des événements lorsqu’une flèche généalogique est mobilisée (consommation non récupérable déclarée). Résultats (E). - définition d’un registre transmissible \(\Gamma\) et de la reproduction partielle comme transmission d’invariants sous perte ; - bornes élémentaires sur la perte induite par recombinaison et conditions de stabilité de certains invariants. Statut. - noyau ensembliste ; quantifications (entropies, distances) restent optionnelles et indexées. ## Résumé exécutif Ce chapitre introduit une famille d’opérations formelles — **fragmentation**, **recombinaison**, **épissage** et **réparation** — qui permettent de définir, sans hypothèse sémantique ni agentive, une **transmission partielle** de structures discrètes à travers une succession d’événements. La construction s’appuie exclusivement sur des primitives non sémantiques déjà admises dans l’ouvrage (configurations, transformations, itération et ordre induit), et prolonge la non‑injectivité et les classes (chapitres précédents) par une notion de **registre transmissible**. Le noyau mathématique est la définition d’un **génotype abstrait** \(\Gamma=(S,M,A,R)\) : (i) une séquence \(S\) sur un alphabet fini, (ii) une mémoire \(M\) de cooccurrences (registre de collisions passées au niveau des classes), (iii) un ensemble \(A\) d’invariants calculés, (iv) un ensemble \(R\) de règles admissibles (mutations, épissage, réparation). Un **gamète** \(\gamma\) est une **sous‑structure** obtenue par fragmentation de \(\Gamma\); la reproduction se formalise comme la composition d’un opérateur de fragmentation avec un opérateur de recombinaison produisant un nouvel objet \(\Gamma'\). On établit des propositions élémentaires : conditions suffisantes de **transmission fidèle** d’une sous‑structure (segments invariants), bornes sur la **perte d’information** induite par la recombinaison (en termes de cardinalités de préimages ou d’entropie conditionnelle), et conditions de **stabilité** de certains invariants \(A\) sous recombinaison (homomorphismes de monoïdes). La flèche du temps **généalogique** est obtenue sans postuler un temps externe : elle résulte de (i) la structure d’ordre induite (chapitre 4) et (ii) la **consommation de ressources non réutilisables** associées aux événements reproductifs (gamètes‑jetons), rendant la généalogie un **DAG** (graphe orienté acyclique). La conclusion reste strictement déduite : dans tout modèle discret capable de (a) compression en classes, (b) fragmentation et recombinaison, et (c) orientation par consommation, on obtient des conditions minimales d’**accumulation historique** de formes transmissibles, sans présupposer finalité. Du point de vue philosophique, le chapitre fonde une ontologie de l’héritage comme **persistance de contraintes** (classes et cooccurrences) et explicite ce que le formalisme interdit : toute lecture intentionnelle, tout « but » de reproduction, et toute identité forte des individus. ## Fondations formelles et axiomes minimaux On travaille dans un cadre discret, compatible avec les chapitres antérieurs : un alphabet fini \(\mathcal{L}\) (classes de formes au sens du quotient/partition) et des séquences finies sur \(\mathcal{L}\). Les définitions ci‑dessous ne supposent ni biologie empirique ni sémantique : elles ne font qu’axiomatiser des opérations de découpe et de recomposition sur des objets discrets. **A0 (alphabet et séquences).** \(\mathcal{L}\) est un ensemble fini. Pour \(n\in\mathbb{N}\), \(\mathcal{L}^n\) est l’ensemble des mots de longueur \(n\), et \(\mathcal{L}^\*\) l’ensemble des mots finis. **A1 (génotype abstrait).** Un individu est muni d’un quadruplet \[ \Gamma \;=\; (S,M,A,R) \] où : - \(S \in \mathcal{L}^\*\) est une séquence (trace) de classes. - \(M\) est une mémoire de collisions passées au niveau des classes, représentée minimalement comme un comptage de cooccurrences : \[ M:\mathcal{L}\times \mathcal{L}\to \mathbb{N},\qquad M(a,b)=\#\{t:\ S_t=a,\ S_{t+1}=b\}. \] (Les variantes multi‑échelles \(M_\Delta\) sont possibles, mais non nécessaires ici.) - \(A\) est un ensemble d’invariants calculés sur \((S,M)\) (p. ex. statistiques, attracteurs dans un quotient dynamique, longueurs de cycles), dont le statut est purement mathématique. - \(R\) est un ensemble de règles admissibles (opérateurs) sur \((S,M,A)\) : mutations permises, épissage, réparation, normalisation. **A2 (gamète).** Un gamète est une sous‑structure \[ \gamma \;=\; (S_\gamma, M_\gamma, A_\gamma) \] où \(S_\gamma\) est un sous‑mot (ou un multi‑segment) extrait de \(S\), \(M_\gamma\) est une restriction correspondante de la mémoire \(M\), et \(A_\gamma\) regroupe les invariants calculables localement à partir de \((S_\gamma,M_\gamma)\). **A3 (reproduction partielle).** Un événement reproductif est une application \[ \mathrm{Reproduce}:\gamma_1\times \gamma_2 \longrightarrow \Gamma' \] où \(\Gamma'=(S',M',A',R')\) est construit à partir de \(\gamma_1,\gamma_2\) et de règles \(R\) (éventuellement avec hasard). **A4 (épissage).** Un épissage est une application de sélection‑concaténation \[ \pi:\mathcal{L}^\*\to (\mathcal{L}^\*)^k \quad \text{puis}\quad \mathrm{Concat}:(\mathcal{L}^\*)^k\to \mathcal{L}^\*, \] où \(\pi\) choisit des segments selon des marqueurs (positions, motifs), et \(\mathrm{Concat}\) les recolle suivant un ordre imposé. **A5 (réparation).** Une réparation est une application \[ \rho:\mathcal{L}^\*\to \mathcal{L}^\* \] (ou sur \(\Gamma\)) qui projette un objet potentiellement non admissible dans une sous‑classe admissible définie par des contraintes \(R\). Elle n’a pas à être injective. Ces axiomes prolongent une idée centrale des automates auto‑reproducteurs : la reproduction formelle exige une séparation entre (i) une **description** transmissible et (ii) des opérations de construction/assemblage agissant sur cette description, séparation explicitée historiquement dans les travaux de von Neumann sur les automates auto‑reproducteurs. citeturn0search0turn0search4 ## Opérateurs de fragmentation, recombinaison et réparation On explicite maintenant trois opérateurs fondamentaux, puis on étudie leurs propriétés algébriques élémentaires. ### Fragmentation Un opérateur de fragmentation est une application \[ \mathrm{Frag}:\Gamma\to \mathcal{P}(\Gamma)\ \text{ou}\ \Gamma\to \gamma, \] selon qu’on produit un ensemble de fragments ou un fragment unique. **Version segment unique.** Pour un couple \((i,j)\) avec \(1\le i\le j\le |S|\), \[ S_\gamma = S[i:j]. \] La mémoire restreinte peut être définie par le comptage interne aux transitions contenues dans \([i:j]\) : \[ M_\gamma(a,b)=\#\{t\in[i,j-1]: S_t=a,\ S_{t+1}=b\}. \] **Version multi‑segments (épissage).** On choisit une famille d’intervalles disjoints \(\{[i_p,j_p]\}_{p=1}^k\). On pose \[ S_\gamma = S[i_1:j_1]\ \Vert\ S[i_2:j_2]\ \Vert\ \cdots\ \Vert\ S[i_k:j_k], \] où \(\Vert\) est la concaténation, et \(M_\gamma\) est la somme des comptages internes à chaque segment, éventuellement augmentée de transitions « de jonction » si on les considère comme admissibles. ### Recombinaison On formalise la recombinaison comme un opérateur \[ \mathrm{Recombine}:\gamma_1\times \gamma_2 \to \Gamma'. \] Le cas minimal est la recombinaison *par concaténation* : \[ S' = S_{\gamma_1}\ \Vert\ S_{\gamma_2}. \] Une recombinaison plus proche des modèles classiques de « crossover » est définie par un **masque** \(m\in\{1,2\}^n\) indiquant, pour chaque position, le parent source (crossover uniforme), ou par une coupure \(k\) (crossover à un point). Ces opérateurs sont standards en modélisation algorithmique de recombinaison ; ils capturent mathématiquement le fait discuté en génétique évolutive que la reproduction sexuée implique **réassortiment** et **recombinaison** de segments héréditaires. citeturn2search31turn0search9turn0search2 Pour la mémoire \(M'\), trois constructions minimales (toutes admissibles) existent : 1. **Héritage additif restreint.** \[ M' = M_{\gamma_1} + M_{\gamma_2} \] (somme point‑par‑point), puis éventuelle mise à jour des transitions sur les jonctions. 2. **Héritage par projection.** \(M'\) est recomputée à partir de \(S'\) par définition : \[ M'(a,b)=\#\{t:\ S'_t=a,\ S'_{t+1}=b\}. \] 3. **Héritage mixte.** \(M'\) combine (1) et (2), en conservant certains compteurs « historiques » tout en recalculant les transitions nouvellement créées. ### Réparation La réparation est un opérateur de projection (souvent non injectif) visant à satisfaire des contraintes \(R\) (par exemple interdictions de motifs, bornes sur longueur, compatibilité de marqueurs). La réparation est l’analogue formel d’une étape de « purification/normalisation » : elle peut être idempotente si elle est une projection sur un sous‑ensemble admissible. **Proposition 1 (idempotence de la réparation sous projection).** Si \(\rho\) vérifie \(\rho(x)=x\) pour tout \(x\) admissible (fixé) et \(\rho(x)\) admissible pour tout \(x\), alors \(\rho\circ \rho = \rho\). *Preuve.* \(\rho(x)\) est admissible, donc \(\rho(\rho(x))=\rho(x)\). □ Cette structure est la même que celle d’un projecteur de compression (chapitre 5), mais appliquée ici au niveau des règles \(R\). ### Propriétés algébriques élémentaires On note \(\oplus\) une recombinaison sur les séquences (p. ex. concaténation). - **Associativité (concaténation).** \((u\Vert v)\Vert w = u\Vert (v\Vert w)\). Donc l’opérateur « recombiner par concaténation » est associatif sur \(S\). - **Non‑commutativité.** \(u\Vert v \neq v\Vert u\) en général : la recombinaison ordonnée n’est pas commutative. - **Commutativité éventuelle.** Si l’on définit la recombinaison comme multiensemble de segments (ordre oublié), alors elle devient commutative mais perd de l’information (projection supplémentaire). Sur la **recombinaison à masque**, l’associativité échoue en général : deux recombinaisons successives ne se réduisent pas à une recombinaison unique sans enrichir l’opérateur (composition de masques). Cette non‑associativité est un fait structural : elle reflète l’existence de paramètres internes (points de coupure/masques) qui font partie du processus mais peuvent ne pas être conservés. ## Transmission fidèle, métriques d’héritabilité et bornes ### Condition suffisante de transmission fidèle d’une sous‑structure On formalise une « sous‑structure » comme un sous‑objet \(\sigma\) (typiquement un segment) et on demande une condition de conservation. **Définition (inclusion de segment).** Un segment \(\sigma\in\mathcal{L}^\*\) est transmis fidèlement de \(S\) à \(S'\) si \(\sigma\) apparaît comme sous‑mot contigu de \(S'\) et correspond à un segment extrait sans modification. **Proposition 2 (transmission fidèle sous épissage conservatif).** Supposons : 1) \(\mathrm{Frag}\) extrait un segment \(\sigma=S[i:j]\) sans altération, 2) \(\mathrm{Recombine}\) insère \(\sigma\) comme bloc contigu dans \(S'\), 3) \(\rho\) n’altère pas \(\sigma\) (i.e. \(\rho\) agit en dehors de ses positions). Alors \(\sigma\) est transmis fidèlement. *Preuve.* Par (1) \(\sigma\) est présent dans \(S_{\gamma}\). Par (2) \(\sigma\) apparaît bloc contigu dans \(S'\). Par (3) la réparation ne le modifie pas. □ ### Métriques d’héritabilité On introduit deux métriques compatibles avec les objets \((S,M)\), sans emprunter au vocabulaire biologique (où « héritabilité » a un sens statistique spécifique, historiquement ancré dans la génétique quantitative de Fisher). citeturn1search4turn0search2 **Métrique sur séquences.** On prend une distance d’édition (Levenshtein) \(d_S(S,S')\) ou une distance de Hamming si les longueurs sont fixées. **Métrique sur mémoires.** On définit une distance \(L^1\) sur matrices de cooccurrence : \[ d_M(M,M')=\sum_{a,b\in\mathcal{L}} |M(a,b)-M'(a,b)|. \] **Définition (indice d’héritabilité abstrait).** Pour des poids \(\lambda\ge 0\) et une normalisation \(Z>0\) : \[ h(\Gamma,\Gamma') \;=\; 1 - \frac{d_M(M,M') + \lambda\, d_S(S,S')}{Z}. \] On choisit \(Z\) comme borne supérieure théorique (ou empirique) pour garantir \(h\in[0,1]\). ### Bornes minimales sur la perte d’information en recombinaison Ici, « information » est prise au sens formel (Shannon ou combinatoire), sans sémantique. Lorsque la recombinaison est un calcul déterministe ou stochastique, elle induit une application (ou noyau) \((\gamma_1,\gamma_2)\mapsto \Gamma'\), généralement **non injective**. **Approche combinatoire (préimages).** Pour une recombinaison déterministe \(g\), définissons la multiplicité : \[ \mu(\Gamma') = \#\{(\gamma_1,\gamma_2): g(\gamma_1,\gamma_2)=\Gamma'\}. \] Alors \(\log \mu(\Gamma')\) est une mesure de « perte d’identifiabilité » : plus \(\mu\) est grand, moins on peut reconstruire l’origine à partir du résultat. **Proposition 3 (borne inférieure triviale).** Si \(g\) n’est pas injective, il existe \(\Gamma'\) tel que \(\mu(\Gamma')\ge 2\), donc \(\log\mu(\Gamma')\ge 1\) bit (en base 2). *Preuve.* Non‑injectivité \(\Rightarrow\) existence de deux antécédents distincts menant au même résultat. □ **Approche Shannon (entropie conditionnelle).** Soient des variables aléatoires \((\Gamma_1,\Gamma_2)\) (parents) et \(\Gamma'\) (descendant) liées par un mécanisme de recombinaison. Shannon a montré que toute fonction déterministe \(Y=q(X)\) ne peut pas augmenter l’information au sens entropique : l’entropie ne croît pas sous application déterministe et les décompositions par entropie conditionnelle quantifient la perte. citeturn2search1turn2search5 En particulier, si \(\Gamma'\) est une fonction (déterministe) de \((\Gamma_1,\Gamma_2)\), alors \[ H(\Gamma') \le H(\Gamma_1,\Gamma_2), \qquad H(\Gamma_1,\Gamma_2\,|\,\Gamma') = H(\Gamma_1,\Gamma_2)-I(\Gamma_1,\Gamma_2;\Gamma'). \] La quantité \(H(\Gamma_1,\Gamma_2\,|\,\Gamma')\) mesure l’ambiguïté résiduelle (origine non reconstructible). Lorsque la recombinaison implique un paramètre interne \(K\) (point de coupure, masque), le mécanisme se formalise comme \(\Gamma'=g(\Gamma_1,\Gamma_2,K)\). Ignorer \(K\) revient à projeter (compression supplémentaire), augmentant en général l’ambiguïté sur les origines. ### Stabilité d’invariants \(A\) sous recombinaison On formalise une classe d’invariants « composables ». **Définition (invariant homomorphe de concaténation).** Soit \((\mathcal{M},\oplus)\) un monoïde commutatif. Une application \(I:\mathcal{L}^\*\to \mathcal{M}\) est un homomorphisme si \[ I(u\Vert v)=I(u)\oplus I(v). \] Exemples : vecteur de comptages de lettres (addition), comptage de digrammes internes (avec correction de jonction). **Proposition 4 (stabilité composable).** Si \(I\) est un homomorphisme et si \(S'=S_{\gamma_1}\Vert S_{\gamma_2}\), alors \(I(S')=I(S_{\gamma_1})\oplus I(S_{\gamma_2})\). Donc \(I\) est stable sous recombinaison par concaténation (au sens « se compose sans perte »). *Preuve.* Par définition d’homomorphisme. □ Cette proposition donne une condition claire sur le type d’invariants qu’on a le droit d’attendre « stables » sous recombinaison : ceux qui dépendent additivement des fragments (ou qui se corrigent localement aux jonctions). ## Modèles discrets, algorithmes et complexité Aucune hypothèse « adaptative » n’est requise. On décrit uniquement des mécanismes de sélection de segments, d’assemblage et de réparation. ### Modèles de sélection de fragments et épissage On fixe une longueur \(|S|=n\). Trois familles standard (abstraites) : 1) **épissage à marqueurs** : sélectionner des segments entre marqueurs (positions \(i,j\) satisfaisant une contrainte). 2) **épissage aléatoire** : choisir \(k\) intervalles disjoints au hasard (distribution sur tuples d’intervalles). 3) **épissage pondéré** : choisir des segments avec probabilité proportionnelle à un score local (fonction \(w\) sur positions), sans interprétation. ### Recombinaison stochastique Deux modèles classiques : - **crossover à un point** : choisir \(k\in\{1,\dots,n-1\}\), produire \(S' = S_1[1:k]\Vert S_2[k+1:n]\). - **crossover uniforme** : choisir un masque \(m\in\{1,2\}^n\) et définir \(S'_t = S_{m_t,t}\). Ces schémas abstraits reflètent le fait empirique qu’en reproduction sexuée, la recombinaison réassortit des segments génétiques, thème central chez Maynard Smith. citeturn0search9turn2search31 Sur le plan théorique, la littérature de génétique des populations discute leur effet sur les associations entre loci (déséquilibre de liaison) et la vitesse de production de combinaisons, avec des résultats classiques suivant les hypothèses (population finie vs infinie), notamment chez Felsenstein. citeturn1search3turn1search7 ### Réparation et compatibilité La réparation \(\rho\) peut être : - **locale** (modifier un motif interdit en un motif autorisé), - **globale** (réécrire pour satisfaire une grammaire), - **projective** (projection sur un ensemble admissible minimal). La logique rejoint une idée générale en théorie des automates et de la computation : rendre un processus « réversible » exige de conserver l’historique; effacer l’historique est une opération logiquement irréversible (non‑injective), point discuté par Landauer et Bennett. citeturn2search0turn2search6 Ici, on n’en tire pas une thèse physique additionnelle : on retient le fait structural que réparation/projection est typiquement non injective. ### Algorithmes et complexité On donne des coûts asymptotiques usuels (où \(n=|S|\), \(|\mathcal{L}|=B\)) : **Extraction d’un segment** \(S[i:j]\) : \(O(j-i+1)\). **Multi‑segments** : \(O(\sum_p (j_p-i_p+1))\). **Recombinaison à un point** : \(O(n)\). **Recombinaison uniforme** : \(O(n)\) (parcours + masque). **Recalcul de \(M\) depuis \(S\)** : \(O(n)\). **Distance \(d_M\)** (matrices denses) : \(O(B^2)\); (sparse) : \(O(\#\text{transitions distinctes})\). **Distance d’édition** \(d_S\) : \(O(n^2)\) en général (DP), \(O(n)\) en Hamming si longueurs fixes. Pseudocode minimal (crossover à un point + mise à jour de \(M\)) : ```text Input: S1, S2 (length n), cut k S' = S1[1:k] concat S2[k+1:n] Initialize M' = 0 for t in 1..n-1: M'[ S'[t], S'[t+1] ] += 1 Output: (S', M') ``` ## Gamètes non réutilisables, ressource consommée et flèche généalogique Le chapitre 4 a établi que la flèche du temps peut être reconstruite comme non‑extensibilité en groupe (semi‑groupe effectif), notamment par non‑injectivité ou monotone. On applique ici cette idée à l’ordre généalogique. ### Jetons de gamètes comme ressource non réutilisable On associe à chaque individu \(i\) un multiensemble \(G_i\) de **gamètes‑jetons** (ressource finie). Un événement reproductif prend deux jetons \(\gamma^{(1)}\in G_p\) et \(\gamma^{(2)}\in G_q\), les **consomme** (irréversiblement), et produit un nouvel individu \(c\) avec génotype \(\Gamma_c\). Formellement, l’événement est une transition : \[ (p,q,\gamma^{(1)},\gamma^{(2)})\;\longmapsto\; c \] avec mise à jour \(G_p\leftarrow G_p\setminus\{\gamma^{(1)}\}\), \(G_q\leftarrow G_q\setminus\{\gamma^{(2)}\}\). **Proposition 5 (monotone de consommation).** La quantité totale \(T=\sum_i |G_i|\) est un monotone décroissant strict à chaque reproduction (si aucun jeton n’est créé ex nihilo au même niveau). *Preuve.* Chaque événement retire au moins 2 jetons; donc \(T\) diminue strictement. □ Comme au chapitre 4, l’existence d’un monotone strict interdit les cycles au niveau des événements. ### Lignée comme DAG On définit un graphe orienté \(\mathcal{T}\) dont les nœuds sont les individus (génotypes \(\Gamma\)) et où l’on met des arêtes \(p\to c\) et \(q\to c\) à chaque reproduction. **Proposition 6 (acyclicité).** Sous la règle « gamètes non réutilisables » et une création de jetons strictement orientée (aucune ré‑utilisation), le graphe des événements reproductifs est acyclique. *Preuve.* Une boucle impliquerait qu’un individu soit ancêtre de lui‑même, donc qu’une chaîne d’événements consomme des jetons tout en revenant à une configuration antérieure. Mais le monotone \(T\) diminue strictement à chaque événement (Proposition 5), donc une boucle est impossible. □ Diagramme : ```mermaid flowchart TD P1["Parent p : Γ_p"] -->|γ_p = Frag(Γ_p)| G1["Gamète γ_p"] P2["Parent q : Γ_q"] -->|γ_q = Frag(Γ_q)| G2["Gamète γ_q"] G1 -->|Recombine| C["Enfant c : Γ_c"] G2 -->|Recombine| C C -->|Frag| Gc["Gamètes de c (nouveaux jetons)"] subgraph Lineage["Lignée (DAG)"] P1 --> C P2 --> C end ``` Cette structure donne une flèche généalogique **sans agentivité** : ce n’est pas « quelqu’un » qui choisit, c’est la présence d’une règle de consommation et de transformation admissible qui impose l’orientation. ## Conditions minimales d’héritage des collisions passées Le chapitre 5 a introduit le rôle des collisions (non‑injectivité) et des classes. Ici, la mémoire \(M\) capture l’historique **au niveau des classes**. Deux conditions minimales ressortent : 1) **Transmissibilité partielle de \(M\).** Il faut que la fragmentation transmette des sous‑matrices/cooccurrences (ou des segments permettant de les recalculer). 2) **Accumulation sans boucles.** La lignée doit être un DAG (Proposition 6) ou, plus généralement, un ordre partiel d’événements (chapitre 4), afin que la mémoire agrégée ne soit pas recyclable à l’identique. On peut formaliser une mémoire de lignée par agrégation pondérée : \[ M_{\mathcal{T}}=\sum_{i\in \mathcal{T}} \omega_i M_i, \] où \(\omega_i\) pondère la contribution (descendance, profondeur, etc.). Cette somme n’introduit pas de sémantique : elle est une opération sur compteurs. ## Implications déduites strictement (lecture conditionnelle) On ne déduit ici que ce qui suit nécessairement des sections mathématiques. 1) **Diversification sans finalité.** Dès qu’il existe (i) une partition en classes (chapitre 5), (ii) une fragmentation non triviale, et (iii) une recombinaison, l’espace des objets accessibles par itération des événements s’élargit combinatoirement : le nombre de séquences composées de fragments croît au moins multiplicativement avec le nombre de fragments disponibles. Cette diversification est une conséquence de la combinatoire des concaténations et masques, pas d’un objectif. 2) **Accumulation historique.** L’existence d’un monotone de consommation (gamètes‑jetons) impose une orientation des événements, donc rend possible l’accumulation d’un registre \(M_{\mathcal{T}}\) qui ne peut pas être « déroulé » en sens inverse sans réintroduire des objets consommés. Ceci prolonge directement l’idée que la non‑injectivité et la perte d’antécédents rendent le passé non reconstructible à partir du présent (chapitre 4), idée également cohérente avec la notion d’irréversibilité logique discutée par Landauer et Bennett (non‑inversibilité à valeur unique). citeturn2search0turn2search6 3) **Condition de possibilité de mécanismes auto‑constructifs.** Von Neumann a montré qu’un cadre formel (automates cellulaires) peut contenir des dispositifs de construction universelle et d’auto‑reproduction, en s’appuyant sur des descriptions transmissibles et des opérations de construction. citeturn0search0turn0search4 Le présent chapitre n’affirme pas que de tels dispositifs apparaissent nécessairement, mais établit que nos opérateurs (fragmentation/recombinaison/réparation) constituent une grammaire minimale compatible avec ce type de phénomènes. ## Analyse philosophique finale : ontologie de l’héritage, limites et interdits **Ontologie minimale.** L’héritage n’est pas ici l’héritage d’identités, mais l’héritage de **structures compressées** : segments \(S_\gamma\) et cooccurrences \(M_\gamma\). L’individu n’est pas une substance ; c’est un nœud dans un graphe d’événements portant un quadruplet transmissible. Cette lecture découle du fait que la non‑injectivité (collisions) rend l’identité fine non conservative, donc inapte à fonder une généalogie robuste au niveau des classes. **Ce que le formalisme interdit.** Il interdit toute attribution de but (la reproduction ne « vise » rien), toute lecture intentionnelle (il n’y a pas de « choix » intrinsèque), et toute assimilation de ces objets à des contenus sémantiques. Le mot « génotype » est une étiquette de convenance pour \(\Gamma\), non une importation biologique : l’objet est défini par ses composantes \((S,M,A,R)\), pas par un référent. **Limites.** Deux limites sont structurelles : - La stabilité sous recombinaison n’est pas universelle : seuls certains invariants (homomorphes, locaux, ou conçus pour être composables) résistent à la recombinaison (Proposition 4). - Les métriques \(d_S,d_M\) sont des choix : elles définissent une géométrie sur l’espace des génotypes, et différentes géométries conduisent à des notions différentes de proximité héréditaire. Il ne peut donc pas y avoir « une » héritabilité métrique sans convention explicite. **Pont discipliné vers la génétique des populations (sans réduction).** La littérature classique en génétique évolutive met au centre le rôle de la recombinaison et discute ses avantages selon les hypothèses (modèles finis/infinis, déséquilibre de liaison, interférences entre loci). Maynard Smith a structuré le problème et Felsenstein a fourni des analyses influentes sur l’avantage de recombinaison dans des cadres où la dérive crée des associations entre loci. citeturn0search9turn1search3turn1search7 Nous n’en tirons aucune finalité : nous retenons uniquement que ces cadres établissent la pertinence mathématique d’opérations de recombinaison (mélange de segments) et d’effets de non‑injectivité (multiples origines possibles). ## Tableaux comparatifs | Objet / opération | Définition minimale | Propriété clé | Injectif ? | Coût calcul (typique) | |---|---|---|---|---| | Fragmentation \(\mathrm{Frag}\) | extraction de segments | réduction / sous‑structure | non (perte) | \(O(n)\) | | Épissage \(\pi\) | sélection + concaténation | composition de fragments | non en général | \(O(n)\) | | Recombinaison (concat) | \(S'=S_1\Vert S_2\) | associative, non commutative | non (origines ambiguës) | \(O(n)\) | | Recombinaison (masque) | mélange positionnel | paramètre interne | non | \(O(n)\) | | Réparation \(\rho\) | projection admissible | idempotence si projecteur | non | dépend contraintes | | Mémoire \(M\) | cooccurrences | héritage de collisions | — | recalcul \(O(n)\) | | Métrique | Définition | Interprétation formelle | Complexité | |---|---|---|---| | \(d_S\) | distance d’édition | coût minimal de transformation de chaînes | \(O(n^2)\) | | \(d_M\) | \(\sum|M-M'|\) | divergence de registres de transitions | \(O(B^2)\) dense / sparse sinon | | \(h\) | normalisation de \(d_S,d_M\) | indice de ressemblance transmissible | coût des distances | --- # Chapitre 7 — Généalogies, lignées et accumulation d’histoire ## Hypothèses et résultats (repères) Hypothèses (H). - événements reproductifs orientés, avec non‑réutilisation de ressources événementielles (DAG) ; - opérateurs d’agrégation/oubli explicités pour définir une histoire distribuée. Résultats (E). - dérivation d’un ordre généalogique via acyclicité et construction d’un registre \(M_{\mathcal{T}}\) cumulatif ; - introduction de métriques d’histoire et de repères stochastiques (processus de branchement/coalescents) lorsque la couche probabiliste est mobilisée. Statut. - noyau ensembliste pour l’ordre/DAG ; résultats probabilistes explicitement indexés par le modèle choisi. ## Résumé exécutif Ce chapitre formalise l’**histoire** comme un objet mathématique dérivé d’événements reproductifs orientés, et non comme un paramètre présupposé. On part de primitives non sémantiques (individus porteurs d’un objet \(\Gamma\), événements, gamètes‑jetons, registre \(M\)) et l’on montre que, sous une règle minimale de **non‑réutilisation** de ressources événementielles, la structure globale des filiations devient un **graphe orienté acyclique (DAG)**. Cette acyclicité induit un ordre d’antériorité « généalogique » qui se superpose à l’ordre d’itération déjà reconstruit comme préordre/dérivé d’une action de monoïde (chapitre sur le temps comme ordre). Sur ce DAG, on définit une **agrégation historique** \(M_{\mathcal{T}}\) (mémoire distribuée) comme un opérateur d’addition pondérée, de filtrage et d’oubli, et l’on étudie ses propriétés algébriques (associativité, commutativité, idempotence des filtres, monotonies). On introduit des **métriques** de croissance historique (complexité cumulée, entropie cumulative, diversité de lignées) et des bornes élémentaires (croissance au plus linéaire ou au plus exponentielle selon le régime de branchement, avec conditions explicites). On relie ensuite ce formalisme à des modèles stochastiques établis : (i) les **processus de branchement** de type Galton–Watson et leur critère d’extinction/survie via fonction génératrice (résultat classique), et (ii) le **coalescent de Kingman** (processus de Markov sur partitions) qui décrit la généalogie « vue à rebours » de grands modèles de populations ; ces deux cadres fournissent des théorèmes consensuels sur la probabilité de survie, la profondeur attendue, et la structure statistique des lignées. citeturn0search0turn0search1turn0search17 Enfin, on traite la **reconstruction** de lignées à partir de fragments et de registres : l’identifiabilité est en général limitée par la non‑injectivité (collisions) et, dès que des recombinaisons sont autorisées, les objets de type « graphe de recombinaison ancestral (ARG) » deviennent computationnellement difficiles à inférer ; des résultats de complexité (NP‑difficulté de problèmes minimaux) sont connus et cités. citeturn3search0turn3search29 Les implications restent strictement déduites : dans tout modèle satisfaisant (a) classes (compression), (b) événements de fragmentation/recombinaison, et (c) consommation non réversible de jetons, le système est structurellement capable d’une **accumulation historique distribuée** ; aucun « but » n’est requis. La section philosophique conclut sur une ontologie du temps historique comme ordre sur événements et sur ce que le formalisme interdit (téléologie, agentivité, identité forte). ## Primitives et axiomes minimaux On fixe un alphabet fini \(\mathcal{L}\) (classes de formes), et un espace de génotypes abstraits. ### Axiomes d’objets **Individu.** Un individu est un élément d’un ensemble \(I\). À chaque individu \(i\in I\) est associé un quadruplet \[ \Gamma_i = (S_i, M_i, A_i, R_i) \] où \(S_i \in \mathcal{L}^\*\) est une séquence finie, \(M_i\) un registre (par ex. cooccurrences), \(A_i\) un ensemble d’invariants dérivés, \(R_i\) un ensemble de règles admissibles (mutations, épissage, réparation). (Définitions : primitives du modèle de ce livre.) **Gamète‑jeton.** À chaque individu \(i\), on associe un multiensemble fini \(G_i\) d’objets \(\gamma\) (gamètes). Un gamète est une sous‑structure \(\gamma=(S_\gamma,M_\gamma,A_\gamma)\) extraite de \(\Gamma_i\) par un opérateur de fragmentation \(\mathrm{Frag}\). **Événement reproductif.** Un événement est un quintuplet \[ e = (p,q,\gamma_p,\gamma_q,c) \] où \(p,q\in I\) sont les parents, \(\gamma_p\in G_p\), \(\gamma_q\in G_q\) les jetons consommés, et \(c\in I\) l’enfant produit. L’objet \(\Gamma_c\) résulte d’un opérateur \(\mathrm{Recombine}(\gamma_p,\gamma_q;\Theta)\) suivi d’une réparation éventuelle \(\rho\) (comme dans les chapitres précédents). ### Axiomes d’irréversibilité généalogique (non‑réutilisation) **A0 (non‑réutilisation des jetons).** À chaque événement \(e=(p,q,\gamma_p,\gamma_q,c)\), les jetons \(\gamma_p,\gamma_q\) sont retirés de \(G_p,G_q\) et ne peuvent pas être réintroduits identiques (au même niveau d’analyse). Cet axiome est la version minimale d’un **monotone de consommation** : la disponibilité de jetons diminue au fil des événements, imposant une flèche d’événements (au sens formel) comme dans une action de semi‑groupe non extensible en groupe. ### Diagramme d’entités (niveau formel) ```mermaid flowchart LR subgraph Individual["Individu i"] Gi["G_i : multiensemble de gamètes-jetons"] Gamma["Γ_i=(S_i,M_i,A_i,R_i)"] end Gamma -->|Frag| gamma["γ=(Sγ,Mγ,Aγ)"] Gi --> gamma gamma -->|Recombine| Gammac["Γ_c"] Gammac -->|Frag| Gc["G_c"] ``` ## Lignée comme DAG d’événements On définit une lignée comme un graphe orienté construit par les événements reproductifs. ### Définition formelle Soit \(E\) l’ensemble des événements. On construit un graphe orienté \(\mathcal{T}=(V,E_{\to})\) où : - \(V=I\) (les individus), - pour chaque événement \(e=(p,q,\gamma_p,\gamma_q,c)\), on ajoute deux arêtes orientées \(p\to c\) et \(q\to c\). On appelle \(\mathcal{T}\) la **lignée** (ou plus précisément un pedigree abstrait). Le graphe n’impose pas la bi‑parentalité : on peut généraliser à \(k\) parents par événement, mais on reste ici dans le cas \(2\) pour fixer les preuves. ### Acyclicité induite par la non‑réutilisation On formalise une grandeur monotone associée à la consommation. **Définition (stock total de jetons).** \[ T = \sum_{i\in I} |G_i|. \] **Proposition (monotonicité stricte).** Si chaque événement consomme au moins deux jetons et ne réintroduit pas les mêmes jetons, alors \(T\) décroît strictement après chaque événement (au niveau considéré). *Preuve.* Un événement retire \(\gamma_p,\gamma_q\) des stocks. Sous A0, ces jetons ne sont pas remis. Donc \(T\) diminue d’au moins \(2\). □ **Théorème (acyclicité).** Sous l’axiome A0 et la monotonicité de \(T\), le graphe \(\mathcal{T}\) est un DAG. *Preuve.* Supposons un cycle orienté \(i_0\to i_1\to \cdots \to i_k=i_0\). Chaque arête correspond à un événement (direct ou indirect) qui consomme des jetons et fait décroître \(T\). En parcourant le cycle, \(T\) devrait décroître strictement et revenir à sa valeur initiale, contradiction. □ Cette forme de preuve est exactement la logique « monotone strict ⇒ pas de cycles » (même squelette que dans les preuves par fonction de Lyapunov). Elle est cohérente avec la reconstruction du temps comme ordre : un monotone strict interdit les retours exacts. citeturn1search1turn1search2 ### Relations d’ascendance et invariants combinatoires Dans un DAG \(\mathcal{T}\), on définit : - \(u\) est **ancêtre** de \(v\) si un chemin orienté \(u\to^\* v\) existe. - la **profondeur** \(\mathrm{depth}(v)\) : longueur maximale d’un chemin orienté menant à \(v\). - la **largeur** \(\mathrm{width}(\mathcal{T})\) : taille maximale d’un antichaîne (ensemble de nœuds incomparables) ; notion standard dans la théorie des posets/DAG (ici utilisée comme mesure « d’expansion parallèle »). Proposition élémentaire (ordre partiel des individus). L’ancêtre/descendant induit un ordre partiel sur \(V\) (réflexif via chemin vide, transitif par concaténation des chemins, antisymétrique car DAG). *Preuve.* Dans un graphe sans cycles, l’existence de \(u\to^\* v\) et \(v\to^\* u\) implique un cycle si \(u\neq v\). □ ### Schéma de lignée (DAG d’événements) ```mermaid flowchart TD A["i₀"] --> C["i₂"] B["i₁"] --> C C --> E["i₄"] D["i₃"] --> E C --> F["i₅"] subgraph Levels["Couches (antichaînes)"] direction LR L0["génération 0"] --- L1["génération 1"] --- L2["génération 2"] end ``` ## Agrégation historique et métriques de complexité Le DAG fournit l’ossature. L’« histoire » apparaît lorsque l’on définit des opérateurs d’agrégation des registres \(M_i\) le long des événements. ### Agrégation \(M_{\mathcal{T}}\) : somme pondérée, filtrage et oubli Soit \(\omega:V\to \mathbb{R}_+\) une pondération (fonction arbitraire, par ex. profondeur, centralité, ou constante). **Définition (agrégation additive).** \[ M_{\mathcal{T}} \;=\; \sum_{i\in V} \omega(i)\, M_i \] (la somme est point‑par‑point sur \(\mathcal{L}\times\mathcal{L}\)). Propriétés (algèbre). La somme est associative et commutative et définit un monoïde additif sur l’espace des registres \(\mathbb{R}_+^{\mathcal{L}\times\mathcal{L}}\). (Faits algébriques standards.) **Définition (filtrage).** Un filtrage est un opérateur \(F\) agissant sur \(M\) en annulant certains coefficients : \[ (F_\theta M)(a,b)=M(a,b)\cdot \mathbf{1}_{M(a,b)\ge \theta}. \] Propriété : \(F_\theta\) est idempotent (\(F_\theta\circ F_\theta=F_\theta\)). **Définition (oubli/exponentiel).** Pour \(\alpha\in(0,1)\), on définit une agrégation « à oubli » par une récurrence sur un ordre topologique du DAG : \[ M^{(t+1)}=\alpha M^{(t)} + \Delta M^{(t+1)}, \] où \(\Delta M^{(t+1)}\) est la contribution des nouveaux nœuds/hyperarêtes. Cela définit une dynamique contractante sur l’espace des registres (pertinent lorsque l’histoire est « bornée »). Lien avec l’entropie et l’information (mesures de Shannon). Shannon établit l’entropie \(H\) comme mesure de l’incertitude d’une variable discrète et introduit entropies jointes/conditionnelles dont la relation de chaîne permet de quantifier la perte lors d’une projection. citeturn1search0turn1search4 Ici, on peut associer au registre \(M\) une distribution normalisée \(p_M(a,b)=M(a,b)/\sum_{u,v} M(u,v)\) et définir l’entropie de transitions : \[ H(M) = -\sum_{a,b} p_M(a,b)\log p_M(a,b). \] Elle quantifie la dispersion des transitions au niveau de classes (sans sémantique). ### Métriques de mémoire historique On propose trois familles de métriques (toutes définies sur des objets mathématiques, sans interprétation psychologique). **Croissance de complexité de registre.** - Support : \(\mathrm{supp}(M)=\{(a,b):M(a,b)>0\}\) - Taille support : \(|\mathrm{supp}(M_{\mathcal{T}})|\) mesure la diversité de transitions observées. - Normes : \(\|M_{\mathcal{T}}\|_1=\sum_{a,b} M_{\mathcal{T}}(a,b)\) (compte total), \(\|M_{\mathcal{T}}\|_0=|\mathrm{supp}|\) (diversité). **Entropie cumulative.** - \(H(M_{\mathcal{T}})\) comme ci‑dessus. - Entropie conditionnelle (si l’on découple états sources et transitions) : \(H(B|A)\) mesure la dispersion des successeurs conditionnellement à la source, via standard Shannon. citeturn1search0turn1search4 **Diversité de lignées.** On mesure la diversité par partition au niveau des descendants (par exemple via classes \(\Gamma\) projetées) ; techniquement, cela revient à une entropie de distribution de types. Bornes élémentaires. Dans le cas où l’on agrège simplement des cooccurrences et où chaque nouvel individu ajoute au plus \(|S_i|-1\) transitions, on obtient une borne triviale : \[ \|M_{\mathcal{T}}\|_1 \le \sum_{i\in V} \omega(i)\,(|S_i|-1). \] Si \(\omega\equiv 1\) et \(|S_i|\le n_{\max}\), alors \(\|M_{\mathcal{T}}\|_1\le |V|\,(n_{\max}-1)\) (croissance au plus linéaire en nombre d’individus). À l’inverse, si le nombre d’individus croît exponentiellement (processus supercritique), la masse agrégée croît exponentiellement en espérance (section suivante). ### Structure d’atteignabilité temporelle : couches et accumulation On peut visualiser l’histoire comme accumulation par couches (antichaînes) dans le DAG. ```mermaid flowchart LR subgraph TimeLayers["Couches d'événements (ordre partiel)"] direction TB L0["Couche 0: sources"] --> L1["Couche 1"] L1 --> L2["Couche 2"] L2 --> L3["Couche 3"] end L0 --- M0["M couche 0"] L1 --- M1["ΔM couche 1"] L2 --- M2["ΔM couche 2"] L3 --- M3["ΔM couche 3"] M0 --> Agg["Agrégation: somme/oubli"] M1 --> Agg M2 --> Agg M3 --> Agg Agg --> MT["M_𝒯"] ``` ## Modèles stochastiques de reproduction et survie des lignées ### Processus de branchement de Galton–Watson Le modèle de Galton–Watson (historique) a été introduit dans le contexte de l’extinction de familles (noms), par Galton et Watson. citeturn0search0turn0search11 Formellement, si \(Z_n\) est la taille de la génération \(n\) et si chaque individu engendre un nombre i.i.d. d’enfants \(\xi\), on a : \[ Z_{n+1}=\sum_{k=1}^{Z_n} \xi_k^{(n)},\qquad Z_0=1. \] Résultats classiques (consensus) : - La probabilité d’extinction \(q\) est la plus petite solution dans \([0,1]\) de \[ q = \varphi(q), \] où \(\varphi(s)=\mathbb{E}(s^\xi)\) est la fonction génératrice. citeturn0search17turn0search6 - Si \(m=\mathbb{E}[\xi]\le 1\), alors \(q=1\) (extinction presque sûre) ; si \(m>1\), alors \(q<1\) (survie avec probabilité positive). citeturn0search17turn0search6 Ces résultats fournissent une lecture quantitative de « survivre comme lignée » : l’acyclicité et l’accumulation ne garantissent pas l’expansion ; en régime sous‑critique, la lignée s’éteint presque sûrement. ### Coalescent de Kingman : généalogie « vue à rebours » Pour un échantillon de \(n\) individus dans une grande population idéale (Wright–Fisher / Moran), Kingman introduit un processus de Markov continu sur l’ensemble des partitions de \(\{1,\dots,n\}\), décrivant les coalescences des lignées ancestrales lorsqu’on remonte le temps. citeturn0search1turn2search2turn0search12 Propriété centrale (consensus) : lorsque \(k\) lignées ancestrales sont présentes, le taux de coalescence est \[ \lambda_k = \binom{k}{2}, \] et les temps d’attente entre coalescences successives sont exponentiels indépendants de paramètres \(\lambda_k\) (après un choix d’échelle). Cette structure (pure death process sur le nombre de blocs) est explicitement discutée dans les présentations standards du coalescent. citeturn0search1turn0search12 Lien avec notre formalisme : le DAG « vers l’avant » (reproduction) devient, lorsqu’on le regarde sur un échantillon de feuilles, un arbre aléatoire « vers l’arrière » (coalescent). Ceci fournit des formules pour la profondeur attendue (temps jusqu’à MRCA) et pour la distribution de longueurs de branches. ### Recombinaison : graphes ancestraux (ARG) et difficulté computationnelle Avec recombinaison, l’ancestralité n’est plus un arbre unique mais un graphe : l’**ancestral recombination graph (ARG)**, qui combine événements de coalescence et de recombinaison. Des sources de synthèse décrivent l’ARG comme structure fondamentale de la généalogie génomique. citeturn0search7turn0search18turn2search9 Des travaux classiques (Hudson) posent des modèles coalescents intégrant recombinaison, en lien avec la structure des généalogies le long du génome. citeturn2search0turn0search18 Résultat clé pour notre chapitre « algorithmes » : construire des ARG minimaux (minimiser le nombre d’événements de recombinaison compatibles avec des données) est computationnellement difficile ; plusieurs travaux mentionnent explicitement la NP‑difficulté de variantes de construction minimale. citeturn3search0turn3search29turn3search9 Ce point justifie une limite interne : même si le modèle définit une histoire comme DAG/ARG, la reconstruction exacte peut être non identifiable ou intractable. ## Reconstruction algorithmique des lignées et limites d’identifiabilité Le modèle distingue deux problèmes : **reconstruction de l’ossature** (le DAG) et **reconstruction des contenus** (\(S,M,A\)). ### Reconstruction d’un DAG à partir de distances (heuristique) Si l’on observe un ensemble d’individus \(V_{\text{obs}}\) avec des distances \(d_S\) (sur séquences) et/ou \(d_M\) (sur registres), une stratégie heuristique consiste à : 1. construire un graphe de proximité (k‑NN, seuil), 2. imposer une orientation par un ordre externe (horloge interne, monotone, ou timestamps observés), 3. extraire un DAG parcimonieux (par ex. arborescence couvrante minimale orientée, ou ensemble de parents minimisant une fonction de coût). Ce type de méthode est heuristique : sans hypothèses additionnelles, de nombreux DAG peuvent être compatibles avec les mêmes distances. ### Reconstruction avec recombinaison : réduction à des problèmes NP‑difficiles Lorsque la recombinaison est autorisée, l’histoire devient un graphe (ARG) plutôt qu’un arbre. Plusieurs problèmes naturels deviennent NP‑difficiles : - minimiser le nombre de recombinaisons dans un réseau phylogénétique, NP‑hard dans des formulations standard. citeturn3search9turn3search2 - construire un ARG minimal cohérent avec des données, NP‑hard dans des formulations minimales. citeturn3search29turn3search0 Conséquence méthodologique (interne à l’ouvrage) : une théorie abstraite de l’histoire doit accepter que « l’histoire exacte » est souvent une classe d’histoires compatibles, plutôt qu’un objet unique reconstructible. ### Limite informationnelle : non‑injectivité et collisions Même sans recombinaison, la non‑injectivité (collisions) implique que plusieurs passés peuvent mener au même présent. Landauer relie explicitement les fonctions logiquement irréversibles (sans inverse univoque) à une irréversibilité physique et à un coût minimal d’effacement, ce qui fournit un ancrage consensuel à l’idée que l’information sur les antécédents ne peut pas être récupérée gratuitement. citeturn1search1turn1search21 Ici, on n’en déduit pas une physique de la lignée : on en tire une contrainte formelle sur l’identifiabilité. ## Conditions minimales d’accumulation irréversible et implications déduites ### Conditions minimales (formelles) On peut isoler trois conditions, chacune dérivée des constructions précédentes : - **Orientation événementielle** : existence d’un monotone strict (ici, consommation de jetons) ⇒ DAG ⇒ ordre historique (preuves ci‑dessus). - **Non‑injectivité effective** : collisions au niveau des classes/observations ⇒ impossibilité de reconstruire le passé fin ⇒ l’histoire est irréductible à l’état présent (principe général, cohérent avec Landauer et avec la théorie de l’information de Shannon, où une projection déterministe détruit l’information conditionnelle). citeturn1search0turn1search1 - **Séparation d’échelles** (argument de consensus) : pour voir une flèche à un niveau donné, il faut que la dynamique à ce niveau ne soit pas réversible « en pratique » (agrégation, dissipation, non‑injectivité). Cette idée est compatible avec le fait que des dynamiques microscopiques réversibles peuvent produire des irréversibilités macroscopiques via agrégation et perte d’information, point discuté classiquement en mécanique statistique et dans la lecture informationnelle de l’entropie. citeturn1search0turn1search4 ### Implications strictement déduites (statut explicite) Sans ajouter de spéculation, on peut affirmer : 1. **Disponibilité d’une mémoire distribuée.** Dès qu’il existe un DAG d’événements et une variable additive \(M_{\mathcal{T}}=\sum \omega(i)M_i\), l’histoire devient un objet global distribué sur les nœuds, non réductible à un seul état local. 2. **Possibilité d’augmentation de complexité historique.** En régime où le nombre d’individus croît (p. ex. branchement supercritique \(m>1\)), les quantités cumulées (\(\|M_{\mathcal{T}}\|_1\), diversité de transitions, entropie) croissent typiquement avec la taille de la lignée; Galton–Watson fournit le critère probabiliste minimal pour qu’une telle croissance soit possible avec probabilité non nulle. citeturn0search17turn0search6 3. **Diversification sans finalité.** La diversification découle de la combinatoire des recombinaisons de fragments et de l’expansion du DAG; aucun objectif n’est requis pour obtenir une dispersion des types. ## Analyse philosophique finale : ontologie des lignées, limites et interdits ### Ontologie minimale : histoire comme ordre d’événements Le chapitre montre que « l’histoire » n’est pas une donnée primitive : elle apparaît lorsque l’on remplace la notion d’état par celle d’**événement orienté**. Une lignée n’est pas une essence : c’est une structure d’ordre (DAG) munie de contenus transmissibles (\(\Gamma\)) et de cumulants (\(M_{\mathcal{T}}\)). Cette ontologie est strictement structurale : être « dans » une histoire signifie être situé dans un poset d’événements et contribuer à un registre global. ### Ce que le formalisme interdit - Il interdit toute **agentivité** : aucun individu n’« agit » au sens intentionnel; il ne fait que participer à des opérateurs admissibles. - Il interdit toute **finalité** : la survie/expansion d’une lignée est un résultat contingent mesurable (ex. probabilité de survie en Galton–Watson), non un but. citeturn0search17turn0search6 - Il interdit l’**identité forte** : la non‑injectivité implique que plusieurs histoires distinctes peuvent être compatibles avec un même état présent; avec recombinaison, la pluralité d’ARG compatibles et la difficulté computationnelle rendent cette limite encore plus marquée. citeturn3search29turn3search0 ### Limites internes - La notion d’agrégation \(M_{\mathcal{T}}\) dépend d’un choix de pondération \(\omega\) et d’opérateurs de filtrage/oubli : il n’existe pas de « mémoire historique unique » sans convention. - La reconstruction exacte des histoires peut être impossible (non identifiabilité) et/ou intractable (NP‑difficulté) dans des cadres riches (recombinaison). citeturn3search29turn3search9 ## Tableaux comparatifs ### DAG et cycles : structures d’histoire | Structure | Définition | Propriété clé | Interprétation formelle | |---|---|---|---| | DAG | graphe orienté sans cycles | ordre partiel ancêtre/descendant | histoire irréversible (événements non recyclables) | | Graphe avec cycles | existence de boucle orientée | retour possible | absence de flèche d’événements au niveau considéré | | Arbre (cas particulier de DAG) | DAG avec un parent (ou deux) et sans recombinaison | MRCA bien défini | généalogie sans recombinaison | | ARG | DAG avec nœuds de recombinaison | pas un arbre unique | généalogie multi‑arbres corrélés citeturn0search7turn0search18 | ### Modèles stochastiques : branchement vs coalescent | Modèle | « Sens du temps » | Objet aléatoire | Résultat canonique | |---|---|---|---| | Galton–Watson | vers l’avant | tailles \(Z_n\), arbre de descendance | extinction \(q\) solution \(q=\varphi(q)\); \(q=1\) si \(m\le1\) citeturn0search17 | | Coalescent de Kingman | vers l’arrière | partition/ arbre de coalescence d’un échantillon | taux \(\binom{k}{2}\) pour \(k\) lignées; pure death process citeturn0search1turn0search12 | | Coalescent avec recombinaison | vers l’arrière | ARG | structure plus complexe; inférence difficile citeturn0search18turn3search29 | ### Métriques d’histoire | Métrique | Définition | Coût de calcul (typique) | Commentaire | |---|---|---|---| | \(\|M_{\mathcal{T}}\|_1\) | somme des compteurs | \(O(|\mathcal{L}|^2)\) dense | « volume » de transitions | | \(|\mathrm{supp}(M_{\mathcal{T}})|\) | nombre de transitions distinctes | sparse \(O(\#\text{non‑zéros})\) | diversité structurale | | \(H(M_{\mathcal{T}})\) | entropie Shannon sur transitions | \(O(\#\text{non‑zéros})\) | dispersion sans sémantique citeturn1search0 | | profondeur/largeur | invariants DAG | \(O(|V|+|E|)\) | structure temporelle | --- # Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques ## Hypothèses et résultats (repères) Hypothèses (H). - cadre discret fini pour la stabilisation en temps fini ; ou cadre compact/continu pour des résultats asymptotiques ; - choix déclaré d’une granularité/description lorsqu’on parle de contraintes sur l’avenir à un niveau donné. Résultats (E). - définitions de stabilisation, bassins, verrous et contraintes sur l’avenir ; - articulation entre stabilisation et propriétés épistémiques dérivées (réduction d’incertitude) sans sujet, avec quantification optionnelle indexée. Statut. - noyau ensembliste pour les implications combinatoires ; couches [M]/[P] uniquement lorsque une mesure ou un noyau est déclaré. ## Résumé exécutif Ce chapitre reconstruit la notion de **stabilisation** comme propriété formelle d’une dynamique (discrète ou continue) sur un espace de configurations, puis en déduit une notion de **contrainte sur l’avenir** : la dynamique, en convergeant vers des ensembles invariants attractifs, réduit effectivement l’espace des futurs accessibles à partir d’un ensemble initial d’états (incertitude, agrégation, ou classe). Dans le cadre discret fini, cette réduction est absolue : toute orbite tombe en temps fini dans un cycle, et l’espace se partitionne en bassins qui déterminent des « destinées » asymptotiques. Dans le cadre compact métrique/topologique, on remplace l’argument de finitude par la compacité et la notion d’\(\omega\)-limite : les ensembles limites sont non vides, compacts et invariants, et les attracteurs se définissent par attraction d’un voisinage. citeturn1search1turn0search3 On formalise ensuite des mécanismes de **verrouillage** : frontières de bassins, barrières de transition et mesures de « force de verrouillage » (taille de bassin, probabilité d’évasion, temps moyen d’évasion). Sous bruit, les bassins deviennent des régions métastables, et les questions se déplacent vers la robustesse (stabilité structurelle) et les transitions rares. Les repères de consensus mobilisés sont : stabilité de Lyapunov (définitions canonisées), stabilité structurelle en dimension 2 (Peixoto) et cadres hyperboliques (programme de Smale). citeturn2search0turn1search3turn0search3 Enfin, on définit des **propriétés épistémiques dérivées** sans invoquer de sujet : un objet/variable dérivée est dite « épistémique » lorsqu’elle (i) est une contrainte stable/transmissible sur la dynamique, (ii) réduit formellement l’incertitude sur des états futurs (via entropie conditionnelle ou information mutuelle au sens de Shannon), et (iii) reste opératoire sous perturbations admissibles. Shannon fournit le langage minimal (entropie, conditionnement) et Jaynes formalise le rôle des contraintes comme base d’estimation maximale d’entropie (sans hypothèse sémantique), tandis que Landauer apporte la contrainte thermodynamique sur les opérations logiquement irréversibles qui « effacent » des distinctions (borne \(kT\) / \(kT\ln 2\) par bit). citeturn0search8turn0search2turn0search1 ## Primitives, axiomes et définitions de stabilisation On fixe des primitives non sémantiques déjà admises dans l’ouvrage : un espace de configurations \(X\), une dynamique (itération ou flot), des classes (quotients/projections), et des registres transmissibles (génotypes abstraits \(\Gamma\) et mémoires \(M\)). Aucune finalité n’est supposée. ### Primitives - **Configurations** : ensemble \(X\) (fini, dénombrable ou compact métrique selon le cadre). - **Dynamique discrète** : application \(f:X\to X\), itérée \(f^{(n)}\). - **Dynamique continue (semi-flot)** : famille \(\{\Phi_t\}_{t\ge 0}\) satisfaisant \(\Phi_0=\mathrm{Id}\) et \(\Phi_{t+s}=\Phi_t\circ\Phi_s\); on distingue le cas réversible (flot, \(t\in\mathbb{R}\)) du cas irréversible (semi-groupe). Cette distinction est centrale dans la théorie des systèmes dynamiques différentiables (conjugaison, robustesse), telle que synthétisée par Smale. citeturn0search3 - **Classes / compression** : projection \(q:X\to A\) (partition en fibres) ou quotient \(\pi:X\to X/{\sim}\) compatible avec \(f\) (système facteur). - **Génotype abstrait** : un quadruplet \(\Gamma=(S,M,A,R)\) avec séquence \(S\) sur un alphabet fini, mémoire \(M\) (cooccurrences), invariants \(A\) et règles \(R\) (fragmentation/recombinaison/réparation). (Construction interne à l’ouvrage, non empirique par elle-même.) - **Registres** : \(M\) est un opérateur de comptage discret (par ex. transitions entre classes), susceptible d’agrégation au sein d’une lignée (chapitres précédents du manuscrit). ### Stabilisation dans le cadre discret fini **Définition (stabilisation forte, discret fini).** Dans \(X\) fini, une orbite \((x_n)\) est dite stabilisée si elle devient périodique après un transitoire : il existe \(\mu\ge 0\) et \(p\ge 1\) tels que \(x_{n+p}=x_n\) pour tout \(n\ge \mu\). Cela équivaut à « l’\(\omega\)-comportement est un cycle ». (Ce fait découle du principe des tiroirs et de la structure des graphes fonctionnels.) **Proposition (stabilisation en temps fini).** Si \(|X|=N\), toute orbite d’un système déterministe \(f:X\to X\) est stabilisée, avec \(\mu+p\le N\). *Preuve (élémentaire).* Les \(N+1\) termes \(x_0,\dots,x_N\) contiennent une répétition \(x_i=x_j\) avec \(i|itération| U1["F_n(U)"] U1 --> A1["Attracteur A₁"] U1 --> A2["Attracteur A₂"] A1 --- Bnd["Barrière / frontière de bassin"] A2 --- Bnd end note1["Verrouillage: F_n(U) ⊂ Nε(A₁) pour n grand"] --- U1 ``` ## Mesures, entropies et bornes de verrouillage Le verrouillage peut être quantifié de plusieurs façons, selon le cadre (discret/continu, déterministe/stochastique). On présente des mesures compatibles avec les consensuses (Shannon, entropie topologique) et avec des quantités opérationnelles (probabilité d’évasion, temps moyen d’évasion). ### Entropie structurelle des bassins (discret) Soit \(X\) fini, et \(\{B(C_i)\}_{i=1}^K\) la partition de \(X\) par bassins de cycles (attracteurs discrets). Posons \(p_i=|B(C_i)|/|X|\). On définit l’entropie structurelle de bassins : \[ H_{\mathrm{bassins}}=-\sum_{i=1}^K p_i \log p_i. \] **Proposition (bornes).** \[ 0 \le H_{\mathrm{bassins}} \le \log K, \] avec \(H_{\mathrm{bassins}}=0\) ssi un bassin domine tout (\(p_i=1\) pour un \(i\)), et \(H_{\mathrm{bassins}}=\log K\) ssi \(p_i=1/K\). *Preuve.* Propriété standard de l’entropie de Shannon appliquée à une distribution finie. Shannon introduit l’entropie comme mesure de l’incertitude d’une source discrète et en dérive les propriétés élémentaires (concavité, maxima sous contrainte). citeturn0search8turn0search12 Interprétation purement formelle : faible \(H_{\mathrm{bassins}}\) signifie forte dominance (verrouillage global), tandis qu’un \(H_{\mathrm{bassins}}\) élevé signifie pluralité de futurs asymptotiques selon l’état initial. ### Entropie topologique et complexité interne d’un régime L’entropie topologique \(h_{\mathrm{top}}(f)\) a été introduite par Adler–Konheim–McAndrew comme invariant de conjugaison topologique pour applications continues sur espaces compacts, mesurant une croissance exponentielle de complexité orbitale via raffinements de recouvrements ouverts. citeturn1search1 La coexistence est importante : un système peut avoir (i) un petit nombre d’attracteurs dominants (verrouillage global fort) et (ii) une entropie topologique positive sur un attracteur chaotique (complexité interne élevée). Les deux quantités répondent à des questions différentes : « où finit-on ? » versus « à quel point la dynamique est-elle complexe sur le régime atteint ? ». citeturn1search1turn0search3 ### Probabilité de sortie et temps moyen d’évasion (cadre stochastique discret) Pour modéliser le bruit, on considère une chaîne de Markov sur \(X\) avec matrice de transition \(P\). Un « bassin » devient une région \(B\subseteq X\) et l’« évasion » signifie frapper \(X\setminus B\). **Probabilité de sortie avant absorption.** Soit \(h(x)\) la probabilité, en partant de \(x\in B\), d’atteindre un ensemble cible \(C\subseteq X\setminus B\) avant de sortir de \(B\) par un autre mécanisme (ou avant une absorption interne). Alors \(h\) satisfait un système linéaire harmonique sur \(B\) : \[ h(x)=\sum_{y\in X} P(x,y)\,h(y),\quad x\in B, \] avec conditions au bord \(h|_C=1\) et \(h|_{X\setminus (B\cup C)}=0\). (Preuve élémentaire par propriété de Markov et loi des probabilités totales.) **Temps moyen d’évasion.** Soit \(\tau_B=\inf\{n\ge 0: X_n\notin B\}\). La fonction \(u(x)=\mathbb{E}_x[\tau_B]\) vérifie \[ u(x)=1+\sum_{y\in B} P(x,y)\,u(y),\quad x\in B, \] et \(u=0\) hors de \(B\). C’est encore un système linéaire, donc calculable en temps polynomial en \(|B|\) par inversion de matrice ou méthodes itératives (Gauss–Seidel). (Résultat de théorie élémentaire des chaînes de Markov finies.) Ces formules fournissent des **métriques de verrouillage** concrètes : un bassin fortement verrouillé a une faible probabilité d’évasion (sur un horizon donné) et/ou un temps moyen d’évasion élevé. ### Tableau comparatif des métriques de verrouillage | Cadre | Mesure de verrouillage | Définition | Calcul/estimation | |---|---|---|---| | Discret déterministe | taille de bassin | \(|B(C)|/|X|\) | exact en \(O(|X|)\) avec graphe fonctionnel | | Discret déterministe | entropie de bassins | \(H_{\mathrm{bassins}}(p_i)\) | exact une fois \(p_i\) connus (Shannon) citeturn0search8 | | Compact continu | attraction uniforme | \(\sup_{x\in U}\mathrm{dist}(f^{(n)}(x),A)\to 0\) | analyse théorique / bornes | | Stochastique (Markov) | prob. d’évasion | solution harmonique \(h=Ph\) sur \(B\) | système linéaire | | Stochastique (Markov) | temps moyen d’évasion | \(u=1+Pu\) sur \(B\) | système linéaire | ## Robustesse sous bruit et stabilité structurelle des régimes La stabilisation (convergence) ne suffit pas : une stabilisation non robuste ne contraint pas durablement les futurs si de petites perturbations changent la structure des attracteurs/bassins. ### Robustesse locale : stabilité de Lyapunov La stabilité de Lyapunov fournit un critère minimal de robustesse locale : rester proche sous petites perturbations initiales et, en cas de stabilité asymptotique, converger malgré ces perturbations. Ces notions sont introduites dans le texte fondateur de Lyapunov (1892) et structurent toute la théorie moderne de stabilité. citeturn2search0 ### Robustesse globale : stabilité structurelle (Peixoto, Smale) Deux repères de consensus encadrent ce chapitre. - **Peixoto (surfaces)** : sur une surface compacte, les champs de vecteurs structurellement stables (au sens \(C^1\)) forment un ensemble ouvert et dense, et admettent une caractérisation qualitative (pas de connexions selle‑selle, ensembles non errants hyperboliques, etc.). Cela signifie qu’en dimension 2, un « régime » typique est qualitativement robuste. citeturn1search3turn1search0 - **Smale (programme hyperbolique)** : la stabilité structurelle est liée à l’hyperbolicité et à la conjugaison topologique; Smale formalise un cadre global (Axiom A, décomposition spectrale) où les propriétés qualitatives persistent sous perturbations. citeturn0search3 Ces résultats justifient une distinction interne au chapitre : un attracteur n’est « contraignant pour l’avenir » de manière durable que s’il est **robuste** (au moins localement, idéalement structurellement). ### Entropie, irréversibilité et structures dissipatives (ancrage thermodynamique) Prigogine rappelle, dans sa leçon Nobel, l’usage des fonctions de Lyapunov en thermodynamique de stabilité et la centralité de la production d’entropie (signe non négatif) pour l’orientation irréversible, tout en distinguant les situations où une fonction de potentiel (Lyapunov) existe ou non. citeturn1search2 Ce point sert ici uniquement comme correspondance de consensus : dans des systèmes physiques ouverts loin de l’équilibre, des « régimes organisés » peuvent persister (structures dissipatives), ce qui correspond formellement à l’existence d’ensembles invariants attirants sous contrainte dissipative. citeturn1search2turn1search12 ## Propriétés épistémiques dérivées On introduit maintenant « épistémique » comme **adjectif dérivé** et non comme fondement : il s’agit de caractériser certains invariants/contraintes comme capables de jouer un rôle de **réduction d’incertitude sur l’avenir**, sans postuler sujet, signification, ni intention. ### Définition formelle d’une propriété épistémique dérivée Soit \((X_t)_{t\ge 0}\) une dynamique (déterministe ou stochastique) sur \(X\), et soit \(D_t = D(X_t)\) une variable dérivée (par exemple : étiquette de bassin, classe, invariant calculé à partir d’un génotype \(\Gamma\)). On dit que \(D\) possède une propriété épistémique dérivée à l’horizon \(\tau\) s’il existe un gain strict de prévisibilité : \[ H(X_{t+\tau}\mid D_t)\ <\ H(X_{t+\tau}). \] Équivalemment, l’information mutuelle satisfait \[ I(D_t; X_{t+\tau})\ >\ 0. \] Ces quantités (entropie, conditionnement, information mutuelle) sont introduites dans le cadre de Shannon comme mesures formelles de l’incertitude et de la réduction d’incertitude (indépendamment de toute sémantique). citeturn0search8turn0search12 **Remarque de méthode.** Cette définition ne dit pas que « le système connaît » quoi que ce soit; elle dit qu’il existe une variable dérivée stable qui **porte** une contrainte suffisante pour réduire l’espace des futurs possibles. ### Variables épistémiques typiques : étiquette de bassin et invariants transmissibles **Exemple 1 (étiquette de bassin).** Dans un système discret fini déterministe, définissons \(D(x)=i\) si \(x\in B(C_i)\). Alors \(D(f^{(n)}(x))=D(x)\) pour tout \(n\) (l’orbite ne quitte pas son bassin). De plus, \(D\) prédit l’attracteur final; à horizon \(\tau\) grand, il prédit que \(X_{t+\tau}\) appartient au cycle \(C_{D_t}\). Donc \(H(X_{t+\tau}\mid D_t)\) est strictement plus petit qu’en l’absence de \(D_t\) dès que plusieurs bassins existent et que l’incertitude initiale couvre plusieurs bassins. (Preuve directe par définition des bassins.) **Exemple 2 (registre transmissible).** Soit un génotype abstrait \(\Gamma=(S,M,A,R)\) transmis partiellement dans une lignée (chapitres précédents). Une variable dérivée \(D(\Gamma)\) peut être un invariant de second ordre (attracteur dans l’espace quotient des classes, statistique stable de transitions, etc.). Si \(D\) est stable sous recombinaison/réparation (homomorphisme ou invariant robuste) et influence la dynamique (construit un bassin dominant pour la descendance), alors \(D\) devient une contrainte transmissible qui réduit l’incertitude sur les régimes atteints par les descendants (réduction de la diversité des futurs). Cette « épistémicité » est structurelle : transmission + stabilité + pouvoir de contrainte. ### Conditions nécessaires et suffisantes (propositions élémentaires) **Proposition (nécessité minimale).** Si \(D_t\) est presque sûrement constant (aucune variation), alors \(I(D_t;X_{t+\tau})=0\) et aucune propriété épistémique dérivée n’apparaît. *Preuve.* Si \(D_t\equiv c\), alors \(H(X_{t+\tau}\mid D_t)=H(X_{t+\tau}\mid c)=H(X_{t+\tau})\). □ **Proposition (suffisance simple via attracteurs dominants).** Supposons qu’il existe deux bassins \(B_1,B_2\) de mesures positives (ou de tailles positives en discret) et que l’incertitude initiale place une masse non nulle sur chacun. Alors la variable \(D(x)=\mathbf{1}_{x\in B_1}\) satisfait \(I(D_t; \text{attracteur final})>0\) et donc réduit l’incertitude sur un futur suffisamment tardif. *Preuve.* \(D\) détermine quel attracteur final sera atteint (par définition des bassins), et comme \(D\) n’est pas constante (probabilités non triviales), l’information mutuelle est positive. □ ### Jaynes : contraintes et prédiction minimale biaisée Jaynes formalise l’idée qu’une description par contraintes partielles (moments, invariants) induit une distribution de probabilité « la moins biaisée » compatible avec ces contraintes via le principe de maximum d’entropie. Cela fournit un pont formel entre « contrainte stable » et « prédiction distribuationnelle », sans invocation sémantique. citeturn0search2turn0search6 Dans notre langage, si un invariant \(D\) est transmissible et stable, alors la classe des futurs compatibles avec \(D\) est restreinte; le maximum d’entropie donne alors une manière canonique (au sens de Jaynes) d’assigner des probabilités sur ces futurs lorsque l’on ne conserve que \(D\) comme contrainte. citeturn0search6 ### Diagramme : génotype → invariant → attracteur → contrainte sur l’avenir ```mermaid flowchart TD Gamma["Γ=(S,M,A,R)"] --> D["Invariant dérivé D(Γ)"] D --> Basin["Bassin/Region verrouillée B(D)"] Basin --> Attr["Régime stable / attracteur"] D --> Pred["Réduction d’incertitude sur futurs: H(Futur|D) < H(Futur)"] ``` ## Conséquences strictement déduites (lecture conditionnelle) Les conclusions suivantes ne supposent ni « sujet », ni téléologie; elles suivent des constructions mathématiques précédentes. **Disponibilité de formes persistantes qui contraignent les futurs.** L’existence d’attracteurs (discrets ou topologiques) implique qu’il existe des régimes invariants atteints à partir de voisinages : à grande échelle, l’espace des futurs est réduit aux régimes attractifs accessibles. La dynamique produit donc des « formes persistantes » (au sens invariant) capables de canaliser les trajectoires. citeturn1search1turn0search3 **Possibilité d’objets « explicatifs » sans sujet.** Dès qu’il existe une variable dérivée \(D\) stable et transmissible qui réduit formellement l’incertitude sur des futurs (Shannon), \(D\) joue un rôle explicatif minimal : il condense une contrainte suffisante pour discriminer des destinées possibles. Ce caractère « explicatif » n’est pas psychologique : c’est une propriété d’ordre et d’information conditionnelle. citeturn0search8turn0search12 **Flèche et verrouillage sous contraintes irréversibles.** Si le verrouillage exige des opérations non injectives (effacement, projection) pour changer de bassin, alors, dans une implémentation thermodynamique donnée, Landauer fournit une borne minimale sur le coût associé à l’effacement ; couplé à l’existence de monotones (à la Lyapunov/entropie), cela explique pourquoi certains verrous peuvent être « coûteux » à franchir dans des instanciations physiques. citeturn0search1turn1search2 ## Analyse philosophique et limites ### Ontologie des contraintes Le chapitre autorise une thèse philosophique minimale (et non circulaire) : ce qui « persiste » et « agit sur l’avenir » n’est pas l’état individuel, mais une **structure d’invariance et d’attraction** (attracteur + bassin, ou invariant stable) qui réduit l’espace des possibles. L’ontologie n’est pas celle d’entités substantielles, mais celle de **contraintes dynamiques**. Cette ontologie est compatible avec deux repères classiques : - La stabilité (Lyapunov) comme définition de ce qui résiste aux perturbations locales. citeturn2search0 - La stabilité structurelle (Peixoto/Smale) comme définition de ce qui résiste aux perturbations des lois elles-mêmes. citeturn1search3turn0search3 ### Ce que le formalisme interdit - Il interdit de traiter « connaissance » comme primitive : les propriétés épistémiques sont définies **a posteriori** comme réduction d’incertitude sur l’avenir via variables dérivées, sans sémantique. citeturn0search8 - Il interdit d’identifier « attracteur » à « optimum » (aucune fonction de coût n’est postulée) et interdit toute téléologie implicite. - Il interdit d’inférer une métrique temporelle universelle à partir du seul verrouillage : les métriques (temps moyen d’évasion, probabilités de sortie) dépendent du bruit, de l’échelle d’observation et des conventions de mesure. ### Limites internes (à assumer explicitement) - **Dépendance au niveau de description.** Les bassins, entropies structurelles et variables \(D\) dépendent du choix de projection \(q\) et de la granularité temporelle; changer de niveau de description peut transformer des transitions rares en transitions fréquentes (ou inversement). - **Pluralité des notions d’attracteur.** Il existe plusieurs définitions non équivalentes (topologique, mesurée, Milnor attractor). Le chapitre s’est volontairement limité à une définition topologique standard et à des critères robustes (Lyapunov, stabilité structurelle) reconnus. citeturn0search3turn1search1 - **Les structures dissipatives ne sont pas un axiome.** Le lien avec Prigogine est une correspondance empirique consensuelle : il illustre que des régimes attractifs peuvent exister loin de l’équilibre et que l’entropie/production d’entropie jouent un rôle structurant, mais cela ne remplace pas les démonstrations abstraites du chapitre. citeturn1search2turn1search12 ### Tableau de synthèse : stabilisation et épistémicité dérivée | Notion | Définition formelle | Condition clé | Statut | |---|---|---|---| | Stabilisation (discret fini) | transitoire + cycle | finitude + déterminisme | démontré (élémentaire) | | Stabilisation (compact) | \(\omega(x)\) non vide, invariant | compacité + continuité | démontré (élémentaire) | | Robustesse locale | stabilité de Lyapunov | \(\varepsilon\)-\(\delta\) | consensus (Lyapunov) citeturn2search0 | | Robustesse structurelle | conjugaison sous perturbation | hyperbolicité / critères | consensus (Peixoto/Smale) citeturn1search3turn0search3 | | Contrainte sur l’avenir | \(F_n(U)\to A\) ou \(U\subset B(A)\) | attracteur + bassin | déduit | | Propriété épistémique dérivée | \(H(Futur|D) < H(Futur)\) | \(I(D;Futur)>0\) + stabilité | défini (Shannon) citeturn0search8 | | Coût minimal d’effacement | \(E_{\min}\ge kT\ln 2\ \Delta b\) | logique irréversible | consensus (Landauer) citeturn0search13 --- # Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification ## Hypothèses et résultats (repères) Hypothèses (H). - existence de reproduction/variation et d’une notion de viabilité (contraintes) ; - introduction d’une re‑pondération \(w\) (fitness structurelle) comme paramètre de modèle, sans finalité. Résultats (E). - reconstruction de la sélection comme effet de re‑pondération des distributions (opérateur \(S_w\)) ; - décomposition de l’évolution moyenne par l’équation de Price (covariance + transformation intra‑lignées) ; - définition de métriques de complexité et conditions explicites sous lesquelles une complexification est possible. Statut. - les énoncés sur distributions et modèles de population relèvent d’une couche probabiliste déclarée ; aucune optimisation n’est postulée. ## Résumé exécutif Ce chapitre formalise la **sélection** comme un phénomène purement structural : un **opérateur** agissant sur des distributions de génotypes \(\Gamma\), sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de non‑injectivité) et des lignées orientées (DAG d’événements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une **tendance différentielle** à produire des descendants admissibles (au sens des contraintes \(R\)), ce qui se traduit mathématiquement par une **re‑pondération** des distributions par une fonction de poids \(w(\Gamma)\) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie. Deux résultats structurants sont établis. D’abord, l’opérateur de sélection \(S_w\) conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) **augmente la moyenne** \(\mathbb{E}[w]\) d’une manière mesurable (inégalité élémentaire via la variance). Ensuite, l’**équation de Price** fournit une identité générale de variation des moyennes : le changement d’une quantité moyenne (trait, invariant, complexité) se décompose en un terme de **covariance** entre variation et fitness, plus un terme de transformation « intra‑lignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique. citeturn12view0turn12view1 La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines **mesures de complexité** (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, citeturn2search1 (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, citeturn8view2 (iii) profondeur logique de Bennett pour distinguer l’aléatoire « shallow » du complexe « deep » (résultat d’une longue histoire causale/computationnelle). citeturn8view3turn1search9 On montre que la complexification **n’est pas un monotone universel** : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets d’oubli, de bruit, et de coût d’effacement (Landauer) lorsqu’on considère l’implémentabilité physique des opérations irréversibles. citeturn2search0turn2search12 Enfin, on place ces définitions dans des modèles canoniques de consensus : Wright‑Fisher/Wright (population génétique), Moran (naissances‑morts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (Lieberman–Hauert–Nowak) où la structure d’interaction modifie probabilités de fixation et temps d’absorption. citeturn6view2turn13view0turn6view0 Les implications sont strictement déduites : si un modèle possède (a) reproduction partielle, (b) héritage de contraintes (invariants) et (c) sélection structurale (re‑pondération par \(w\)), alors il existe des régimes où certains invariants s'accumulent et où des trajectoires historiques de complexité croissante sont possibles (probabilistiquement), sans présupposer finalité ni « progrès ». ## Cadre formel minimal On fixe un cadre qui ne présuppose ni biologie empirique ni intention. **Espaces et objets.** On dispose d’un espace \(X\) de configurations (discret fini, ou compact métrique selon les besoins), et d’une dynamique \(f:X\to X\) (ou un semi‑flot). L’ouvrage a déjà établi que l’itération induit une structure d’ordre (préordre, puis ordre sur classes) et que l’évolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.) **Classes et génotypes.** On considère un espace de génotypes \(\mathcal{G}\), dont un élément est un quadruplet \[ \Gamma=(S,M,A,R), \] où \(S\) est une séquence sur un alphabet fini \(\mathcal{L}\), \(M\) est un registre de cooccurrences (compteurs non négatifs), \(A\) un ensemble d’invariants dérivés, et \(R\) un ensemble de règles admissibles (fragmentation, recombinaison, réparation). Le passage \(X\to \mathcal{L}\) (classes) est interprété comme compression/non‑injectivité (fibres et partitions), mais cela n’est pas requis pour définir la sélection ; cela devient crucial pour relier sélection et mémoire \(M\). **Populations comme distributions.** Une population est une mesure de probabilité \(p\) sur \(\mathcal{G}\) (cas discret : \(p\in\Delta(\mathcal{G})\), simplex). Le « temps » au niveau populationnel est un index d’itération d’un opérateur sur distributions. **Reproduction/variation comme noyau de transition.** On encode reproduction, recombinaison et mutation par un noyau \(K\) : \[ K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum_{\Gamma'} K(\Gamma'\mid \Gamma)=1. \] Ainsi, l’étape de variation (sans sélection) est simplement \[ p^{\text{var}}(\Gamma') = \sum_{\Gamma} p(\Gamma)\,K(\Gamma'\mid \Gamma). \] C’est une mise à jour de Markov (linéaire sur le simplex). **Fitness structurelle non téléologique.** On définit une fonction \(w:\mathcal{G}\to\mathbb{R}_+\) comme une **intensité différentielle de reproduction admissible**, par exemple : - \(w(\Gamma)=\mathbb{E}[\#\text{descendants admissibles}\mid \Gamma]\), ou - \(w(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma)\), ou - \(w(\Gamma)=\mathbb{P}(\text{conserver un invariant }A_0\mid\Gamma)\). Aucune de ces définitions n’implique un but : \(w\) est un paramètre de la dynamique effective. ## Sélection structurelle et invariants sélectionnés ### Définition de l’opérateur de sélection **Définition (opérateur de sélection).** Soit \(p\) une distribution sur \(\mathcal{G}\), et \(w\ge 0\) une fonction non identiquement nulle. On définit \[ (S_w p)(\Gamma) \;=\; \frac{w(\Gamma)\,p(\Gamma)}{\langle w,p\rangle}, \quad \text{où}\quad \langle w,p\rangle=\sum_{\Gamma} w(\Gamma)p(\Gamma). \] C’est la re‑pondération standard « proportionnelle à \(w\) » (forme canonique de la sélection). **Proposition (bien‑définition).** Si \(\langle w,p\rangle>0\), alors \(S_w p\) est une distribution (non négative et de somme 1). *Preuve.* \(w(\Gamma)p(\Gamma)\ge 0\). La somme vaut \(\sum_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1\). □ Cette opération est la version abstraite (et non téléologique) du mécanisme « les types à plus grand taux de reproduction deviennent plus fréquents ». ### Sélection + variation : dynamique composée Le modèle minimal de sélection‑variation est alors \[ p_{t+1} \;=\; K\big(S_w p_t\big), \] où \(K\) est l’opérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement : - **sélection** (non linéaire, re‑normalisation), - **variation** (linéaire, mélange). ### Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple) Un fait classique (et ici démontré explicitement) est que, lorsque \(w\) ne dépend pas de \(p\) (pas de dépendance fréquentielle), la sélection seule augmente la moyenne de \(w\). **Proposition (augmentation de la moyenne de \(w\) sous \(S_w\)).** Supposons \(w:\mathcal{G}\to\mathbb{R}_+\) indépendante de \(p\). Alors \[ \mathbb{E}_{S_w p}[w] \;\ge\; \mathbb{E}_{p}[w], \] avec égalité ssi \(w\) est constante \(p\)-presque partout. *Preuve.* On calcule \[ \mathbb{E}_{S_w p}[w]=\sum_{\Gamma} w(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} = \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}. \] Or \(\mathbb{E}_p[w^2]=\mathrm{Var}_p(w)+\mathbb{E}_p[w]^2\), donc \[ \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}=\mathbb{E}_p[w]+\frac{\mathrm{Var}_p(w)}{\mathbb{E}_p[w]} \ge \mathbb{E}_p[w]. \] Égalité ssi \(\mathrm{Var}_p(w)=0\), i.e. \(w\) constante sur le support. □ Cette proposition est un énoncé strictement mathématique : il ne dit pas que « l’évolution progresse », il dit que l’opérateur \(S_w\) concentre la masse sur les régions de plus grand \(w\). ### Équation de Price : invariants sélectionnés par covariance La question centrale de ce chapitre est : **quels invariants sont sélectionnés** ? On répond sans métaphore par l’équation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec \(w\), modulé par ce qui se transforme pendant la reproduction. **Énoncé (forme générale, un pas).** Soit une population d’individus \(i\) (ou de génotypes \(\Gamma\)) avec une quantité \(z\) (trait, invariant, complexité) et un nombre de descendants \(w\) (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \(\bar z\) entre deux générations se décompose en : \[ \Delta \bar z \;=\; \frac{\mathrm{Cov}(w,z)}{\bar w} \;+\; \frac{\mathbb{E}[w\,\Delta z]}{\bar w}, \] où \(\Delta z\) est le changement de \(z\) entre parent et descendant (terme « transmission/transformations internes »). Price montre explicitement que la variation attribuable à la sélection s’exprime comme un terme de covariance, et il illustre la transparence de cette écriture. citeturn12view0turn12view1 (La version 1972 étend ce formalisme et discute des cas plus complexes, notamment quand la structure de sélection n’est pas une simple sélection « génétique » au sens standard. citeturn3search3) **Lecture structurale (sans finalité).** - Si \(\mathrm{Cov}(w,z)>0\), alors la sélection tend à augmenter la moyenne de \(z\), toutes choses égales par ailleurs. - Si \(\mathbb{E}[w\,\Delta z]\) est négatif (mutation destructrice, réparation projective), il peut annuler ou inverser l’effet de covariance. Ainsi, un invariant « sélectionné » est un invariant \(z\) dont la covariance avec \(w\) est durablement positive et dont la transmission n’efface pas l’avantage. ## Dynamique de complexification et métriques de complexité Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle \(C\) sur \(\Gamma\) (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous l’action conjointe variation‑sélection‑héritage. ### Trois familles de métriques (consensus) **Entropie structurelle (Shannon).** Pour une distribution \(p\) sur \(\mathcal{G}\), l’entropie de Shannon \[ H(p)=-\sum_{\Gamma} p(\Gamma)\log p(\Gamma) \] mesure la dispersion des types possibles. Shannon introduit l’entropie comme mesure d’incertitude d’une source discrète et en établit les propriétés élémentaires et le rôle des conditionnements. citeturn2search1 Dans notre cadre, \(H(p_t)\) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes. **Complexité algorithmique (Kolmogorov).** Kolmogorov distingue explicitement une approche combinatoire, probabiliste et algorithmique de « quantité d’information », en reliant la mesure à des descriptions minimales (approche par fonctions récursives). citeturn8view2 On note \(K(\Gamma)\) la longueur de la plus courte description (programme) produisant \(\Gamma\) sur une machine universelle. Point crucial (consensus en théorie) : \(K\) n’est pas calculable en général, mais sert de référence conceptuelle pour la compressibilité. **Profondeur logique (Bennett).** Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir d’un programme (presque) le plus court, avec un paramètre de signification. citeturn1search9turn8view3 Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis qu’un objet compressible mais difficile à générer peut être « deep ». citeturn8view3 ### Complexification comme dérive positive d’une fonctionnelle Soit \(C:\mathcal{G}\to\mathbb{R}\) une mesure de complexité (au choix : \(K\), profondeur, taille de support de \(M\), etc.). Définissons la moyenne populationnelle \[ \bar C_t = \mathbb{E}_{p_t}[C]. \] **Proposition (variation de \(\bar C\) sous sélection pure).** Sous sélection seule \(p' = S_w p\), \[ \bar C' - \bar C = \frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}. \] *Preuve.* \[ \bar C'=\sum_\Gamma C(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} =\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}. \] Donc \[ \bar C' - \bar C =\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}-\mathbb{E}_p[C] =\frac{\mathbb{E}_p[wC]-\mathbb{E}_p[w]\mathbb{E}_p[C]}{\mathbb{E}_p[w]} =\frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}. \] □ Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à \(w\). ### Conditions nécessaires pour une dynamique de complexification En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) : - **Variation** : la dynamique doit explorer des génotypes de \(C\) différents (sinon covariance nulle). - **Héritabilité** : les opérations de reproduction doivent préserver suffisamment \(C\) (ou le reconstruire) pour que l’avantage corrélé à \(w\) ne soit pas détruit; sinon le terme \(\mathbb{E}[w\Delta C]\) compense négativement. - **Corrélation structurale** : il faut une covariance positive durable \(\mathrm{Cov}(w,C)>0\). Le formalisme de Jaynes, qui reconstruit des distributions à partir de contraintes par maximum d’entropie, fournit un langage canonique pour dire que « conserver une contrainte \(D\) » réduit l’incertitude sur les états possibles (donc sur les futurs), sans sémantique. citeturn2search10turn2search6 Ici, cette remarque sert uniquement à justifier qu’une contrainte transmissible peut être traitée comme paramètre de prédiction probabiliste, sans postuler de sujet. ## Modèles de sélection : processus stochastiques, fixation et sélection sur graphes Cette section relie les définitions abstraites à des modèles de consensus qui fournissent des résultats quantitatifs. ### Moran, Wright et Kimura : fixation sous dérive et sélection **Moran (naissances/morts individuelles).** Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences. citeturn6view2 **Wright (populations mendéliennes).** Wright (1931) est l’une des sources fondatrices de la génétique des populations et discute explicitement dérive, sélection, structure, et effectifs (modèle large). citeturn0search5turn0search1 **Kimura (probabilité de fixation).** Kimura dérive une formule générale de probabilité de fixation \(u(p)\) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). citeturn5view1turn13view0 Dans le cas de sélection génique constante (avantage sélectif \(s\)), il obtient explicitement \[ u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}}, \] et pour un mutant unique en diploïde (\(p=\tfrac{1}{2N}\)), \[ u=\frac{1-e^{-2s}}{1-e^{-4Ns}}, \] avec approximation \(u\approx \frac{2s}{1-e^{-4Ns}}\) lorsque \(|s|\) est petit, et \(u\to \tfrac{1}{2N}\) quand \(s\to 0\) (neutralité). citeturn13view0turn13view1 **Interprétation structurale (non téléologique).** La fixation n’est pas un « but » : c’est l’absorption d’un processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection **et** de chance. citeturn5view1turn13view1 ### Sélection sur graphes d’interaction : structure comme modulateur de sélection Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer l’effet de sélection. citeturn6view0 Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité qu’un mutant « prenne le dessus » (fixe) et donc le taux d’évolution. citeturn6view0 Point méthodologique pour l’ouvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles : 1) sélection par re‑pondération \(w(\Gamma)\) dans une population homogène ; 2) sélection induite par **contraintes de communication** entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique. Des travaux ultérieurs (consensus en modélisation) notent que les probabilités de fixation et temps d’absorption ne se ferment analytiquement que pour certaines classes de graphes, et que le calcul exact devient souvent algorithmique (systèmes linéaires, méthodes numériques). citeturn1search3turn4search4 ### Branching processes multi‑types avec sélection (critère spectral) Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le **processus de branchement multi‑types** : chaque type engendre une distribution d’enfants de différents types; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multi‑types et leurs critères de super‑criticité. citeturn14search0 Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne \(M\) (Perron–Frobenius). citeturn14search0turn14search2 Dans le langage du chapitre, un type \(\Gamma\) avec \(w(\Gamma)\) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la **survivabilité** des lignées. ## Algorithmes, simulations et coût computationnel Cette section propose des schémas minimalistes, compatibles avec le formalisme et avec la pratique. ### Schéma générique sélection‑variation‑reproduction On suppose une population de taille \(N\) représentée par \(\Gamma^{(1)},\dots,\Gamma^{(N)}\). 1) **Évaluation structurale** : calculer un score \(w_i=w(\Gamma^{(i)})\). 2) **Sélection** (roulette‑wheel) : tirer des parents avec probabilité \(w_i/\sum_j w_j\). 3) **Reproduction/variation** : produire un enfant via fragmentation/recombinaison/mutation (noyau \(K\)). 4) **Mise à jour de la mémoire** : mettre à jour \(M\) (cooccurrences, héritage partiel). 5) **Boucle**. Complexité : - calcul des poids : dépend de \(w\) (souvent \(O(\mathrm{size}(\Gamma))\)); - sélection par cumul : \(O(N)\) par génération (ou \(O(\log N)\) avec arbre de Fenwick); - reproduction : souvent linéaire en longueur de séquence (concaténation/crossover \(O(n)\)). ### Estimation de fitness structurelle Le chapitre ne fixe pas une forme unique de \(w\). Deux familles naturelles (toutes deux non téléologiques) : - **Fitness de viabilité** : \(w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\ \text{admissible})\). - **Fitness de robustesse** : \(w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit})\), ce qui se relie aux probabilités d’évasion/temps moyen d’évasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins). Ces constructions ne disent pas « pourquoi » un type est viable; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif. ### Diagramme de flux : accumulation vs effacement ```mermaid flowchart TD P["Population p_t sur Γ"] --> Sw["Sélection S_w (répondération)"] Sw --> Var["Variation K (mutation/recombinaison)"] Var --> Pn["Population p_{t+1}"] Var --> MT["Mémoires M des descendants"] MT --> Agg["Agrégation le long des lignées (somme/filtre/oubli)"] Agg --> Hist["Histoire distributive M_𝒯"] Sw -->|concentre| Lock["Réduction de diversité (H(p))"] Agg -->|accumule| Comp["Potentiel de complexification (support/entropie/profondeur)"] ``` L’important est la coexistence de deux effets possibles : la sélection peut réduire la diversité de population (entropie \(H(p)\)) tout en favorisant, à l’échelle des lignées, l’accumulation d’un registre \(M_{\mathcal{T}}\) et l’augmentation de la profondeur logique de certains objets (complexification). ## Implications déduites et analyse philosophique ### Conséquences strictement déduites (lecture conditionnelle) Les implications ci‑dessous sont des conséquences logiques des définitions, pas des hypothèses additionnelles. **Disponibilité d’une sélection non téléologique.** Dès qu’un système possède (i) une reproduction/variation (noyau \(K\)) et (ii) une différence systématique de production de descendants admissibles (fonction \(w\)), alors la dynamique des distributions inclut une étape de re‑pondération équivalente à \(S_w\). Il y a donc sélection structurelle dès que le système n’est pas neutre au sens où tous les types n’ont pas le même « taux de continuation » (fitness structurelle). **Sélection d’invariants par covariance.** L’équation de Price montre que l’accroissement moyen d’une quantité \(z\) à travers une génération est gouverné par une covariance avec \(w\) et par un terme de transformation interne; ainsi, toute accumulation durable d’un invariant exige une covariance positive persistante et une transmission non destructrice. citeturn12view0turn12view1 **Possibilité de complexité croissante sans “progrès”.** Si l’on choisit \(C\) comme mesure de complexité (support de \(M\), profondeur logique de Bennett, etc.), la condition minimale pour une dérive positive est \(\mathrm{Cov}(w,C)>0\) (sélection) et un terme \(\mathbb{E}[w\,\Delta C]\) non trop négatif (héritage). Price donne précisément le schéma de cette décomposition. citeturn12view0turn12view1 Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à l’aléatoire : « deep » signifie « résultat d’un long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel. citeturn1search9turn8view3 **Contraintes physiques minimales (implémentabilité).** Si le système réalise des opérations logiquement irréversibles (projections, effacements) pour maintenir certains régimes (standardisation, réparation projective), alors, dans une implémentation thermodynamique donnée, Landauer fournit une borne minimale associée à l’effacement de distinctions. Cela ne fonde pas la sélection, mais borne le coût de certaines opérations de stabilisation/effacement dans des instanciations physiques. citeturn2search0turn2search12 ### Ontologie de la sélection structurelle et statut de la complexité Philosophiquement, deux points sont licites (et deux sont interdits). **Ce qui devient structurellement dicible.** 1) La sélection n’est pas un “principe finaliste” mais un **effet de re‑pondération** dans un espace de transformations où tous les types n’ont pas la même continuation. La sélection est donc une propriété de l’**opérateur d’évolution**, pas une intention. 2) Un invariant sélectionné n’est pas une essence : c’est une quantité dont la covariance avec \(w\) est positive et transmissible (Price), donc un corrélat stable de persistance. citeturn12view0turn12view1 **Ce que le formalisme interdit.** 1) Il interdit de confondre « fitness » avec « optimalité » ou « but » : \(w\) est un paramètre de reproduction/persistance, et non une fonction objectif métaphysique. 2) Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, d’où la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie). citeturn8view3turn1search9 ### Tableaux comparatifs | Objet | Définition formelle | Rôle dans la dynamique | Risque de confusion à éviter | |---|---|---|---| | Sélection \(S_w\) | \(p(\Gamma)\mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]}\) | concentration sur grands \(w\) | “choix”, “but” | | Variation \(K\) | noyau markovien \(K(\Gamma'|\Gamma)\) | exploration/mutation/recombinaison | “création orientée” | | Invariant sélectionné \(z\) | \(\mathrm{Cov}(w,z)>0\) (+ transmission) | augmentation moyenne | “essence” | | Fixation | absorption stochastique | domination d’un type | “victoire recherchée” | | Modèle | Type | Résultat canonique (consensus) | Source | |---|---|---|---| | Moran | birth–death (finie) | dynamique stochastique des fréquences | Moran (1958) citeturn6view2 | | Fixation diffusion | approx. continue | \(u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}}\) (genic selection) | Kimura (1962) citeturn13view0 | | Sélection/covariance | identité | décomposition par covariance + transmission | Price (1970) citeturn12view0turn12view1 | | Graphes | population structurée | fixation dépend de la topologie; amplificateurs/suppresseurs | Lieberman et al. (2005) citeturn6view0 | | Métrique de complexité | Ce qu’elle mesure | Propriété structurante | Source | |---|---|---|---| | \(H(p)\) (Shannon) | dispersion des types | conditionnement, bornes, codage | Shannon (1948) citeturn2search1 | | \(K(\Gamma)\) (Kolmogorov) | compressibilité intrinsèque | distingue structure vs aléa (en principe) | Kolmogorov (1968) citeturn8view2 | | Profondeur logique \(D\) (Bennett) | longueur d’histoire computationnelle | “deep” ≠ “random” | Bennett (1988) citeturn1search9turn8view3 | --- # Chapitre 10 — Attracteurs, cycles et ensembles invariants ## Hypothèses et résultats (repères) Hypothèses (H). - cadre discret fini pour la structure “transitoire + cycle” ; - ou cadre topologique/métrique (compacité, continuité) pour les attracteurs définis par limites. Résultats (E). - synthèse structurale des attracteurs, bassins, stabilité/robustesse et quantificateurs associés (indexés) ; - clarification du statut des bifurcations et des changements de bassins comme phénomènes dépendant d’hypothèses de régularité. Statut. - noyau ensembliste pour les garanties combinatoires ; couches topologique/métrique et quantifications uniquement si déclarées. ## Résumé exécutif Ce chapitre établit, sous hypothèses minimales, la structure des comportements à long terme des systèmes dynamiques, d’abord dans un cadre **discret fini**, puis dans des cadres **topologiques/métriques** plus généraux. Dans le cadre discret \((X,f)\) avec \(X\) fini, l’itération d’une application \(f:X\to X\) impose qu’à partir de tout état initial l’orbite devienne **pré‑périodique** : un transitoire suivi d’un **cycle** (preuve par principe des tiroirs). Cette propriété permet une description globale par **graphe fonctionnel** : chaque composante contient exactement **un cycle dirigé**, et tous les autres états s’y déversent via des arborescences. On en déduit des définitions formelles de **point fixe**, **cycle**, **ensemble invariant**, **attracteur discret** et **bassin**, ainsi que des algorithmes de calcul linéaires pour cycles et bassins. Dans un cadre métrique/topologique, on remplace la finitude brute par la notion de **limite** : ensembles \(\omega(x)\), invariance et attraction au sens de la distance à un ensemble. On introduit les définitions classiques de **stabilité** (Lyapunov) et d’**attracteur topologique**, notamment via la notion de **trapping region** (région piège) et l’intersection décroissante des itérés, qui fournit un attracteur sous hypothèses de piégeage. Les théorèmes structurants cités comme consensus comprennent : (i) la stabilité de Lyapunov (définitions canoniques), citeturn0search2 (ii) la frontière dimensionnelle Poincaré–Bendixson en dimension 2 (absence d’attracteurs chaotiques pour les flots plans sous hypothèses standard), citeturn3search15turn2search1 (iii) la stabilité structurelle dans la tradition Smale (hyperbolicité, conjugaison topologique, persistance qualitative). citeturn0search9 On formalise ensuite **robustesse** et **bifurcations**, en particulier la bifurcation de Hopf (naissance d’une orbite périodique à partir d’un équilibre sous conditions standard) à partir d’une traduction de l’article original. citeturn0search3 On discute les changements soudains de bassins et d’attracteurs (crises) via un article classique de Grebogi–Ott–Yorke. citeturn8search5 Enfin, on introduit des **mesures structurelles** (taille des bassins, dominance, entropie structurelle au sens Shannon, entropie topologique au sens Adler–Konheim–McAndrew) et des **métriques** (distance d’édition) avec des indications de calcul/estimation. citeturn1search0turn0search0turn9search4 Les implications restent strictement déduites : dans tout modèle itératif sur un espace d’états fini (ou compact) et à dynamique déterministe, l’existence d’attracteurs signifie que le système dispose de régimes persistants qui canalisent les trajectoires ; cela fournit une condition de possibilité (non suffisante) pour toute accumulation ultérieure de structures transmissibles. La conclusion philosophique analyse le statut ontologique des attracteurs comme objets‑limites, et explicite ce que le formalisme interdit (téléologie, assimilation sémantique). ## Cadre discret fini On se place dans un cadre minimal : un ensemble fini d’états et une règle déterministe d’évolution. ### Définitions formelles Soit \(X\) un ensemble fini non vide, \(|X|=N\), et \(f:X\to X\) une application. **Orbite.** À partir de \(x\in X\), on définit \(x_0=x\) et \(x_{t+1}=f(x_t)\). L’orbite est \((x_t)_{t\ge 0}\). **Point fixe.** \(x^\*\in X\) est un point fixe si \(f(x^\*)=x^\*\). **Point périodique et cycle.** \(x\in X\) est périodique de période \(p\ge 1\) si \(f^{(p)}(x)=x\) et \(p\) est minimal. Le **cycle** associé est \[ C(x)=\{x,f(x),\dots,f^{(p-1)}(x)\}. \] **Ensemble invariant.** Un sous‑ensemble \(S\subseteq X\) est (positivement) invariant si \(f(S)\subseteq S\). Il est invariant au sens fort si \(f(S)=S\). Un cycle est invariant au sens fort. **Attracteur discret (définition minimale pour le fini).** Dans le cadre déterministe fini, on appelle attracteur discret tout cycle (y compris le cas \(p=1\)). Cette convention n’introduit aucune métrique : elle identifie l’objet asymptotique de toute trajectoire dans l’espace fini. **Bassin d’un cycle.** Pour un cycle \(C\), le bassin est \[ B(C)=\{x\in X:\exists t\ge 0,\ f^{(t)}(x)\in C\}. \] ### Pré‑périodicité forcée et borne temporelle **Proposition (pré‑périodicité).** Pour tout \(x\in X\), il existe \(\mu\ge 0\) et \(p\ge 1\) tels que \(x_{t+p}=x_t\) pour tout \(t\ge\mu\). On peut choisir \(\mu+p\le N\). **Démonstration (principe des tiroirs).** Les \(N+1\) termes \(x_0,\dots,x_N\) appartiennent à \(X\) de taille \(N\), donc il existe \(0\le i orb["Orbite (f^t(x))_{t≥0}"] orb --> rep["Répétition forcée (∃i cyc["Cycle C (ensemble invariant)"] x --> bas["Bassin B(C)"] bas --> cyc cyc --> inv["Invariance: f(C)=C"] ``` ### Calcul effectif des cycles et bassins Dans un graphe fonctionnel fini, on peut calculer en temps linéaire les sommets cycliques en éliminant itérativement les sommets de degré entrant nul (topologie inverse), puis en reconstruisant les bassins par parcours inverse depuis les cycles. - Temps : \(O(N)\) (construction des degrés entrants + élimination + parcours). - Mémoire : \(O(N)\) (stockage de \(f\) et des antécédents). Ce fait est important méthodologiquement : dans le cadre fini, la structure asymptotique n’est pas seulement théorique, elle est aussi calculable de façon efficace. ## Extension topologique et métrique Le passage du discret fini au continu ne change pas la logique : il remplace la répétition brute par des notions de limite (compacité), de voisinage et de stabilité. ### \(\omega\)-limites et invariance sur compacts Soit \((X,d)\) compact métrique et \(f:X\to X\) continue. **Définition (\(\omega\)-limite).** \(\omega(x)\) est l’ensemble des valeurs d’adhérence de \(\{f^{(n)}(x)\}\) : \[ \omega(x)=\bigcap_{m\ge 0}\overline{\{f^{(n)}(x):n\ge m\}}. \] **Proposition (consensus standard, preuve élémentaire).** Pour tout \(x\), \(\omega(x)\) est non vide, compact, et invariant \(f(\omega(x))=\omega(x)\). **Démonstration.** La compacité assure l’existence de sous‑suites convergentes, donc \(\omega(x)\neq\varnothing\); c’est un fermé dans un compact, donc compact. L’invariance suit de la continuité : si \(f^{(n_k)}(x)\to y\), alors \(f^{(n_k+1)}(x)=f(f^{(n_k)}(x))\to f(y)\), d’où \(f(y)\in\omega(x)\). L’inclusion réciproque découle du fait que tout point limite est aussi limite d’une suite décalée. □ ### Définition topologique d’attracteur et existence via trapping region La notion d’« attracteur » admet plusieurs variantes; ici, on retient une définition topologique standard via voisinage attiré. **Définition (attracteur topologique).** Un compact non vide \(A\subseteq X\) est un attracteur si : 1) \(f(A)=A\) ; 2) il existe un ouvert \(U\supseteq A\) tel que \(\mathrm{dist}(f^{(n)}(x),A)\to 0\) pour tout \(x\in U\). Le **bassin** est \(B(A)=\{x:\mathrm{dist}(f^{(n)}(x),A)\to 0\}\). Une manière constructive d’obtenir un attracteur est d’exhiber une **région piège** (« trapping region ») ; cette approche apparaît notamment dans la littérature sur attracteurs et quasi‑attracteurs. citeturn11search1 **Proposition (existence d’un attracteur à partir d’une trapping region).** Soit \(U\subseteq X\) un ouvert dont l’adhérence \(\overline U\) est compacte et tel que \(f(\overline U)\subseteq U\). Alors \[ A:=\bigcap_{n\ge 0} f^{(n)}(\overline U) \] est un compact non vide invariant, et toute orbite partant dans \(\overline U\) reste dans \(\overline U\) et approche \(A\) (au sens de la distance à \(A\)). (Ce résultat est un standard dans la théorie qualitative; on le formule ici en version minimale et on le rattache au vocabulaire « trapping region » utilisé dans la littérature sur attracteurs.) citeturn11search1turn11search5 **Démonstration (élémentaire).** Les ensembles \(f^{(n)}(\overline U)\) sont non vides, compacts, emboîtés décroissants, donc leur intersection \(A\) est non vide et compacte (propriété standard des compacts). L’invariance \(f(A)=A\) suit de la continuité et de l’identité \(f(f^{(n)}(\overline U))=f^{(n+1)}(\overline U)\). L’attraction découle du fait que la distance à l’intersection d’une suite décroissante de compacts tend vers 0 le long des itérés (argument par contradiction utilisant la compacité). □ ### Stabilité de Lyapunov (robustesse locale) Les définitions canonisées de Lyapunov posent la robustesse locale des équilibres (et, par extension, d’ensembles invariants). citeturn0search2 **Définition (Lyapunov).** Un équilibre \(x^\*\) est stable si \(\forall\varepsilon>0\ \exists\delta>0\) tel que \(\|x(0)-x^\*\|<\delta\Rightarrow \|x(t)-x^\*\|<\varepsilon\) pour tout \(t\ge 0\). Il est asymptotiquement stable si, en plus, \(x(t)\to x^\*\) quand \(t\to\infty\). citeturn0search2 Cette stabilité est distincte de l’attraction : attraction signifie « convergence vers », stabilité signifie « rester proche sous perturbation ». ### Frontière Poincaré–Bendixson (dimension 2) et impossibilité d’attracteurs étranges En dimension 2 (flots sur le plan/surfaces sous hypothèses standard), le théorème de Poincaré–Bendixson impose que les ensembles \(\omega\)-limites compacts non vides ne peuvent pas supporter une dynamique « étrange » au sens chaotique : ils sont essentiellement équilibres et orbites périodiques (éventuellement avec connexions). Le résultat est traditionnellement attribué à Poincaré et Bendixson; une source primaire majeure est l’article de Bendixson (1901), qui développe la théorie qualitative des courbes intégrales près des singularités. citeturn3search15turn2search1 ### Attracteurs étranges : définition opérationnelle et jalons Le terme « attracteur étrange » n’a pas une définition unique universelle; on adopte ici une définition opérationnelle : Un attracteur \(A\) est dit **étrange** si (i) il est attractif (au sens topologique), (ii) la dynamique restreinte à \(A\) n’est pas périodique et présente une sensibilité/instabilité orbitale (au sens de séparation d’orbites), et (iii) l’ensemble \(A\) présente typiquement une géométrie non régulière (souvent fractale) ou une structure d’étirement‑repliement. Trois jalons de consensus illustrent ce type d’objet : - Lorenz (1963) montre qu’un système différentiel dissipatif simple peut produire une dynamique non périodique associée à un attracteur (paradigme du « Lorenz attractor »). citeturn8search0turn8search4 - Hénon (1976) exhibe une application bidimensionnelle dissipative présentant un attracteur étrange pour certains paramètres. citeturn8search7 - Ruelle–Takens (1971) proposent un mécanisme de transition vers la turbulence où des attracteurs plus complexes que les cycles apparaissent dans des systèmes dissipatifs. citeturn0search0turn0search9 ### Smale : hyperbolicité et organisation qualitative Smale (1967) synthétise la théorie moderne des systèmes dynamiques différentiables : ensembles non errants, hyperbolicité (Axiom A), conjugaison topologique et stabilité structurelle. citeturn0search9 Dans le cadre de ce chapitre, cela fournit un repère consensuel : certaines classes d’invariants (hyperboliques) ont des propriétés de robustesse fortes, tandis que des régimes non hyperboliques peuvent bifurquer fréquemment. ## Robustesse, bifurcations et stabilité structurelle ### Définitions formelles de robustesse Soit une famille \(\{f_\lambda\}\) (applications ou flots) dépendant d’un paramètre \(\lambda\). **Robustesse d’un invariant.** Un invariant \(A_\lambda\) est robuste si, pour \(\lambda'\) proche, il existe un invariant \(A_{\lambda'}\) « du même type » (par ex. conjugué topologiquement ou proche en distance de Hausdorff). **Stabilité structurelle (idée standard).** Un système \(f\) est structurellement stable si toute perturbation suffisamment petite (dans une topologie \(C^r\) sur les champs de vecteurs/difféomorphismes) est topologiquement conjuguée à \(f\) sur l’ensemble pertinent (souvent l’ensemble non errant). Cette notion est centrale chez Smale. citeturn0search9 En dimension 2, un résultat classique de Peixoto établit l’ouverture et la densité des systèmes structurellement stables parmi les flots lisses sur surfaces compactes (repère de consensus sur la généricité de la robustesse qualitative en dimension 2). citeturn9search1turn9search5 ### Bifurcation de Hopf (consensus, source primaire via traduction) La bifurcation de Hopf formalise la naissance (ou disparition) d’une orbite périodique à partir d’un équilibre lorsque une paire de valeurs propres complexes franchit l’axe imaginaire sous conditions de non dégénérescence. L’article original de Hopf (1942) est accessible via une traduction reproduite dans un volume de référence. citeturn0search3turn0search7 Dans le cadre de ce chapitre, on retient l’énoncé suivant comme consensus (preuve omise) : **sous conditions standard**, il existe une bifurcation locale conduisant à un cycle limite dont la stabilité dépend du signe d’un coefficient de forme normale. citeturn0search3 ### Changements de bassins et crises (attracteurs chaotiques) Même lorsque l’invariant persiste, la **géométrie du bassin** peut changer brutalement. Grebogi–Ott–Yorke (1982) analysent des « crises » : collisions entre orbites périodiques instables et attracteurs chaotiques entraînant élargissement soudain, apparition ou destruction d’un attracteur et/ou de son bassin (route vers chaos, transitoires). citeturn8search5turn8search13 Ce point justifie une distinction fondamentale : **robustesse de l’attracteur** \(\neq\) **robustesse du bassin**. ## Mesures structurelles et calcul Les attracteurs fournissent une organisation qualitative; on peut quantifier cette organisation par des métriques adaptées au cadre (discret/continu). ### Taille des bassins et dominance (discret fini) Soient \(C_1,\dots,C_K\) les cycles, \(B_i=B(C_i)\), et \(p_i=|B_i|/|X|\). - **Dominance** : \(D=\max_i p_i\in[1/K,1]\). - **Nombre d’attracteurs** : \(K\). Ces quantités décrivent la concentration des destinées asymptotiques. ### Entropie structurelle des bassins (Shannon) On définit l’entropie structurelle des bassins \[ H_{\text{bassins}}=-\sum_{i=1}^K p_i\log p_i, \] avec bornes \(0\le H_{\text{bassins}}\le \log K\), atteintes respectivement en cas de bassin unique (dominance totale) et d’équilibre parfait. Ces propriétés sont des conséquences standards de l’entropie de Shannon appliquée à une distribution finie. citeturn1search0 ### Entropie topologique (AKM) : complexité orbitale interne Adler–Konheim–McAndrew (1965) introduisent l’entropie topologique comme invariant pour applications continues sur compacts, via croissance de raffinements de recouvrements ouverts. citeturn0search0 Cette quantité capture une complexité orbitale pouvant être positive même lorsque l’espace se verrouille vers un petit nombre d’attracteurs (ex. attracteur chaotique unique). ### Métriques discrètes : distance d’édition Pour comparer des états représentés comme mots/séquences (par ex. classes morphologiques), on utilise des métriques combinatoires. Levenshtein (1965/1966) propose des modèles de canaux avec insertions/suppressions/réversions et introduit la distance d’édition comme métrique naturelle associée à ces opérations. citeturn9search4turn9search0 Une fois une métrique fixée, on peut définir des voisinages discrets, étudier la sensibilité locale et construire des versions « épaisses » des bassins (stabilité par petites modifications). ### Calcul et estimation : exact vs échantillonné - En discret fini, cycles et bassins se calculent exactement en \(O(N)\) (graphe fonctionnel). - Dans de très grands espaces, on estime les \(p_i\) par échantillonnage : tirer des états selon une loi \(\nu\), itérer jusqu’à convergence au cycle, estimer les fréquences de cycles. Sous hypothèses i.i.d., la convergence est gouvernée par la loi des grands nombres (consensus probabiliste). ## Implications strictement déduites (lecture conditionnelle) Cette section tire des conséquences **uniquement** des résultats mathématiques établis ci‑dessus, sans postuler d’intention, de sémantique ou d’« optimisation ». Dans un cadre discret fini (ou à description effectivement finie), l’itération impose l’existence de cycles et donc de régimes persistants (attracteurs discrets). Il en résulte une partition en bassins : une information complète sur l’état initial est, en général, **superflue** pour déterminer le long terme, car seule la classe « bassin » importe pour l’asymptote. Cette réduction est une conséquence logique de la structure des graphes fonctionnels. Dans un cadre compact, la compacité garantit l’existence d’ensembles \(\omega(x)\) invariants. Si, de plus, une région piège existe, l’intersection décroissante des itérés fournit un attracteur topologique qui attire un voisinage entier. citeturn11search1turn11search5 Ainsi, la disponibilité de régimes stables n’est pas une hypothèse supplémentaire : elle est structurellement compatible et souvent forcée par les contraintes (finitude ou piégeage). Concernant la « réplication interne » (au sens formel : production d’une occurrence persistante d’une même sous‑structure), ce chapitre n’assume aucun mécanisme de reproduction. Il établit seulement une condition nécessaire : tout mécanisme de duplication stable exige l’existence de motifs **suffisamment persistants** (ensembles invariants attractifs ou métastables) pour ne pas être détruits immédiatement par la dynamique. Cette condition est purement logique : sans invariants persistants, aucune structure ne peut être copiée « de manière répétée » dans le temps. Enfin, on note une contrainte importante (sans extrapolation) : dans les systèmes conservatifs mesurés à volume fini, la récurrence de Poincaré (1890) implique des retours, ce qui rend impossible une monotonie stricte sur les micro‑états; ainsi, les attracteurs globaux au sens dissipatif exigent typiquement une dissipation, une ouverture, ou un niveau de description agrégé. citeturn7search10turn10search0 Cette remarque est une contrainte de cohérence entre « attracteurs dissipatifs » et « récurrence conservatrice », et non une hypothèse de physique supplémentaire. ## Analyse philosophique finale ### Nécessité ontologique minimale des attracteurs La construction mathématique impose une thèse ontologique minimale : dans un système gouverné par des transformations itérées, l’analyse du long terme se fait alors en termes d’**ensembles invariants** et de **classes asymptotiques** (cycles, \(\omega\)-limites). L’état instantané n’a pas de privilège ontologique dans la description du long terme : ce qui « persiste » est un invariant, et ce qui « structure » l’espace des possibles est la partition en bassins. Cette thèse ne dépend pas d’une interprétation; elle est la lecture la plus parcimonieuse de la structure démontrée (pré‑périodicité en fini, invariance des \(\omega\)-limites sur compacts). ### Limites du formalisme (et ce qu’il interdit) Le chapitre impose plusieurs interdictions méthodologiques. - Il interdit d’assimiler « attracteur » à « optimum » : aucune fonction de coût ni principe de minimisation n’a été postulé; un attracteur est défini par invariance et attraction, pas par optimalité. - Il interdit toute téléologie : la convergence est une propriété de la dynamique et de la structure de l’espace, non un « but ». - Il interdit toute interprétation sémantique prématurée : attracteurs et bassins peuvent ultérieurement être interprétés comme supports de contraintes opératoires, mais ils ne sont pas, en eux‑mêmes, des « connaissances » ou des « significations ». - Il interdit de conclure à la robustesse sans hypothèse : la robustesse exige des conditions supplémentaires (Lyapunov, hyperbolicité, stabilité structurelle), et les bassins peuvent changer qualitativement (bifurcations, crises). citeturn0search2turn0search9turn8search5 ### Tableaux comparatifs | Notion | Discret fini \((X,f)\) | Continu/compact \((X,d,f)\) ou flot | |---|---|---| | Invariant | \(f(S)\subseteq S\) | \(f(S)\subseteq S\) ou \(\varphi_t(S)=S\) | | Asymptote | cycle atteint en temps fini | \(\omega(x)\) (compact invariant) | | Attracteur | cycle (déf. minimale) | compact invariant attirant un voisinage (trapping region possible) citeturn11search1 | | Bassin | atteignabilité vers un cycle | convergence \(\mathrm{dist}(f^n(x),A)\to 0\) | | Chaos | possible (cartes) | typiquement ≥3D pour flots; exclu en plan (P–B) citeturn3search15turn2search1 | | Mesure de complexité | \(H_{\text{bassins}}\) (Shannon) | \(h_{\text{top}}\) (AKM), stabilité/hyperbolicité (Smale) citeturn0search0turn0search9 | | Propriété | Attracteur (existence) | Attracteur robuste (qualitative) | |---|---|---| | Définition | invariance + attraction | persistance sous perturbation | | Outils | \(\omega\)-limites, trapping region | Lyapunov, hyperbolicité, stabilité structurelle citeturn0search2turn0search9 | | Sensibilité des bassins | peut être élevée | peut rester fragile (crises possibles) citeturn8search5 | ### Schéma de structure d’atteignabilité (attracteurs, organisation par bassins) ```mermaid flowchart LR subgraph L["Structure d’atteignabilité qualitative"] B1["Bassin B(A₁)"] --> A1["Attracteur A₁"] B2["Bassin B(A₂)"] --> A2["Attracteur A₂"] B3["Bassin B(A₃)"] --> A3["Attracteur A₃"] B1 --- S12["Frontière"] B2 --- S12 B2 --- S23["Frontière"] B3 --- S23 end ``` En conclusion, ce chapitre fixe un socle rigoureux : dans un système itératif, les attracteurs et invariants ne sont pas une option interprétative mais une conséquence structurelle (finitude/compacité/continuité). Les chapitres suivants pourront ensuite introduire, de manière contrôlée, les mécanismes de non‑injectivité, de compression et d’héritage qui transforment ces invariants en structures transmissibles à travers des lignées, sans jamais faire intervenir de finalité. --- # Chapitre 11 — Reproduction partielle et transmission ## Hypothèses et résultats (repères) Hypothèses (H). - cadre discret avec non‑injectivité et classes (perte d’identifiabilité) ; - transmission définie comme préservation partielle d’invariants sous fragmentation/recombinaison admissible. Résultats (E). - formalisation de la reproduction partielle comme transmission de contraintes plutôt que conservation d’origines ; - mise en évidence que la persistance longue dépend de la transmissibilité de contraintes, pas d’une identité fine. Statut. - noyau ensembliste ; les lectures informationnelles restent des correspondances déclarées, non des axiomes. ## Introduction Les chapitres précédents ont établi successivement : l’existence d’espaces de configurations, l’itération nécessaire, la formation de cycles invariants, la non-injectivité structurelle, la formation de classes, la normalisation, la sélection différentielle, la consommation irréversible et l’apparition d’une flèche effective. Le chapitre 10 a montré que l’enchaînement d’événements consommants rend l’histoire irréductible : l’ordre des transformations ne peut être supprimé sans perte de validité future. Le présent chapitre introduit une propriété nouvelle : la reproduction partielle. Il ne s’agit pas d’une copie parfaite ni d’une conservation intégrale d’un état, mais d’une transmission de structures compatibles avec les contraintes accumulées. L’objectif est triple : - formaliser mathématiquement la reproduction partielle, - montrer que la transmission implique, dans ce cadre, perte et fragmentation, - établir que la persistance longue exige recombinaison admissible plutôt que conservation d’origine. Aucune hypothèse biologique n’est posée. Les résultats utilisés relèvent de la théorie des automates, de la théorie de l’information et des systèmes dynamiques discrets. ## Définition formelle de la reproduction partielle On considère un espace d’états admissibles \(X\) et une dynamique admissible \(f: X \to X\). ### Définition Une structure \(S \subseteq X\) est dite reproductible partiellement s’il existe : - un opérateur de génération \(G: X \to \mathcal{P}(X)\), - une application de projection \(P: X \to X\), tels que, pour certains états \(x\) contenant \(S\) (au sens structurel défini au chapitre 6), on ait : \[ \exists y \in G(x)\ \text{tel que}\ P(y) \sim S, \] où \(\sim\) désigne une relation d’équivalence structurelle. Autrement dit : un état peut engendrer un nouvel état contenant une structure équivalente, sans que l’état global soit identique. La reproduction partielle ne préserve donc pas l’identité fine, seulement une classe d’invariants. ## Fragmentation structurelle ### Définition Une fragmentation est une application \(F: X \to X^k\) (pour un certain \(k \ge 1\)) qui associe à un état un ensemble fini de sous-structures. La fragmentation est admissible si chaque composant reste valide sous les contraintes du système. ### Propriété Toute reproduction partielle dans un espace non injectif implique une fragmentation implicite. ### Démonstration esquissée Si l’application générative était globalement injective et sans fragmentation, la copie serait exacte. Or la non-injectivité démontrée au chapitre 5 implique perte d’information fine. La reproduction ne peut donc conserver l’intégralité des composantes initiales. Elle sélectionne un sous-ensemble d’invariants. La fragmentation n’est donc pas accidentelle, mais structurellement nécessaire. ## Recombinaison admissible ### Définition Une recombinaison est une opération \(R: X^k \to X\) telle que l’état recomposé respecte les contraintes admissibles. ### Condition d’admissibilité Pour tout \((x_1, \ldots, x_k)\) admissible, \(R(x_1, \ldots, x_k) \in X\). Dans les automates cellulaires étudiés par von Neumann, une machine auto-reproductrice n’est pas une copie directe d’elle-même, mais une construction progressive à partir de fragments d’information interprétés localement. La reproductibilité dépend de règles locales de recomposition, non d’une duplication globale instantanée. La recombinaison admissible constitue donc le mécanisme fondamental de transmission. ## Perte contrôlée et non-conservation de l’origine ### Définition On appelle perte contrôlée une réduction de description telle que la quantité d’information perdue est bornée par un invariant de classe. Soit \(K(x)\) la complexité descriptive minimale (au sens de Kolmogorov). La reproduction partielle satisfait typiquement : \[ K(\text{descendant}) \le K(\text{ancêtre}) + c, \] avec perte d’information fine non reconstruisible. ### Conséquence L’origine exacte d’une structure n’est pas reconstructible à partir de ses descendants. Il n’existe pas d’application inverse globale \(G^{-1}\) compatible avec la dynamique irréversible. Ainsi, la transmission n’est pas conservation. Elle est stabilisation d’invariants sous perte. ## Transmission comme persistance de classe ### Définition Une classe \(C\) est transmissible si : \[ \forall x \in C,\ \exists y \in G(x)\ \text{tel que}\ y \in C. \] Autrement dit, la classe se reproduit sous la dynamique générative. ### Propriété Une classe transmissible correspond à un attracteur de second ordre (chapitre 8) dans l’espace des classes. Ainsi, la reproduction partielle opère non sur les états individuels, mais sur les classes structurelles. ### Conséquence structurale majeure La transmission exige : - fragmentation, - recombinaison, - perte d’information fine, - stabilité d’invariants, - non-reconstructibilité de l’origine. L’identité individuelle est donc sacrifiée au profit de la stabilité de classe. La reproduction parfaite serait incompatible avec la non-injectivité et l’irréversibilité cumulée établies précédemment. ## Implications déduites (lecture conditionnelle) Si l’on considère un système dynamique soumis à consommation irréversible, la persistance à long terme n’est possible que pour des structures capables : - de générer des structures équivalentes, - de tolérer la perte, - de se recomposer localement, - de stabiliser leurs invariants. Cette propriété n’est pas propre au vivant biologique ; elle est formellement nécessaire à toute accumulation historique durable. ## Analyse philosophique La reproduction partielle dissocie identité et persistance. Ce qui persiste n’est pas un individu, mais une classe d’invariants. L’origine cesse d’être un point stable. Elle devient un nœud dans un graphe de transmissions irréversibles. La notion d’« essence conservée » est remplacée par celle de « contrainte transmissible ». ## Conclusion Le chapitre 11 établit que la transmission exige la perte d’identité fine. La reproduction partielle n’est pas une copie, mais une projection stabilisée d’invariants sous fragmentation et recombinaison admissible. La conséquence logique est décisive : La persistance longue ne dépend pas de la conservation de l’origine, mais de la transmissibilité de contraintes structurelles. Le chapitre suivant étendra cette logique à la formation de lignées et à l’accumulation généalogique de contraintes. --- # Chapitre 12 — Généalogies et lignées de formes ## Hypothèses et résultats (repères) Hypothèses (H). - relation d’engendrement orientée reconstruite (pas de temps externe) ; - objets transmissibles (attributs, classes, signatures) définis avant usage, sous non‑injectivité. Résultats (E). - construction de lignées comme graphes orientés (et variantes) et formalisation de l’héritage sous collisions ; - articulation avec sélection structurelle comme effet de filtrage sous contraintes, sans téléologie. Statut. - noyau ensembliste/combinatoire ; toute quantification est indexée par les choix déclarés. ## Introduction Ce chapitre introduit la notion de lignée comme une structure combinatoire orientée décrivant la transmission de formes sous contraintes d’irréversibilité et de non‑injectivité. Le point de départ est une exigence minimale : une relation d’engendrement doit être orientée, mais l’orientation ne peut pas être imposée par un « temps » externe ; elle doit être reconstruite à partir des règles mêmes qui produisent les occurrences. La formalisation s’effectue donc en deux temps : d’abord la construction d’un graphe orienté de lignée à partir d’événements d’engendrement ; ensuite l’introduction d’objets transmissibles (attributs, classes, signatures) qui survivent malgré les collisions et la perte d’inversibilité. Dans ce cadre, « transmettre » ne signifie ni « copier », ni « conserver », mais « produire une descendance relationnelle en préservant certains invariants ». L’enjeu n’est pas d’attribuer une finalité à cette persistance : l’objectif est au contraire de montrer comment une sélection structurelle peut émerger comme effet de filtrage et de conditionnement, sans hypothèse téléologique. Les termes chargés de connotations (lignée, héritage, sélection) sont d’abord définis comme objets formels. Les lectures externes possibles (informationnelles, physiques, ou relatives à des systèmes de transmission concrets) ne sont proposées qu’en fin de chapitre, une fois le formalisme fermé. ## Préliminaires de théorie des graphes orientés ### Graphes orientés, multigraphes, hypergraphes **Définition (graphe orienté).** Un graphe orienté est un couple \(G=(V,E)\) où \(V\) est un ensemble de sommets et \(E\subseteq V\times V\) un ensemble d’arêtes orientées. Une arête \((u,v)\in E\) est notée \(u\to v\). **Définition (multigraphe orienté).** Un multigraphe orienté autorise plusieurs arêtes distinctes de \(u\) vers \(v\). On le modélise par une multiplicité \(m:V\times V\to \mathbb{N}\). **Définition (hyperarête dirigée).** Une hyperarête dirigée est une paire \((P,c)\) où \(P\) est un multiensemble fini de sommets (les entrées) et \(c\in V\) est un sommet (la sortie). On note \(P\Rightarrow c\). L’arité est \(|P|\). Le passage d’un hypergraphe à un graphe ordinaire se fait en remplaçant \(P\Rightarrow c\) par les arêtes \(p\to c\) pour \(p\in P\), ce qui conserve l’information d’ascendance mais pas nécessairement l’information d’arité. ### Degrés, parents, enfants **Définition (degré entrant et sortant).** Le degré entrant de \(v\) est \(\deg^-(v)=|\{u\in V:u\to v\}|\). Le degré sortant de \(v\) est \(\deg^+(v)=|\{u\in V:v\to u\}|\). **Définition (ensemble des parents et des enfants).** \[ \mathrm{Par}(v)=\{u\in V:u\to v\},\qquad \mathrm{Enf}(v)=\{u\in V:v\to u\}. \] Ces notions permettent de discuter de branchement, sans présumer d’un mécanisme de copie. ### Chemins, atteignabilité, ascendance **Définition (chemin orienté).** Un chemin orienté de \(u\) vers \(v\) est une suite \((v_0,\dots,v_k)\) telle que \(v_0=u\), \(v_k=v\) et \(v_i\to v_{i+1}\) pour tout \(i\in\{0,\dots,k-1\}\). Sa longueur est \(k\). **Définition (atteignabilité).** On note \(u\to^\* v\) l’existence d’un chemin orienté de \(u\) vers \(v\). **Définition (relation d’ascendance).** On définit \(\preceq_G\) par \[ u\preceq_G v \quad \Longleftrightarrow \quad u\to^\* v. \] Cette relation est réflexive et transitive. **Définition (ancêtres et descendants).** \[ \mathrm{Anc}(v)=\{u\in V:u\preceq_G v\},\qquad \mathrm{Desc}(u)=\{v\in V:u\preceq_G v\}. \] ### Cycles, DAG et ordre topologique **Définition (cycle orienté).** Un cycle orienté est un chemin \((v_0,\dots,v_k)\) avec \(k\ge 1\) tel que \(v_0=v_k\) et \(v_0,\dots,v_{k-1}\) distincts. **Définition (DAG).** Un DAG est un graphe orienté sans cycle orienté. **Définition (ordre topologique).** Un ordre topologique d’un DAG fini est une bijection \(\tau:V\to\{1,\dots,|V|\}\) telle que \(u\to v\Rightarrow \tau(u)<\tau(v)\). **Proposition (existence d’un ordre topologique).** Tout DAG fini admet un ordre topologique. ### Ordre partiel, antichaînes, générations **Proposition (ordre partiel induit).** Si \(G\) est un DAG, alors \(\preceq_G\) est un ordre partiel (réflexif, antisymétrique, transitif). **Définition (antichaîne).** Un ensemble \(A\subseteq V\) est une antichaîne si, pour tout \(u\neq v\) dans \(A\), ni \(u\preceq_G v\) ni \(v\preceq_G u\). **Définition (racines, profondeur, générations).** Un sommet \(r\) est une racine si \(\deg^-(r)=0\). La profondeur (dans un DAG) est \[ \mathrm{depth}(v)=\max\{k:\exists (v_0,\dots,v_k)\ \text{chemin avec}\ v_k=v\}. \] La génération \(n\) est \(V_n=\{v\in V:\mathrm{depth}(v)=n\}\). ## Construction d’un graphe orienté de lignée ### Occurrences et types Pour obtenir un objet « généalogique », il faut distinguer deux niveaux : - niveau des occurrences, qui sont singulières et ne se répètent pas ; - niveau des types (formes), qui peuvent réapparaître par collision ou normalisation. Le graphe de lignée portera sur les occurrences. **Définition (ensemble d’occurrences).** On fixe un ensemble \(V\) d’occurrences. Une occurrence est un jeton abstrait représentant un événement singulier dans l’histoire. **Définition (ensemble de types et étiquetage).** Soit \(X\) un ensemble de types. Un étiquetage est une application \[ \ell:V\to X. \] Deux occurrences distinctes \(v\neq v'\) peuvent partager le même type \(\ell(v)=\ell(v')\). ### Événements d’engendrement comme hyperarêtes **Définition (événement d’engendrement).** Un événement est une paire \((P,c)\) où : - \(P=(p_1,\dots,p_k)\in V^k\) est une liste d’occurrences parentales, - \(c\in V\) est l’occurrence enfant, - \(k\ge 1\) est l’arité. L’ensemble des événements est \(\mathcal{E}\subseteq \bigsqcup_{k\ge 1} (V^k\times V)\). **Définition (hypergraphe d’engendrement).** Le hypergraphe est \(\mathcal{H}=(V,\mathcal{E})\) dont les hyperarêtes sont \(P\Rightarrow c\). **Définition (graphe de lignée associé).** Le graphe orienté associé est \(\mathcal{T}=(V,E)\) avec \[ E=\{(p_i,c): (P,c)\in\mathcal{E},\ P=(p_1,\dots,p_k),\ i\in\{1,\dots,k\}\}. \] **Définition (lignée).** La lignée est la relation d’ascendance \(\preceq_{\mathcal{T}}\). Une branche est un chemin maximal (par inclusion). Une chaîne est un sous‑ensemble totalement ordonné pour \(\preceq_{\mathcal{T}}\). ### Représentation bipartite des événements Dans certains raisonnements, conserver l’information d’arité est essentiel. Une représentation standard consiste à introduire explicitement les événements comme nœuds d’un graphe bipartite. **Définition (graphe d’incidence bipartite).** On définit un graphe orienté bipartite \(\mathcal{B}=(V\sqcup \mathcal{E},E_B)\) par : - pour tout événement \(e=(P,c)\) et tout parent \(p\in P\), une arête \(p\to e\) ; - une arête \(e\to c\). **Proposition (équivalence d’ascendance).** La relation d’ascendance entre occurrences induite par \(\mathcal{B}\) restreinte à \(V\) coïncide avec celle induite par \(\mathcal{T}\), tout en permettant d’exprimer explicitement l’arité et le coût éventuel de l’événement. Cette représentation évite d’attribuer au seul degré entrant d’un sommet le sens d’une arité, car un même sommet peut avoir plusieurs événements créateurs selon le modèle retenu (ici on en impose au plus un, mais la représentation reste commode pour la discussion des coûts). ### Acyclicité par construction inductive **Axiome (création).** Chaque occurrence \(c\in V\) admet au plus un événement créateur \(e_c\in\mathcal{E}\) tel que \(c\) soit l’enfant de \(e_c\). Les occurrences sans événement créateur sont des racines. **Axiome (engendrement vers l’inédit).** Il existe une filtration \(V^{(0)}\subset V^{(1)}\subset \dots\) telle que : - \(V^{(0)}\) est l’ensemble des racines, - si \((P,c)\) est le \(n\)-ième événement, alors \(P\subseteq V^{(n-1)}\) et \(c\in V^{(n)}\setminus V^{(n-1)}\). **Proposition (acyclicité).** Sous ces axiomes, \(\mathcal{T}\) est un DAG. *Preuve.* Toute arête \(p\to c\) va d’un sommet déjà présent dans \(V^{(n-1)}\) vers un sommet nouvellement introduit dans \(V^{(n)}\). La fonction \(\tau(c)=n\) est alors un ordre topologique : \(p\to c\Rightarrow \tau(p)<\tau(c)\). Un cycle orienté violerait cette strict inégalité. □ ### Monotone de lignée issu d’une ressource non réutilisable **Définition (jetons consommés).** Soit \(\Omega\) un ensemble de jetons. À chaque événement \(e\in\mathcal{E}\), on associe un ensemble fini \(J(e)\subset\Omega\) de jetons consommés. **Axiome (non‑réutilisation).** \[ e\neq e' \Longrightarrow J(e)\cap J(e')=\varnothing. \] **Définition (coût).** Le coût est \(w(e)=|J(e)|\in\mathbb{N}\). **Définition (coût cumulatif).** On définit \(C:V\to\mathbb{N}\) par récurrence : - si \(v\) est une racine, \(C(v)=0\) ; - si \(v\) est créé par \(e_v=(P,v)\), alors \[ C(v)=\max_{p\in P} C(p) + w(e_v). \] **Proposition (monotonicité stricte).** Si \(p\to v\) est une arête (avec \(p\in P\) pour l’événement créateur de \(v\)) et si \(w(e_v)\ge 1\), alors \(C(p)1\) survie avec probabilité strictement positive. Ce résultat exprime la disparition des branches instables sans hypothèse d’optimisation. ## Sélection sans finalité ### Mesures sur les générations **Définition (poids).** Un poids est \(w:V\to \mathbb{R}_+\). Exemples formels : - \(w(v)=g(M(v))\) pour une fonction \(g\), - \(w(v)=|\mathrm{Desc}(v)\cap V_{n+k}|\) (descendance à horizon \(k\)), - \(w(v)=\mathbb{P}(P(v)=1 \mid \text{informations})\). **Définition (mesure normalisée).** Sur \(V_n\), \[ \pi_n(v)=\frac{w(v)}{\sum_{u\in V_n} w(u)}. \] **Proposition (sélection).** La sélection est définie ici comme la concentration de \(\pi_n\) sur un sous‑ensemble strict de \(V_n\). La concentration résulte d’inégalités de poids, donc d’inégalités de croissance ou de viabilité, sans finalité. ### Effet de conditionnement Conditionner sur la non‑extinction modifie la distribution observée. Les histoires compatibles avec la survie sont sur‑représentées, ce qui crée un effet directionnel apparent sans nécessiter d’objectif. ## Interprétations après formalisation Lecture informationnelle - \(\bar{\sigma}\) représente une compression en classes. - \(G_\Sigma\) rend visible l’héritage des collisions : retours sur classes sans retour sur occurrences. - \(M\) est une mémoire distribuée définie sur un DAG. Lecture cosmologique minimale - \(C\) impose une flèche d’antériorité dérivée. - Les lignées persistantes deviennent des contraintes héritées qui restreignent l’espace des transformations futures. Lecture relative à des systèmes de transmission concrets - Les hyperarêtes \(P\Rightarrow c\) modélisent des opérations à arité finie. - Les collisions expriment l’impossibilité structurelle de reconstruire une origine à partir du seul résultat normalisé. ## Références consensuelles utiles - Reinhard Diestel, *Graph Theory* (théorie des graphes). - Theodore E. Harris, *The Theory of Branching Processes* (processus de branchement). - Krishna B. Athreya, Peter E. Ney, *Branching Processes* (processus de branchement). ## Conclusion Les graphes orientés de lignées ont été introduits explicitement comme l’image combinatoire d’événements d’engendrement sur un ensemble d’occurrences, distinct du niveau des types. Une règle minimale de création orientée rend le graphe acyclique, et la consommation irréversible fournit un monotone cumulatif quantifiant l’histoire. L’héritage est formalisé par des règles sur attributs, puis ramené à des signatures discrètes par quotient, ce qui rend la perte d’identifiabilité structurelle. L’accumulation structurale est définie par un accumulateur sur DAG, et l’héritage des collisions passées apparaît lorsque plusieurs histoires se projettent sur la même signature malgré des historiques cumulés distincts. Enfin, la disparition des branches instables et la sélection sans finalité se décrivent par filtrage de viabilité, dynamique de branchement et concentration de mesure. Le résultat logique est désormais établi : certaines structures transmissibles persistent sous contraintes, indépendamment de toute finalité. La suite naturelle est l’étude de ces structures persistantes comme contraintes actives sur l’espace des futurs admissibles. --- # Chapitre 13 — Structures persistantes et verrouillage des futurs ## Hypothèses et résultats (repères) Hypothèses (H). - un espace d’états \(X\) et une famille de transformations admissibles \(\mathcal{T}\) (cadre discret) ; - une description \(\Pi\) et une règle de restriction associée, fixées indépendamment de l’effet observé ; - quantification optionnelle par \(\mu\), \(d\) ou un coût \(c\) déclarés (si mobilisés). Résultats (E). - définition du futur accessible \(\mathcal{F}(x)\) et du verrouillage comme réduction monotone de l’atteignabilité sous contraintes actives ; - distinction de statut entre verrouillage ensembliste (structurel) et quantifications (indexées) ; - discipline de robustesse sous changements de granularité/description lorsque des comparaisons sont revendiquées. Statut. - verrouillage ensembliste : couche [E] ; quantification : couche [M] (indexée) ; probabiliste : couche [P] uniquement si un noyau est déclaré. ## Introduction Le chapitre précédent a établi un formalisme de filiation au moyen de graphes orientés acycliques, ainsi que des opérateurs de transmission et de composition permettant de décrire, sans vocabulaire substantiel, la propagation de structures partielles à travers des événements de séparation et de collision. Le présent chapitre introduit le mécanisme par lequel ces structures transmissibles deviennent des contraintes actives sur l’évolution : l’existence d’une structure persistante ne se limite pas à être détectable dans l’état courant ; elle restreint l’ensemble des trajectoires futures accessibles depuis cet état. Le verrouillage des futurs est défini comme une réduction monotone, au cours du temps, de l’espace des devenirs admissibles, pouvant aller jusqu’à des sous-ensembles invariants, des classes absorbantes, ou des attracteurs au sens des systèmes dynamiques dissipatifs. ## Notations et prérequis Soit : - $(X,\mathcal{B})$ un espace mesurable d’états (ou un espace topologique $X$ muni de sa tribu borélienne ; le choix dépendra des résultats mobilisés). - $\mathcal{T}$ un ensemble de transformations admissibles $f : X \to X$ (temps discret). - $\langle \mathcal{T}\rangle$ le semi-groupe engendré par $\mathcal{T}$ par composition. Remarque (admissibilité) Le choix de l’ensemble $\mathcal{T}$ est une hypothèse structurale : il encode ce qui est disponible (symétries, localité, ressources) et reste indépendant de toute finalité. Lorsque plusieurs choix raisonnables de $\mathcal{T}$ existent, les énoncés quantifiés sont compris comme relatifs à ce choix, et la robustesse s’évalue par variation contrôlée de $\mathcal{T}$ (et des opérateurs de compatibilité associés). Pour $x \in X$ et $n \in \mathbb{N}$, l’ensemble des états atteignables en $n$ étapes est : \[ \operatorname{Reach}_n(x) = \{ f_n \circ \cdots \circ f_1(x) \;:\; f_1,\ldots,f_n \in \mathcal{T} \}. \] Le cône de futur (ensemble des états atteignables à horizon fini quelconque) est : \[ \mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x), \qquad \operatorname{Reach}_0(x)=\{x\}. \] Si une mesure de référence $\mu$ est disponible (mesure de volume, mesure stationnaire, etc.), la “taille” du futur accessible peut être mesurée par $\mu(\mathcal{F}(x))$. Dans un cadre fini, on utilisera plutôt la cardinalité $|\mathcal{F}(x)|$. Dans les chapitres précédents, une structure a été introduite sous des formes compatibles : partition ou quotient de $X$, sous-tribu informative, ensemble de contraintes locales transportables, ou collection de motifs partiels transmissibles. Le chapitre présent n’impose pas un choix unique ; il impose en revanche un ordre logique minimal, garantissant l’absence d’auto-justification. Hypothèse de base (structure comme information opératoire) Une structure est représentée par : - un opérateur de description $\Pi$ qui associe à un état $x$ une description $s=\Pi(x)$ dans un espace de descriptions $S$ ; - une règle de restriction indexée par $s$, qui sélectionne soit un ensemble d’états admissibles, soit une relation de transitions admissibles, soit une sous-famille de transformations admissibles. Cette dissociation impose l’ordre : description puis contrainte. La structure n’est pas définie comme “ce qui restreint”, mais comme une description préalable associée à une règle de restriction fixée indépendamment de l’effet constaté. ## Structures comme contraintes actives ### Définition d’une contrainte Une contrainte admet plusieurs représentations équivalentes. Toutes seront utilisées, car elles correspondent à des points de vue complémentaires sur “ce qui est interdit”. Contrainte d’état Un sous-ensemble $A \subseteq X$ ; l’état est admissible si $x\in A$. Contrainte de transition Une relation $R \subseteq X\times X$ ; une transition $x\to y$ est admissible si $(x,y)\in R$. Contrainte fonctionnelle Une application $g:X\to Y$ et une condition $g(x)\in C_Y$ (notamment $g(x)=0$ ou $g(x)\le 0$). Cela induit l’ensemble admissible $A=\{x: g(x)\in C_Y\}$. Contrainte de coût Une fonction $c:X\times X\to [0,+\infty]$ et un seuil $\kappa$ ; $(x,y)$ est admissible si $c(x,y)\le \kappa$. Le cas $c(x,y)=+\infty$ encode l’interdiction stricte. Interconversions utiles (sans perte) - D’une contrainte d’état $A$, on déduit la contrainte de transition $R_A=A\times A$. - D’une contrainte fonctionnelle $g(x)\in C_Y$, on déduit la contrainte d’état $A=\{x: g(x)\in C_Y\}$. - D’une contrainte de coût $c(x,y)\le \kappa$, on déduit la contrainte de transition $R=\{(x,y): c(x,y)\le \kappa\}$. ### Définition d’une contrainte active Le qualificatif “active” désigne un effet effectif sur l’atteignabilité, et non l’existence nominale d’une règle. Soit $(X,\mathcal{T})$ et deux ensembles de transformations admissibles $\mathcal{T}\supseteq \mathcal{T}'$. Le passage de $\mathcal{T}$ à $\mathcal{T}'$ est une activation de contrainte au point $x$ si : \[ \mathcal{F}_{\mathcal{T}'}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x), \] où $\mathcal{F}_{\mathcal{T}}(x)$ désigne le cône de futur construit avec $\mathcal{T}$, et $\mathcal{F}_{\mathcal{T}'}(x)$ celui construit avec $\mathcal{T}'$. Une contrainte est globalement active si l’inclusion stricte vaut sur un ensemble d’états non négligeable (mesure non nulle, ou partie dense, selon le cadre retenu). ### Structures et activation Soit $\Pi:X\to S$ une description, et soit $\mathcal{T}(s)\subseteq \mathcal{T}$ une famille de transformations admissibles indexée par $s\in S$. Une structure $s$ est dite active au point $x$ si, pour $\Pi(x)=s$, on a : \[ \mathcal{F}_{\mathcal{T}(s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x). \] Cette définition impose que $(\Pi,\mathcal{T}(\cdot))$ soit donné avant toute interprétation : la structure n’est pas “ce qui réduit”, elle est “ce qui est décrit” et “ce qui impose ensuite une restriction”. ### Contraintes endogènes et ensembles invariants Il est pertinent de distinguer deux sources de contraintes. Contraintes exogènes Restrictions prescrites sur $\mathcal{T}$ (interdictions, règles externes). Contraintes endogènes Restrictions produites par la structure interne de la dynamique : ensembles invariants, classes absorbantes, attracteurs, dissipation, non-injectivité, réduction effective de dimension. Le verrouillage des futurs relève principalement des contraintes endogènes. L’héritage de structures, traité plus loin, fournit un mécanisme endogène de génération et stabilisation de contraintes au sein d’un processus de filiation. ## Réduction de l’espace des trajectoires futures ### Verrouillage comme réduction monotone des cônes de futur On modélise l’accumulation ou l’activation progressive de contraintes par une suite d’ensembles de transformations admissibles $(\mathcal{T}_t)_{t\in\mathbb{N}}$ telle que : \[ \mathcal{T}_{t+1}\subseteq \mathcal{T}_t \quad \text{pour tout } t. \] Le futur accessible à partir du temps $t$ est défini par : \[ \mathcal{F}^{(t)}(x) = \bigcup_{n\ge 0} \left\{ f_{t+n}\circ \cdots \circ f_{t+1}(x) : f_{t+k}\in \mathcal{T}_{t+k} \right\}. \] Alors, pour tout $x$ : \[ \mathcal{F}^{(t+1)}(x)\subseteq \mathcal{F}^{(t)}(x), \] donc la famille $(\mathcal{F}^{(t)}(x))_t$ est décroissante. Le verrouillage correspond à la situation où l’inclusion est strictement décroissante sur une suite de temps, ou, de façon plus structurelle, lorsque l’intersection limite est strictement plus petite : \[ \mathcal{F}^{(\infty)}(x)=\bigcap_{t\ge 0}\mathcal{F}^{(t)}(x) \subsetneq \mathcal{F}^{(0)}(x). \] **Cas fini** Si $X$ est fini, les ensembles $\mathcal{F}^{(t)}(x)$ sont des sous-ensembles d’un ensemble fini ; la décroissance est donc stationnaire en temps fini. Le verrouillage est alors un phénomène à horizon fini, détectable par stabilisation des ensembles atteignables. **Cas infini** Si $X$ est infini, l’intersection peut être non vide tout en étant strictement plus petite que $\mathcal{F}^{(0)}(x)$ ; l’analyse se fait alors via la mesure, la topologie, ou des invariants dynamiques (dimension effective, entropie topologique, etc.). ### Niveaux, quantification et robustesse du verrouillage Dans le cas fini, la stabilisation d’une famille décroissante est automatique ; l’intérêt scientifique du verrouillage est alors porté par (i) l’intensité de la réduction, (ii) sa vitesse, (iii) sa structure (goulots, fragmentation), et (iv) sa robustesse aux choix de mesure, de projection et d’admissibilité. Niveau 1 — verrouillage ensembliste (noyau) Le verrouillage est une inclusion de cônes de futur. On dira qu’il est strict en `t1→t2` s’il existe `x` tel que \(\mathcal{F}^{(t_2)}(x)\subsetneq \mathcal{F}^{(t_1)}(x)\). Niveau 2 — verrouillage quantifié (mesurable) On fixe un quantificateur et on mesure la réduction, par exemple : - réduction de futur accessible (cas fini) : \(L_{\mathcal{F}}(t,x)=|\mathcal{F}^{(0)}(x)|-|\mathcal{F}^{(t)}(x)|\) et \(l_{\mathcal{F}}(t,x)=L_{\mathcal{F}}(t,x)/|\mathcal{F}^{(0)}(x)|\) lorsque \(|\mathcal{F}^{(0)}(x)|>0\) ; - réduction de futur accessible (cas mesuré) : \(L_{\mathcal{F}}^{\mu}(t,x)=\mu(\mathcal{F}^{(0)}(x))-\mu(\mathcal{F}^{(t)}(x))\) et \(l_{\mathcal{F}}^{\mu}(t,x)=L_{\mathcal{F}}^{\mu}(t,x)/\mu(\mathcal{F}^{(0)}(x))\) lorsque \(\mu(\mathcal{F}^{(0)}(x))>0\) ; - vitesse de verrouillage (seuil \(\theta\in (0,1)\)) : \(\tau_{\theta}(x)=\inf\{t\ge 0 : l_{\mathcal{F}}(t,x)\ge \theta\}\) (ou la variante mesurée) ; - quantificateurs structurels : nombre de composantes fortement connexes atteignables, distribution des bassins, goulots (coupes) dans le graphe d’atteignabilité, diamètre de \(\mathcal{F}^{(t)}(x)\) sous une quasi‑métrique de chemin lorsque l’on introduit un coût de transition. Niveau 3 — verrouillage robuste (statut) Une conclusion quantifiée est dite robuste si elle persiste qualitativement sous : - variations raisonnables de mesure \(\mu\), - variations de projection / quotient \(\Pi\), - variations de l’admissibilité \(\mathcal{T}\) dans une classe déclarée, - et, lorsque des contraintes héritées interviennent, variations de l’opérateur \(\operatorname{Comp}\) dans une famille explicitée. ### Hypothèses et ruptures (statut local) Même si la fermeture rappelle que les énoncés sont conditionnels, le lecteur peut oublier les hypothèses locales. Pour éviter ce glissement, les résultats centraux de ce chapitre sont accompagnés d’une note structurée : - Hypothèses : liste explicite (finitude/compacité, piégeage/dissipativité, admissibilité fixée, mesure \(\mu\), projection \(\Pi\), etc.) - Conclusion : énoncé exact - Ruptures : ce qui n’est plus garanti si une hypothèse est retirée Bibliothèque minimale de ruptures (vocabulaire standard pour ce chapitre) - Finitude retirée : stabilisation en temps fini non garantie ; cycles/attracteurs non garantis ; nécessité d’invariants, de topologie ou de mesure pour conclure. - Compacité retirée : fuite possible ; absence d’attracteur global ; quantifications par “volume” pouvant diverger. - Absence de piégeage/dissipativité : errance possible ; le futur accessible peut rester vaste sans contraction durable. - Admissibilité non fixée : reconfiguration du futur accessible ; quantités non comparables sans aligner la classe d’admissibilité (même \(\mathcal{T}\), même \(\operatorname{Comp}\), même règle d’activation). - Changement de projection/quotient \(\Pi\) : non‑Markovianité apparente possible ; conclusions sur verrouillage observé susceptibles d’être des artefacts de représentation. ### Estimation, bornes et substituts (quand le futur est intractable) Le futur accessible complet \(\mathcal{F}^{(t)}(x)\) est souvent trop coûteux à calculer (voire non calculable selon la classe de transformations). Toute quantification proposée sur \(\mathcal{F}^{(t)}(x)\) est donc accompagnée : - d’au moins un estimateur calculable ; - d’au moins une borne (supérieure ou inférieure) ; - et d’une note de statut (dépendances aux choix). Estimateurs par échantillonnage de trajectoires - Échantillonnage de chemins de longueur bornée \(n\le n_{\max}\) sous une politique déclarée (uniforme, filtrée par ressource, locale). - Estimation de \(\mu(\mathcal{F}^{(t)}(x))\) par couverture empirique : fraction d’états visités (fini) ou volume discrétisé (continu) sous une maille déclarée. - Estimation d’un temps caractéristique de verrouillage \(\tau_{\theta}\) par répétitions (mêmes choix d’exploration et de quantificateur). Bornes supérieures et inférieures - Bornes par coupes/goulots : si une coupe sépare \(x\) d’une région, alors la perte de futur est au moins celle de la région rendue inaccessible. - Bornes par invariants/monotones : si un monotone interdit un ensemble, alors ce bloc est exclu du futur accessible. - Bornes par composantes : taille des composantes fortement connexes atteignables comme majorants (structurels) de récurrence. Métriques de substitution - Diamètre de futur (selon une quasi‑distance déclarée) : \(\mathrm{diam}(\mathcal{F}^{(t)}(x))\). - Conductance / coupe minimale du graphe atteignable (si pondération). - Nombre et tailles des composantes fortement connexes atteignables. - Variation de diamètre ou de fragmentation sous verrouillage. Note de statut obligatoire Chaque estimateur précise : (i) la dépendance à la politique d’exploration (si stochastique), (ii) la dépendance à la métrique/mesure, et (iii) les conditions sous lesquelles il est majorant/minorant. ### Verrouillage via ensembles invariants, classes absorbantes et attracteurs Dans le cas déterministe $F:X\to X$ : - $A$ est positivement invariant si $F(A)\subseteq A$. - $A$ est invariant si $F(A)=A$. - $A$ est absorbant si pour tout $x\in X$, il existe $n$ tel que $F^n(x)\in A$. Si un ensemble absorbant strict $A\subsetneq X$ existe, alors tout futur accessible à partir de n’importe quel état devient contenu dans $A$ après un temps fini dépendant de l’état initial. Le verrouillage est ici un fait ensembliste. Dans les systèmes dissipatifs (au sens standard), les attracteurs offrent une forme stabilisée du verrouillage : un attracteur $A$ est un ensemble compact invariant possédant un bassin $B(A)$ (ensemble d’états initiaux dont l’orbite approche $A$). Alors, pour $x\in B(A)$, l’adhérence de l’orbite est contenue dans $A$, ce qui implique une restriction durable des devenirs. Le verrouillage n’implique pas unicité. Plusieurs attracteurs et bassins peuvent coexister ; la réduction du futur dépend alors du bassin effectif dans lequel l’état initial se situe. ### Verrouillage relatif à une observable (réduction par projection) Soit une application de réduction $\Pi:X\to S$ (projection, quotient, codage). Pour une dynamique $F:X\to X$, le processus réduit est : \[ S_{t+1}=\Pi(F(X_t)), \qquad S_t=\Pi(X_t). \] En général, il n’existe pas de $G:S\to S$ tel que $\Pi\circ F = G\circ \Pi$ : le système réduit n’est pas autonome. On définit néanmoins l’ensemble des futurs observables depuis une description $s\in S$ : \[ \mathcal{F}_S(s) = \{ \Pi(x') : x'\in \mathcal{F}(x) \text{ pour un } x\in \Pi^{-1}(s) \}. \] Même si le futur microscopique est large, le futur observable peut être fortement restreint : c’est un verrouillage relatif à l’observable. Ce point est structurel, et ne dépend pas d’une interprétation : il résulte du fait qu’une projection identifie des états distincts. Monotonie et comparaison sous projection - Pour un état \(x\), l’image \(\Pi(\mathcal{F}(x))\) (futur microscopique projeté) est toujours incluse dans \(\mathcal{F}_S(\Pi(x))\), puisque \(\mathcal{F}_S\) est défini comme union sur la fibre \(\Pi^{-1}(s)\). - Lorsque la réduction est compatible (cas rare) au sens où il existe \(G:S\to S\) tel que \(\Pi\circ F = G\circ \Pi\), la dynamique projetée est autonome et l’on peut comparer directement des cônes de futur en \(S\). En dehors de ce cas, toute conclusion “au niveau \(S\)” doit rappeler la définition adoptée pour \(\mathcal{F}_S\). Artefacts de quotient (faux positifs / faux négatifs) - Identifier des états distincts peut produire un verrouillage artificiel (faux positif) si l’on confond une faible diversité descriptive avec une réduction effective des futurs microscopiques. - À l’inverse, définir le futur d’une description comme une union sur toute la fibre \(\Pi^{-1}(s)\) peut masquer un verrouillage (faux négatif) : la fibre agrège des micro‑états soumis à des restrictions différentes. Double granularité (robustesse à la description) Toute conclusion quantifiée sur verrouillage est vérifiée sur au moins deux granularités \(\Pi_1,\Pi_2\) déclarées pertinentes, où “pertinent” signifie : (i) invariance opérationnelle pour l’analyse visée, ou (ii) correspondance à une observation explicitée. Règle de cohérence : formuler d’abord sur l’état étendu lorsqu’un registre de contraintes intervient Lorsque le verrouillage dépend d’un registre de contraintes \(K\) (contraintes héritées, consommation, compatibilité), l’énoncé principal est formulé sur l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) (chapitre 15), puis seulement projeté sur \(X\). Gabarit minimal - espace étendu : \(y_t=(x_t,K_t)\) - futur étendu : \(\mathcal{F}_Y(y)\) - projection : \(\pi_X(y)=x\) - énoncé de verrouillage : inclusion sur \(\mathcal{F}_Y\) - effet observé : inclusion (ou non) sur \(\mathcal{F}\) après projection, discutée séparément ## Dépendance au passé sans mémoire explicite Dans un système Markovien au niveau de l’état complet (ou d’une variable d’état suffisante), le futur ne dépend que du présent. La dépendance au passé apparaît lorsque : - la variable suivie est une description partielle $\Pi(x)$ ; - ou des variables internes de contrainte existent mais ne sont pas incluses dans l’observation. Deux mécanismes couvrent exhaustivement le cadre présent. Dans les deux cas, la dépendance au passé au niveau observé ne suffit pas, à elle seule, à conclure à une mémoire transmissible : elle peut provenir d’un état incomplet (variable cachée) ou d’un registre interne non observé, et se reformule sur un espace d’état étendu où la dynamique est fermée. ### Mécanisme A : non-Markovianité induite par réduction (système caché) Soit $(X_t)_{t\ge 0}$ une chaîne de Markov sur $X$ de noyau $K(x,\mathrm{d}x')$. Soit $\Pi:X\to S$ et $S_t=\Pi(X_t)$. En général, $(S_t)$ n’est pas Markovien. Il existe un noyau effectif dépendant de l’histoire : \[ \mathbb{P}(S_{t+1}\in \cdot \mid S_0,\ldots,S_t) = \mathcal{K}_t(S_0,\ldots,S_t;\cdot). \] Raison structurelle La connaissance de $S_t$ fixe seulement la fibre $\Pi^{-1}(S_t)$, mais pas la distribution conditionnelle de $X_t$ sur cette fibre ; cette distribution dépend de l’histoire. Ainsi, la loi de $S_{t+1}$ dépend de l’histoire sans qu’une variable “mémoire” explicite ne soit introduite dans $S_t$. Cas limite où le processus réduit redevient Markovien Le processus réduit est Markovien si la partition induite par $\Pi$ est compatible avec le noyau (lumpabilité), c’est-à-dire si tous les états d’une même cellule induisent la même loi sur les cellules futures. En dehors de ce cas, la dépendance au passé est générique. ### Mécanisme B : variables internes de contrainte non observées (hystérésis) Soit une dynamique augmentée sur $X\times M$ : \[ (x_{t+1},m_{t+1})=\Psi(x_t,m_t), \] où $M$ représente un registre interne de contrainte (paramètre lent, ressource consommée, défaut cumulé, variable dissipative, etc.). Si seule la composante $x_t$ est observée, la dynamique apparente sur $X$ n’est pas autonome : \[ x_{t+1}=\pi_X(\Psi(x_t,m_t)). \] Deux histoires différentes peuvent mener au même $x_t$ avec des valeurs différentes de $m_t$. Or $m_t$ restreint les transitions futures ; les futurs accessibles depuis $x_t$ dépendent donc du passé, sans que cette dépendance ne soit portée par une variable explicite dans l’espace observé. ### Correspondance entre les deux mécanismes Tout processus réduit non Markovien peut être réalisé comme la projection d’un processus Markovien sur un espace étendu. Cette correspondance n’est pas utilisée comme justification, mais comme garantie logique : la dépendance au passé est un effet de réduction ou de variable interne, et non un postulat additionnel. ## Robustesse cumulative La robustesse cumulative formalise le fait que certaines contraintes persistantes deviennent progressivement moins sensibles : - aux fluctuations d’état dans un voisinage ; - aux perturbations (déterministes ou stochastiques) ; - aux recompositions via collisions. Elle repose sur deux mécanismes non exclusifs : l’emboîtement de régions admissibles et la contraction (au sens métrique ou probabiliste), auxquels s’ajoute un mécanisme de redondance interne. ### Notions de robustesse Les notions standards suivantes sont toutes pertinentes et non redondantes : - stabilité de Lyapunov autour d’un ensemble invariant ; - attractivité ; - stabilité asymptotique ; - stabilité structurelle (conjugaison sous perturbations) ; - robustesse probabiliste (persistance en probabilité sous bruit faible). Le chapitre n’en privilégie aucune par principe : elles servent d’outillage pour caractériser différents régimes de persistance. ### Emboîtement d’ensembles admissibles On modélise l’accumulation de contraintes par une suite d’ensembles admissibles $(A_t)_{t\ge 0}$ telle que : \[ A_{t+1}\subseteq A_t\subseteq X, \qquad x_t\in A_t \Rightarrow x_{t+1}\in A_{t+1}. \] Toute trajectoire admissible est confinée dans : \[ A_{\infty}=\bigcap_{t\ge 0}A_t. \] Interprétation strictement mathématique Même si $A_t$ reste large pour des temps initiaux, l’intersection peut être strictement plus petite, éventuellement de dimension effective plus faible. La robustesse cumulative se lit alors comme une concentration progressive des trajectoires ou des mesures images sur $A_{\infty}$. ### Contraction et perte effective de degrés de liberté Dans un espace métrique $(X,d)$, une condition suffisante de robustesse est l’existence d’une contraction locale ou en moyenne : \[ d(F(x),F(y))\le \lambda\,d(x,y), \qquad 0\le \lambda < 1, \] sur une région pertinente. Conséquence directe Des trajectoires initialement distinctes deviennent indiscernables à l’avenir : plusieurs passés se rabattent sur un même futur. Le verrouillage prend alors une forme forte : la multiplicité des devenirs diminue du fait de la contraction. Dans les systèmes où coexistent directions contractantes et expansives, la théorie des variétés stables et instables décrit la décomposition des directions. Dans un cadre dissipatif, l’attracteur peut avoir une dimension fractale strictement plus petite que celle de l’espace ambiant, ce qui formalise une réduction durable des degrés de liberté effectifs. ### Redondance interne et bassins de réalisations Un mécanisme complémentaire, distinct de la contraction, est la redondance : une contrainte macroscopique peut admettre de nombreuses réalisations microscopiques connectées par les transformations admissibles. Formellement, si une contrainte macroscopique correspond à une fibre $A=\Pi^{-1}(s)$, la robustesse dépend : - de la taille de $A$ (nombre ou mesure de réalisations) ; - de la connectivité de $A$ sous les transformations admissibles (possibilité de “changer de réalisation” tout en conservant $s$) ; - de l’existence d’un bassin (au sens ensembliste ou probabiliste) qui renvoie vers $A$ après perturbation. Ce mécanisme explique une robustesse qui n’est pas due à la rigidité, mais à la multiplicité des réalisations. ## Contraintes héritées Les chapitres antérieurs ont introduit des graphes orientés de filiation et des opérateurs de transmission partielle. Il reste à formaliser comment des contraintes deviennent héritées, au sens où elles se propagent le long des arêtes et se stabilisent. ### Espace des contraintes et ordre naturel Soit $\mathfrak{C}$ un ensemble de contraintes élémentaires. On considère l’ensemble des collections : \[ \mathcal{P}(\mathfrak{C}) \] muni de l’ordre par inclusion. À toute collection $K\subseteq \mathfrak{C}$, on associe : - un ensemble admissible $A(K)\subseteq X$ (intersection des contraintes d’état induites) ; - une relation admissible $R(K)\subseteq X\times X$ (intersection des contraintes de transition induites) ; avec cohérence monotone : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1), \qquad R(K_2)\subseteq R(K_1). \] La lecture est purement ordinale : “plus de contraintes” implique “moins d’admissible”. ### Transport le long d’une arête Soit un graphe orienté acyclique $G=(V,E)$. À chaque arête $e=(u\to v)$, on associe un opérateur de transmission : \[ \tau_e:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}). \] Le nœud $v$ hérite de $u$ le long de $e$ si : \[ \tau_e(K_u)\subseteq K_v. \] Propriété de monotonicité attendue Il est naturel d’exiger : \[ K_1\subseteq K_2 \Rightarrow \tau_e(K_1)\subseteq \tau_e(K_2), \] afin de préserver l’ordre “plus de contraintes” le long des transmissions. ### Collisions et compatibilité Si $v$ possède des prédécesseurs $u_1,\ldots,u_k$, les contraintes candidates transmises sont : \[ \widetilde{K}_v = \bigcup_{i=1}^k \tau_{(u_i\to v)}(K_{u_i}). \] L’union peut créer des incompatibilités (ensemble admissible vide, relation admissible vide). On introduit un opérateur de compatibilité : \[ \operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}) \] tel que : - $\operatorname{Comp}(K)\subseteq K$ ; - $A(\operatorname{Comp}(K))\neq \varnothing$ et/ou $R(\operatorname{Comp}(K))\neq \varnothing$ ; - si $K$ est déjà compatible, $\operatorname{Comp}(K)=K$. Règle minimale de composition \[ K_v \supseteq \operatorname{Comp}(\widetilde{K}_v). \] Aucune optimisation n’est requise : seule la satisfaisabilité est imposée. Remarque (familles de compatibilité) Les axiomes ci‑dessus ne déterminent pas un unique opérateur. Dans une couche minimale non téléologique, on explicite, lorsque pertinent, une famille de compatibilités (minimale, maximale, locale, priorisée par coût de vérification / invariance / ancienneté, ou stochastique) et l’on distingue ce qui est invariant de ce qui dépend du choix de compatibilité. Pour éviter un retour de plasticité (résultats “récupérables” en changeant d’opérateur), l’ouvrage adopte la discipline suivante. Statut des résultats (invariant vs dépendant) - **Invariant** : valable pour toute compatibilité satisfaisant un noyau d’axiomes minimal \(A0\) explicitement énoncé. - **Dépendant** : valable seulement pour une **classe** de compatibilités, ou pour une **politique** de choix, ou pour une **famille paramétrée** ; dans ce cas, le résultat est explicitement **indexé** par la classe/politique/paramètre. Noyau d’axiomes minimal \(A0\) (pour revendiquer “invariant”) - \(A0.1\) (bien‑typé) : \(\operatorname{Comp}\) agit sur l’espace des contraintes et retourne une collection de contraintes. - \(A0.2\) (compatibilité déclarée) : il existe un prédicat de satisfaisabilité \(\mathrm{Sat}\) (global) ou \(\mathrm{Sat}_r\) (local) tel que la sortie \(\operatorname{Comp}(K)\) soit compatible au sens déclaré. - \(A0.3\) (monotonie, si utilisée) : lorsqu’un résultat invoque des points fixes ou une convergence par ordre, la monotonie requise (de \(\operatorname{Comp}\) ou de l’opérateur global \(F(K)=\operatorname{Comp}(K\cup \Phi(\cdot))\)) est posée comme hypothèse, jamais présumée. - \(A0.4\) (idempotence/extensivité, si utilisées) : ces propriétés ne sont exigées que lorsqu’un résultat les emploie (logique de fermeture) ; elles ne sont pas implicites. - \(A0.5\) (changement de granularité, si revendiqué) : si un résultat est annoncé stable sous projection/quotient, l’hypothèse correspondante est déclarée (commutation exacte ou contrôle explicite de l’écart). Classes canoniques de compatibilités (à nommer et à limiter) - **Classe fermeture** \(\mathcal{C}_{\mathrm{closure}}\) : compatibilités de type fermeture (monotonie + idempotence ; extensivité selon convention). Elles sont le régime naturel pour les arguments de points fixes et d’auto‑stabilisation par ordre. - **Classe réparation minimale** \(\mathcal{C}_{\mathrm{repair\_min}}\) : \(\operatorname{Comp}\) “répare” en supprimant un minimum de contraintes pour rétablir \(\mathrm{Sat}\), selon un critère de minimalité déclaré (inclusion, cardinalité, coût de vérification, etc.). Cela introduit un choix donc un biais à déclarer. - **Classe locale** \(\mathcal{C}_{\mathrm{local},r}\) : compatibilités approximatives \(\operatorname{Comp}_r\) maintenant une cohérence locale \(\mathrm{Sat}_r\) (paramètre \(r\) ou autre budget). Les résultats sont soit robustes sur un intervalle de \(r\), soit indexés par \(r\). - **Classe choix** \(\mathcal{C}_{\mathrm{choice}}\) : \(\operatorname{Comp}\) choisit explicitement une solution parmi plusieurs satisfaisables. C’est une source directe de biais (et donc de sélection) : la politique de choix est déclarée et testée en robustesse. Politique d’introduction - Un nouveau type de compatibilité est introduit seulement s’il relève d’une classe canonique ci‑dessus, ou s’il justifie l’ajout d’une nouvelle classe par une motivation structurale et par au moins un résultat invariant non trivial. - Toute compatibilité paramétrée est décrite comme une famille \((\operatorname{Comp}_{\theta})_{\theta}\) ; ses résultats ne sont dits “structurels” que s’ils persistent sur un ensemble non trivial de paramètres. Critère de robustesse à \(\operatorname{Comp}\) Un phénomène est déclaré “structurel” vis‑à‑vis de la compatibilité s’il persiste sur plusieurs classes canoniques, ou sur une région non triviale de paramètres, ou sous variation de politique dans \(\mathcal{C}_{\mathrm{choice}}\). Sinon, il est traité comme dépendant d’instanciation. ### Verrouillage induit par héritage Une contrainte héritée devient facteur de verrouillage dès qu’elle restreint l’atteignabilité des descendants. On associe à $K$ un ensemble de transformations admissibles induites, par exemple : \[ \mathcal{T}(K) = \{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\in R(K) \}. \] Le futur accessible depuis le nœud $v$ est alors : \[ \mathcal{F}_{\mathcal{T}(K_v)}(x_v). \] Forme explicite de “le passé agit sans être représenté” Il peut exister deux nœuds $v$ et $v'$ tels que $\Pi(x_v)=\Pi(x_{v'})$ (même description observable) mais $K_v\neq K_{v'}$ (contraintes héritées différentes). Alors, en général : \[ \mathcal{F}_{\mathcal{T}(K_v)}(x_v) \neq \mathcal{F}_{\mathcal{T}(K_{v'})}(x_{v'}). \] Le passé agit via la variable de contrainte $K$, sans que la description observée $\Pi(x)$ porte une mémoire explicite de ce passé. ### Stabilisation Une contrainte $c\in\mathfrak{C}$ est stabilisée le long d’une suite de descendants $(v_n)$ si, à partir d’un rang, $c\in K_{v_n}$ pour tout $n$ ultérieur. Plus généralement, un sous-ensemble $K^\star$ est stabilisé si $K^\star\subseteq K_{v_n}$ à partir d’un rang. La stabilisation est le passage d’un verrouillage local (lié à un événement de transmission ou de collision) à un verrouillage durable (lié à la persistance de contraintes au long cours). ## Résultat logique Les constructions précédentes conduisent à une proposition strictement ensembliste : - une structure devient contrainte active dès qu’elle réduit un cône de futur ; - toute accumulation monotone de contraintes produit une réduction monotone des futurs accessibles ; - toute réduction par projection, ou tout oubli de variables internes de contrainte, induit une dépendance au passé au niveau des descriptions ; - l’héritage de contraintes sur un graphe orienté suffit à faire varier l’ensemble des futurs accessibles sans modifier nécessairement la description observée. La phrase « le passé agit sans être représenté » est donc un énoncé technique : la variable descriptive peut rester constante tandis que l’ensemble admissible des transformations change, via des contraintes héritées ou cachées. ## Notes bibliographiques minimales Les notions mobilisées ici appartiennent à des cadres standard : - systèmes dynamiques (invariance, classes absorbantes, attracteurs, stabilité) ; - chaînes de Markov et modèles cachés (réduction non Markovienne, compatibilité de partitions, lumpabilité) ; - théorie de l’information (projection, perte d’information, suffisance) ; - semi-groupes d’opérateurs (cadre temps continu, dissipation). Aucune hypothèse non standard n’est requise pour établir les résultats ensemblistes du chapitre. ## Conclusion Le verrouillage des futurs a été défini comme une propriété d’atteignabilité : des structures persistantes, lorsqu’elles se traduisent en contraintes actives, réduisent l’espace des trajectoires futures. La dépendance au passé a été formalisée sans variable de mémoire explicite, par réduction non Markovienne ou par variables internes non observées. Enfin, l’héritage sur graphes orientés a été articulé à ces notions pour produire un mécanisme de verrouillage durable. Le chapitre suivant pourra exploiter ce cadre pour étudier une sélection structurelle fondée sur compatibilité et transmissibilité, sans introduire d’optimisation ni de finalité. --- # Chapitre 14 — Sélection structurelle sans optimisation ## Hypothèses et résultats (repères) Hypothèses (H). - un espace d’états \(X\), une admissibilité \(\mathcal{T}\) et un espace de contraintes \(\mathfrak{C}\) ; - un opérateur de compatibilité \(\operatorname{Comp}\) choisi (classe/politique/paramètres déclarés) ; - couche probabiliste optionnelle : noyau \(P\) déclaré lorsque des énoncés stochastiques sont formulés. Résultats (E). - reconstruction de la sélection comme filtrage induit par la compatibilité et la géométrie de l’admissible, sans optimisation ; - séparation explicite entre satisfaisabilité (\(\operatorname{Comp}_{\mathrm{sat}}\)) et choix (\(\operatorname{Comp}_{\mathrm{choice}}\)) ; - observables et tests de robustesse indexés par \(\Pi\), \(\mu\) et \(P\) lorsque ces objets sont mobilisés. Statut. - noyau ensembliste : couche [E] ; résultats mesurés/probabilistes : couches [M]/[P] indexées. ## Introduction Les chapitres précédents ont construit, sans hypothèse téléologique, une dynamique de formes reposant sur quatre ingrédients abstraits : un espace d’états admissibles, une famille de transformations admissibles, une irréversibilité cumulée (au sens d’une consommation non récupérable), et une transmission partielle décrite par des graphes orientés de filiation. Le chapitre 13 a ajouté un mécanisme de verrouillage des futurs : certaines structures, lorsqu’elles s’énoncent comme contraintes actives, réduisent l’ensemble des trajectoires accessibles. Le présent chapitre formalise la sélection structurelle comme un effet de filtrage induit par la compatibilité des contraintes, et non comme l’optimisation d’une fonction objectif. La sélection n’est pas introduite comme une loi supplémentaire : elle est reconstruite comme une propriété émergente des dynamiques restreintes (par admissibilité, héritage, et verrouillage), dans des ensembles finis ou mesurables. L’ordre de construction est strict : définitions, lemmes ensemblistes et probabilistes, puis seulement une lecture conditionnelle minimale et une analyse philosophique. Le résultat logique annoncé par le plan peut alors être formulé de façon rigoureuse : la sélection est géométrique, au sens où elle dépend principalement de la forme de l’ensemble admissible (volume, connectivité, bassins, spectre d’un opérateur de transition) et non d’une maximisation explicite. Convention (statut probabiliste) Les énoncés ensemblistes de ce chapitre ne supposent aucun noyau de transition. Lorsque des conclusions probabilistes sont formulées (dominance, stationnarité/quasi‑stationnarité, temps d’absorption, spectre d’opérateurs), elles sont explicitement indexées par un noyau \(P\) fixé, et leur robustesse se teste par variation contrôlée de \(P\) dans une famille déclarée. ## Cadre, notations et objets ### Espace d’états, transformations et atteignabilité Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) une famille de transformations admissibles \(f : X \to X\). Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble des états atteignables en \(n\) étapes est : \[ \operatorname{Reach}_n(x)=\{ f_n\circ\cdots\circ f_1(x) : f_1,\ldots,f_n\in\mathcal{T}\}. \] Le cône de futur est : \[ \mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x). \] Ces objets ont été introduits pour rendre explicite la dépendance de l’évolution à l’ensemble des transformations admissibles, sans présupposer de métrique ni de finalité. ### Contraintes, compatibilité et transformation restreinte Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : - un ensemble admissible d’états \(A(K)\subseteq X\), - une relation admissible de transitions \(R(K)\subseteq X\times X\), avec monotonie par inclusion : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] Définition (compatibilité). Une collection \(K\) est dite compatible si \(A(K)\neq\varnothing\) et si \(R(K)\) autorise au moins une transition depuis \(A(K)\), c’est-à-dire : \[ \exists x\in A(K),\ \exists y\in X,\ (x,y)\in R(K). \] Cette définition est volontairement minimale : la compatibilité n’est pas une propriété sémantique, seulement la non-contradiction opérationnelle. Définition (transformations induites). La famille de transformations admissibles sous contraintes \(K\) est définie par : \[ \mathcal{T}(K)=\{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\in R(K)\}. \] Ainsi, les contraintes agissent comme un filtre sur \(\mathcal{T}\). ### Occurrences, graphes de filiation et transmission de contraintes Le chapitre 12 a introduit un graphe orienté acyclique \(G=(V,E)\) (éventuellement enrichi en hyperarêtes), où chaque sommet \(v\in V\) représente une occurrence (un état situé dans une trajectoire), et chaque arête \(u\to v\) représente une relation d’engendrement admissible. On note \(x_v\in X\) l’état associé au sommet \(v\), et \(K_v\subseteq\mathfrak{C}\) la collection de contraintes portée par \(v\) (contraintes actives, héritées, ou produites par compatibilité). Pour chaque arête \(e=(u\to v)\), on suppose donné un opérateur de transmission : \[ \tau_e:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), \] monotone pour l’inclusion. La mise en commun de contraintes lors d’une collision (plusieurs parents) est suivie d’un opérateur de compatibilité \(\operatorname{Comp}\) produisant une sous-collection compatible : \[ \widetilde{K}_v=\bigcup_{u\to v}\tau_{(u\to v)}(K_u),\qquad K_v \supseteq \operatorname{Comp}(\widetilde{K}_v). \] L’opérateur \(\operatorname{Comp}\) n’optimise rien : il réalise une fermeture par satisfaisabilité (éviter l’ensemble vide). Remarque (compatibilité : satisfaisabilité vs choix) Selon l’instanciation, \(\operatorname{Comp}\) peut se situer dans deux régimes conceptuellement distincts : - \(\operatorname{Comp}_{\mathrm{sat}}\) : maintien de satisfaisabilité sans préférence (suppression minimale de contradictions locales, ou règle déterminée). - \(\operatorname{Comp}_{\mathrm{choice}}\) : choix parmi plusieurs sous‑collections satisfaisables. Dans le second cas, le critère de choix (s’il existe) est déclaré et appartient à une classe non téléologique (coût de vérification, stabilité historique, localité, contraintes d’architecture). Un biais de compatibilité est un biais de sélection : s’il existe, il est explicite et fait l’objet d’un test de robustesse. Discipline (statut des résultats) Dans la suite, lorsqu’un passage dépend de la **classe** de compatibilité (fermeture, réparation minimale, cohérence locale \(\operatorname{Comp}_r\), choix), ou d’une **politique** de choix, ou d’un **paramètre**, cette dépendance est explicitement annoncée et l’énoncé est indexé en conséquence (cf. chapitre 13, collisions et compatibilité). ## Rejet de la téléologie et définition opérationnelle de la sélection ### Rejet formel de l’optimisation comme primitive Définition (optimisation explicite). On dit qu’une dynamique introduit une optimisation explicite si elle suppose donnée une fonction \(U:X\to\mathbb{R}\) (ou \(U:S\to\mathbb{R}\) sur un espace de descriptions), et si les transitions admissibles sont sélectionnées en vue de maximiser \(U\) (localement ou globalement). Le cadre de l’ouvrage exclut une telle primitive. Les objets admis sont : admissibilité, compatibilité, transmission, consommation irréversible, verrouillage des futurs. Par construction, aucun \(U\) n’est requis. ### Définition ensembliste de la sélection comme filtrage Définition (filtre de sélection). Soit \(\Omega\) l’ensemble des trajectoires candidates (au sens d’enchaînements de transformations dans \(\mathcal{T}\)) depuis un état initial \(x\). Soit \(\mathcal{A}\subseteq\Omega\) l’ensemble des trajectoires admissibles au regard des contraintes actives (compatibilité locale, transitions autorisées, contraintes héritées). La sélection ensembliste est l’application : \[ \operatorname{Sel}:\Omega \mapsto \mathcal{A}, \] c’est-à-dire la restriction de l’ensemble des trajectoires possibles aux trajectoires admissibles. Cette définition ne produit pas une préférence ; elle produit une élimination. ### Définition probabiliste (sélection comme conditionnement) Pour comparer quantitativement des régimes, une mesure (ou probabilité) sur les trajectoires est pertinente. Soit \(\mathbb{P}\) une loi a priori sur \(\Omega\) (issue, par exemple, d’un choix stochastique de transformations dans \(\mathcal{T}\), ou d’un bruit sur les transitions). La sélection probabiliste est le conditionnement sur l’admissibilité : \[ \mathbb{P}_{\text{sel}}(\cdot)=\mathbb{P}(\cdot \mid \mathcal{A}). \] Lorsque \(\mathbb{P}(\mathcal{A})=0\), l’ensemble admissible est vide au sens probabiliste : il n’existe pas de trajectoire réalisable sous la loi considérée. Dans ce formalisme, “sélection” signifie : renormalisation sur le sous-ensemble admissible. Encadré (exploration vs sélection) Une dominance observée peut provenir du mécanisme d’exploration (noyau \(P\), politique d’application des transformations, filtrage par ressource) plutôt que de la structure de l’espace admissible. On distingue donc : - topologie du graphe d’atteignabilité : attracteurs, bassins, composantes fortement connexes, goulots ; - mécanisme d’exploration : \(P\) (ou loi a priori sur \(\Omega\)), politiques et contraintes de ressource ; - test de robustesse : variation de \(P\) dans une famille \(\mathcal{P}\) déclarée, en vérifiant la stabilité qualitative des conclusions. ## Sélection par compatibilité ### Viabilité et compatibilité : une même notion à deux niveaux Définition (viabilité locale). Un état \(x\in X\) est viable sous contraintes \(K\) si : \[ x\in A(K)\quad \text{et}\quad \exists f\in\mathcal{T}(K)\ \text{tel que}\ f(x)\in A(K'). \] Cette définition explicite qu’une compatibilité statique (être dans \(A(K)\)) n’est pas suffisante : il faut aussi une possibilité de continuation. Définition (chemin compatible). Une trajectoire \(x_0\to x_1\to\cdots\to x_n\) est compatible si, pour une suite de contraintes \((K_t)\), on a : \[ x_t\in A(K_t),\quad (x_t,x_{t+1})\in R(K_t),\quad K_{t+1}\supseteq \operatorname{Comp}\Big(\bigcup \tau(K_t)\Big). \] Ici, \(\tau\) désigne l’ensemble des transmissions actives à l’étape. ### Lemmes de filtrage Lemme (monotonie de la sélection en contrainte). Si \(K_1\subseteq K_2\), alors l’ensemble des trajectoires compatibles sous \(K_2\) est inclus dans celui sous \(K_1\). Démonstration. Par monotonie, \(A(K_2)\subseteq A(K_1)\) et \(R(K_2)\subseteq R(K_1)\), donc toute trajectoire satisfaisant les contraintes plus fortes satisfait aussi les contraintes plus faibles. Conclusion : augmenter les contraintes ne peut qu’éliminer des trajectoires. Lemme (compatibilité comme géométrie d’ensemble). Dans un espace mesurable, la “force” d’un filtre peut être mesurée par la diminution de mesure : \[ \Delta(K)=\mu(A(\varnothing))-\mu(A(K)). \] Dans un espace fini, on remplace \(\mu\) par la cardinalité. La sélection, vue comme filtrage, se quantifie alors par une réduction de “volume” admissible. La dépendance au volume et à la connectivité est une première manifestation du caractère géométrique. ## Disparition des structures non transmissibles ### Définition de transmissibilité Définition (transmissibilité d’une description). Soit \(\Pi:X\to S\) une projection vers un espace de descriptions \(S\). Une description \(s\in S\) est transmissible si, pour toute occurrence \(v\) telle que \(\Pi(x_v)=s\), il existe au moins un descendant \(w\) accessible depuis \(v\) dans le graphe de filiation, tel que \(\Pi(x_w)=s\) (ou appartienne à un voisinage fixé de \(s\), si \(S\) est topologique). Cette définition est structurelle : elle n’utilise ni objectif ni récompense. Définition (transmissibilité sous contraintes héritées). Une contrainte \(c\in\mathfrak{C}\) est transmissible le long d’une arête \(e\) si \(c\in K\Rightarrow c\in \tau_e(K)\). Elle est transmissible sur un sous-graphe si elle est transmissible le long de toutes ses arêtes. ### Proposition de disparition Proposition (extinction en modèle probabiliste). Soit une dynamique stochastique sur un ensemble fini de classes \(S\), modélisée par une matrice de transition \(P=(p_{ij})\) avec \(p_{ij}\ge 0\) et \(\sum_j p_{ij}=1\). Soit \(B\subseteq S\) l’ensemble des classes compatibles et transmissibles (au sens où elles possèdent au moins une sortie dans \(B\)). Alors l’ensemble \(S\setminus B\) est transitoire au sens de Markov : la probabilité d’y rester indéfiniment est nulle, et la masse finit par se concentrer sur les classes récurrentes incluses dans \(B\). Interprétation technique. Les classes non transmissibles n’ont pas de cycles internes ni de retours compatibles : elles ne peuvent pas porter de régime stationnaire. Leur “disparition” signifie : absence dans le support des mesures limites (stationnaires, quasi-stationnaires, ou limites conditionnées). Cette proposition relève de la théorie standard des chaînes de Markov finies : classes transientes et récurrentes. ## Régimes dominants Pour parler de “dominance” sans optimisation, il faut une notion quantitative intrinsèque : la stabilité d’une distribution de classes sous un opérateur de transition restreint. ### Opérateur de transition restreint et Perron-Frobenius Soit \(B\subseteq S\) l’ensemble des classes compatibles. On définit la matrice restreinte \(P_B\) en ne conservant que les transitions à l’intérieur de \(B\). Deux situations se présentent. Cas sans absorption externe Si \(P_B\) est stochastique (chaque ligne somme à 1), alors une distribution stationnaire \(\pi\) satisfait : \[ \pi=\pi P_B,\qquad \sum_{i\in B}\pi_i=1,\quad \pi_i\ge 0. \] Lorsque le sous-système est irréductible et apériodique (conditions standard), \(\pi\) est unique et décrit un régime dominant au sens probabiliste : la distribution des classes converge vers \(\pi\) indépendamment de l’état initial (dans \(B\)). Cas avec fuite (filtrage fort, verrouillage) Si des transitions sortent de \(B\) (événements incompatibles, consommation empêchant la continuation), la dynamique sur \(B\) peut être modélisée par une matrice sous-stochastique \(Q\) (lignes de somme \(\le 1\)). La théorie standard des distributions quasi-stationnaires montre qu’il existe des distributions \(\nu\) sur \(B\) telles que : \[ \nu Q = \lambda \nu,\qquad 0<\lambda<1, \] où \(\lambda\) est le taux de survie moyen par pas. La distribution \(\nu\) décrit un régime dominant conditionnel : conditionnellement au fait de ne pas être “éliminé” (sortie de \(B\)), la distribution des classes tend vers \(\nu\). Ce mécanisme n’est pas une optimisation : la dominance est donnée par le spectre d’un opérateur non négatif. Le rôle de Perron-Frobenius (spectre principal, vecteur propre positif) est ici strictement géométrique au sens des opérateurs. ### Dominance et bassins Dans un cadre déterministe, la dominance s’exprime par les bassins d’attraction : un attracteur est dominant si son bassin est “grand” (par mesure, par volume, ou par cardinalité). Dans un cadre stochastique, la dominance s’exprime par la concentration de mesure sur un ensemble récurrent ou quasi-récurrent. Dans les deux cas, la dominance dépend de la géométrie des régions admissibles et de leur connectivité sous transformations admissibles. ## Stabilisation des contraintes ### Définition de stabilisation (rappel) Une contrainte \(c\in\mathfrak{C}\) est stabilisée le long d’une lignée si, à partir d’un rang, elle est présente dans toutes les occurrences ultérieures. Une collection \(K^\star\) est stabilisée si \(K^\star\subseteq K_v\) pour toutes les occurrences suffisamment tardives d’une lignée. ### Proposition de stabilisation par filtrage monotone On suppose : - monotonie d’héritage : pour toute arête \(u\to v\), \(\tau_{(u\to v)}(K_u)\subseteq K_v\), - compatibilité non expansive : \(\operatorname{Comp}(K)\subseteq K\), - verrouillage : l’ensemble des transitions admissibles se réduit le long des trajectoires (au sens du chapitre 13). Alors, le long de toute trajectoire admissible, la suite \((K_t)\) est croissante pour l’inclusion (ou, plus exactement, non décroissante après fermeture compatible), et donc admet une limite ensembliste : \[ K_\infty=\bigcup_{t\ge 0}K_t. \] Dans le cas où \(\mathfrak{C}\) est fini (ou où seules un nombre fini de contraintes sont activables à résolution finie), la stabilisation se produit en un temps fini : il existe \(T\) tel que \(K_t=K_T\) pour tout \(t\ge T\). Dans un cadre infini, la stabilisation peut être asymptotique. Ce résultat est une propriété combinatoire d’emboîtement : il n’a pas besoin d’une fonction objectif. ## Sens précis de “la sélection est géométrique” La formule “géométrique” peut être rendue non métaphorique par trois critères complémentaires. ### Niveaux et dépendances (mesure et noyau) On distinguera trois niveaux compatibles. Niveau 1 — sélection ensembliste (invariant minimal) Elle porte sur l’existence d’ensembles invariants, de bassins non vides et, en version Markov, sur la décomposition récurrent/transient. Ce niveau ne dépend ni d’une mesure de référence ni d’un noyau probabiliste. Niveau 2 — sélection mesurée (indexée par \(\mu\)) Elle quantifie la dominance (taille de bassins, volumes atteignables) relativement à une mesure \(\mu\) sur \(X\) (ou sur un quotient). Toute comparaison quantitative doit préciser \(\mu\). Niveau 3 — sélection stochastique/opératorielle (indexée par \(P\)) Elle définit la dominance via un noyau de transition \(P\) (ou, de façon équivalente, via une loi a priori explicite sur les trajectoires), à travers stationnarité/quasi‑stationnarité, temps d’absorption et spectre d’opérateurs non négatifs. Toute conclusion spectrale est relative à \(P\). Statut (robustesse) Les conclusions des niveaux 2–3 acquièrent un statut robuste lorsqu’elles persistent sous variations contrôlées de \(\mu\), de projection \(\Pi\) et de noyau \(P\) dans une classe non téléologique déclarée. Observables (avec statut d’indexation) - Observables structurelles (invariantes) : existence d’ensembles invariants/attracteurs ensemblistes, composantes fortement connexes atteignables, goulots, fragmentation. - Observables mesurées (indexées par \(\mu\)) : volumes de bassins, densités atteignables, \(D_{\mu}(S)\) ou variantes. - Observables stochastiques (indexées par \(P\)) : temps d’absorption, poids stationnaire/quasi‑stationnaire, spectre dominant (quand défini). Chaque observable porte explicitement son indexation : sans \(\mu\) ou sans \(P\), elle n’a pas de statut quantitatif. ### Critère ensembliste La sélection dépend d’ensembles admissibles \(A(K)\) et de relations admissibles \(R(K)\). Deux systèmes ayant même couple \((A,R)\) (à isomorphisme près) induisent les mêmes filtrages de trajectoires, indépendamment de toute interprétation. ### Critère métrique ou de mesure Dans un espace muni d’une mesure \(\mu\), l’intensité de la sélection se lit comme réduction de mesure des ensembles atteignables : \[ \mu(\mathcal{F}_{\mathcal{T}(K)}(x)) \le \mu(\mathcal{F}_{\mathcal{T}}(x)). \] Dans un espace fini, le même énoncé vaut pour les cardinalités. ### Critère spectral Dans un modèle probabiliste sur classes, les régimes dominants sont déterminés par le spectre d’un opérateur non négatif (matrice de transition restreinte, opérateur de transfert). La “préférence” apparente est alors une propriété du vecteur propre principal, qui dépend de la structure du graphe des transitions et des poids, non d’une maximisation explicite. Ces trois critères sont cohérents : ensemble admissible, volume accessible, et spectre principal sont trois expressions d’une même dépendance à la forme des contraintes. ## Portée minimale (lecture conditionnelle) Une dynamique de transformations admissibles, soumise à des contraintes héritées et à une consommation irréversible, produit une sélection structurelle dès qu’elle élimine des trajectoires incompatibles. La sélection ne requiert ni intention, ni objectif, ni notion de bénéfice : elle est l’effet d’un espace de possibles restreint, dans lequel seules certaines structures sont transmissibles et stabilisables. La conséquence minimale est la suivante : dès que la transmission est possible, l’espace des lignées se stratifie en sous-graphes de persistance et sous-graphes d’extinction. Les régimes dominants sont ceux qui correspondent à des sous-graphes fortement connectés, à de grands bassins, ou à un spectre principal favorable, selon le régime (déterministe, stochastique, ou mixte). ## Analyse philosophique Le terme “sélection” est souvent associé à une lecture finaliste (comme si une entité choisissait). Le cadre présent le rend superflu : la sélection est un filtrage imposé par la compatibilité et la transmissibilité. Trois confusions récurrentes sont évitées par construction. Confusion entre sélection et optimisation La sélection, ici, n’améliore rien : elle restreint. Toute “amélioration” apparente n’est qu’un effet secondaire d’un filtrage répétitif. Confusion entre stabilité et valeur Un régime dominant n’est pas “meilleur” : il est stable, fréquent, ou spectralement prépondérant sous des contraintes données. Confusion entre explication et justification Décrire pourquoi certaines structures persistent n’implique aucune justification normative de cette persistance. Le chapitre ne produit ni devoir-être, ni hiérarchie axiologique. La sélection structurelle sans optimisation constitue ainsi une catégorie logique : elle explique des distributions et des dominances comme conséquences d’une géométrie de contraintes, sans introduire de finalité dans les primitives. ## Conclusion La sélection structurelle a été reconstruite comme un mécanisme de filtrage et de conditionnement imposé par la compatibilité, l’héritage et le verrouillage des futurs. Les structures non transmissibles disparaissent au sens strict : elles ne peuvent pas appartenir au support des mesures limites ni aux composantes récurrentes des dynamiques restreintes. Les régimes dominants sont déterminés par des propriétés géométriques (bassins, connectivité, volume admissible) et, dans les modèles probabilistes, par le spectre d’opérateurs non négatifs. Ainsi, la formule “la sélection est géométrique” admet un contenu précis : la sélection dépend de la forme des ensembles et des graphes d’admissibilité, non de l’optimisation d’un objectif. --- # Chapitre 15 — Structures contraignant leur propre évolution ## Hypothèses et résultats (repères) Hypothèses (H). - passage à un espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) et règle d’actualisation \(\Phi\) posée comme paramètre de modèle ; - opérateur \(\operatorname{Comp}\) et admissibilité \(\mathcal{T}(K)\) déclarés (classe et paramètres annoncés) ; - stabilisation : régimes et paquets d’hypothèses (H22‑PF/TR/RB/CT) explicités lorsque revendiqués. Résultats (E). - définition d’auto‑stabilisation non réflexive via boucles de contraintes (points fixes/cycles) ; - taxonomie des régimes de stabilisation (S1/S2/S3) et dépendances locales ; - définition de quasi‑invariance et de limites de transformation comme invariants d’intersection/conditionnement. Statut. - noyau ensembliste pour les définitions/implications ; quantifications et conclusions probabilistes seulement sous indexation déclarée. ## Introduction Les chapitres précédents ont établi un cadre où l’évolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes d’équivalence, transmission partielle (graphe orienté de filiation) et, plus récemment, sélection structurelle comme filtrage par compatibilité. Le chapitre 13 a formalisé le verrouillage des futurs comme réduction monotone de l’atteignabilité, et le chapitre 14 a reformulé la sélection comme effet géométrique (volume, connectivité, spectre d’un opérateur restreint) sans optimisation. Le présent chapitre introduit un seuil logique : certaines structures ne se contentent pas de persister sous contrainte ; leur présence induit des contraintes qui restreignent ensuite l’espace de leurs propres transformations futures. Il s’agit d’une auto-stabilisation non réflexive : aucune boucle de décision n’est postulée, seulement des boucles formelles entre description, admissibilité et contraintes héritées. L’objectif est de définir rigoureusement : - l’espace étendu où les contraintes deviennent des variables d’état, - les boucles de contraintes comme propriétés d’un opérateur d’actualisation, - les régimes quasi-invariants comme invariance asymptotique ou conditionnelle, - les limites de transformation comme intersections de familles admissibles, - les niveaux d’organisation comme tours de quotients stabilisés. ## Cadre et notations ### Espace d’états et transformations admissibles Soit \(X\) un ensemble d’états, fini ou muni d’une structure mesurable ou topologique. Soit \(\mathcal{T}\) une famille de transformations admissibles \(f:X\to X\) (temps discret). Pour \(x\in X\), le cône de futur (atteignabilité) est : \[ \mathcal{F}_{\mathcal{T}}(x)=\bigcup_{n\ge 0}\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}. \] ### Contraintes élémentaires et familles induites Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : - un ensemble admissible d’états \(A(K)\subseteq X\), - une relation admissible de transitions \(R(K)\subseteq X\times X\), avec monotonie : \[ K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] On définit la famille de transformations admissibles induite par \(K\) : \[ \mathcal{T}(K)=\{f\in\mathcal{T}: \forall x\in A(K),\ (x,f(x))\in R(K)\}. \] Une collection \(K\) est dite compatible si \(A(K)\neq\varnothing\) et si au moins une transition est réalisable depuis \(A(K)\) : \[ \exists x\in A(K),\ \exists y\in X,\ (x,y)\in R(K). \] Pour éliminer les contradictions, on suppose donné un opérateur de compatibilité : \[ \operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), \] tel que \(\operatorname{Comp}(K)\subseteq K\), et \(\operatorname{Comp}(K)\) soit compatible dès que cela est possible (au sens où il existe une sous-collection compatible). Cette définition est minimale : aucune optimalité n’est requise, seulement la satisfaisabilité. Remarque (calculabilité et coût de satisfaisabilité) Le rôle de \(\operatorname{Comp}\) est de maintenir une forme de satisfaisabilité : l’existence d’une sous‑collection compatible. Selon l’instanciation des contraintes, décider ou construire une telle sous‑collection peut être coûteux, voire indécidable ; ce point doit être assumé comme hypothèse, et non traité comme un détail “gratuit”. Deux statuts doivent donc être distingués : - statut fort : on suppose un prédicat global de satisfaisabilité \(\mathrm{Sat}(K)\) effectif, et \(\operatorname{Comp}\) garantissant \(\mathrm{Sat}(\operatorname{Comp}(K))\) lorsqu’une sous‑collection compatible existe ; - statut faible : on remplace \(\mathrm{Sat}\) par une cohérence locale \(\mathrm{Sat}_r\) et \(\operatorname{Comp}\) par une approximation \(\operatorname{Comp}_r\), sans garantie générale (les conclusions deviennent conditionnelles à l’approximation). Ce changement de statut affecte directement les garanties de points fixes, la robustesse et l’existence de régions piégées (selon les hypothèses retenues plus loin). Discipline (classe et paramètres) Lorsque l’on raisonne en régime de fermeture/point fixe, la monotonie/idempotence requises situent \(\operatorname{Comp}\) dans une classe de fermeture \(\mathcal{C}_{\mathrm{closure}}\) (ou, plus généralement, exigent la monotonie de l’opérateur global de mise à jour). Lorsque l’on travaille avec une cohérence locale \(\mathrm{Sat}_r\), la dépendance au paramètre \(r\) est traitée comme une famille \((\operatorname{Comp}_r)_r\) : les énoncés sont soit robustes sur un intervalle de \(r\), soit explicitement indexés. ### Description structurelle Soit \(\Pi:X\to S\) une application de description vers un espace \(S\) (ensemble fini, espace mesurable, ou espace topologique). Une « structure » sera ici une valeur \(s\in S\) ou une cellule \(\Pi^{-1}(s)\subseteq X\). Les niveaux d’organisation seront traités plus loin comme des compositions de telles descriptions. ## Auto-stabilisation non réflexive ### Espace étendu des états et des contraintes Le verrouillage des futurs et l’héritage de contraintes montrent que l’évolution effective dépend non seulement de \(x\in X\), mais aussi d’un registre de contraintes actives. On définit donc l’espace étendu : \[ Y = X \times \mathcal{P}(\mathfrak{C}). \] Un élément \(y=(x,K)\in Y\) encode un état \(x\) et une collection \(K\) de contraintes actives. ### Règle d’actualisation des contraintes Pour éviter toute auto-justification, l’actualisation des contraintes est posée comme un objet explicite, indépendant de l’effet observé. Statut (paramètre de modèle). La règle \(\Phi\) est un choix de modélisation : les énoncés sur auto‑stabilisation sont conditionnels à sa classe (monotonie, localité, bornes de capacité, etc.). Une \(\Phi\) ajustée a posteriori pour activer précisément les contraintes qui renforcent un phénomène ne confère pas à ce phénomène un statut générique. Définition (règle d’actualisation). Une règle d’actualisation est une application \[ \Phi: Y \to \mathcal{P}(\mathfrak{C}) \] telle que, pour tout \((x,K)\), la collection mise à jour soit : \[ K^+ = \operatorname{Comp}(K \cup \Phi(x,K)). \] Interprétation technique. \(\Phi(x,K)\) représente l’ensemble des contraintes nouvellement activées par la situation \((x,K)\) : consommation irréversible cumulée, incompatibilités révélées par transitions réalisées, contraintes héritées d’un graphe de filiation, ou activation endogène par entrée dans un régime invariant. Le formalisme ne présuppose pas la nature de ces mécanismes : il exige seulement que \(\Phi\) soit donné avant l’analyse. ### Dynamique augmentée On suppose que l’évolution de \(x\) dépend de \(K\) par restriction de la famille de transformations. Deux cas, exhaustifs dans ce cadre, sont utiles. Cas déterministe conditionné (choix de transformation fixé). On fixe un sélecteur \(\sigma:Y\to \mathcal{T}\) tel que \(\sigma(x,K)\in \mathcal{T}(K)\) lorsque cela est possible, et on définit : \[ x^+ = \sigma(x,K)(x),\qquad K^+ = \operatorname{Comp}(K\cup\Phi(x,K)). \] Cas stochastique conditionné (loi sur les transformations). On fixe une loi \(\mathbb{P}(\cdot\mid x,K)\) supportée sur \(\mathcal{T}(K)\), puis \(x^+=f(x)\) avec \(f\sim \mathbb{P}(\cdot\mid x,K)\), et \(K^+\) comme ci-dessus. Dans les deux cas, on obtient une dynamique sur \(Y\) : \[ \Psi:Y\to Y,\qquad \Psi(x,K)=(x^+,K^+). \] ### Définition d’auto-stabilisation non réflexive Définition (auto-stabilisation). Une description \(s\in S\) est dite auto-stabilisante (non réflexive) s’il existe une collection \(K_s\subseteq\mathfrak{C}\) compatible et un ensemble non négligeable \(B_s\subseteq \Pi^{-1}(s)\) tels que, pour tout \(x\in B_s\), en posant \(K_0=K_s\), la dynamique augmentée vérifie : 1. persistance descriptive : \[ \Pi(x_t)=s\ \text{pour tout } t\ge 0; \] 2. stabilité des contraintes (au moins au sens de la limite) : \[ K_s \subseteq K_t\ \text{pour tout } t,\quad \text{et}\quad \exists K_\infty\ \text{tel que}\ K_t\uparrow K_\infty; \] 3. activité : la restriction est effective, c’est-à-dire \[ \mathcal{F}_{\mathcal{T}(K_s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x). \] Remarques de rigueur. - La condition \(K_t\uparrow K_\infty\) est entendue au sens d’inclusion non décroissante (éventuellement après application de \(\operatorname{Comp}\)). - La persistance peut être remplacée par une quasi-persistance (définie plus loin) lorsque des fuites rares ou un bruit sont présents. - Aucune intention n’est postulée : la stabilité est un fait de fermeture de la dynamique dans \(Y\). ### Critères observables (testabilité) Sans critères observables explicites, l’auto-stabilisation reste difficile à falsifier. Dans une instanciation donnée, on évalue donc au minimum : - invariance d’une région \(U\subseteq Y\) : proposer \(U\) et tester \(\Psi(U)\subseteq U\) (région piégée) ; - régime du registre \(K_t\) : convergence vers un point fixe, ou apparition d’un cycle/quasi‑cycle (selon un critère et une distance déclarés sur l’espace des contraintes) ; - effet sur le futur accessible : vérifier un verrouillage strict (ensembliste ou quantifié) entre \(\mathcal{F}_{\mathcal{T}}(x)\) et \(\mathcal{F}_{\mathcal{T}(K)}(x)\). ## Boucles de contraintes ### Boucle comme point fixe (cas monotone) Lorsque l’actualisation est monotone (activation cumulée), la notion de boucle pertinente est le point fixe. Définition (point fixe de contrainte). Une collection \(K^\star\subseteq\mathfrak{C}\) est un point fixe de la mise à jour si, pour un ensemble \(E\subseteq X\), \[ \forall x\in E,\quad \operatorname{Comp}(K^\star\cup\Phi(x,K^\star))=K^\star. \] Dans ce cas, la contrainte est stabilisée : aucune nouvelle contrainte ne peut être activée (dans \(E\)) sans contradiction. Proposition (existence en cas fini de contraintes). Si \(|\mathfrak{C}|<\infty\) et si la suite \((K_t)\) est non décroissante pour l’inclusion, alors elle se stabilise en temps fini : il existe \(T\) tel que \(K_t=K_T\) pour tout \(t\ge T\). Démonstration. - Paramètre : \(|\mathfrak{C}|=M\). - Chaque étape peut ajouter au moins une contrainte nouvelle ou stabiliser. - Le nombre maximal d’ajouts stricts est \(M\). - Donc au plus \(M\) étapes strictement croissantes ; au-delà, stabilisation. Conclusion : il existe \(T\le M\) tel que \(K_T=K_{T+1}=\cdots\). Cette proposition est combinatoire et ne dépend d’aucune interprétation. ### Cas infini : existence par points fixes sur treillis (Tarski) La stabilisation en temps fini repose sur la finitude de \(\mathfrak{C}\). Dans un cadre infini, l’existence de points fixes devient un résultat non trivial qui peut être garanti sous hypothèses d’ordre. On munit \(\mathcal{P}(\mathfrak{C})\) de l’ordre par inclusion, ce qui en fait un treillis complet. Soit \(F:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C})\) un opérateur de mise à jour de contraintes (opérateur « effectif » d’actualisation, obtenu en fixant un régime d’évolution). Si \(F\) est monotone, alors il admet des points fixes ; plus précisément, \(F\) admet un plus petit et un plus grand point fixe (théorème de Tarski). Dans le cas cumulatif \(K\subseteq F(K)\) (activation sans relâchement), l’itération \(K_{t+1}=F(K_t)\) depuis \(\varnothing\) construit le plus petit point fixe, ce qui justifie l’usage de « points fixes » comme notion structurante même lorsque \(\mathfrak{C}\) est infini. ### Régions piégées dans l’espace étendu \(Y\) (attracteurs de second ordre) La notion de point fixe de contraintes décrit une stabilisation de \(K\). Une stabilisation complète de la paire \((x,K)\) s’exprime naturellement par une région piégée dans \(Y\). Définition (région piégée). Un ensemble \(U\subseteq Y\) est une région piégée si \(\Psi(U)\subseteq U\). Si \(Y\) est fini (ou, plus généralement, si \(U\) est non vide compact dans un cadre topologique où \(\Psi\) est continue), l’intersection décroissante \[ A=\bigcap_{n\ge 0}\Psi^{(n)}(U) \] est non vide et invariante. Elle décrit un attracteur de second ordre dans \(Y\) : un régime stable pour l’état et les contraintes. ### Boucles non monotones (cas avec relâchement) Si \(\operatorname{Comp}\) ou \(\Phi\) peut retirer des contraintes (par incompatibilité révélée, changement de régime, bascule de réalisation microscopique), alors des cycles \(K_0\to K_1\to\cdots\to K_0\) deviennent possibles. Définition (cycle de contraintes). Une suite finie distincte \((K_0,\ldots,K_{p-1})\) est un cycle si \[ K_{t+1}=\operatorname{Comp}(K_t\cup\Phi(x_t,K_t)),\quad K_p=K_0, \] pour une trajectoire \((x_t)\). Dans le cadre présent, on ne postule pas l’existence de tels cycles ; on les traite comme un cas possible lorsque l’actualisation n’est pas monotone. Détection, statut et interprétation. Un cycle se détecte par simulation de la mise à jour (sur \(Y\), ou sur \(K\) lorsqu’elle est fermée), en recherchant un \(p>1\) tel que \(K_{t+p}=K_t\) après un transitoire. Sans hypothèses de monotonie, ce régime a un statut faible : observation conditionnelle à l’instanciation et au protocole d’exploration. Un cycle de contraintes correspond alors à une stabilisation non ponctuelle mais récurrente : la restriction imposée au futur est périodique plutôt que fixe. ## Hypothèses et régimes de stabilisation (paquets H22) ### Paquets d’hypothèses standard On note \(\mathcal{K}=\mathcal{P}(\mathfrak{C})\) l’espace des registres de contraintes. H22‑PF (point fixe, ordre/monotonie) - \(\mathcal{K}\) est un treillis complet (ordre par inclusion). - l’opérateur global de mise à jour \(F:\mathcal{K}\to\mathcal{K}\) est monotone (isotone). - si \(F\) est construit à partir de \(\operatorname{Comp}\), alors \(\operatorname{Comp}\) est monotone et compatible au sens déclaré (chapitre 13, collisions et compatibilité). - optionnel : idempotence/extensivité lorsque l’on raisonne en logique de fermeture. Conclusion typique : existence d’au moins un point fixe (Tarski) et, dans certains cadres, calculabilité par itération. H22‑TR (région piégée en espace étendu) - espace étendu \(Y=X\times\mathcal{K}\). - existence d’un ensemble \(U\subseteq Y\) tel que \(\Psi(U)\subseteq U\). Conclusion typique : l’évolution \((x_t,K_t)\) reste dans un domaine contrôlé, condition de possibilité pour parler de stabilisation ou de récurrence sans “fuite”. H22‑RB (robustesse sous perturbations/approximations) - variations contrôlées de \(\operatorname{Comp}\) ou de \(\Phi\) (familles déclarées), ou - cohérence locale \(\mathrm{Sat}_r\) et opérateur \(\operatorname{Comp}_r\) monotone, avec statut déclaré. Conclusion typique : stabilité qualitative des diagnostics sous ces variations (sinon, propriété dépendante d’instanciation). H22‑CT (contraction/vitesse, si revendiquée) - existence d’une distance \(d_{\mathcal{K}}\) sur \(\mathcal{K}\). - contraction locale d’une application de mise à jour dans \(d_{\mathcal{K}}\), avec un facteur \(q<1\). Conclusion typique : vitesse de convergence contrôlée. ### Taxonomie des régimes de stabilisation Régime S1 (point fixe / limite en inclusion) - applicable lorsque la mise à jour est monotone (H22‑PF) ; souvent combiné avec un piégeage (H22‑TR). - le registre converge vers un point fixe \(K^\star\) ou se stabilise au sens d’une limite en inclusion. Régime S2 (cycle / invariant non ponctuel) - applicable lorsque la monotonie échoue ou lorsque des relâchements/substitutions sont possibles. - \(K_t\) peut entrer dans un cycle \(K_{t+p}=K_t\) ; l’objet invariant pertinent est alors une orbite périodique (ou un ensemble invariant), pas un point fixe. Régime S3 (quasi‑stationnaire / métastable) - applicable lorsque l’invariance est seulement conditionnelle ou approximative (bruit, fuite rare, réduction d’observable). - la “stabilisation” est alors un phénomène à statut faible : persistance sur un horizon long, dépendante de paramètres, de ressources ou de granularité. Règle de vocabulaire : on n’emploie pas “stabilisation” sans préciser S1/S2/S3. ### Table locale de dépendances (stabilisation → hypothèses) - Stabilisation S1 : dépend de H22‑PF (et souvent H22‑TR). - Existence de région auto‑stabilisante : dépend de H22‑TR + (S1 ou S2). - Vitesse de stabilisation : dépend de H22‑CT (si revendiquée). - Robustesse des conclusions de stabilisation : dépend de H22‑RB. ## Régimes quasi-invariants La persistance stricte (invariance) est trop forte dès qu’un bruit, une réduction d’observable, ou une fuite rare est admise. Une notion standard est alors l’invariance approximative ou conditionnelle. ### Quasi-invariance ensembliste (déterministe) Définition (ensemble quasi-invariant). Soit \(F:X\to X\) une dynamique déterministe. Un ensemble \(B\subseteq X\) est quasi-invariant à tolérance \(\varepsilon\) sur un horizon \(n\) si \[ \#\{x\in B : F^n(x)\notin B\}\ \le\ \varepsilon\,\#B \] dans un cadre fini, ou \[ \mu(\{x\in B : F^n(x)\notin B\})\ \le\ \varepsilon\,\mu(B) \] dans un cadre mesurable. Cette définition est exhaustive au regard du choix d’un critère de fuite : cardinalité (fini) ou mesure (mesurable). ### Quasi-stationnarité (stochastique avec fuite) Dans un modèle de transitions sur un ensemble \(B\) avec fuite (matrice sous-stochastique \(Q\)), une distribution quasi-stationnaire \(\nu\) satisfait \[ \nu Q = \lambda\,\nu,\qquad 0<\lambda<1, \] et décrit un régime stable conditionnellement à la non-sortie de \(B\). Ce résultat est standard : il formalise des régimes “persistants sous condition” sans invariance stricte. ### Quasi-invariance dans l’espace étendu \(Y\) Dans \(Y=X\times\mathcal{P}(\mathfrak{C})\), un régime quasi-invariant peut concerner : - la description \(s=\Pi(x)\), - les contraintes \(K\), - ou la paire \((s,K)\). Définition (quasi-invariance de paire). Un ensemble \(D\subseteq S\times\mathcal{P}(\mathfrak{C})\) est quasi-invariant si, à partir d’une mesure initiale supportée sur \(D\), la probabilité (ou mesure) de sortie de \(D\) reste inférieure à un seuil \(\varepsilon\) sur l’horizon considéré. Cela permet de traiter les « régimes quasi-invariants » du plan comme objets mathématiques, sans vocabulaire substantiel. ## Limites de transformation Le verrouillage des futurs peut être lu comme une diminution de l’ensemble des transformations effectivement utilisables. Cette diminution peut stabiliser et définir des limites. ### Intersection limite des familles admissibles Pour une trajectoire \((x_t,K_t)\), on définit la famille admissible à l’instant \(t\) : \[ \mathcal{T}_t=\mathcal{T}(K_t). \] Dans le cas monotone \(K_{t+1}\supseteq K_t\), on a \(\mathcal{T}_{t+1}\subseteq \mathcal{T}_t\). On définit alors la limite : \[ \mathcal{T}_\infty = \bigcap_{t\ge 0} \mathcal{T}_t. \] Définition (limite de transformation). On appelle limite de transformation l’ensemble \(\mathcal{T}_\infty\), interprété comme le résidu des transformations compatibles avec les contraintes stabilisées. Propriété (stabilisation en cas fini de contraintes). Si \(|\mathfrak{C}|<\infty\) et si \(K_t\) stabilise à \(K_T\), alors \(\mathcal{T}_\infty=\mathcal{T}(K_T)\) et la limite est atteinte en temps fini. ### Limite par observable (frontière effective) Si l’analyse porte sur une description \(s=\Pi(x)\), la limite de transformation peut être relative : des transformations distinctes au niveau de \(X\) peuvent être indiscernables au niveau de \(S\). On définit alors la famille effective sur \(S\) : \[ \mathcal{G}_t(s)=\{\Pi(f(x)) : x\in \Pi^{-1}(s),\ f\in \mathcal{T}_t\}. \] Une frontière effective apparaît lorsque \(\mathcal{G}_t(s)\) se stabilise alors que \(\mathcal{T}_t\) continue de se réduire à l’échelle microscopique. Cela formalise une limite de transformation au niveau descriptif. ## Niveaux d’organisation Le plan annonce des niveaux d’organisation. Dans le cadre présent, ils sont traités comme une hiérarchie de descriptions (coarse-grainings) stabilisées, sans sémantique. ### Hiérarchie de descriptions Définition (tour de descriptions). Une tour de descriptions est une suite \[ X \xrightarrow{\Pi_1} S_1 \xrightarrow{\Pi_2} S_2 \xrightarrow{\Pi_3} \cdots \xrightarrow{\Pi_m} S_m, \] où chaque \(\Pi_{k+1}:S_k\to S_{k+1}\) est une réduction (quotient, projection, agrégation). On note \(\Pi^{(k)}=\Pi_k\circ\cdots\circ\Pi_1 : X\to S_k\). Cette liste de transformations est exhaustive au regard du mécanisme considéré : toute hiérarchie d’observables est une composition de réductions. ### Niveau comme description autonome (approximation de fermeture) Un niveau \(S_k\) est dit quasi-autonome si la dynamique induite sur \(S_k\) est approximativement fermée, au sens suivant. Définition (fermeture approximative). Il existe une application \(G_k:S_k\to S_k\) telle que \[ \Pi^{(k)}\circ F \approx G_k\circ \Pi^{(k)}, \] où \(\approx\) signifie égalité sauf sur un ensemble de mesure au plus \(\varepsilon\), ou en probabilité au moins \(1-\varepsilon\), selon le cadre. Ce critère est standard : il formalise qu’une description est suffisante pour prédire sa propre évolution à une tolérance fixée. ### Relation avec auto-stabilisation et verrouillage Lorsque \((\Pi^{(k)}(x_t),K_t)\) est quasi-invariant et que \(K_t\) se stabilise, le niveau \(S_k\) devient un niveau d’organisation effectif : la description est stable, et les transformations futures sont confinées dans une sous-dynamique. Proposition (niveau comme condition de possibilité). Si un niveau \(S_k\) est quasi-autonome et si les contraintes associées se stabilisent vers \(K_\infty\), alors l’ensemble des futurs descriptifs accessibles depuis une description initiale \(s\in S_k\) est contenu dans un sous-ensemble strict \(\mathcal{F}_{S_k}(s)\subsetneq S_k\), dès que la contrainte est active. Cette proposition reformule, au niveau des descriptions, le verrouillage des futurs : la structure décrite ne se contente pas de persister, elle restreint les descriptions futures possibles. ## Portée minimale (lecture conditionnelle) Dans un cadre formel où : - certaines descriptions \(s=\Pi(x)\) sont transmissibles, - les contraintes se cumulent ou se stabilisent, - la dynamique est restreinte par compatibilité et héritage, il existe des structures qui deviennent des conditions de possibilité : leur maintien impose des restrictions sur les transformations futures, et ces restrictions favorisent la persistance de la description (ou de sa classe), tout en rendant inaccessibles des régions entières de l’espace des possibles. Le contenu est strictement modal : il concerne des ensembles d’états atteignables et des cônes de futur, non des finalités. ## Analyse philosophique Trois distinctions permettent d’éviter l’ambiguïté. Condition de possibilité versus cause Une cause est un événement situé dans une trajectoire. Une condition de possibilité est une restriction durable sur l’ensemble des trajectoires admissibles. Le chapitre traite des secondes. Stabilité versus identité L’auto-stabilisation formalisée ici porte sur une description et un registre de contraintes, non sur la conservation d’un individu. La stabilité est une propriété d’orbite dans l’espace étendu \(Y\). Futur possible versus futur réalisé Le verrouillage concerne l’ensemble des devenirs accessibles ; il ne sélectionne pas un devenir unique. La distinction entre “impossible” et “non réalisé” est ici mathématique : l’impossible correspond à l’absence d’atteignabilité sous les transformations admissibles. ## Conclusion Le chapitre a défini un mécanisme d’auto-stabilisation non réflexive en introduisant l’espace étendu \(Y=X\times\mathcal{P}(\mathfrak{C})\) et une règle explicite d’actualisation des contraintes. Les boucles de contraintes ont été traitées comme points fixes (cas monotone) ou cycles (cas non monotone). Les régimes quasi-invariants ont été définis en versions ensembliste et probabiliste, et les limites de transformation ont été formalisées par intersection d’ensembles admissibles. Enfin, les niveaux d’organisation ont été introduits comme tours de descriptions quasi-autonomes, stabilisées par verrouillage. Le résultat logique attendu est atteint sous une forme rigoureuse : certaines structures deviennent conditions de possibilité, car elles restreignent durablement l’espace de leurs propres transformations futures, sans qu’aucune optimisation ni finalité ne soit postulée. --- # Chapitre 16 — Interprétation épistémique minimale ## Hypothèses et résultats (repères) Hypothèses (H). - fermeture prédictive sur l’état étendu \(Y\) (Markovianité au niveau complet \((x,K)\)) ; - lecture sur observable partielle : projection \(\Pi\) déclarée, avec statut (dépendant/robuste) explicite ; - couche probabiliste optionnelle : noyau \(P\) déclaré lorsqu’on parle de lois conditionnelles du futur. Résultats (E). - définition de la connaissance comme classe d’équivalence prédictive (ensembliste/probabiliste) ou comme résidu de contraintes stabilisées transmissibles ; - critère de stabilité sous changements de description (raffinement/coarsening) lorsque une robustesse est revendiquée ; - correspondances inter‑disciplinaires annoncées comme dictionnaire, sans rétro‑inférence vers le noyau. Statut. - noyau ensembliste (classes/futurs) ; couche [P] uniquement si \(P\) est déclaré ; ponts énergétiques annoncés comme optionnels et indexés. ## Introduction Les chapitres précédents ont construit un cadre où l’évolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes d’équivalence, transmission partielle sur graphes orientés, verrouillage des futurs, sélection structurelle sans optimisation et, enfin, auto-stabilisation non réflexive dans l’espace étendu états–contraintes. Le présent chapitre introduit tardivement le terme « connaissance ». Elle doit être dérivée comme un résidu nécessaire de la dynamique déjà formalisée. Le chapitre vise donc une interprétation épistémique minimale, compatible avec des disciplines différentes, sans supposer un sujet, ni une sémantique, ni une finalité. Le résultat attendu peut être annoncé de manière strictement technique : - des trajectoires différentes deviennent indistinguables pour le futur dès lors qu’elles induisent les mêmes cônes de futur (ou la même loi de futur) ; - l’objet qui capture cette indistinguabilité est une classe d’équivalence sur les histoires ; - lorsqu’une collection de contraintes se stabilise et se transmet, elle réalise une compression opérationnelle des histoires en un objet prédictif, au sens où elle suffit à déterminer l’ensemble des futurs admissibles. La connaissance, dans ce sens minimal, est ce qui reste d’une histoire lorsqu’on ne conserve que ce qui contraint encore le futur. ### Politique lexicale (statut du mot « connaissance ») Dans ce chapitre, « connaissance » est un alias tardif entièrement défini par les constructions qui suivent. Il peut être remplacé sans perte par : - « classe d’équivalence prédictive » (définie par futur accessible / loi de futur) ; - ou « registre de contraintes stabilisées transmissibles » (défini par \(K\), \(\Phi\), \(\operatorname{Comp}\) et la filiation). Les lectures cognitives, biologiques, physiques ou computationnelles, lorsqu’elles sont proposées, sont explicitement signalées comme interprétations optionnelles indexées par leurs hypothèses d’instanciation ; elles n’altèrent pas le noyau minimal. ## Cadre et notations ### États, transformations et cônes de futur Soit \(X\) un ensemble d’états (fini ou muni d’une structure mesurable ou topologique). Soit \(\mathcal{T}\) un ensemble de transformations admissibles \(f:X\to X\). Pour \(x\in X\) et \(n\in\mathbb{N}\), l’ensemble atteignable en \(n\) étapes est : \[ \operatorname{Reach}_n(x)=\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}. \] Le cône de futur (atteignabilité à horizon fini quelconque) est : \[ \mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x). \] ### Contraintes et dynamique conditionnée Soit \(\mathfrak{C}\) un ensemble de contraintes élémentaires. À toute collection \(K\subseteq\mathfrak{C}\), on associe : - un ensemble admissible \(A(K)\subseteq X\), - une relation admissible \(R(K)\subseteq X\times X\), avec monotonie par inclusion : \[ K_1\subseteq K_2\Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1). \] La famille de transformations admissibles induite par \(K\) est : \[ \mathcal{T}(K)=\{f\in\mathcal{T}:\forall x\in A(K),\ (x,f(x))\in R(K)\}. \] Un opérateur de compatibilité \(\operatorname{Comp}\) est supposé donné : \[ \operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}), \] tel que \(\operatorname{Comp}(K)\subseteq K\), et tel que \(\operatorname{Comp}(K)\) soit compatible dès lors qu’une sous-collection compatible existe. Cette définition ne contient aucune optimisation : il s’agit uniquement d’éviter la contradiction opérationnelle. ### Espace étendu et actualisation des contraintes Comme au chapitre 15, on introduit l’espace étendu : \[ Y=X\times \mathcal{P}(\mathfrak{C}), \] dont un élément \(y=(x,K)\) encode un état et ses contraintes actives. On suppose donnée une règle d’actualisation : \[ \Phi:Y\to \mathcal{P}(\mathfrak{C}), \] et une mise à jour : \[ K^+=\operatorname{Comp}(K\cup \Phi(x,K)). \] L’évolution de \(x\) dépend de \(K\) via une restriction de \(\mathcal{T}\). Dans une version stochastique (commode pour l’énoncé d’objets prédictifs), on suppose une loi conditionnelle \(\mathbb{P}(\cdot\mid x,K)\) supportée sur \(\mathcal{T}(K)\). La dynamique est alors : \[ (x_{t+1},K_{t+1})=\Psi(x_t,K_t), \] où \(\Psi\) résume le mécanisme « choisir une transformation admissible sous \(K_t\), l’appliquer, puis actualiser \(K\) ». ### Histoires et futurs On note une histoire (temps discret) : \[ h_t=(x_0,x_1,\ldots,x_t), \] ou, dans l’espace étendu : \[ \tilde{h}_t=((x_0,K_0),(x_1,K_1),\ldots,(x_t,K_t)). \] Pour distinguer l’approche déterministe et probabiliste, deux objets de futur seront utilisés : - futur ensembliste : \(\mathcal{F}(x)\) ou \(\mathcal{F}_{\mathcal{T}(K)}(x)\) ; - futur probabiliste : la loi conditionnelle du futur \((X_{t+1},X_{t+2},\ldots)\) sachant l’histoire. Ces deux notions sont compatibles : l’approche probabiliste raffine l’approche ensembliste lorsqu’une loi a priori sur les transformations (ou un bruit) est fixée. ## Introduction tardive de la connaissance : définition dérivée et non primitive ### Principe de dérivation Définition (principe minimal). On appellera « connaissance » un objet qui : - est déterminé par l’histoire passée ; - est plus pauvre que l’histoire (compression) ; - conserve exactement ce qui est pertinent pour le futur, au sens où deux histoires qui produisent le même objet de connaissance induisent le même futur (ensembliste ou probabiliste). Ce principe ne suppose pas de sujet : il définit une propriété relationnelle entre passé et futur, à l’intérieur du système. Critère de non-trivialité (usage du mot « connaissance ») Les relations d’équivalence ci-dessous existent même dans des cas dégénérés. Pour éviter qu’une contrainte stabilisée sans effet, ou qu’une variable constante, soit appelée « connaissance », on réserve ce terme aux cas où l’effet prédictif est strict : - en version ensembliste : existence d’un verrouillage strict (réduction non nulle du futur accessible) ; - en version probabiliste : gain prédictif strict pour un horizon déclaré (par exemple \(I(Z_t;X_{t+1:t+n})>0\), ou \(H(X_{t+1:t+n}\mid Z_t) < H(X_{t+1:t+n})\)). ### Définition ensembliste (équivalence par cône de futur) Soit une dynamique conditionnée par contraintes sur l’espace étendu \(Y\). Pour une histoire étendue \(\tilde{h}_t\), on note \(y_t=(x_t,K_t)\) son dernier état. On définit le futur accessible sous contraintes à partir de \(y_t\) par : \[ \mathcal{F}_Y(y_t)=\bigcup_{n\ge 0}\{y_{t+n}:\exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}. \] Définition (équivalence prédictive ensembliste). Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont dites équivalentes, noté \(\tilde{h}_t\sim_{\mathrm{ens}}\tilde{h}'_t\), si leurs derniers états \(y_t\) et \(y'_t\) induisent le même futur accessible : \[ \mathcal{F}_Y(y_t)=\mathcal{F}_Y(y'_t). \] La classe d’équivalence \([\tilde{h}_t]_{\mathrm{ens}}\) est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre l’ensemble des futurs admissibles ». Définition (connaissance ensembliste minimale). La connaissance ensembliste associée à une histoire est la classe d’équivalence \([\tilde{h}_t]_{\mathrm{ens}}\). Cette définition est interne au système : elle n’utilise aucune sémantique et ne suppose aucun observateur. ### Définition probabiliste (équivalence par loi de futur) Soit maintenant une version stochastique, où la dynamique sur \(Y\) induit une loi \(\mathbb{P}\) sur les trajectoires. Définition (équivalence prédictive probabiliste). Deux histoires étendues \(\tilde{h}_t\) et \(\tilde{h}'_t\) sont équivalentes, noté \(\tilde{h}_t\sim_{\mathrm{prob}}\tilde{h}'_t\), si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) : \[ \mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}_t\big) = \mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'_t\big). \] La classe \([\tilde{h}_t]_{\mathrm{prob}}\) est un objet de connaissance au sens probabiliste. Remarque de consensus. Cette notion est standard : elle est équivalente à la notion de statistique suffisante pour la prédiction du futur, et se relie aux constructions de filtrations et de conditionnements en probabilités. La formulation ici évite toute référence à une tâche ou à une fonction objectif : seule la loi du futur importe. ### Mesures d’information prédictive (sans critère de tâche) Pour quantifier le contenu prédictif d’une variable interne \(Z_t=g(\tilde{h}_t)\), on peut utiliser des objets standard de théorie de l’information. Définition (entropie conditionnelle). Pour des variables aléatoires \(U,V\), l’entropie conditionnelle est \(H(U\mid V)\). Définition (information mutuelle). L’information mutuelle est : \[ I(U;V)=H(U)-H(U\mid V). \] Dans le cadre présent, si l’on fixe un horizon \(n\) et \(U=X_{t+1:t+n}\) (bloc futur), on peut quantifier l’information prédictive portée par \(Z_t\) via \(I(Z_t;X_{t+1:t+n})\). Aucun « bénéfice » n’est invoqué : seule la dépendance statistique est mesurée. ## Connaissance comme contrainte stabilisée transmissible Le plan impose une définition : « connaissance comme contrainte stabilisée transmissible ». Il convient d’en donner un contenu mathématique précis, en reliant cette idée aux équivalences prédictives définies ci-dessus. ### Définition (contrainte stabilisée) Soit une trajectoire \((x_t,K_t)\) dans \(Y\). Une collection \(K^\star\subseteq\mathfrak{C}\) est dite stabilisée le long de la trajectoire s’il existe \(T\) tel que : \[ K^\star\subseteq K_t \quad \text{pour tout } t\ge T, \] et si la suite \((K_t)\) admet une limite en inclusion : \[ K_t\uparrow K_\infty=\bigcup_{t\ge 0}K_t \quad \text{(éventuellement après application de }\operatorname{Comp}\text{).} \] Dans le cas \(|\mathfrak{C}|<\infty\) et d’une actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15). Statut (renvoi explicite). La stabilisation au sens ci-dessus correspond au régime S1 (point fixe / limite en inclusion) et suppose une actualisation monotone (H22‑PF, et souvent H22‑TR pour exclure la fuite en espace étendu). En l’absence de ces hypothèses, le registre peut relever d’un régime S2 (cycle) ou S3 (métastable) : dans ce cas, l’unité pertinente n’est plus un \(K_\infty\) unique, et les définitions qui suivent doivent être relues comme dépendantes d’un régime de stabilisation (voir chapitre 15, “Boucles de contraintes” et “Hypothèses et régimes de stabilisation (paquets H22)”). ### Définition (transmissibilité de contrainte sur graphe) Soit un graphe orienté acyclique \(G=(V,E)\) de filiation (chapitre 12). À chaque sommet \(v\) est associée une occurrence \(y_v=(x_v,K_v)\). À chaque arête \(e=(u\to v)\) est associé un opérateur de transmission \(\tau_e\). Une contrainte élémentaire \(c\in\mathfrak{C}\) est transmissible sur une arête \(e\) si : \[ c\in K \Rightarrow c\in \tau_e(K). \] Une collection \(K^\star\) est transmissible sur un sous-graphe si chaque \(c\in K^\star\) est transmissible sur toutes les arêtes de ce sous-graphe. ### Proposition (suffisance prédictive du registre de contraintes stabilisées) Hypothèses minimales : - la dynamique dans \(Y\) est Markovienne (au niveau complet \((x,K)\)) ; - l’évolution de \(x\) dépend de \(K\) uniquement via \(\mathcal{T}(K)\) ; - le mécanisme d’actualisation \(K^+=\operatorname{Comp}(K\cup \Phi(x,K))\) est donné et ne dépend pas du futur. Note de statut. Ces hypothèses garantissent la fermeture prédictive sur l’état étendu \(y_t=(x_t,K_t)\) ; elles ne garantissent pas la stabilisation de \(K_t\). Les conditions suffisantes pour une stabilisation S1 (H22‑PF, souvent H22‑TR), ainsi que les alternatives S2/S3, sont traitées au chapitre 15. Alors : - le futur ensembliste accessible depuis \(y_t=(x_t,K_t)\) dépend uniquement de \(y_t\), et non de l’histoire complète ; - de même, le futur probabiliste (loi conditionnelle) dépend uniquement de \(y_t\). Autrement dit, dans l’espace étendu \(Y\), \(y_t\) est une statistique suffisante au sens prédictif : l’histoire se résume sans perte (pour le futur) à l’état étendu présent. Conséquence (connaissance comme résidu). Si \(K_t\) se stabilise vers \(K_\infty\) au sens S1 (sous H22‑PF et, si nécessaire, H22‑TR), et si \(K_\infty\) est transmissible le long des arêtes d’un sous-graphe de filiation, alors la composante \(K_\infty\) constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant qu’il est prédictif (il détermine \(\mathcal{T}(K_\infty)\) et donc l’atteignabilité), réalise une notion minimale de connaissance. Sa réutilisabilité exige en outre une robustesse au sens H22‑RB sous les perturbations, projections et approximations déclarées (sinon, artefact d’instanciation). Cette proposition ne requiert aucune sémantique : la “connaissance” est un registre de restrictions stabilisées qui suffisent à prédire les futurs admissibles au sens du modèle. ### Lien avec le verrouillage des futurs Le chapitre 13 a défini le verrouillage comme une décroissance de l’atteignabilité. Dans le cadre présent, si \(K_t\uparrow K_\infty\), alors \(\mathcal{T}(K_t)\) est décroissante et : \[ \mathcal{T}(K_\infty)=\bigcap_{t\ge 0}\mathcal{T}(K_t), \] d’où une limite de transformation. Le registre \(K_\infty\) encode donc explicitement le mécanisme par lequel le passé réduit l’espace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : l’une en terme de futur, l’autre en terme de contrainte stabilisée. ## Absence de sujet Le plan exige « absence de sujet ». Cela signifie ici : - aucune entité “sait” ; - aucune intention n’oriente les transitions ; - aucun vocabulaire de représentation n’est posé comme causal. Cette absence est garantie par construction : la connaissance est une classe d’équivalence sur les histoires (définie par des futurs), ou un registre de contraintes stabilisées (défini par une actualisation et une transmissibilité). Dans les deux cas, l’objet est une propriété de la dynamique. Remarque méthodologique. Dans les sciences formelles, la “connaissance” est souvent associée à un observateur. Le chapitre présent adopte une interprétation minimale : l’observateur, s’il existe, n’ajoute pas la notion ; il peut au mieux la lire, en identifiant une variable ou une partition qui est déjà suffisante pour prédire le futur. ## Compatibilité interdisciplinaire La définition dérivée obtenue est compatible avec plusieurs cadres standards, car elle exprime uniquement des relations entre passé, présent étendu et futur. ### Statistique et apprentissage La notion de connaissance comme classe d’équivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable \(Z_t\) est “suffisante” si elle conserve toute l’information nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive. ### Théorie de l’information La quantification du contenu prédictif par \(I(Z_t;X_{t+1:t+n})\) est standard et ne dépend pas d’un critère de tâche. Une lecture ensembliste existe également : une variable \(Z_t\) est prédictive (au sens minimal) si, en fixant \(Z_t\), l’ensemble des futurs accessibles se restreint (cardinalité ou mesure), ce qui relie directement l’épistémique au verrouillage des futurs. La notion pertinente est l’information prédictive, non une information définie par la performance sur une tâche. La distinction est cruciale : la théorie ne requiert aucune tâche externe, seulement un couplage statistique entre états internes et futurs. Note (pont optionnel). La lecture prédictive (lois conditionnelles) et la lecture géométrique (restriction d’atteignabilité) sont internes au cadre. Tout pont vers une lecture énergétique (coût/dissipation) est optionnel et déclaré : il dépend d’un choix de coût, d’une indexation (métrique/mesure) et, le cas échéant, d’un modèle d’implémentation ; aucune équivalence générale n’est postulée. Diagramme (statut, sans sur‑promesse). - **prédictif** : équivalence de lois conditionnelles du futur (couche [P] si un noyau \(P\) est déclaré). - **géométrique** : restriction d’atteignabilité / de futur accessible (couche [E], et couche [M] si \(\mu/d/c\) est introduit). - **énergétique (optionnel)** : coût/dissipation sur transitions, indexé par un protocole et un niveau de description (couche physico‑thermodynamique). Conditions de compatibilité (à annoncer explicitement). - Relier un coût \(c\) à la restriction de futur exige une hypothèse (monotonie, bornes, ou relation de comparaison) ; sans elle, les notions restent distinctes. - Un coût dérivé d’un noyau \(P\) reste indexé par \(P\) (il n’est pas une conséquence du noyau ensembliste). - Une lecture thermodynamique exige un modèle d’implémentation et n’est pas utilisée comme preuve en couche [E]. ### Systèmes dynamiques et réduction La connaissance ensembliste est un invariant d’atteignabilité : deux histoires sont équivalentes si elles induisent le même ensemble de futurs. Cela se relie naturellement aux notions d’ensembles invariants, de bassins et d’attracteurs, mais sans les réintroduire comme causes : ils sont déjà des objets du cadre. ### Automates et computation Dans un cadre discret et fini, l’équivalence prédictive définit une partition des histoires ; cette partition peut être vue comme un automate minimal qui prédit l’ensemble des futurs admissibles. Le point essentiel est qu’il s’agit d’un objet de minimisation structurelle (minimisation d’automate, minimisation de quotient), non d’une optimisation d’objectif externe. ## Limites formelles La définition de connaissance est minimale et dépend de choix explicites. Dépendance au modèle de futur - En version ensembliste : \(\sim_{\mathrm{ens}}\) dépend du choix d’admissibilité (contraintes, transformations). - En version probabiliste : \(\sim_{\mathrm{prob}}\) dépend de la loi \(\mathbb{P}\) sur les transformations et des variables observées. Dépendance à la description Si l’on observe uniquement \(s=\Pi(x)\) au lieu de \((x,K)\), la connaissance devient relative à \(\Pi\) : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Autrement dit, le processus peut être non markovien en \(s\) tout en restant markovien sur l’état étendu \((x,K)\) (où la dynamique est fermée). Cela n’invalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que l’observable oublie. Stabilité sous raffinement/coarsening (robustesse). Lorsqu’une notion de connaissance est revendiquée comme stable au‑delà d’une observable \(\Pi\), la stabilité est vérifiée sous changements bornés de description : au minimum sur deux granularités \(\Pi_1,\Pi_2\) déclarées, et, lorsque pertinent, sous morphismes de facteurs (commutation avec la dynamique ou contrôle explicite de l’écart). À défaut, l’énoncé est annoncé comme indexé par \(\Pi\) et ne se propage pas comme résultat générique (cf. chap. 13, “Double granularité”, et protocole de robustesse). Caractère non unique des représentations internes Plusieurs variables \(Z_t\) peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes d’équivalence, mais sa représentation peut ne pas être unique. ## Analyse philosophique L’introduction dérivée de la connaissance modifie trois oppositions classiques. Mémoire versus contrainte La mémoire est souvent conçue comme un enregistrement du passé. Ici, ce qui persiste du passé n’est pas une copie, mais une contrainte stabilisée qui restreint le futur. La mémoire, au sens minimal, est une forme de compression irréversible de l’histoire. Vérité versus prédictivité La connaissance est définie par la conservation de ce qui détermine le futur admissible, non par une correspondance sémantique à un “monde” extérieur. Cette neutralité n’est pas une thèse ; elle est un choix de minimalité : le cadre ne nécessite pas de théorie de la référence pour fonctionner. Sujet versus structure L’absence de sujet n’élimine pas la possibilité d’un sujet ; elle montre que la notion de connaissance peut être construite sans lui. Si un sujet apparaît dans un prolongement, il apparaît comme une structure particulière au sein de \(X\), portant un registre \(K\) et une description \(\Pi\), et non comme une primitive transcendantale. ## Conclusion Le terme « connaissance » a été introduit tardivement et défini de manière dérivée, sans être posé comme cause. Deux définitions minimales ont été construites : - une définition ensembliste : connaissance comme classe d’équivalence d’histoires induisant le même futur accessible ; - une définition probabiliste : connaissance comme classe d’équivalence d’histoires induisant la même loi conditionnelle du futur. Le lien avec les chapitres précédents est direct : lorsque des contraintes se stabilisent et se transmettent, elles constituent un résidu du passé qui continue à restreindre les transformations admissibles et donc les futurs accessibles. En ce sens précis, la connaissance est un résidu nécessaire : l’histoire se compresse en contraintes prédictives, sans sujet, sans sémantique, et sans finalité. ## Consolidations transversales (chapitres 13 à 16) ### Correspondances inter‑disciplinaires (dictionnaire, sans import d’axiomes) Les correspondances ci‑dessous servent de dictionnaire de lecture : elles n’ajoutent aucun axiome et ne remplacent pas les définitions du noyau. - **verrouillage des futurs** : rétrécissement d’ensembles atteignables / d’un support admissible ; ensembles invariants, classes absorbantes, piégeage (et, en couche [P] lorsqu’un noyau est déclaré : quasi‑stationnarité conditionnelle sur l’admissible). - **sélection structurelle** : conditionnement sur l’admissible (ensembliste) ; restriction d’un noyau \(P\) à une partie viable, effets de concentration et de temps de sortie (si la couche [P] est mobilisée). - **auto‑stabilisation** : points fixes ou cycles d’opérateurs de mise à jour (contraintes) ; invariants d’un système augmenté (état étendu \(Y\)). ### Table synthétique des dépendances (audit) Le tableau ci-dessous sert à auditer rapidement le statut d’un résultat : dépendances aux hypothèses structurales et aux couches (\(\mu\), \(P\), \(\Pi\), \(\operatorname{Comp}\)). | Résultat (référence) | Hypothèses structurales (exemples) | dépend de \(\mu\) | dépend de \(P\) | dépend de \(\Pi\) | dépend de \(\operatorname{Comp}\) | |---|---|---|---|---|---| | Verrouillage ensembliste (chap. 13) | admissibilité décroissante \(\mathcal{T}_{t+1}\subseteq\mathcal{T}_t\) | non | non | non | non | | Verrouillage quantifié (chap. 13) | idem + quantificateur déclaré | oui | non | oui (si observable) | non | | Verrouillage robuste (chap. 13) | idem + variations contrôlées déclarées | oui | non | oui | oui (si contraintes héritées) | | Sélection ensembliste (chap. 14) | compatibilité + admissibilité | non | non | non | oui | | Sélection mesurée (chap. 14) | idem + mesure déclarée | oui | non | oui (si quotient mesuré) | oui | | Sélection stochastique/opératorielle (chap. 14) | idem + noyau déclaré | non | oui | oui (si classes observées) | oui | | Auto-stabilisation (point fixe) (chap. 15) | monotonie/ordre (Tarski) ou finitude | non | optionnel | non | oui | | Auto-stabilisation (cycle) (chap. 15) | actualisation non monotone | non | optionnel | non | oui | | Connaissance (équivalence prédictive) (chap. 16) | dynamique fermée sur \(Y\) (état étendu) | non | optionnel | oui (si observable) | oui | ### Statut local des énoncés Voir aussi la section « Statut des énoncés » en fermeture. Dans 13–16 : - Définition / Proposition / Théorème : blocs techniques. - Interprétation : explicitement optionnelle et séparée. Aucune interprétation n’est insérée dans un bloc démonstratif. ### Politique de vocabulaire et renvois de couches (normative) Objectif. - Stabiliser un lexique abstrait unique pour le noyau (chap. 1–16) et empêcher le retour de glissements par synonymie ou par import d’un vocabulaire externe. Règles. - Un terme technique canonique par concept : les synonymes rejetés sont explicitement listés et ne réapparaissent pas dans le noyau. - Tout résultat est indexé par une couche de validité, compatible avec la stratification introduite en début d’ouvrage : - [E] ensembliste - [M] métrique/mesurée - [P] probabiliste - [D] décisionnelle (optionnelle) - Interdiction des inférences de couche : un énoncé obtenu en [P] ou [D] ne peut pas être réutilisé comme conséquence en [E] sans marquage explicite et justification locale. Interdits (lexique externe). - Les termes d’un lexique externe ne figurent pas dans le noyau. S’ils sont mentionnés, c’est uniquement en note explicitement étiquetée « historique » (aide de lecture), jamais comme justification conceptuelle. Liste minimale de termes canoniques (à ne plus faire varier). - état - transformation admissible - atteignabilité - futur accessible - contrainte - compatibilité - verrouillage (avec niveaux) - sélection (avec niveaux) - auto‑stabilisation (avec régimes) - transmission - ancrage / irréversibilité logique - classe d’équivalence prédictive Glossaire normatif (structure). - Pour chaque terme canonique : une définition unique (référencée), une couche [E/M/P/D], des dépendances (hypothèses), des renvois internes (chapitres), et une liste de synonymes rejetés. Protocole de conformité (relecture mécanique). - Audit terminologique : aucun terme technique hors glossaire. - Audit d’interdits : aucune occurrence d’un terme interdit dans le noyau. - Audit de synonymes rejetés : remplacement systématique par le terme canonique. - Audit des couches : définitions et résultats clés marqués, et aucune réutilisation implicite entre couches. ### Réutilisabilité sans exemples (artefacts de navigation, normative) Principe. - Le corps principal peut rester sans exemples à condition de fournir des artefacts de navigation formelle : lecture locale, audit des hypothèses, et réutilisation partielle sans dépendre d’une lecture linéaire. Artefacts attendus dans le manuscrit. - **Index des dépendances** : table “résultat → définitions / hypothèses / couche / renvois”. - **Index des symboles** : symbole, type, sens, première introduction, renvois. - **Table des hypothèses (paquets)** : identifiants stables pour des familles d’hypothèses récurrentes (par exemple : paquets H22 pour les régimes de stabilisation ; noyau d’axiomes A0 pour revendiquer des résultats invariants vis‑à‑vis de \(\operatorname{Comp}\)). - **Registre des choix quantitatifs** : identifiants `Q1`, `Q2`, … pour les choix \(\mu, P, d, c, L\) lorsque des quantités sont introduites. - **Protocole de robustesse** : familles de variations \( \mathcal{M},\mathcal{P},\mathcal{D},\mathcal{C}_{\mathrm{cost}},\mathcal{L} \) et statut annoncé (robuste / dépendant). Index des symboles (minimal, noyau 13–16). | Symbole | Type | Sens | Introduction | Renvois | |---|---|---|---|---| | \(Y=X\times\mathcal{P}(\mathfrak{C})\) | espace d’état étendu | état + registre de contraintes | chap. 15 | chap. 16 (prédiction) | | \(\mathfrak{C}\) | ensemble | espace des contraintes élémentaires | chap. 15 | chap. 16 | | \(K\in\mathcal{P}(\mathfrak{C})\) | registre | collection de contraintes actives | chap. 15 | chap. 16 | | \(\Phi:Y\to\mathcal{P}(\mathfrak{C})\) | opérateur | règle d’actualisation des contraintes | chap. 15 | chap. 16 | | \(\operatorname{Comp}\) | opérateur | compatibilité / fermeture choisie | chap. 13 | chap. 14–15 | | \(\Pi:X\to S\) | description | observable/projection vers un espace \(S\) | chap. 13 | chap. 15–16 | | \(\mu\) | mesure | quantification (taille, volume, fréquence) | chap. 13–14 | chap. 14 (sélection mesurée) | | \(P\) | noyau | transitions probabilistes conditionnelles | chap. 14 | chap. 16 (loi du futur) | Index des dépendances (minimal, noyau 13–16). - **Verrouillage ensembliste (chap. 13)** : définitions de futur accessible + hypothèse “admissibilité décroissante” ; couche [E]. - **Verrouillage quantifié (chap. 13)** : verrouillage ensembliste + choix d’un quantificateur indexé (mesure \(\mu\) ou métrique) ; couche [M]. - **Sélection ensembliste (chap. 14)** : compatibilité (\(\operatorname{Comp}\)) + admissibilité ; couche [E]. - **Sélection stochastique (chap. 14)** : sélection ensembliste + noyau \(P\) déclaré ; couche [P]. - **Auto‑stabilisation S1 (chap. 15)** : espace étendu \(Y\) + paquet H22‑PF (et souvent H22‑TR) ; couche [E]. - **Auto‑stabilisation S2/S3 (chap. 15)** : espace étendu \(Y\) + absence de monotonie ou quasi‑invariance ; couche [E] (puis [M]/[P] si quantifié). - **Connaissance (chap. 16)** : fermeture de la dynamique sur \(Y\) + choix de représentation (projection \(\Pi\) si lecture sur observable) ; couche [E], puis [P] si loi du futur mobilisée. ### Quantification : indexation, registre des choix, robustesse (normative) Règles. - Toute quantité introduite est indexée par ce qui la définit (\(\mu\), \(P\), \(d\), \(c\), \(L\)) et par sa couche ([M]/[P]/[D]). Une quantité “nue” est traitée comme non interprétable. - Toute comparaison quantitative explicite le choix sous forme d’un identifiant `Qi` renvoyant au registre des choix. - La couche [E] ne dépend ni de \(\mu\), ni de \(P\), ni de \(L\). Les couches [M]/[P]/[D] ne rétro‑justifient pas la couche [E]. Registre des choix quantitatifs (format minimal). - **Choix Q1 (mesure \(\mu\))** : mesure de référence sur \(X\) (ou sur un quotient) utilisée pour quantifier des tailles de futurs ; les résultats sont indexés par \(\mu\) lorsque la quantification est revendiquée. - **Choix Q2 (noyau \(P\))** : noyau de transition (ou famille de noyaux) utilisé pour les énoncés probabilistes ; les résultats sont indexés par \(P\). - **Choix Q3 (métrique \(d\))** : distance (sur \(X\), \(S\), ou l’espace des contraintes) utilisée pour des seuils, diamètres, tests de convergence ; les résultats sont indexés par \(d\). - **Choix Q4 (perte \(L\), optionnel)** : famille \(\mathcal{L}\) de pertes déclarées en couche [D] ; tout diagnostic est indexé par \(L\) et testé sur \(\mathcal{L}\). - **Choix Q5 (coût \(c\), optionnel)** : fonction de coût sur transitions/chemins (poids de graphe, pénalité, ressource abstraite, ou dérivée d’un noyau \(P\)) ; les résultats sont indexés par \(c\) lorsque une quantification par coût est revendiquée. Protocole de robustesse (statut annoncé). - Variation de \(\mu\) dans une famille \(\mathcal{M}\) ; variation de \(P\) dans \(\mathcal{P}\) ; variation de \(d\) dans \(\mathcal{D}\) ; variation de \(c\) dans \(\mathcal{C}_{\mathrm{cost}}\) (si une quantification par coût est revendiquée) ; variation de \(L\) dans \(\mathcal{L}\) (si [D]). - Classement : **robuste** (stabilité sur une région non triviale) ou **dépendant** (sensibilité forte aux choix). ### Validation éditoriale (navigabilité scientifique) Une version est considérée navigable si : - chaque résultat structurant a une entrée dans l’index des dépendances ; - chaque symbole réutilisé hors de sa section d’introduction figure dans l’index des symboles ; - chaque terme technique appartient au glossaire normatif et reste stable dans le noyau ; - aucune conclusion quantitative n’est présentée sans indexation (\(\mu,P,d,c,L\)) et sans couche ; - aucune inférence de couche implicite n’est introduite ([P]/[D] → [E]). --- # Fermeture ## Introduction La méthode a consisté à ne jamais introduire un concept comme explication tant qu’il pouvait être reconstruit comme invariant, contrainte, ou quotient. Cette fermeture récapitule le résultat logique, précise le statut des énoncés, explicite les limites du cadre et ouvre des perspectives sans avancer d’hypothèses additionnelles non formalisées. ## Résultat logique atteint L’arc démonstratif a établi une chaîne de dépendances conceptuelles dont chaque maillon est défini avant usage. Espaces et transformations Un système est d’abord un ensemble d’états, muni d’un ensemble de transformations admissibles. Le futur a été défini par atteignabilité, sans présupposer de métrique ni de finalité. Non-injectivité et collisions La non-injectivité a été traitée comme propriété structurale des mises à jour dans des espaces finis ou compressés, impliquant collisions de trajectoires et perte d’information fine, ce qui rend illusoire la réversibilité globale sans hypothèse supplémentaire. Classes, invariants et normalisation Les collisions induisent des classes d’équivalence et des invariants de classe. Les opérations de normalisation et de quotient ont été utilisées comme outils canoniques de réduction, et non comme conventions interprétatives. Consommation irréversible et flèche effective Une consommation non récupérable, définie comme contrainte cumulative sur l’atteignabilité, a permis de dériver une flèche effective : l’ordre des transformations devient formellement non supprimable dès lors que l’on ne peut pas reconstruire l’état antérieur à partir de l’état présent. Transmission partielle et lignées La transmission a été formalisée comme reproduction partielle d’invariants, via fragmentation et recombinaison admissible, puis organisée au moyen de graphes orientés de filiation. Verrouillage des futurs et sélection sans optimisation Des structures persistantes, lorsqu’elles s’expriment comme contraintes actives, réduisent monotoniquement l’ensemble des futurs accessibles. La sélection a été reconstruite comme filtrage par compatibilité et conditionnement probabiliste sur l’admissible, sans maximisation d’une fonction objectif. Auto-stabilisation et conditions de possibilité En introduisant l’espace étendu états–contraintes, des boucles de contraintes ont été décrites comme points fixes ou cycles de mise à jour. Il en résulte des structures qui deviennent conditions de possibilité : leur maintien restreint durablement l’espace de leurs propres transformations futures, sans postuler de réflexivité intentionnelle. Lecture épistémique minimale La connaissance n’a pas été posée comme primitive. Elle a été dérivée comme classe d’équivalence prédictive sur les histoires (même futur accessible, ou même loi conditionnelle du futur), et comme résidu de contraintes stabilisées transmissibles. Cette notion est interne à la dynamique : elle ne requiert ni sujet ni sémantique primitive. ## Statut des énoncés Trois niveaux ont été distingués, et leur mélange a été évité. Énoncés définitionnels Ils introduisent les objets (atteignabilité, compatibilité, contraintes, graphes, quasi-invariance, équivalences prédictives). Leur validité est conventionnelle, au sens où ils fixent le langage et les opérations. Énoncés logiques et combinatoires Ils expriment des conséquences nécessaires de définitions monotones ou finies (stabilisation en temps fini lorsque l’espace des contraintes est fini, décroissance d’ensembles atteignables sous restriction, extinction de classes transientes dans des chaînes finies). Leur statut est démonstratif. Énoncés de portées minimales Ils relient les résultats formels à des lectures générales (interprétatives ou philosophiques) sous forme conditionnelle : si un système satisfait les hypothèses, alors tel type de persistance, de verrouillage ou de filtration doit apparaître. Ce sont des implications, non des proclamations ontologiques. ## Limites du cadre Les limites définissent les conditions de validité. Dépendance à l’admissibilité Le futur accessible dépend de l’ensemble des transformations admissibles. Toute application à un domaine exige de rendre explicite ce choix, ainsi que la règle d’actualisation des contraintes. Choix de la variable d’état La connaissance minimale est définie sur l’état étendu états–contraintes (où la dynamique est fermée). Une projection trop grossière peut induire une non-Markovianité apparente : la dépendance au passé observée est alors déplacée vers des variables cachées, c’est-à-dire vers des composantes d’état omises par la description. Cadre discret La construction a été menée en temps discret. Le passage au temps continu est prospectif : il requiert des hypothèses additionnelles (topologie, action de semi‑groupe, régularité, dissipativité/piégeage, et, dès qu’une quantification est revendiquée, une métrique ou une mesure) et modifie le statut de plusieurs résultats (convergence asymptotique au lieu de stabilisation en temps fini, disparition de garanties combinatoires comme les cycles). Discipline (continuisation, sans sur‑promesse). Toute mention de continuisation est formulée comme programme de recherche conditionnel, et inclut explicitement : - les hypothèses additionnelles requises ; - les résultats du discret qui survivent sous ces hypothèses ; - les résultats qui échouent ou changent de nature ; - la couche mobilisée (en particulier : les opérateurs de transfert relèvent d’une couche mesurée/probabiliste et ne sont pas une conséquence du noyau ensembliste). Quantification de la “taille” des futurs La réduction de futur a été formulée en termes ensemblistes et, lorsque nécessaire, en termes de mesure ou de cardinalité. La comparaison quantitative entre régimes dépend du choix d’une mesure de référence et de son invariance éventuelle. Neutralité sémantique La lecture épistémique minimale ne dit pas ce qu’une structure « signifie » ; elle dit ce qu’elle « contraint encore ». Toute sémantique additionnelle doit être posée comme couche explicite. ## Perspectives de développement Les prolongements naturels respectent la méthode : ajouter des couches seulement lorsqu’elles sont nécessaires et définies. Extension opératorielle Formaliser le passage au temps continu et aux opérateurs de transfert pour articuler verrouillage, quasi-stationnarité et spectre dans des espaces non finis, en évitant toute sur‑promesse. Repères (dictionnaire minimal discret ↔ continu). - **temps et dynamique** : itération \(x_{n+1}=f(x_n)\) ↔ semi‑groupe \(x(t)=T_t(x(0))\), avec \(T_{t+s}=T_t\circ T_s\), \(T_0=\mathrm{Id}\) ; - **admissibilité** : ensemble de transformations admissibles \(\mathcal{T}\) ↔ famille de générateurs admissibles (ou famille de semi‑groupes admissibles) ; - **futur accessible** : \(\mathcal{F}_n(x)\) ↔ \(\mathcal{F}_{[0,\tau]}(x)=\{T_t(x):0\le t\le\tau\}\) (ou atteignabilité sous contrôle) ; - **verrouillage** : décroissance d’ensembles de futurs accessibles / restrictions de transitions ↔ piégeage, contraction d’ensembles atteignables, ou décroissance d’un fonctionnel monotone sous hypothèses de dissipativité ; - **auto‑stabilisation** : point fixe d’opérateurs (discret) ↔ invariance sous flot / point fixe fonctionnel (continu). Résultats transférables (sous hypothèses explicites). - **invariance, attracteurs, piégeage** : sous hypothèses de semi‑groupe continu et d’ensemble piégé compact (dissipativité/absorption), les notions d’invariance et d’attracteurs se transportent partiellement ; sans compacité/piégeage, aucune garantie générale n’est annoncée ; - **verrouillage** : sous dissipativité et existence d’un fonctionnel monotone ou d’une contraction, le verrouillage se lit comme réduction du futur atteignable sur des horizons croissants ; la stabilisation “en temps fini” devient typiquement convergence asymptotique ; - **points fixes (contraintes)** : sous structure d’ordre/treillis et monotonie (ou contraction selon le cadre), l’existence de points fixes se transporte, au prix d’hypothèses de complétude/continuité et d’une calculabilité plus délicate ; - **opérateurs de transfert** : (Perron–Frobenius/Koopman) exigent une structure mesurée et appartiennent à une couche mesurée/probabiliste ; leurs propriétés spectrales nécessitent des hypothèses fortes et sont annoncées comme telles. Résultats non transférables ou changeant de nature (points d’attention). - **cycles garantis par finitude** : en continu/infini, il n’y a pas de garantie de cycles ; au mieux, des formes de récurrence sous hypothèses spécifiques (préservation de mesure, finitude de mesure) ; - **stationnarité en temps fini** : les arguments combinatoires de stabilisation en temps fini deviennent convergence asymptotique ou métastabilité ; - **quantification sans indexation** : toute “taille du futur” en continu est indexée par une métrique \(d\) ou une mesure \(\mu\) déclarée ; - **calculabilité** : la continuisation peut rendre l’atteignabilité plus délicate ; le statut reste programmatique tant qu’un protocole d’approximation et de robustesse n’est pas posé. Jalons (structure du programme de recherche). - formaliser un cadre continu minimal (espace \(X\), famille de semi‑groupes admissibles \((T_t)\), futur accessible sur \([0,\tau]\)) ; - établir des hypothèses de dissipativité/piégeage (ensemble absorbant compact) ; - définir des quantificateurs robustes indexés par \(d/\mu\) ; - introduire les opérateurs de transfert seulement comme couche optionnelle (mesurée/probabiliste) ; - relier au discret par discrétisation (section de Poincaré, pas d’échantillonnage) et tests de stabilité des phénomènes. Théorie des descriptions et tours de quotients Développer une théorie des tours de descriptions, leurs conditions de fermeture approximative, et leurs critères de quasi-autonomie, en lien avec la stabilité structurelle. Articulation computationnelle Étudier la minimisation de prédicteurs (quotients prédictifs) comme objets canoniques, indépendamment de toute fonction objectif, en reliant classes d’équivalence et automates minimaux. Applications à l’intelligence artificielle Concevoir des architectures où les variables internes jouent le rôle de contraintes stabilisées transmissibles, puis tester si ces variables constituent des statistiques suffisantes pour la prédiction sous contraintes d’admissibilité (ressources, bruit, latence). Dans ce cadre, l’apprentissage devient estimation d’un quotient prédictif et stabilisation de contraintes, plutôt qu’optimisation d’un objectif sémantique. ## Conclusion Le résultat principal de l’ouvrage est une reconstruction progressive d’objets souvent introduits comme intuitions : flèche du temps effective, sélection, transmission, persistance, connaissance. Dans le cadre retenu, ces objets ne sont ni des primitives ni des métaphores ; ils apparaissent comme conséquences d’un calcul d’atteignabilité sous contraintes cumulatives, combiné à des opérations de quotient et de stabilisation. --- # Table des matières - [Introduction](#introduction) - [Chapitre 1 — Espaces de configurations et transformations admissibles](#chapitre-1-espaces-de-configurations-et-transformations-admissibles) - [Chapitre 2 — Itération, finitude locale et répétition nécessaire](#chapitre-2-itération-finitude-locale-et-répétition-nécessaire) - [Chapitre 3 — Attracteurs, cycles et ensembles invariants](#chapitre-3-attracteurs-cycles-et-ensembles-invariants) - [Chapitre 4 — Temps comme ordre induit par l’itération](#chapitre-4-temps-comme-ordre-induit-par-litération) - [Chapitre 5 — Compression, non‑injectivité et classes de formes](#chapitre-5-compression-non-injectivité-et-classes-de-formes) - [Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique](#chapitre-6-reproduction-partielle-recombinaison-et-héritage-morphologique) - [Chapitre 7 — Généalogies, lignées et accumulation d’histoire](#chapitre-7-généalogies-lignées-et-accumulation-dhistoire) - [Chapitre 8 — Stabilisation, contraintes sur l’avenir et émergence de propriétés épistémiques](#chapitre-8-stabilisation-contraintes-sur-lavenir-et-émergence-de-propriétés-épistémiques) - [Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification](#chapitre-9-sélection-structurelle-invariants-et-dynamique-de-complexification) - [Chapitre 10 — Attracteurs, cycles et ensembles invariants](#chapitre-10-attracteurs-cycles-et-ensembles-invariants) - [Chapitre 11 — Reproduction partielle et transmission](#chapitre-11-reproduction-partielle-et-transmission) - [Chapitre 12 — Généalogies et lignées de formes](#chapitre-12-généalogies-et-lignées-de-formes) - [Chapitre 13 — Structures persistantes et verrouillage des futurs](#chapitre-13-structures-persistantes-et-verrouillage-des-futurs) - [Chapitre 14 — Sélection structurelle sans optimisation](#chapitre-14-sélection-structurelle-sans-optimisation) - [Chapitre 15 — Structures contraignant leur propre évolution](#chapitre-15-structures-contraignant-leur-propre-évolution) - [Chapitre 16 — Interprétation épistémique minimale](#chapitre-16-interprétation-épistémique-minimale) - [Fermeture](#fermeture)