algo/v0/livre.md
Nicolas Cantu 8726355f84 Correctifs v0 livre : phrasé neutre, lexique, citations, tables, LaTeX, filecite
**Motivations:**
- Traçabilité et cohérence du livre v0 (phrasé méta, lexique, citations)

**Correctifs:**
- Phrasé méta neutre (ch10-14), crossref (ch11), lexique (ch15-16)
- Admissibilité des citations (ch1)
- Tableaux Markdown pipe final (ch8)
- Artifacts filecite, sync introduction/fermeture
- Corruption LaTeX indices
- Lexique futur accessible globalement

**Pages affectées:**
- v0/chapitre3-8.md, v0/livre.md
- fixKnowledge/ : 2026-02-17-v0-chapter1-admissibility-citations, v0-livre-ch8-markdown-table-trailing-pipe, v0-livre-ch10-16-neutral-*, v0-livre-filecite-artifacts, v0-livre-introduction-fermeture-sync, v0-livre-latex-subscript-corruption, v0-livre-lexicon-futur-accessible-global, v0-livre-neutral-meta-phrasing-global

Co-authored-by: Cursor <cursoragent@cursor.com>
2026-02-18 00:08:32 +01:00

425 KiB
Raw Blame History

livre version auteur
Théorie des futurs accessibles v0 Nicolas Cantu

Introduction

Un livre peut tenter de décrire le monde, ou bien tenter de décrire les conditions minimales sous lesquelles une description du monde devient possible. Le présent ouvrage relève de la seconde ambition. Il ne part pas dune ontologie, dune physique, dune psychologie, ni dune théorie de linformation déjà constituée. Il part dun problème plus nu : comment une structure, au sein dun ensemble de transformations possibles, peut-elle devenir assez stable pour être réutilisée, transmise, et agir comme contrainte sur ce qui peut advenir ensuite.

Cette question nest pas traitée ici comme une question “de sens” ou “dinterprétation”, mais comme une question de construction : quelles définitions sont nécessaires, quelles hypothèses sont réellement employées, quels résultats sont démontrés, et quelles lectures ne sont que des traductions optionnelles dun même noyau formel. Louvrage adopte donc une discipline explicite : distinguer, à chaque étape, ce qui est choisi (définitions), ce qui est déduit (propositions, lemmes, théorèmes), et ce qui est seulement proposé comme lecture possible (interprétations conditionnelles, instanciations physiques ou computationnelles).

Objet et thèse directrice

Lobjet central est un triplet conceptuel minimal :

  • un espace détats, entendu au sens le plus large (configurations, descriptions, classes, états internes, états dun système abstrait) ;
  • un ensemble de transformations admissibles, cest-à-dire un catalogue de transitions autorisées, dont la composition induit une dynamique ;
  • un mécanisme de contraintes, qui réduit ou organise ces transformations au cours de lévolution.

À partir de ce triplet, louvrage construit progressivement des notions qui sont habituellement posées comme primitives : temps effectif, irréversibilité, mémoire, transmission, sélection, et finalement connaissance. La thèse directrice peut être formulée sans métaphysique et sans agent : une “connaissance” est une contrainte stabilisée, opératoire et transmissible, qui réduit durablement lensemble des futurs accessibles pour une classe de trajectoires, et dont la stabilisation peut être étudiée indépendamment dune sémantique.

Note de méthode (mémoire). Dans louvrage, le mot « mémoire » nest pas un synonyme de « dépendance au passé ». On distingue :

  • une mémoire transmissible : un registre de contraintes stabilisé et transmissible (p. ex. un registre K ou M), opératoire sur les transitions admissibles et réduisant durablement lensemble des futurs accessibles ;
  • une variable cachée : une composante de létat omise par choix de description/projection, telle quun processus observé devienne non markovien alors quil redevient markovien sur un espace détat étendu où la dynamique est fermée. Dès quun passage invoque la mémoire, il précise lespace détat utilisé, la projection éventuelle, et si lon parle dun registre transmissible ou dun état incomplet (variable cachée).

Cette formulation ne présuppose ni sujet connaissant, ni objectif, ni valeur, ni finalité. Elle ne présuppose pas non plus que linformation soit une substance : elle la reconstruit, lorsque cela devient nécessaire, comme une mesure dérivée dindistinguabilités et de restrictions sur latteignabilité.

Positionnement scientifique et neutralité sémantique

Louvrage se situe à lintersection de plusieurs traditions, sans se confondre avec aucune :

  • la théorie des systèmes dynamiques (attracteurs, invariants, régions piégées, stabilité) ;
  • la théorie des graphes et des automates (atteignabilité, composantes, cycles, quotients) ;
  • la théorie de lordre et des points fixes (monotonie, treillis, fermetures, convergence par itération) ;
  • la théorie de linformation (entropies, informations mutuelles) uniquement comme couche optionnelle, lorsque des structures probabilistes sont explicitement introduites ;
  • la thermodynamique de non-équilibre uniquement comme instanciation possible, sous hypothèses additionnelles, et jamais comme conséquence du noyau minimal.

Ce positionnement impose une règle de méthode : aucune notion empruntée à une discipline ne doit être importée comme évidence. Si un mot est employé (stabilité, sélection, mémoire, information, contrainte), il doit soit être défini dans le cadre, soit être explicitement présenté comme un raccourci terminologique dont les conditions dusage sont déclarées.

La conséquence est une neutralité sémantique. Les objets formels construits peuvent recevoir des lectures variées : lecture computationnelle (contraintes comme règles de calcul), lecture biologique (contraintes comme architectures héritées), lecture sociale (contraintes comme normes), lecture physique (contraintes comme restrictions de transitions). Aucune de ces lectures nest “la” lecture par défaut. Elles deviennent pertinentes seulement lorsquun dictionnaire dinstanciation est fourni et que ses hypothèses sont assumées.

Hypothèses minimales et stratification en couches

Louvrage est construit par couches, afin de contrôler la puissance explicative sans perdre la rigueur.

Couche ensembliste et dynamique

Elle ne suppose aucune probabilité. Elle utilise des ensembles détats et des transformations admissibles, puis définit atteignabilité, futurs accessibles, cycles, bassins, et restrictions. À ce niveau, les résultats portent sur des inclusions, des quotients, des obstructions (absence dinverse, non-injectivité), et des ordres induits.

Couche métrique et quantitative

Elle introduit des distances, coûts de chemin, quasi-métriques ou mesures de taille, non comme réalités physiques, mais comme instruments de quantification. Elle permet de comparer des intensités de verrouillage, des vitesses de stabilisation, des goulots, des fragmentations de futurs.

Encadré (statut et instanciations dun coût de transition c). Lorsquun coût c(x\to y) est introduit pour quantifier des chemins, des barrières ou des restrictions, il a par défaut le statut dun poids de graphe (couche quantitative). Une lecture physicothermodynamique nest mobilisée quaprès déclaration dun dictionnaire dinstanciation et de ses hypothèses.

Instanciations typiques (à déclarer, non équivalentes).

  • déterministe : c est un poids de transition ou de chemin (longueur, pénalité, ressource abstraite).
  • stochastique : c est dérivé dun noyau P (par exemple via des rapports de probabilités de trajectoires) ; ses propriétés sont alors indexées par P.
  • thermodynamique de linformation : c est relié à un protocole dimplémentation et à un effacement logique ; Landauer fournit une borne minimale sous hypothèses explicites, sans identifier c à une grandeur unique.

Le texte sépare explicitement ce qui relève dun consensus (conditions dapplication, formes de bornes) de ce qui relève dun choix de modèle (niveau de description, protocole, indexation).

Couche probabiliste

Elle napparaît que si un noyau de transition est explicitement défini (comment les transformations admissibles sont choisies ou appliquées). À ce niveau seulement, les notions spectrales, stationnaires ou quasi-stationnaires deviennent légitimes. Toute conclusion probabiliste est alors indexée par le noyau choisi.

Couche décisionnelle / prédictive (optionnelle)

Elle napparaît que lorsquune tâche est explicitement déclarée. On introduit alors une perte L (loss) pour comparer des prédictions ou des actions (et, si besoin, un noyau probabiliste P pour modéliser lexploration ou le bruit). Toute conclusion à ce niveau est indexée par L (et par P le cas échéant), et ne sert jamais à établir un résultat du noyau.

Tout passage qui introduit L le signale explicitement comme « couche décisionnelle (optionnelle) ». Lorsquun diagnostic est présenté comme stable, il est testé sur une famille de pertes \mathcal{L} déclarée ; sinon, il est annoncé comme dépendant de tâche.

Couche physico-thermodynamique (optionnelle)

Elle exige des hypothèses spécifiques (système ouvert, flux, conditions de stationnarité, structure déchanges). Elle peut relier certaines asymétries de transitions à des productions dentropie, mais sans rétro-inférer cette lecture dans le noyau minimal.

Cette stratification nest pas un artifice didactique : elle est une exigence épistémologique. Elle rend explicite ce qui est nécessaire pour obtenir tel type de conclusion et empêche de confondre un résultat structurel avec une instanciation contingente.

Ce que louvrage ne fait pas

Pour éviter les malentendus, plusieurs refus sont constitutifs du projet.

Absence de téléologie primitive

Aucune maximisation, aucun critère de tâche, aucune fonction objectif nest posé comme moteur. Si des quantités ressemblant à des coûts ou à des pertes sont introduites (par exemple une perte L), elles sont traitées comme des paramètres dinstanciation optionnels, explicitement étiquetés, non comme des fins.

Absence de psychologie et de subjectivité

Le livre ne décrit pas un sujet qui connaît. Il décrit des structures qui contraignent, se stabilisent, se transmettent, et qui, une fois stabilisées, peuvent servir de supports à une prédictivité. Léventuelle interprétation cognitive, si elle est souhaitée, est une lecture secondaire.

Absence dexclusivité ontologique

Aucune thèse nest avancée sur “ce que le monde est”. Les résultats sont conditionnels : si un système a telles propriétés structurelles, alors tels phénomènes (cycles, verrouillage, stabilisation, sélection) apparaissent.

Absence de promesse de quantification universelle

La quantification (mesures, entropies, distances) dépend de choix. Louvrage cherche donc moins une “valeur” universelle quun ensemble de quantificateurs contrôlables et testables, accompagnés de protocoles de robustesse.

Programme de lecture

La progression suit une logique dengendrement.

  • Dabord, établir les objets de base : états, transformations admissibles, atteignabilité, itération.
  • Ensuite, montrer comment la répétition, les cycles, les classes et les quotients apparaissent sans hypothèse de finalité.
  • Puis, introduire des mécanismes dirréversibilité : non-injectivité, projections, pertes didentifiabilité, monotones.
  • Construire ensuite des mécanismes de transmission : ce qui passe dune trajectoire à une autre sans supposer lidentité fine des états.
  • Définir le verrouillage des futurs : réduction monotone des transformations admissibles et de latteignabilité, puis en proposer des quantifications non triviales.
  • Reconstruire la sélection comme filtrage structurel : dominance géométrique, bassins, effets spectraux éventuels lorsquune couche probabiliste est posée.
  • Étendre enfin lespace détat en incluant les contraintes elles-mêmes, afin de formaliser lauto-stabilisation : points fixes, régions piégées, attracteurs de second ordre.
  • Conclure par une lecture épistémique minimale : ce qui mérite dêtre appelé “connaissance” dans ce cadre, et ce que cette appellation najoute pas.

À chaque étape, la question de la robustesse est centrale : quels résultats survivent au changement de granularité (projections, quotients), au changement de mesure, au changement de noyau de transition, ou au changement de règle de compatibilité des contraintes.

Critères de validité et exigence de réfutabilité

Un cadre abstrait peut devenir invulnérable aux critiques sil est trop flexible.

Trois critères sont adoptés.

Traçabilité des hypothèses

Chaque résultat doit indiquer les hypothèses exactes qui le rendent vrai : finitude, compacité, monotonie, existence dune fermeture, présence dun noyau probabiliste, choix dune mesure.

Déclaration des dépendances

Toute conclusion quantitative doit être indexée par les choix qui la rendent possible (mesure de référence, coût, noyau de transition, quotient). Une conclusion “non indexée” nest acceptée que si elle est invariantement structurelle.

Protocoles de robustesse

Lorsquune notion est sensible à des choix (par exemple la dominance dun attracteur selon la mesure), la sensibilité nest pas un défaut : elle devient un objet détude, au moyen de protocoles explicites (familles de mesures, familles de noyaux, variations contrôlées, comparaison multi-granularité).

Conclusion

Cette introduction fixe une ambition et une discipline : construire, à partir dun minimum de structures, une théorie de lémergence de contraintes stabilisées et transmissibles, puis montrer comment ces contraintes peuvent jouer le rôle que lon attribue ordinairement à la mémoire, à la sélection et à la connaissance, sans invoquer ni finalité, ni sémantique primitive, ni sujet. Le lecteur est ainsi invité à suivre une progression par couches, où chaque gain dexpressivité est payé par des hypothèses explicitement déclarées, et où chaque lecture “appliquée” demeure une instanciation optionnelle, jamais une conséquence implicite du noyau abstrait.


Chapitre 1 — Espaces de configurations et transformations admissibles

Hypothèses et résultats (repères)

Hypothèses (H).

  • un espace de configurations X (ensemble détats) ;
  • une notion dadmissibilité (contraintes) fixée avant lanalyse ;
  • une famille de transformations admissibles (déterministes ou stochastiques) décrivant lévolution.

Résultats (E).

  • définitions de configuration, contrainte admissible et transformation admissible ;
  • mise en place de la dynamique (itération/succession) et du rôle structural des collisions comme indiscernabilité relative à une description.

Statut.

  • noyau ensembliste ; la topologie/métrique, si mentionnée, reste un ajout optionnel et déclaré.

Espace de configurations et contraintes admissibles

On définit un espace de configurations comme lensemble abstrait de tous les états possibles dun système considéré. Mathématiquement, il peut sagir dun ensemble fini ou infini (dénombrable, voire continu), potentiellement muni dune structure additionnelle (topologie, métrique) pour refléter des proximités ou relations entre configurations. Chaque configuration C représente une disposition complète des éléments ou paramètres du système à un instant donné. Par exemple, en mécanique classique, lespace de configurations correspond à toutes les positions possibles des corps; en informatique, lensemble des valeurs de toutes les variables du programme; et dans un contexte plus général, lespace de formes ou de connaissances possibles.

Toute construction rigoureuse dun espace de configurations nécessite aussi de spécifier les contraintes admissibles qui le caractérisent. Celles-ci sont les conditions ou règles logiques limitant les configurations possibles ou leurs enchaînements. Autrement dit, parmi toutes les configurations concevables, les contraintes admissibles définissent celles qui sont physiquement, logiquement ou structurellement réalisables par le système. Par exemple, dans un système physique, les lois de conservation (énergie, charge, etc.) imposent des contraintes qui restreignent lensemble des états accessibles. De même, pour un système dinformation structuré, on peut avoir des invariants (comme lintégrité référentielle dans une base de données, ou la syntaxe dans une phrase) qui excluent certaines combinaisons. Ces contraintes admissibles peuvent être vues comme définissant un sous-espace valide à lintérieur de lespace de configurations, garantissant la cohérence interne de chaque état autorisé.

On note que lespace de configurations nest pas nécessairement un espace géométrique au sens habituel, mais peut être purement relationnel ou combinatoire. Par exemple, en théorie des graphes (ou dans les topologies relationnelles), on considère des états définis par des relations entre objets plutôt que par des positions dans un espace métrique. Un graphe de N nœuds possède un espace de configurations représentant toutes les manières dont les arêtes peuvent relier ces nœuds espace contraint par des règles éventuelles (degré maximal, connexité requise, etc.). On peut doter un tel espace dune notion de distance ou de voisinage (par exemple en comptant le nombre darêtes différentes entre deux graphes) afin de le munir dune topologie relationnelle pertinente. Cela illustre comment labstraction de configuration sadapte à la nature du système : quil sagisse de variables numériques continues, dobjets discrets ou de relations, on vise une description suffisamment générale pour englober tout état possible sans perdre la cohérence imposée par les contraintes.

Transformations et dynamique des états

Une transformation dans ce contexte est une opération qui, appliquée à une configuration initiale C(t) à un « temps » t, produit une nouvelle configuration C(t+1) à linstant suivant (dans un cadre discret) ou C(t+\mathrm{d}t) (en temps continu). Les transformations peuvent être déterministes (règle fixe donnant un état suivant unique) ou stochastiques. Collectivement, elles définissent la dynamique du système, cest-à-dire lévolution possible des configurations au fil du temps. Formellement, on peut voir la dynamique comme une application \Phi^t qui à un temps t et un état initial x associe létat \Phi^t(x) atteint après évolution pendant t unités de temps[1]. Dans un système à temps discret, \Phi^{1} correspond à lapplication dune étape de transformation élémentaire, et litération de cette fonction décrit lévolution itérative du système.

Les contraintes admissibles mentionnées plus haut jouent un rôle double dans cette dynamique. Dune part, elles peuvent restreindre lensemble des transformations autorisées par exemple, une transformation doit conserver certains invariants ou respecter des lois de conservation. Dautre part, même si une transformation est théoriquement applicable, la configuration résultante doit encore satisfaire les contraintes pour être un état valide. Ainsi, on parle de transformations admissibles pour désigner les transformations qui conduisent toujours dune configuration admissible vers une autre configuration elle-même admissible. Ces transformations forment lensemble des opérations élémentaires qui préservent le cadre du système. En pratique, elles découlent souvent de lois fondamentales (équations du mouvement en physique, règles dinférence en logique, règles de mise à jour dans un automate, etc.).

Encadré (statut de ladmissibilité). La notion d« admissible » est une donnée du modèle : elle fixe un ensemble (ou une famille) de transformations autorisées, éventuellement dépendant dun ensemble de contraintes actives K. Lorsque lon veut limiter la sousdétermination du choix dadmissibilité sans introduire de critère de tâche, on peut imposer des propriétés structurelles minimales (invariance par renommage, localité daction, bornes de ressource, cohérence avec les contraintes). Ces propriétés restreignent une classe de dynamiques possibles ; elles ne déterminent pas une dynamique unique. De même, si lon introduit une procédure de compatibilité des contraintes (choix dun sousensemble satisfaisable), sa définition et ses critères doivent être déclarés, car ils peuvent influencer la dynamique effective.

La dynamique discrète où lon évolue par sauts successifs dune configuration à la suivante est un cas standard. Elle permet une analyse itérative des comportements du système et donne lieu à des propriétés bien étudiées comme la convergence éventuelle vers des états particuliers. Un exemple canonique en est la routine de Kaprekar, un processus numérique itératif sur les chiffres dun nombre qui conduit fréquemment à des points fixes ou des cycles attracteurs connus par exemple 6174 en base 10. Plus généralement, dans tout système dynamique (discret ou continu), on sintéresse aux configurations particulières qui structurent lévolution à long terme : les attracteurs. Avant dy venir en détail, on note un aspect des transformations admissibles : elles induisent souvent des collisions dans lespace de configurations. Deux configurations distinctes C_1 et C_2 sont en collision sil existe une transformation (ou une séquence de transformations) T telle que T(C_1) = T(C_2). Dans le cas dune dynamique déterministe, cela signifie que des états initialement différents aboutissent à un même état futur. Loin dêtre nécessairement un problème, de telles collisions peuvent au contraire avoir une portée structurante. En effet, si C_1 \neq C_2 évoluent vers une même configuration C_f, cela indique que C_1 et C_2 appartiennent à une même classe de comportement elles sont indiscernables vis-à-vis de lobservateur qui ne regarde que létat final C_f. Un tel phénomène de collision structurante peut être exploité pour regrouper des configurations par similarité de dynamique ou de forme, à linstar des fonctions de hachage « locality-sensitive » en informatique qui organisent des collisions afin de refléter une proximité sémantique ou morphologique[3]. Plutôt que de proscrire ces collisions, on peut les voir comme la manifestation de contraintes de compatibilité : différentes conditions initiales mènent au même motif final, révélant ainsi une robustesse du motif ou une perte dinformation quant aux détails initiaux.

En résumé, les transformations admissibles définissent comment on peut naviguer dans lespace de configurations. Elles tracent un graphe orienté sur cet espace (chaque configuration pointant vers sa ou ses transformées), généralement non bijectif (plusieurs antécédents pouvant conduire à un même état futur, doù les collisions). Létude de la dynamique revient alors à analyser la structure de ce graphe : existe-t-il des cycles ? des chemins menant à des impasses ou à des attracteurs ? quelle est la taille des bassins conduisant à telle configuration stable ? Ces questions introduisent la notion dattracteur et de stabilité.

Attracteurs, bassins et topologie de la stabilité

On appelle attracteur un ensemble de configurations vers lequel le système évolue de manière irréversible à partir dun grand nombre détats initiaux différents. Plus formellement, un attracteur \mathcal{A} est un sous-ensemble de lespace des configurations qui vérifie deux propriétés : (1) \mathcal{A} est invariant par la dynamique (toute transformation admissible dun état de \mathcal{A} reste dans \mathcal{A}, i.e. \Phi^t(\mathcal{A})=\mathcal{A} pour t suffisamment grand) et (2) \mathcal{A} attire un ensemble voisinage de lui-même[4][5]. En dautres termes, il existe un voisinage \mathcal{B} de \mathcal{A} tel que tout état initial appartenant à \mathcal{B} finira par évoluer dans \mathcal{A}. Lensemble de tous les états qui convergent vers \mathcal{A} constitue ce quon nomme le bassin dattraction de $\mathcal{A}$[6]. Intuitivement, \mathcal{A} représente un comportement asymptotique stable du système : une fois létat entré dans \mathcal{A} (ou suffisamment proche de \mathcal{A}), il sy maintient ou y revient après de petites perturbations.

Un attracteur peut être trivial, par exemple un point fixe (état unique C^* tel que \Phi^t(C^*) = C^* pour tout t). Un tel état est stationnaire et, sil attire ses voisins, on parle déquilibre stable. Les attracteurs peuvent aussi être plus complexes : un cycle limite (ou attracteur périodique) est un ensemble fini de configurations {C_1, C_2, ..., C_k} telles que \Phi^k(C_i) = C_i pour chaque i (avec un k minimal, période du cycle), et {C_1,\dots,C_k} attire les configurations aux alentours. Dans un système continu, on rencontre également des attracteurs étranges (fractal, de dimension non entière) dans les systèmes chaotiques, mais dans le cadre discret et fini, toute trajectoire finit par aboutir à un cycle ou un point fixe (puisque lespace détats est fini, une trajectoire dynamique finira forcément par revisiter un état antérieur, engendrant un cycle de périodicité finie).

La topologie de la stabilité désigne ici lorganisation globale des attracteurs et de leurs bassins au sein de lespace de configurations. On peut la concevoir comme une structure d'atteignabilité (ou, lorsqu'une métrique ou une fonction de potentiel est choisie, une géométrie induite) où les attracteurs jouent le rôle de vallées ou de points bas (états vers lesquels la dynamique descend), séparés par des cols ou des crêtes définissant les bassins dattraction. Cette analogie est courante en dynamique : si lon peut définir une fonction de potentiel ou une mesure de « hauteur » (par exemple une entropie ou une énergie libre associée à chaque configuration), les attracteurs correspondent aux minima locaux de cette fonction. Les chemins dévolution suivent alors plus ou moins la pente vers ces minima, et la topologie de la stabilité décrit comment ces minima sont distribués, comment les bas-fonds (bassins) se connectent ou sont séparés par des barrières. La pertinence de cette lecture dépend dhypothèses explicites sur létat (finitude, compacité, dissipativité) et sur le choix de métrique ou de mesure.

Dans un cadre strictement déterministe, deux attracteurs distincts sont disjoints : un état du bassin de lattracteur \mathcal{A}_1 ne peut pas, sans perturbation extérieure, basculer spontanément dans le bassin dun autre attracteur \mathcal{A}_2. Cependant, si lon introduit de légères perturbations aléatoires ou des modifications paramétriques (par exemple du « bruit » ou une variation continue de paramètres), la stabilité des attracteurs peut être mise à lépreuve. On étudie alors la robustesse des attracteurs : certains persistent sous de petites perturbations (on parle de stabilité structurelle du système dynamique), tandis que dautres peuvent bifurquer ou disparaître. La topologie de la stabilité englobe ainsi non seulement la répartition des attracteurs et de leurs bassins, mais aussi les voisinages de stabilité de ces attracteurs cest-à-dire jusquoù sétend, en termes de perturbations possibles, la conservation du comportement attracteur.

Un aspect de cette topologie est la présence éventuelle dattracteurs dominants, cest-à-dire ayant un bassin dattraction extrêmement large par rapport aux autres[7][8]. Dans les systèmes finis, on observe parfois quune poignée dattracteurs concentrent la plupart des trajectoires possibles (presque tout état initial finit dans lun dentre eux), alors que dautres attracteurs plus « exotiques » ont des bassins ténus (par exemple, des configurations très particulières mènent à un cycle rare). La structure des bassins peut se quantifier par une entropie ou une mesure de diversité : plus les trajectoires se répartissent uniformément entre de nombreux attracteurs, plus lentropie est élevée; à linverse, si quelques attracteurs absorbent presque tout, lentropie structurelle de la dynamique est faible (le système a tendance à « oublier » ses conditions initiales en ne conservant quun petit nombre de motifs finaux possibles).

Enfin, la stabilité dun attracteur se manifeste aussi par la résistance aux transformations internes. Un attracteur peut être vu comme une configuration (ou un motif) invariant par transformation éventuellement au sens élargi dinvariance statistique. Par exemple, un motif qui se répète périodiquement dans le temps est invariant par la transformation « avancer de la période $T$ ». De même, un motif spatial auto-similaire est invariant par certaines transformations déchelle ou de rotation. Cette invariance confère à lattracteur une identité propre. On peut alors étudier la stabilité sous transformation : une configuration est stable sous une transformation donnée si lapplication de cette transformation ne léjecte pas de son attracteur. Un attracteur est par définition stable sous la dynamique du système (puisquil est invariant par \Phi^t), mais on peut élargir la notion à dautres transformations du système, par exemple des transformations sémantiques ou des perturbations contrôlées. Dans les systèmes complexes, on attend des attracteurs quils conservent leurs propriétés qualitatives face à des changements mineurs ou non structurants cest un critère de robustesse. Par exemple, en reconnaissance de formes, une image dun même objet reste reconnue malgré de petites rotations ou changements déchelle : le concept représenté par lattracteur « objet » demeure stable sous ces transformations non essentielles.

La notion de transformation structurante émerge lorsque lapplication dune transformation provoque non pas la destruction dun motif, mais au contraire la création dune nouvelle structure organisée. Dans certains systèmes, deux configurations peuvent interagir (on peut penser à une « collision » entre deux motifs dans un automate cellulaire) pour en produire une troisième de complexité supérieure. Si cette nouvelle configuration est elle-même stable ou donne naissance à un attracteur, la transformation a joué un rôle structurant. On touche ici à lidée que des interactions locales peuvent engendrer de la nouveauté stable concept intimement lié à lauto-organisation.

Auto-organisation et attracteurs morphologiques

Un système est dit auto-organisé lorsquil est capable de faire émerger spontanément de lordre à partir du désordre, sans contrôle externe imposé. Lauto-organisation se manifeste typiquement par lapparition de structures cohérentes, de motifs ou de comportements globaux à partir dinteractions locales entre constituants simples. Ce principe, formulé en termes généraux, souligne la capacité de composants simples à former des structures complexes de manière autonome, sans intervention extérieure[9]. De nombreux systèmes physiques, chimiques et biologiques illustrent ce phénomène : on peut citer la formation de motifs de convection hexagonaux dans une couche fluide chauffée (cellules de Bénard), les oscillations chimiques de la réaction de Belousov-Zhabotinski, la cristallisation, ou en biologie la morphogenèse (apparition de motifs pigmentaires, de rayures, de tâches sur les animaux, expliquée dès 1952 par les modèles réaction-diffusion de Turing). Dans tous ces exemples, un état initial homogène ou chaotique évolue vers un état structuré présentant des corrélations à longue portée entre éléments du système. Prigogine a formalisé ce phénomène dans sa théorie des structures dissipatives, montrant que loin de léquilibre, des phénomènes ordonnés peuvent se produire qui sont impossibles à proximité de léquilibre thermique[10][11]. En régime loin de léquilibre, lénergie dissipée alimente des fluctuations qui, au-delà dun certain seuil dinstabilité, se stabilisent en nouveaux modes organisés. En ce sens, la dissipation dénergie devient source dordre une idée paradoxale du point de vue de lentropie classique, mais parfaitement illustrée par ces structures auto-organisées.

Le lien entre attracteurs et auto-organisation se fait naturellement : les attracteurs sont les structures ordonnées vers lesquelles tend un système auto-organisé. On parle parfois dattracteurs morphologiques pour souligner que ces attracteurs correspondent à des formes ou motifs stables. Par exemple, dans un automate cellulaire comme le Jeu de la Vie de Conway, on observe une multitude de structures émergentes : certaines configurations finissent par osciller (clignoteurs), dautres convergent vers des motifs stables figés (« blocs », « bateaux »), et dautres encore produisent des vaisseaux mobiles comme le fameux glider (planeur) qui se déplace indéfiniment sur la grille. Chaque tel motif stable ou périodique peut être vu comme un attracteur morphologique de la dynamique de lautomate. Fait remarquable, ces structures apparaissent spontanément à partir de configurations initiales aléatoires un désordre initial « cuisiné » en quelque sorte en configurations structurées. Dans lanalogie de la soupe primitive chère aux biologistes, le Jeu de la Vie démontre comment, avec quelques règles locales de survie et reproduction, des motifs très sophistiqués peuvent émerger et rappeler la diversité des formes vivantes issues du chaos primordial[12][13]. La soupe primordiale du Jeu de la Vie correspond à une grille initialement remplie au hasard de cellules vivantes ou mortes ; très vite, on voit surgir des arrangements réguliers cest une illustration ludique mais profonde du principe dauto-organisation.

Du point de vue scientifique général, ces attracteurs morphologiques relient notre construction à divers corpus établis. Dune part, la dynamique discrète et la théorie générale des systèmes dynamiques fournissent le langage mathématique pour décrire ces attracteurs, leurs bassins, et les bifurcations possibles[2][14]. Ce cadre est bien consensuel : depuis Poincaré jusquà la théorie du chaos déterministe, on dispose doutils pour comprendre la convergence vers des ensembles invariants, la robustesse aux perturbations et la dépendance sensible aux conditions initiales. Dautre part, les systèmes auto-organisés relèvent dun domaine de recherche interdisciplinaire actif, englobant la thermodynamique hors-équilibre (Prigogine, Haken), la physique statistique des processus dordre émergent, la chimie prébiotique, la science des matériaux (auto-assemblage) et bien sûr la biologie du développement et de lévolution. Un consensus sest formé sur le fait que lauto-organisation est un ingrédient fondamental dans lémergence du vivant et des structures complexes, même sil reste beaucoup de questions ouvertes quant aux détails (par exemple, comment quantifier précisément linformation produite lors de lauto-organisation, comment prédire lapparition de tel ou tel attracteur en fonction des paramètres, etc.).

En parlant dinformation, il faut souligner le lien avec la notion dentropie structurelle. Classiquement, lentropie mesure le désordre microscopique dun système. Lentropie informationnelle de Shannon, formulée en 1948, quantifie lincertitude associée à une distribution détats ou de symboles[15]. Un système complètement désordonné ou imprévisible a une entropie élevée, tandis quun système très ordonné (donc prévisible) a une entropie faible. Lorsquune structure émerge par exemple un cristal se forme à partir datomes en solution, ou un motif régulier apparaît lentropie associée à la configuration diminue localement (il y a moins de surprise, plus de régularité). Schrödinger notait dès 1944 que la vie se caractérise par sa capacité à absorber de la « négentropie » pour maintenir son ordre interne[16]. En dautres termes, un organisme vivant puise de lénergie dans son environnement et lutilise pour réduire son entropie interne (créer et maintenir des structures hautement improbables du point de vue de léquilibre).

Dans le cadre de notre modèle, on peut définir lentropie structurelle comme une mesure de la diversité ou du désordre des configurations du système au niveau macroscopique. Par exemple, si lespace de configurations se répartit en quelques attracteurs dominants et que presque toutes les trajectoires finissent dans lun deux, on dira que lentropie structurelle du système est faible il y a peu de diversité finale. En revanche, sil existe de très nombreux attracteurs de taille comparable, ou si la dynamique conserve une richesse de formes au cours du temps, lentropie structurelle est élevée. Linformation produite par le système au cours du temps peut se mesurer par la réduction dentropie quil opère en formant des structures. Landauer a établi en 1961 un lien entre information et physique : « toute manipulation logique irréversible de linformation... est nécessairement accompagnée dune augmentation de lentropie dans lenvironnement »[17]. Effacer un bit dinformation cest-à-dire détruire de linformation pour aller vers un état plus ordonné coûte au minimum kT\ln 2 dénergie dissipée sous forme de chaleur[18]. Cette limite de Landauer montre que créer de lordre (réduire lentropie informationnelle interne) a un prix énergétique. Notre cadre sinscrit dans cette compréhension : lémergence dun attracteur (ordre organisé) suppose en contrepartie une dissipation dénergie ou une exportation dentropie ailleurs. Dans une perspective physique, lanalyse consiste à considérer où part lentropie perdue quand de lordre apparaît localement. Cela évite de violer le second principe de la thermodynamique, même si, à première vue, un système auto-organisé semble « décréer » du désordre. En réalité, il le délocalise ou le transforme.

Le pont conceptuel jeté par E.T. Jaynes dans les années 1950 vient ici éclairer la situation dun jour unifié : Jaynes a soutenu que lentropie de Shannon et lentropie de Gibbs (thermodynamique statistique) sont en fait la même notion conceptuelle, lune appliquée à de linformation abstraite, lautre à des micro-états physiques[19]. Le fait quelles obéissent à des formules identiques nest pas une coïncidence mais le signe que la physique statistique peut se voir comme un cas particulier dun principe dinférence logique (le principe de maximum dentropie). Ainsi, la formation dune structure dans notre espace de configurations peut être interprétée à deux niveaux : (i) concrètement, comme létablissement dun ordre dans le système (baisse dentropie physique interne, augmentation corrélative de lentropie dans lenvironnement dissipatif) et (ii) informationnellement, comme une gain dinformation sur létat du système (on a réduit lincertitude sur sa configuration en observant lémergence dun motif précis). Cette double lecture, garantie cohérente par les principes de Landauer, Shannon et Jaynes, confère au concept dattracteur une portée à la fois physique et informationnelle : un attracteur, cest un condensé dinformation (la description de lattracteur est relativement simple comparée à celle dun état aléatoire) et cest un puits de dissipation (de lénergie a été dissipée pour y parvenir).

Lecture conditionnelle et implications ontologiques

En posant ces bases mathématiques espace de configurations, contraintes, transformations, attracteurs et stabilité nous avons esquissé un cadre minimal pour quune dynamique dexpression structurale puisse exister. Il sagit fondamentalement des conditions dexistence dun « substrat » capable de porter des formes, de les faire évoluer, interagir et éventuellement se complexifier. Nous allons maintenant situer ce cadre par rapport à des questions plus fondamentales dontologie (philosophie de lexistence et de la connaissance). Lenjeu est de comprendre si un tel formalisme peut modéliser des systèmes particuliers (physiques, biologiques, informatiques) et, sous hypothèses explicites, fournir une lecture interprétative sans énoncé sur la structure du réel en général. Les lectures interprétatives (lorsquelles sont proposées) sont formulées avec hypothèses H, énoncé E, lecture optionnelle I, et ruptures C si une hypothèse est retirée.

Une question philosophique millénaire, renouvelée à lère de linformation, est celle de la primauté de la matière ou de linformation. Traditionnellement, on considère que la matière est première et que linformation nest quune configuration de la matière par exemple, lencre sur du papier pour écrire un texte. Toutefois, on peut inverser cette perspective et concevoir la matière elle-même comme une expression émergente dune information sous-jacente. Le physicien John Wheeler a popularisé cette idée par la formule « it from bit » « lobjet provient du bit » signifiant que linformation est conceptuellement première, et que la matière ainsi que les lois physiques émergent dun monde fondamental dinformation[21]. Autrement dit, les particules, les champs, lénergie que nous percevons seraient des manifestations dun substrat informatif plus profond, tout comme, dans un automate cellulaire, un « glider » tangible nest au fond quune certaine configuration de bits sur la grille.

On peut considérer lhypothèse de travail suivante : au fondement dun système, avant toute instanciation énergétique, on postule une structure dinformation ou de connaissance comme espace de configurations, et lon lit ensuite des grandeurs physiques (matière, énergie) comme des descriptions dérivées sous instanciation. Par pré-énergétique, on entend ici que le noyau du formalisme nemploie pas lénergie comme primitive ; une lecture physique exige un dictionnaire dinstanciation et des hypothèses additionnelles. Cette hypothèse est spéculative et ne fait pas consensus ; elle est formulée comme une lecture possible, non comme une conséquence du noyau minimal. Elle sinspire notamment de pistes existantes : outre Wheeler, la recherche en gravitation quantique (approches « it from qubit ») et des reformulations computationnelles de certaines lois de la physique.

Cette construction fournit un langage pour formuler cette lecture de manière conditionnelle. En effet, si lon considère un espace de configurations (éventuellement très grand), satisfaisant des hypothèses explicites, évoluant suivant des règles (transformations admissibles) et contraint par certaines cohérences internes (contraintes admissibles fondamentales, quon peut relier, selon les instanciations, à des principes de symétrie ou de conservation), alors lémergence du monde matériel peut être lue comme lapparition dattracteurs dans cet espace abstrait. Les particules élémentaires, par exemple, pourraient correspondre aux attracteurs stables dune dynamique informationnelle sous-jacente des formes invariantes (comme des solitons) dans un substrat de calcul ou de relation. Cette idée rejoint en partie des pistes déjà explorées en cosmologie et en physique théorique : automates cellulaires universels (Zeldovich, Fredkin) pour simuler des dynamiques à grande échelle, théories décrivant la physique comme calcul (Zuse), ou hypothèses sur un substrat de calcul. Dans cette lecture, on introduit explicitement la dimension de connaissance : ce substrat informationnel peut être vu non seulement comme de linformation brute, mais comme une ontologie de la connaissance une structure formelle dans laquelle ce qui existe, cest ce qui peut être distingué, organisé, connu en puissance.

Dans un tel cadre, les collisions structurantes évoquées plus tôt peuvent recevoir une lecture interprétative (sous hypothèses explicites) : deux « configurations » dun espace de configurations qui entrent en collision (au sens dinteraction dans la dynamique) peuvent donner naissance à une nouvelle structure stable on pourrait y voir une analogie avec deux ondes se rencontrant pour créer une particule stable, ou deux événements fusionnant en un concept nouveau. De même, la notion de reproductibilité interne revêt une portée fondamentale : pour quune complexification croissante se produise dans le système sans apport extérieur, il faut que certaines structures une fois apparues puissent se copier ou se répliquer à lintérieur du système. Sans reproduction, pas daccumulation dinformation structurale sur le long terme cest lapanage du vivant, mais peut-être aussi dautres processus naturels. Or, on sait depuis les travaux de von Neumann quun système purement formel peut tout à fait engendrer des entités auto-réplicatives : dès 1948, von Neumann décrivit un automate cellulaire capable de se copier lui-même, anticipant conceptuellement le mécanisme de lADN bien avant sa découverte[22]. Il montra quen munissant un automate dun ensemble suffisant détats et de règles, on peut avoir une configuration P (un « programme ») qui crée une copie P' delle-même à côté, tout en se conservant établissant ainsi la possibilité dune machine virtuelle autoreproductrice[23][24]. Autrement dit, la logique de la vie (duplication de linformation génétique et construction dun nouvel individu à partir de cette information) peut être capturée dans un espace de configurations purement informationnel. La reproductibilité interne dans notre modèle consisterait en de tels attracteurs capables de générer, via les transformations admissibles, des copies deux-mêmes au sein du même espace. Un tel phénomène permettrait la transmission et laccumulation de structures, ouvrant la voie à une évolution endogène du système. Cette idée est spéculative à grande échelle ; elle suppose quun système, pour engendrer de la complexité, requiert (sous hypothèses explicites) la capacité de conserver et de répliquer certains agencements informationnels stables à travers le temps, en plus de simplement les produire de manière isolée.

Philosophiquement, envisager la connaissance comme substrat pré-énergétique conduit à repenser la notion même dêtre. Dans cette optique, être signifierait peut-être être informé, cest-à-dire occuper une configuration distinctive dans lespace ontologique fondamental. La connaissance, quant à elle, ne serait plus seulement une faculté émergente de certains systèmes (comme le cerveau humain), mais un ingrédient constitutif de la réalité au sens où les « lois de la physique » pourraient être lues comme des contraintes admissibles de cet espace, et les « états physiques » comme des attracteurs informationnels. Cette vue ne fait pas consensus et reste une interprétation parmi dautres ; elle exige un dictionnaire dinstanciation explicite pour relier le formalisme minimal à des énoncés physiques.

Pour conclure ce chapitre de fondations, nous soulignons la progression logique suivie : nous sommes partis de notions mathématiques pures (ensemble de configurations, applications dynamiques, attracteurs) pour arriver à effleurer les questions dinterprétation (origine de lordre dans un modèle, primauté de linformation) et ontologiques (quest-ce qui est fondamentalement réel ? la matière ou la connaissance ?). Cette progression sest faite sans rupture de ton, car le même formalisme sous-tend chaque étape. Les attracteurs que nous avons définis formellement peuvent représenter aussi bien un motif dans un automate que létat stationnaire dun système modélisé ou lidée stable dans un système de pensée. Le fil conducteur est la stabilité structurelle et la reproductibilité : ces deux caractéristiques rendent compte de la persistance et de lorganisation du réel à toutes les échelles. En effet, dans tout modèle satisfaisant les hypothèses de stabilité, la stabilité structurelle est ce qui permet à des structures élémentaires (particules, atomes) de perdurer suffisamment pour se combiner en structures plus complexes (molécules, cellules, étoiles), et la reproductibilité (ou du moins la multiplicabilité) est ce qui permet den avoir de multiples exemplaires pour construire les niveaux supérieurs. Du point de vue de la connaissance, la stabilité correspond à la fiabilité des concepts ou des informations (une connaissance stable est une connaissance qui reste vraie ou opérante sous diverses transformations de contexte), et la reproductibilité correspond à la communicabilité et à la transférabilité du savoir (une idée reproductible peut être transmise, recopiée, enseignée, rejouée dans un autre esprit ou un autre support).

Ainsi, espaces de configurations, transformations admissibles, attracteurs et stabilité constituent les briques dun cadre formel où lon peut comparer, sous hypothèses explicites, des lectures physiques, biologiques ou informationnelles en termes de formes, dinformation et de dynamique. Les chapitres suivants poursuivent la construction en détaillant comment ce cadre est enrichi et appliqué à divers domaines, en distinguant systématiquement : résultats standard, hypothèses de travail, et lectures optionnelles. Toute extrapolation est annoncée comme telle.

Références utilisées : Landauer principe thermodynamique de linformation, Shannon entropie dinformation, Jaynes principe de maximum dentropie et correspondance avec la thermo, Schrödinger néguentropie du vivant, Prigogine structures dissipatives et ordre hors-équilibre[11], von Neumann automates auto-reproducteurs, Wheeler «it from bit», entre autres. Chaque concept introduit est associé à des références et à un statut (résultat standard, hypothèse de travail, lecture optionnelle).

[1] [4] [5] [6] Attracteur — Wikipédia

https://fr.wikipedia.org/wiki/Attracteur

[2] [3] Signatures_genetiques_Kaprekar_manuscrit_complet.docx

file://file_0000000026e071f49117ec4b3b473db8

[7] [8] [14] Signatures_genetiques_Kaprekar_fondamentaux.md

file://file_000000009b3471f4b506d9eb26d55ffe

[9] [12] [13] Le jeu de la vie - Bio-Info

https://bioinfo-fr.net/jeu-de-la-vie-intro

[10] [11] Quest-ce que des structures issues du non-équilibre ? - Matière et Révolution

https://www.matierevolution.fr/spip.php?article2079

[15] Entropy (information theory) - Wikipedia

https://en.wikipedia.org/wiki/Entropy_(information_theory)

[16] Qu'est-ce que la vie ? — Wikipédia

https://fr.wikipedia.org/wiki/Qu%27est-ce_que_la_vie_%3F

[17] [18] Principe de Landauer — Wikipédia

https://fr.wikipedia.org/wiki/Principe_de_Landauer

[19] Principle of maximum entropy - Wikipedia

https://en.wikipedia.org/wiki/Principle_of_maximum_entropy

[20] [21] « It from bit », la matière repensée | Cairn.info

https://stm.cairn.info/magazine-pour-la-science-2019-2-page-24?lang=fr

[22] [23] [24] John von Neumann's Cellular Automata | Embryo Project Encyclopedia

https://embryo.asu.edu/pages/john-von-neumanns-cellular-automata


Chapitre 2 — Itération, finitude locale et répétition nécessaire

Hypothèses et résultats (repères)

Hypothèses (H).

  • temps discret et itération dune transformation f:X\to X (déterministe pour lexposé) ;
  • finitude globale (|X|<\infty) ou finitude effective au niveau dune description/partition.

Résultats (E).

  • dérivation combinatoire de la répétition (réapparition détats) puis de lentrée en régime cyclique après transitoire ;
  • distinction de statut entre répétition, invariance et lectures interprétatives.

Statut.

  • noyau ensembliste/combinatoire ; aucune quantification nest requise.

Introduction

Le chapitre précédent a établi un cadre minimal : un espace de configurations, des contraintes dadmissibilité, et une famille de transformations qui induit une dynamique (éventuellement discrète) sur cet espace. Le présent chapitre introduit la contrainte formelle suivante : litération, combinée à une forme de finitude (globale ou locale), entraîne la réapparition détats, puis lentrée dans des régimes cycliques. Cette conséquence ne dépend ni dune interprétation physique ni dune hypothèse finaliste : elle résulte dun fait combinatoire élémentaire, puis dune lecture dynamique.

Itération comme contrainte première

On se donne un ensemble de configurations admissibles (X) et une transformation admissible [ f: X \to X, ] déterministe (pour simplifier lexposé ; les extensions stochastiques seront distinguées plus loin). Une trajectoire issue dun état initial (x_0 \in X) est la suite [ x_0,; x_1=f(x_0),; x_2=f(x_1)=f^{(2)}(x_0),; \dots,; x_t=f^{(t)}(x_0). ] Litération nest pas un détail de mise à jour : elle constitue une contrainte ontologique minimale dès lors quun système (au sens abstrait) se prolonge par mise à jour détat, cest-à-dire produit un état suivant à partir de létat présent. En ce sens, litération impose lexistence dorbites ({f^{(t)}(x_0)}_{t\ge 0}) et fait apparaître la question de leur structure globale.

Deux remarques disciplinaires encadrent la suite.

Premièrement, litération nimplique pas le temps comme primitive. Il sagit dun index détapes, qui ne présuppose aucune métrique temporelle ; la reconstruction dune flèche temporelle sera traitée plus tard, comme conséquence supplémentaire (chapitre 4 du plan).

Deuxièmement, litération ne suppose pas non plus lexistence dune quantité conservée, dune énergie, ni dune notion de coût. Ici, lobjet est strictement : “que devient une suite (x_{t+1}=f(x_t)) sous des hypothèses minimales sur (X) ?”.

Finitude globale : répétition nécessaire par combinatoire

On suppose dabord que (X) est fini, de cardinal [ |X| = N, ] avec (N) entier strictement positif.

Considérons les (N+1) premiers termes dune trajectoire : [ x_0, x_1, \dots, x_N. ] Ces (N+1) éléments appartiennent tous à (X) qui ne contient que (N) éléments. Par le principe des tiroirs (pigeonhole), deux indices (0 \le i < j \le N) existent tels que [ x_i = x_j. ] Cette égalité entraîne immédiatement un régime périodique à partir de (i). En effet, comme (f) est déterministe, létat (x_i) engendre un unique successeur (x_{i+1}), donc légalité (x_i=x_j) impose [ x_{i+1}=f(x_i)=f(x_j)=x_{j+1}, ] et par récurrence [ x_{i+k}=x_{j+k}\quad \text{pour tout }k\ge 0. ] Ainsi, la trajectoire entre (i) et (j-1) se répète avec une période [ p = j-i,\quad 1 \le p \le N. ]

Calcul détaillé (borne de répétition dans le cas fini) Paramètre : (N = |X|) Suite considérée : ((x_t){t\ge 0}) avec (x{t+1}=f(x_t)) Nombre détats examinés : (N+1) états (x_0,\dots,x_N) Principe : (N+1) objets dans (N) classes (\Rightarrow) collision (x_i=x_j) Conclusion : entrée en cycle au plus tard à létape (N), avec période (p=j-i\le N)

Ce résultat est strictement mathématique : il ne requiert aucune hypothèse de “dissipation”, d“optimisation” ou de “tendance”. Il exprime une nécessité : litération sur un ensemble fini force une récurrence, donc une périodicité après un transitoire.

Une formulation équivalente (commode pour la suite) consiste à représenter ((X,f)) comme un graphe orienté fonctionnel : chaque (x\in X) a exactement une arête sortante vers (f(x)). La structure de tels graphes est complètement caractérisée : chaque composante connexe contient exactement un cycle dirigé, et des arbres dirigés (arborescences) alimentent ce cycle. Toute orbite finit par tomber sur le cycle de la composante. L“attracteur” au sens discret (point fixe ou cycle) apparaît donc déjà comme un fait de combinatoire structurale, avant toute notion dattraction métrique.

Ce point est cohérent avec une formulation interne déjà utilisée ailleurs dans la base : litération dune application sur un espace discret fini aboutit en temps fini à un cycle, précisément parce que “toute trajectoire finit par répéter un état” (propriété structurelle).

Distinction entre répétition et invariance

La conséquence “il existe une répétition” ne doit pas être confondue avec “il existe une invariance”.

Répétition (récurrence) Il existe (i<j) tels que (x_i=x_j). Cela implique une périodicité à partir de (i) (cycle de période (p=j-i)).

Invariance Un objet (état, propriété, sous-ensemble) est invariant si lapplication (f) le préserve : [ f(S) \subseteq S, ] et, dans le cas particulier dun point fixe (x^), [ f(x^)=x^*. ]

Dans le cas fini, la répétition garantit lexistence dun cycle, qui est bien un ensemble invariant (C={c_0,\dots,c_{p-1}}) tel que (f(c_k)=c_{k+1 \bmod p}). Mais la répétition ne dit rien, à elle seule, sur lexistence dinvariants “simples” (tels quun point fixe), ni sur la taille des bassins. Elle impose seulement que linvariance existe au moins sous forme cyclique.

Finitude locale : une hypothèse plus faible, mais structurante

Lhypothèse “(X) fini” est forte. La plupart des modèles physiques idéalisés utilisent des espaces continus, donc infinis. Pourtant, une version beaucoup plus faible suffit souvent à retrouver une contrainte de répétition, au moins “à résolution finie”.

On introduit alors la notion de finitude locale par observabilité ou par description :

Finitude locale par résolution On suppose quil existe une application de quantification (ou de partition) [ q: X \to \mathcal{A}, ] où (\mathcal{A}) est un alphabet fini de “classes observables” (états grossiers). Deux états (x,y) sont indiscernables à la résolution considérée si (q(x)=q(y)).

Dans ce cas, même si (X) est infini, la suite observée [ a_t = q(x_t) ] prend ses valeurs dans un ensemble fini (\mathcal{A}). Par le même principe combinatoire, la suite ((a_t)) répète nécessairement une valeur, donc contient des motifs répétitifs. On obtient alors une répétition au niveau des classes, non nécessairement au niveau des micro-états.

Finitude locale par complexité de description Une autre forme consiste à supposer que, à un instant donné, seul un nombre fini de degrés de liberté est effectivement engagé, ou quun codage minimal de létat a une longueur bornée. Si lon code létat par une chaîne de longueur (m) sur un alphabet de taille (B), le nombre de descriptions possibles est [ N = B^m, ] donc fini. Litération des descriptions (ou des états codés) retombe alors dans le cas précédent : répétition nécessaire après au plus (B^m) pas (borne brute). La valeur de (B^m) nintervient pas dans largument : dès que la dynamique est contrainte à évoluer dans un espace de descriptions finies, la répétition est structurellement imposée.

Ces deux variantes de finitude locale sont plus proches des pratiques scientifiques standard : mesure à résolution finie en physique, discrétisation en simulation numérique, et représentation symbolique en informatique théorique. Elles permettent de parler de répétition “objective” sans supposer que le monde fondamental soit littéralement fini.

Itération stochastique : répétition en probabilité et récurrence de Markov

Lorsque la transformation nest plus une fonction déterministe (f) mais un noyau de transition (processus stochastique), largument doit être reformulé. On obtient néanmoins un analogue robuste, bien établi en théorie des chaînes de Markov finies : sur un espace détats fini, certaines classes sont récurrentes, et le processus revisite des états (ou des classes) avec probabilité (1) sous des conditions standard dirréductibilité/aperiodicité. Ce chapitre na pas à développer ces résultats, mais il doit fixer un point méthodologique : la répétition nest pas un artefact du déterminisme ; elle persiste sous bruit dès que lespace effectif détats est fini (ou fini après agrégation), mais elle change de statut (presque sûre, en moyenne, stationnaire).

Cette distinction est réutilisée dans les chapitres sur la robustesse et la stabilisation sous perturbations.

Lecture conditionnelle minimale : existence de cycles sous hypothèses de finitude

Sous hypothèses H = {espace fini, dynamique déterministe}, lénoncé E suivant est démontré : toute trajectoire entre dans un cycle en temps fini. Lecture possible (I) : la récurrence est une conséquence combinatoire de finitude et déterminisme ; elle fournit un schéma minimal de retour, sans implication ontologique sur le réel. Ruptures (C) : si lespace nest plus fini (espace infini), lexistence de cycles nest pas garantie ; si la dynamique nest plus déterministe (dynamique relationnelle), les cycles sont remplacés par des composantes fortement connexes ou attracteurs relationnels.

À ce stade, on se limite à lénoncé suivant : dans tout système fini à dynamique déterministe, litération induit lexistence de cycles. Il ne sagit pas daffirmer que “tout est cyclique”, mais que la cyclicité est déduite sous ces hypothèses, donc disponible comme brique de construction. Cette disponibilité suffit déjà à rendre possibles :

  • des régimes périodiques stables (qui seront analysés comme attracteurs discrets au chapitre suivant),
  • des transitoires longs, suivis de cycles courts (structure “arbres vers cycles”),
  • des récurrences de motifs à une échelle dobservation donnée, même si la micro-dynamique est complexe.

Philosophiquement, lenseignement est strictement négatif (au sens logique) : toute théorie qui prétend exclure la répétition dans un système itératif sur un espace détats fini ne peut le faire sans introduire une hypothèse supplémentaire (croissance illimitée de lespace détats, création continue de nouveaux degrés de liberté, ou raffinement infini de lobservabilité). Le modèle nimpose pas de métaphysique ; il impose une dette dhypothèse.

Stabilisation conceptuelle : ce qui est désormais acquis, et ce qui reste interdit

Ce qui devient acquis à lissue du chapitre :

  • litération est formalisée comme lopération génératrice dorbites ;
  • la finitude globale entraîne une répétition nécessaire, donc lentrée dans un cycle après un transitoire borné par le cardinal ;
  • la finitude locale (par quantification ou description) entraîne une répétition nécessaire au niveau des classes, même si lespace fondamental est infini ;
  • la répétition est distincte de linvariance : elle garantit lexistence dun invariant cyclique, mais pas dune conservation “physique” ou dune stabilité robuste au sens métrique.

Ce qui reste explicitement interdit à ce stade (car non encore reconstruit) :

  • lusage dune notion de “temps” comme grandeur primitive (il ne sagit ici que dun ordre ditération) ;
  • lintroduction dune “mémoire” ou dune “information” comme explication (elles pourront apparaître plus tard comme lectures possibles, pas comme axiomes) ;
  • lattribution dune finalité ou dune optimisation à la répétition (elle est purement combinatoire).

Conclusion

Le chapitre 2 a établi une nécessité structurale : dès lors quune dynamique itérative agit sur un espace détats effectif fini (globalement, ou à résolution finie), la répétition nest pas un événement contingent mais une conséquence logique. Cette contrainte prépare directement le chapitre suivant : si lexistence de cycles est garantie, il devient pertinent de classifier ces cycles (points fixes, cycles de période (p)), de caractériser leurs bassins, et de préciser sous quelles conditions ils peuvent être interprétés comme attracteurs au sens dynamique.


Chapitre 3 — Attracteurs, cycles et ensembles invariants

Hypothèses et résultats (repères)

Hypothèses (H).

  • cadre discret fini (X,f) pour les garanties “en temps fini” ;
  • ou cadre topologique/métrique (compacité, continuité) pour les notions de limites et de stabilité.

Résultats (E).

  • définitions de points fixes, cycles, ensembles invariants, bassins et attracteurs (discret puis topologique) ;
  • introduction de la stabilité (Lyapunov) et de la robustesse qualitative (stabilité structurelle) comme cadres de lecture déclarés.

Statut.

  • résultats en temps fini : noyau ensembliste (finitude) ;
  • résultats de type limite/stabilité : couche topologique/métrique déclarée.

Résumé exécutif

Ce chapitre établit, dans lordre logique imposé, le passage de la répétition (chapitre 2) à la structure asymptotique des trajectoires. Dans un cadre discret fini (X,f), on montre que toute orbite se décompose en un transitoire suivi dun cycle; lespace détats se décompose alors en composantes fonctionnelles, chacune constituée dun cycle unique alimenté par des arborescences dirigées. Cette décomposition permet de définir rigoureusement points fixes, cycles, ensembles invariants et bassins, puis de proposer des quantifications (taille de bassin, dominance).

On étend ensuite ces notions au cadre topologique/métrique (applications continues sur espaces compacts, flots sur variétés) en introduisant les notions de voisinage, de convergence vers un ensemble, de stabilité au sens de Lyapunov, et de types dattracteurs (équilibre, orbite périodique, tores invariants, attracteurs chaotiques). On énonce des résultats classiques de consensus : définition de lentropie topologique comme invariant (AdlerKonheimMcAndrew), exclusion des attracteurs étranges en dimension 2 sous hypothèses standard (PoincaréBendixson), et apparition de dynamiques hyperboliques et de chaos via lapproche de Smale (Axiom A) et les mécanismes de turbulence/chaos (RuelleTakens, Lorenz).

Enfin, on formalise robustesse et bifurcations (dont Hopf), en insistant sur les changements possibles de topologie des bassins et sur la stabilité structurelle comme propriété de persistance qualitative sous perturbation.

Les implications restent strictement déduites. Hypothèses : espace détats fini (ou compact) ; dynamique déterministe (ou relationnelle). Énoncé : existence dattracteurs. Dans tout modèle satisfaisant ces hypothèses, un système itératif est structurellement capable de produire des formes persistantes (au sens densembles invariants attractifs), condition de possibilité pour toute accumulation ultérieure de structures transmissibles, sans présupposer sémantique ni téléologie. Ruptures : si lespace nest pas compact, fuite possible ; si lhypothèse de piégeage / dissipativité manque, errance sans piégeage.

Fondations formelles dans le cadre discret fini

Soit X un ensemble fini non vide, |X|=N, et f:X\to X une application (déterministe). On note f^{(t)} litérée (t)-ième, et pour x\in X on appelle orbite la suite (x_t)_{t\ge 0} définie par x_0=x, x_{t+1}=f(x_t).

Définitions de base (discret)

Point fixe. x^\*\in X est un point fixe si f(x^\*)=x^\*.

Point périodique / cycle. Un point x\in X est périodique de période p\ge 1 si f^{(p)}(x)=x et p est minimal. Lensemble C=\{x,f(x),\dots,f^{(p-1)}(x)\} est un cycle.

Ensemble invariant (positivement invariant). Un sous-ensemble S\subseteq X est (positivement) invariant si f(S)\subseteq S. Il est invariant au sens fort si f(S)=S.

Dans le cadre fini, un cycle C vérifie f(C)=C (invariance au sens fort). La notion dinvariance ne requiert aucune topologie : elle est purement relationnelle.

Proposition fondamentale : transitoire + cycle

Proposition A (décomposition orbitale). Pour tout x\in X, il existe des entiers 0\le \mu < \mu+p \le N tels que


f^{(\mu+p)}(x)=f^{(\mu)}(x),

et la suite est périodique de période p à partir de linstant \mu. En particulier, l(\omega)-limite de x (au sens discret) est un cycle.

Démonstration (principe des tiroirs). La suite x_0,x_1,\dots,x_N contient N+1 termes dans un ensemble de N éléments, donc il existe 0\le i<j\le N tels que x_i=x_j. Posons \mu=i et p=j-i. Par déterminisme, x_{i+k}=x_{j+k} pour tout k\ge 0, donc périodicité de période p à partir de i. □

Cette proposition prolonge directement le résultat du chapitre 2 (récurrence forcée sous finitude) en identifiant la structure de l(\omega)-comportement comme un cycle.

Représentation par graphe fonctionnel

On associe à (X,f) un graphe orienté fonctionnel G_f=(X,E)


E=\{(x,f(x))\;:\;x\in X\}.

Chaque sommet a degré sortant 1, tandis que le degré entrant est libre (collisions possibles, i.e. antécédents multiples).

Proposition B (structure des composantes). Chaque composante connexe faible de G_f contient exactement un cycle dirigé. Tous les autres sommets de la composante appartiennent à des arborescences orientées vers ce cycle.

Démonstration. (Existence) Dans une composante, partons dun sommet x et suivons les arêtes sortantes x, f(x), f^{(2)}(x),\dots. Comme X est fini, un sommet se répète; la portion entre la première occurrence et la répétition est un cycle dirigé. (Unicité) Supposons par labsurde que la composante contienne deux cycles disjoints C_1 et C_2. Comme la composante est connexe faible, il existe un chemin non orienté reliant un sommet de C_1 à un sommet de C_2. En suivant les arêtes sortantes depuis un sommet de ce chemin, on doit ultimement atteindre un cycle (Proposition A). Mais un sommet na quun successeur, donc lorbite ne peut aboutir quà un seul cycle. Les sommets du chemin ne peuvent donc « mener » à deux cycles différents, contradiction avec la connexité supposée reliant effectivement les deux cycles dans la même dynamique sortante. Donc un seul cycle par composante. □

Cette structure distingue la récurrence (chapitre 2) de lorganisation asymptotique : ici, chaque composante impose un « destin cyclique » unique.

Bassins dans le cadre discret

Dans le cadre fini, lidée de « bassin » peut être définie sans métrique, uniquement par atteignabilité dynamique.

Définition (bassin dun cycle). Soit C un cycle. Le bassin B(C)\subseteq X est lensemble des états dont lorbite entre dans (C) :


B(C)=\{x\in X\;:\;\exists t\ge 0,\ f^{(t)}(x)\in C\}.

Équivalemment (par périodicité), x\in B(C) ssi l(\omega)-limite de x est exactement C.

Proposition C (partition par bassins). Les bassins \{B(C)\}, où C parcourt lensemble des cycles de G_f, forment une partition de X.

Démonstration. Chaque x\in X admet une (\omega)-limite cyclique C_x (Proposition A), donc x\in B(C_x) (couvre X). Si x\in B(C_1)\cap B(C_2), alors lorbite de x rencontre C_1 et C_2. Mais dès quune orbite entre dans un cycle, elle y reste (invariance du cycle), donc C_1=C_2. □

À ce niveau, un « attracteur discret » peut être défini comme un cycle (ou point fixe) muni de son bassin : lobjet stable est le cycle, lobjet dinfluence est le bassin.

Diagramme conceptuel minimal (discret → invariant → bassin)

flowchart TD
  x["État initial x ∈ X"] --> orb["Orbite (f^t(x))_{t≥0}"]
  orb --> rep["Répétition forcée (f^i(x)=f^j(x))"]
  rep --> cyc["Cycle C (ensemble invariant)"]
  cyc --> inv["Invariance: f(C)=C"]
  x --> bas["Bassin B(C): états menant à C"]
  bas --> cyc

Extension au cadre topologique et métrique

On généralise maintenant à un espace X muni dune structure topologique (ou métrique) et une application f:X\to X continue, ou à un flot \{\varphi_t\}_{t\in\mathbb{R}} engendré par une équation différentielle.

Notions de voisinage, (\omega)-limite, attraction

Soit (X,d) un espace métrique (ou compact métrisable), f continue.

(\omega)-limite. Pour x\in X, lensemble \omega(x) est lensemble des points limites de la suite \{f^{(n)}(x)\}. Cest un invariant asymptotique standard en dynamique (et il généralise le « cycle final » du cas fini).

Distance à un ensemble. Pour A\subseteq X fermé, on définit


\operatorname{dist}(y,A)=\inf_{a\in A} d(y,a).

Attraction vers un ensemble. On dit que lorbite de x est attirée par A si


\operatorname{dist}(f^{(n)}(x),A)\to 0\quad (n\to\infty).

Définition standard dattracteur (topologique)

Il existe plusieurs définitions non équivalentes dans la littérature (topologiques, mesurales, « Milnor attractors », etc.). On adopte une définition topologique classique (suffisante ici).

Définition (attracteur topologique). Un compact non vide A\subseteq X est un attracteur si :

  1. invariance : (f(A)=A) ;
  2. il existe un voisinage ouvert U\supseteq A tel que
    
    \operatorname{dist}(f^{(n)}(x),A)\to 0\quad \forall x\in U;
    
  3. (souvent ajouté) minimalité : A=\bigcap_{n\ge 0} f^{(n)}(\overline U).

Le bassin de A est alors


B(A)=\{x\in X:\operatorname{dist}(f^{(n)}(x),A)\to 0\}.

Cette définition rend explicite le rôle de la topologie : le bassin nest plus seulement atteignabilité, mais convergence (au sens de d).

Stabilité au sens de Lyapunov (cadre métrique et flots)

La stabilité « géométrique » des attracteurs se formule via les définitions introduites par Lyapunov dans létude de la stabilité des mouvements, formulation devenue canonique.

Pour une équation autonome \dot x = F(x) et un équilibre x^\* (i.e. F(x^\*)=0) :

Stabilité de Lyapunov. x^\* est stable si


\forall \varepsilon>0,\ \exists \delta>0:\ \|x(0)-x^\*\|<\delta\Rightarrow \forall t\ge 0,\ \|x(t)-x^\*\|<\varepsilon.

Stabilité asymptotique. x^\* est asymptotiquement stable si, en plus, x(t)\to x^\* quand t\to\infty.

Ces notions ont des analogues pour les points fixes des applications discrètes continues (avec t remplacé par n\in\mathbb{N}), et elles sont systématiquement utilisées pour relier « attraction » et « robustesse sous perturbation » dans les cadres différentiables.

Types dattracteurs en dynamique continue

Sous hypothèses de régularité, plusieurs classes de comportements invariants attirants sont bien établies :

  • équilibre stable : point fixe du flot (un point) ;
  • cycle limite : orbite périodique attirante (un cercle topologique) ;
  • tore invariant attirant (quasi-périodicité) ;
  • attracteur chaotique (dit souvent « étrange ») : ensemble invariant attirant présentant une dynamique sensible et typiquement une géométrie fractale.

Le résultat de PoincaréBendixson (consensus) joue un rôle de frontière : en dimension plane, sous conditions standard, les (\omega)-limites compactes non vides sont essentiellement des équilibres ou des orbites périodiques, ce qui exclut lexistence dattracteurs étranges pour les flots C^1 sur le plan (dans le régime couvert par le théorème).

Attracteurs « étranges » : définition opérationnelle et sources classiques

Le terme « attracteur étrange » na pas une définition unique universelle; on retient une définition opérationnelle, standard dans la pratique :

Un attracteur A est dit étrange sil est (i) attractif (au sens précédent), et (ii) porte une dynamique non périodique avec sensibilité aux conditions initiales, et (iii) présente typiquement une structure géométrique non régulière (dimension fractale) ou un étirementrepliement de type hyperbolique.

Trois jalons consensuels structurent cette notion :

  • Lorenz (1963) exhibe un flot déterministe en dimension 3 admettant un comportement non périodique et instable aux conditions initiales, devenu paradigme dattracteur chaotique.
  • RuelleTakens (1971) proposent un mécanisme menant à des régimes chaotiques dans des systèmes dissipatifs via perte de stabilité et apparition densembles invariants complexes.
  • Hénon (1976) fournit une application de \mathbb{R}^2 (diffeomorphisme dissipatif) dont les itérés tendent vers un attracteur étrange pour des paramètres spécifiques, montrant que le chaos attractif nest pas réservé aux flots continus.

Robustesse, bifurcations et stabilité structurelle

Le concept dattracteur, compris comme « structure asymptotique », ne suffit pas : une structure peut exister mais être détruite par une perturbation arbitrairement petite. Doù lintroduction de la robustesse.

Robustesse : définitions formelles minimales

Soit une famille dépendant dun paramètre \{f_\lambda\}_{\lambda\in\Lambda} (applications ou flots). On distingue au moins trois niveaux :

Robustesse dun ensemble invariant. Un invariant A_\lambda est robuste si, pour \lambda' proche de \lambda, il existe un invariant A_{\lambda'} « de même type » (conjugué topologiquement, ou continu en Hausdorff, selon le cadre retenu).

Stabilité structurelle (définition standard). Un système f est structurellement stable (dans une topologie C^r) si tout système g suffisamment proche est topologiquement conjugué à f (au moins sur lensemble non errant / non wandering). Cette notion est au cœur du programme de Smale et de ses prolongements.

Robustesse des bassins. Même si un attracteur persiste, son bassin peut changer fortement (frontières fractales, crises), rendant la « prévisibilité macroscopique » instable.

Bifurcations : principe

Une bifurcation est une valeur de paramètre où la structure qualitative de la dynamique change (nombre/stabilité déquilibres ou dorbites périodiques, apparition/disparition dattracteurs, changement topologique de bassins). Les bifurcations sont donc des points où la stabilité structurelle échoue.

Exemple canonique : bifurcation de Hopf

La bifurcation de Hopf formalise la naissance (ou mort) dune orbite périodique à partir dun équilibre lorsque une paire de valeurs propres complexes conjuguées traverse laxe imaginaire (forme continue) ; cest un mécanisme de création dun cycle limite, donc dun attracteur périodique. Ce résultat est exposé de manière classique dans la tradition HopfAndronovPoincaré, et sa présentation moderne est standardisée dans la littérature.

On distingue typiquement :

  • Hopf supercritique : naissance dun cycle limite stable (attracteur périodique) ;
  • Hopf subcritique : apparition dun cycle instable et perte de stabilité brutale de léquilibre.

Hopf illustre que des attracteurs périodiques peuvent être créés par variation infinitésimale des contraintes dynamiques.

Crises et changements de bassins (dynamique chaotique)

Au-delà des bifurcations locales, des phénomènes de type crise décrivent des changements soudains dun attracteur chaotique (élargissement, disparition) liés à une collision avec une orbite périodique instable. Ces événements sont particulièrement pertinents pour la notion de « dominance dattracteurs » : un attracteur peut rester invariant mais devenir inatteignable pour la plupart des conditions initiales si son bassin se fragmente.

Critères de stabilité structurelle : repères de consensus

Deux repères classiques (énoncés comme consensus, sans preuve ici) :

  • En dimension 2 pour les flots sur surfaces compactes, la stabilité structurelle admet une caractérisation et une densité (théorèmes de Peixoto).
  • Dans le cadre différentiable de Smale, les systèmes hyperboliques Axiom\,A (avec conditions additionnelles type « no cycles ») jouent un rôle central dans la stabilité C^1 et la décomposition spectrale (programme de Smale et prolongements).

Ces repères justifient la séparation conceptuelle : il existe des attracteurs non robustes, et des attracteurs robustes (hyperboliques au sens large), ces derniers étant fondamentaux pour toute théorie de formes persistantes sous perturbations.

Mesures structurelles et quantification

Après avoir défini attracteurs et bassins, il devient possible de quantifier la « topologie de stabilité » (au sens dorganisation globale des bassins).

Quantités combinatoires (discret fini)

Dans (X,f) fini, chaque attracteur discret correspond à un cycle C_i. On définit :

  • taille de bassin : (b_i = |B(C_i)|) ;
  • dominance : (D=\max_i \frac{b_i}{N}) ;
  • nombre dattracteurs : K = \#\{C_i\}.

Ces quantités sont calculables exactement.

Proposition D (borne et calcul de dominance). 1/N \le D \le 1. De plus, D=1 ssi il nexiste quun seul cycle (un attracteur discret unique absorbant tout X).

Preuve. D est le maximum dune distribution \{b_i/N\} dont la somme vaut 1. Le maximum est au moins 1/K\ge 1/N et au plus 1; légalité D=1 implique quun seul terme vaut 1. □

Proposition E (entropie structurelle des bassins). Définissons


p_i=\frac{b_i}{N},\qquad H_{\text{bassins}} = -\sum_{i=1}^K p_i \log p_i.

Alors


0 \le H_{\text{bassins}} \le \log K

avec H_{\text{bassins}}=0 ssi K=1, et H_{\text{bassins}}=\log K ssi p_i=1/K pour tout i.

Preuve. Propriété standard de lentropie de Shannon sur une distribution finie.

Cette « entropie structurelle » nest ici quune fonctionnelle appliquée à la distribution des tailles de bassins. Elle quantifie la dispersion des destinées asymptotiques : faible entropie → attracteurs dominants; forte entropie → pluralité équilibrée des attracteurs.

Entropies dynamiques (topologique et métrique) : extension consensuelle

Dans le cadre topologique, lentropie topologique h_{\text{top}}(f) a été introduite comme invariant pour les applications continues sur espaces compacts. Conceptuellement, elle mesure une croissance du nombre dorbites distinguables à résolution finie, et fournit une quantité globale de « complexité temporelle ».

Dans le cadre mesuré, lentropie métrique (KolmogorovSinai / Sinai) formalise une notion de production dincertitude par itération (sous mesure invariante), utilisée pour caractériser le chaos.

Ces deux notions ne remplacent pas (H_{\text{bassins}}) : elles répondent à une autre question (instabilité/complexité dans linvariant), tandis que H_{\text{bassins}} décrit la distribution daccessibilité des régimes.

Métriques discrètes pour structures datteignabilité (bassins)

Pour relier les structures dattracteurs à des notions de proximité entre états discrets, on introduit des métriques compatibles avec linterprétation (sans limposer).

Exemples génériques :

  • distance de Hamming sur des mots de longueur (m) ;
  • distance dédition (Levenshtein) sur des séquences ;
  • distance sur graphes (nombre minimal de modifications locales: arêtes/sommets).

Ces métriques permettent de définir des voisinages B_\varepsilon(x) et donc des versions « métriques » de bassins et de stabilité, même en contexte discret (commode pour relier, plus tard, lagrégation et la quantification). La théorie de Shannon fournit le prototype de mesure dincertitude sur un ensemble fini et sur des sources finies, indépendamment de toute sémantique.

Schéma de structure datteignabilité (attracteurs, idée structurale)

flowchart LR
  subgraph U["Espace des états (structure datteignabilité)"]
    direction LR
    B1["Bassin B(A₁)"] --> A1["Attracteur A₁"]
    B2["Bassin B(A₂)"] --> A2["Attracteur A₂"]
    B3["Bassin B(A₃)"] --> A3["Attracteur A₃"]
    B1 --- Sep12["Frontière de bassin"]
    B2 --- Sep12
    B2 --- Sep23["Frontière de bassin"]
    B3 --- Sep23
  end

Implications déduites strictement des résultats précédents (lecture conditionnelle)

Les implications suivantes ne sont pas des hypothèses additionnelles : elles découlent des constructions mathématiques précédentes.

Disponibilité nécessaire de régimes persistants

Dans tout cadre abstrait où :

  • une dynamique itérative est définie (chapitres 12),
  • lespace effectif est fini (ou compact avec dissipation/contraction dans le continu),

il existe des ensembles invariants et, sous conditions, des attracteurs au sens topologique. Dans le cas fini déterministe, lexistence de cycles est forcée, et chaque composante admet une structure dabsorption (bassin → cycle). Donc un tel système est structurellement capable de produire des formes persistantes (au sens de régimes invariants atteints asymptotiquement).

Cette « persistance » nest pas un concept biologique ou cognitif : cest une propriété de fermeture et dinvariance.

Effet deffacement des détails initiaux

Dans le cas fini, deux états distincts peuvent partager le même attracteur (ils appartiennent au même bassin). Cela implique un effet doubli structurel : la dynamique identifie des classes détats par leur destinée asymptotique, sans préserver lidentité des conditions initiales. Cette conclusion est purement logique (partition par bassins).

Condition nécessaire (mais non suffisante) pour une réplication interne

Sans introduire encore les notions ultérieures de composition et de transmission (qui viendront plus tard), on peut déjà énoncer une nécessité minimale :

  • toute « réplication interne » (au sens strictement formel : production itérative doccurrences persistantes dune même sous-structure) exige lexistence de régimes invariants suffisamment stables pour ne pas être détruits immédiatement.

Autrement dit, lexistence dattracteurs (régimes invariants attractifs) constitue une condition de possibilité pour toute accumulation ultérieure de structures, mais ne garantit pas la réplication : celle-ci requiert des opérations de composition/couplage non encore introduites dans la spirale (chapitres ultérieurs du plan).

Analyse philosophique finale : nécessité ontologique, limites, interdits

Nécessité ontologique minimale

Ce chapitre permet une thèse philosophique strictement négative (au sens méthodologique) :

  • si un monde est décrit par itération dopérateurs sur un espace effectif fini (ou par une dynamique continue possédant des ensembles (\omega)-limites attractifs), alors lexistence densembles invariants et dattracteurs nest pas un ajout sémantique : cest une conséquence de la structure même de lévolution.

En termes ontologiques : l« être à long terme » dun état nest pas létat lui-même, mais sa classe asymptotique (cycle, attracteur). Cette réduction na rien dinterprétatif ; elle formalise le fait que la dynamique ne conserve pas, en général, les différences microscopiques.

Ce que le formalisme interdit à ce stade

Conformément à la stratégie de louvrage, ce chapitre interdit explicitement (par insuffisance de structure) :

  • dinterpréter un attracteur comme « information », « mémoire » ou « connaissance » (ces lectures sont possibles mais exigent des constructions supplémentaires, notamment sur la non-injectivité, la composition, et lirréversibilité en tant que coût — spirales suivantes) ;
  • de confondre « attracteur » et « optimum » : aucune fonction de coût na été postulée; lattraction est définie par convergence/invariance, pas par maximisation.

Limite conceptuelle : pluralité des définitions dattracteur

Même en mathématiques, « attracteur » est un terme à définitions multiples (topologiques, mesurales, physiques).

Ouverture disciplinée vers la physique (sans fondation)

Une remarque finale, sans changer le statut mathématique : en thermodynamique hors équilibre, lémergence détats organisés (structures dissipatives) peut être lue comme lapparition de régimes attractifs dans lespace des états macroscopiques; Prigogine a insisté sur le rôle des instabilités et fluctuations dans la genèse de telles structures. Cette remarque ne sert pas de preuve; elle indique seulement que le concept abstrait dattracteur a des instanciations reconnues dans des sciences empiriques.

Tableaux comparatifs

Définitions et objets entre cadre discret fini et cadre continu/métrique

Objet Discret fini (X,f) Continu / métrique (X,d,f) ou flot \varphi_t
État x\in X x\in X (souvent variété / espace métrique)
Orbite \{f^{(n)}(x)\}_{n\ge 0} \{f^{(n)}(x)\} ou \{\varphi_t(x)\}_{t\ge 0}
Invariance f(S)\subseteq S f(S)\subseteq S ou \varphi_t(S)=S
Point fixe f(x)=x f(x)=x ou équilibre F(x)=0
Orbit. périodique f^{(p)}(x)=x \varphi_T(x)=x (cycle limite)
Attracteur cycle (avec bassin) compact invariant + voisinage attiré
Bassin atteignabilité vers un cycle convergence : \operatorname{dist}(f^{(n)}(x),A)\to 0
Stabilité graph-theoretic (cycle) Lyapunov / hyperbolicité

Types dattracteurs et mécanismes dapparition

Type Support Mécanisme canonical Source jalon
Équilibre stable point linéarisation + Lyapunov Lyapunov (stabilité)
Cycle limite orbite périodique bifurcation de Hopf Marsden et al. (Hopf)
Chaos attractif ensemble non lisse étirementrepliement, hyperbolicité partielle Lorenz; RuelleTakens; Hénon
Chaos en discret 1D intervalle période 3 ⇒ chaos (au sens LiYorke) LiYorke

Chapitre 4 — Temps comme ordre induit par litération

Hypothèses et résultats (repères)

Hypothèses (H).

  • itération (ou action de semigroupe) définie à partir de transformations admissibles ;
  • choix dune granularité dobservation explicite si une “durée” est mobilisée.

Résultats (E).

  • reconstruction du temps minimal comme ordre induit par latteignabilité (préordre, puis ordre sur quotient) ;
  • clarification du statut de la flèche (semigroupe effectif) et des horloges internes comme quantifications optionnelles.

Statut.

  • noyau ensembliste pour lordre ; quantifications (durées/coûts) indexées et optionnelles ; ancrages physiques annoncés comme correspondances sous hypothèses.

Résumé exécutif

Ce chapitre reconstruit le « temps » sans le postuler. Partant uniquement de primitives non sémantiques — un espace de configurations X, des transformations admissibles, et litération — on montre que la dynamique induit naturellement une relation dantériorité entre états, définie par latteignabilité (transitive closure) plutôt que par un paramètre temporel préalable. Cette relation est toujours un préordre (réflexif, transitif) et devient un ordre partiel lorsque lon quotient par léquivalence de récurrence (mutuelle atteignabilité). Dans le cas discret fini, linterprétation en graphe fonctionnel rend explicite la décomposition en composantes et en cycles, et lon obtient un DAG (« condensation ») qui fournit une flèche dordre.

On étend ensuite la construction à des cadres continus en remplaçant litération par une action de semi-groupe (\mathbb{R}_+,+) (semi-flot), et en distinguant soigneusement le cas réversible (action de groupe (\mathbb{R},+), flots bijectifs) du cas irréversible (absence dinverse global, semi-groupes). La « flèche du temps » apparaît alors comme la non-extensibilité dun semi-groupe en groupe, ce qui peut provenir soit de la non-injectivité (fusion de passés), soit de la perte dinformation par agrégation, soit de la présence dune grandeur monotone (fonction de Lyapunov / ressource consommée).

La métrique temporelle (durée, échelle, granularité) est ensuite reconstruite par des horloges internes : compteurs dévénements, longueurs minimales de chaînes, ou temps pondéré par coûts de transitions. Enfin, le chapitre relie ces constructions à deux consensuses : (i) la flèche thermodynamique et lentropie comme monotone (deuxième loi), et (ii) lirréversibilité de leffacement logique et son coût minimal (principe de Landauer). La lecture conditionnelle dérivée reste strictement minimale : dans tout modèle itératif satisfaisant les hypothèses du chapitre, le système peut porter un ordre historique seulement si, au niveau pertinent de description, lévolution induit un ordre non symétrique (semi-groupe effectif, ou monotone empêchant les retours). La section philosophique conclut sur ce que le formalisme autorise et interdit : il autorise une ontologie du temps comme structure dordre; il interdit de traiter le temps comme primitif, et interdit dinférer une métrique unique sans horloge ni convention.

Primitives non sémantiques et construction de lordre induit

Axiomes minimaux

On fixe un cadre minimal.

A0 — Configurations. Un ensemble non vide X, dont les éléments sont appelés configurations.

A1 — Transformations admissibles. Un ensemble \mathcal{T}\subseteq X^X dapplications T:X\to X, stable par composition et contenant lidentité. Autrement dit, (\mathcal{T},\circ,\mathrm{Id}) est un monoïde dendomorphismes admissibles.

A2 — Générateur dévolution. On choisit un élément f\in\mathcal{T}. La dynamique « élémentaire » est litération de f, et le sous-monoïde engendré par f est


\langle f\rangle \;=\;\{f^{(n)}\;:\;n\in\mathbb{N}\},

f^{(0)}=\mathrm{Id} et f^{(n+1)}=f\circ f^{(n)}.

Ces axiomes nintroduisent encore aucun « temps » : ils définissent seulement une fermeture opératoire par composition.

Relation dantériorité comme atteignabilité

On définit une relation binaire \preceq sur X par :


x\preceq y \quad\Longleftrightarrow\quad \exists\,T\in\langle f\rangle,\; y=T(x).

Sans mentionner n, on peut dire : y appartient à la plus petite partie S\subseteq X qui contient x et est stable par f (i.e. f(S)\subseteq S).

Proposition 1 — \preceq est un préordre. La relation \preceq est réflexive et transitive.

Démonstration. Réflexivité : x = f^{(0)}(x), donc x\preceq x. Transitivité : si x\preceq y et y\preceq z, il existe m,n tels que y=f^{(m)}(x) et z=f^{(n)}(y). Alors z=f^{(n)}(f^{(m)}(x))=f^{(m+n)}(x), donc x\preceq z. □

Remarque structurale. La définition ne dépend daucune métrique ni daucun paramètre géométrique : \preceq est une structure dordre issue du seul fait quil existe un « successeur admissible » (application de f).

Antisymétrie et cycles : pourquoi lordre échoue sur X

Un préordre devient un ordre partiel si, en plus, il est antisymétrique :


(x\preceq y\ \&\ y\preceq x)\ \Rightarrow\ x=y.

Or, dès quil existe une périodicité (cycle), lantisymétrie échoue : si y=f^{(k)}(x) et x=f^{(p)}(y), alors x\preceq y et y\preceq x sans que x=y.

Cette obstruction est exactement la présence densembles invariants périodiques (chapitre 3).

Quotient par récurrence et apparition dun ordre partiel canonique

On introduit léquivalence de récurrence (mutuelle atteignabilité) :


x\sim y \quad\Longleftrightarrow\quad (x\preceq y)\ \text{et}\ (y\preceq x).

Proposition 2 — \sim est une relation déquivalence. Elle est réflexive (Proposition 1), symétrique par définition, transitive par composition des atteignabilités.

On considère le quotient X/{\sim} et on définit une relation \preceq^\* sur les classes [x] par


[x]\preceq^\*[y]\quad\Longleftrightarrow\quad x\preceq y.

Proposition 3 — \preceq^\* est un ordre partiel sur X/{\sim}. Elle est réflexive, transitive, et antisymétrique.

Démonstration (antisymétrie). Supposons [x]\preceq^\*[y] et [y]\preceq^\*[x]. Alors x\preceq y et y\preceq x, donc x\sim y, donc [x]=[y]. □

Ainsi, le temps comme ordre nest pas dabord un ordre sur les états, mais un ordre sur les classes asymptotiques de récurrence (cycles et leurs « noyaux »), objets construits au chapitre 3.

Lecture en graphe fonctionnel et condensation en DAG

Dans le cas discret (un seul successeur), on associe le graphe orienté G_f des arcs (x,f(x)). Le préordre \preceq est exactement latteignabilité le long des arcs. Les classes \sim sont les composantes fortement connexes; dans un graphe fonctionnel fini, elles correspondent aux cycles, et la condensation (graphe des classes) est acyclique, donc un DAG. Cette « acyclicité au niveau des classes » est lombre combinatoire de ce qui sera plus tard appelé flèche (absence de retour inter-classes).

flowchart TD
  subgraph X["Configurations X"]
    a --> b --> c --> d
    d --> e --> f --> d
    g --> h --> e
  end
  subgraph Q["Quotient X/"]
    C1["Classe transitoire"] --> C2["Classe-cycle [d,e,f]"]
    C3["Classe transitoire [g,h]"] --> C2
  end

Temps discret, temps continu, flots et semi-groupes

La structure précédente suggère une thèse de méthode : le temps est le paramètre qui indexe une action de monoïde. On le construit alors à partir de la propriété de composition.

Discret : action de (\mathbb{N},+) et itération

Définissons \Phi:\mathbb{N}\times X\to X par \Phi(n,x)=f^{(n)}(x). Alors


\Phi(0,x)=x,\qquad \Phi(n+m,x)=\Phi(n,\Phi(m,x)).

Cest une action du monoïde (\mathbb{N},+) sur X. Réciproquement, toute action \Phi de (\mathbb{N},+) sur X est déterminée par f(x):=\Phi(1,x). Autrement dit, « discret » signifie : le paramètre est construit comme longueur de composition.

Ce point est exactement celui que von Neumann met en évidence lorsquil souligne que, pour les automates, il ne suffit pas quun résultat soit atteignable en un nombre fini détapes ; le nombre détapes et les « ordres de grandeur de durée » deviennent constitutifs de la théorie.

Continu : flots (groupes) et semi-flots (semi-groupes)

Pour un champ de vecteurs générant une équation différentielle, on dispose dune application de flot \Phi_t (quand elle existe globalement) qui envoie une condition initiale sur létat à linstant t. Lorsque le flot est défini pour tout t\ge 0, on parle dinvariance positive et de dynamique comme application \Phi_t:D\to D avec \Phi_t(D)\subseteq D pour tout t\ge 0.

La distinction structurante est la suivante :

  • Flot : action de (\mathbb{R},+) (groupe), donc existence dune évolution pour t<0 et dinverses \Phi_{-t}=\Phi_t^{-1}.
  • Semi-flot / semi-groupe : action de (\mathbb{R}_+,+), définie uniquement pour t\ge 0, sans inverse global.

Dans un cadre plus abstrait (Banach, opérateurs), cette propriété de semi-groupe est formulée explicitement : identité à t=0, et propriété \,S_{t+s}=S_tS_s pour t,s\ge 0.

Ainsi, « temps continu » nest pas une donnée primitive : il apparaît comme paramètre dune loi de composition. Le temps devient « réel » lorsque laction est compatible avec une structure topologique et une continuité t\mapsto S_t x.

Condition de réversibilité comme extensibilité en groupe

Proposition 4 — Réversibilité discrète. Laction discrète se prolonge en action de (\mathbb{Z},+) si et seulement si f est bijective (donc f^{-1} existe).

Démonstration. Si f est bijective, définir f^{(-n)}=(f^{-1})^{(n)} donne une action de \mathbb{Z}. Réciproquement, si une action de \mathbb{Z} existe, lélément correspondant à -1 est un inverse de f, donc f est bijective. □

Cette proposition formalise la flèche du temps au niveau le plus nu : absence dinverse = absence de temps négatif, donc semi-groupe plutôt que groupe.

Flèche du temps : irréversibilité formelle, non-injectivité et consommation

Le plan de louvrage exige ici des « premiers critères » dirréversibilité, sans encore fonder les mécanismes généalogiques ultérieurs. On distingue trois sources formelles dorientation.

Irréversibilité comme non-injectivité

Une application non injective fusionne des passés : il existe x\neq y tels que f(x)=f(y). Alors le prédécesseur nest pas déterminable à partir du seul présent. Cette propriété suffit à empêcher lextension en groupe (Proposition 4) et à imposer une asymétrie intrinsèque.

Dans un langage de théorie des automates, cela correspond exactement à une fonction de transition sans inverse univoque, phénomène que Landauer décrit comme « logical functions that do not have a single-valued inverse », associées à une irréversibilité physique.

Irréversibilité comme perte par agrégation (non-injectivité effective)

Même si la dynamique microscopique était bijective, lirréversibilité peut apparaître à un niveau de description agrégé. Cela se formalise par une application dobservation/quantification q:X\to A (alphabet fini ou espace grossier). La dynamique observée est


a_{n+1} = \tilde f(a_n) \quad\text{avec}\quad a_n=q(x_n),

mais \tilde f nest pas nécessairement bien définie sans hypothèse; plus généralement, on obtient une relation de transition sur A qui est typiquement non injective (plusieurs micro-états distincts deviennent le même macro-état).

Ce mécanisme rejoint un consensus de la physique statistique : lirréversibilité macroscopique provient du fait que lon travaille sur des descriptions incomplètes, et Jaynes discute explicitement le lien entre « information loss » et irréversibilité dans lextension de la mécanique statistique aux phénomènes dépendant du temps.

Irréversibilité par monotone : ressources et fonctions de Lyapunov

Un troisième critère, purement formel, consiste à enrichir le système dune « grandeur » monotone le long des trajectoires.

Définition — Monotone dévolution. Soit (S,\le) un ordre (souvent bien fondé). Une fonction V:X\to S est un monotone si V(f(x))\le V(x) pour tout x. Elle est strictement dissipative si V(f(x))<V(x) hors dun noyau invariant.

Proposition 5 — Monotone strict \Rightarrow absence de cycles et ordre effectif. Si V(f(x))<V(x) pour tout x hors dun ensemble A invariant, alors il nexiste aucun cycle disjoint de A, et la relation datteignabilité hors A est antisymétrique (donc ordre partiel sur les états hors noyaux récurrents).

Démonstration. Supposons un cycle x_0\to x_1 \to \dots \to x_{p-1}\to x_0 hors A. Alors V(x_1)<V(x_0), V(x_2)<V(x_1), \dots, V(x_0)<V(x_{p-1}). En chaînant, V(x_0)<V(x_0), contradiction. □

Dans la théorie classique de la stabilité, la formulation (\varepsilon)-\delta et la distinction stabilité / stabilité asymptotique sont précisément celles introduites par Lyapunov. Et, dans un consensus thermodynamique standard, lentropie joue ce rôle de monotone (Lyapunov) pour les systèmes isolés : Prigogine le formule explicitement en disant que lentropie S est une fonction de Lyapunov pour les systèmes isolés, et que la production interne dentropie est non négative.

Cette idée sera reprise et radicalisée plus tard (chapitres 910) sous le nom de « consommation de ressources non réutilisables ». Ici, on nen retient que la structure mathématique : un monotone strict interdit les retours et fonde une flèche.

Durées, granularité et horloges internes

Une fois le temps reconstruit comme ordre, il reste à reconstruire la métrique temporelle : ce que signifie « combien » et « à quelle échelle ».

Durée comme longueur minimale de chaîne

Dans le cadre discret, on définit une pseudo-distance dirigée (quasi-métrique) :


\tau(x,y)=\inf\{n\in\mathbb{N}: f^{(n)}(x)=y\},

avec la convention \tau(x,y)=+\infty si y nest pas atteignable depuis x.

Proposition 6 — Inégalité triangulaire dirigée. \tau(x,z)\le \tau(x,y)+\tau(y,z) dès que les termes sont finis.

Démonstration. Si f^{(m)}(x)=y et f^{(n)}(y)=z, alors f^{(m+n)}(x)=z. La minimalité donne \tau(x,z)\le m+n, puis prendre linfimum. □

On obtient ainsi une notion de « durée minimale » purement combinatoire. Elle dépend de f, pas dun temps externe.

Granularité : résolution temporelle et sous-échantillonnage

Une « horloge » nobserve pas forcément chaque transition. Fixons un pas k\ge 1 et définissons litération échantillonnée f_k=f^{(k)}. Lordre induit par f_k est compatible avec celui de f, mais la durée \tau_k mesure des durées à une granularité différente (unités de k transitions).

En continu, cette idée correspond au fait quune mesure instrumentale impose une échelle \Delta t, et que lon observe \Phi_{n\Delta t} plutôt que \Phi_t pour tout t. Les notions dinvariance positive et de (\omega)-limite utilisées en dynamique reposent précisément sur lexistence dun semi-flot \Phi_t défini pour t\ge 0.

Horloges internes comme compteurs dévénements

Lhorloge la plus primitive est un compteur dévénements. On définit lensemble des événements élémentaires comme les transitions e=(x\to f(x)). Une horloge est une application additive H qui sincrémente selon une règle.

Un modèle minimal :

  • on choisit un prédicat P(x) définissant les transitions « comptées »;
  • on définit h_0=0 et
    
    h_{n+1}=h_n + \mathbf{1}_{P(x_n)}.
    

Cette construction est la version abstraite de ce que von Neumann appelle la nécessité de compter le nombre détapes et de tenir compte des probabilités derreur cumulées sur de longues chaînes dopérations.

flowchart LR
  x0["État x"] -->|événement e0 : f| x1["État f(x)"]
  x1 -->|événement e1 : f| x2["État f²(x)"]
  x2 -->|...| xk["État ..."]
  subgraph Clock["Horloge interne"]
    c0["h=0"] --> c1["h=h+1 si P(x)"]
  end
  x0 -. "observe P(x0)" .-> c1
  x1 -. "observe P(x1)" .-> c1

Horloge pondérée : temps comme somme de coûts

On peut enrichir lhorloge par un poids w:X\to\mathbb{R}_+ (ou sur les arêtes) et définir un temps accumulé


t_{n+1}=t_n+w(x_n).

On obtient alors une métrique de durée dépendant de la trajectoire, sans introduire dhorloge externe : lhorloge est un fonctionnel de chemin.

Cette construction devient particulièrement significative lorsquon relie w à une dissipation, une dépense, ou à une production dentropie (section suivante), mais elle existe purement formellement.

Thermodynamique de linformation et flèche thermodynamique

Cette section nintroduit aucune entité sémantique. Elle relie deux consensuses : la flèche thermodynamique (entropie) et lirréversibilité de certaines opérations logiques (Landauer).

Shannon : mesure logarithmique non sémantique

Shannon insiste explicitement sur le fait que les aspects sémantiques sont hors champ de la théorie de la communication, et que linformation pertinente est celle dun choix parmi des messages possibles, mesurée naturellement par une fonction logarithmique. Ce rappel nest pas historique : il légitime une méthode où la « structure dordre » (ici, lordre temporel) est construite sans signification préalable.

Boltzmann : probabilité, entropie et tendance macroscopique

Dans sa formulation cinétique, Boltzmann affirme que lexplication des lois thermiques doit sappuyer sur la théorie des probabilités et sur une fonction de distribution décrivant le nombre de molécules dans chaque état au cours du temps. Cette approche fonde lidée quune flèche (croissance de lentropie) nest pas un axiome mécanique, mais une propriété typique à léchelle de grandes multiplicités.

Dans son texte de 1877 (traduit), Boltzmann relie explicitement le second principe à des calculs de probabilité et à une mesure de « permutabilité » des distributions détat, ouvrant une définition statistique de lentropie applicable au-delà de léquilibre.

Poincaré : récurrence et limite dune flèche absolue au niveau microscopique

Le théorème de récurrence (version conservatrice) établit quun système préservant une mesure finie (volume de phase) présente une récurrence : des points reviennent arbitrairement près de leur état initial. Une démonstration-type utilise exactement un argument de finitude de mesure (impossibilité dimages disjointes infinies dun ouvert).

Conséquence (consensus) : si la dynamique microscopique est réversible et conservatrice sur un espace de volume fini, alors aucune grandeur strictement monotone ne peut exister sur les micro-états eux-mêmes. La flèche doit donc être cherchée soit dans une description agrégée, soit dans un couplage à un extérieur (système ouvert), soit dans une notion de typicité/probabilité.

Cette contrainte mathématique est lune des raisons pour lesquelles le « temps comme ordre » doit être construit au niveau adéquat (classes, observables, ou monotones), et non imposé comme absolu.

Landauer : non-injectivité logique \Rightarrow coût thermodynamique minimal

Landauer formule un lien direct entre opérations logiquement irréversibles — celles qui « nont pas dinverse à valeur unique » — et irréversibilité physique, avec un coût minimal de dissipation typiquement de lordre de kT par opération irréversible.

Dans notre langage, une opération deffacement est une application non injective


\{0,1\}\to\{0\},\quad 0\mapsto 0,\ 1\mapsto 0,

qui contracte lespace des passés possibles. La non-injectivité est donc non seulement un critère formel dirréversibilité (Proposition 4), mais aussi un critère physiquement contraint lorsquil sagit dimplémentation matérielle.

Note de méthode (statut du lien modèle ↔ physique).

  • noninjectivité formelle : propriété dune application/quotient dans le modèle.
  • irréversibilité logique : absence dinverse univoque au niveau computationnel.
  • irréversibilité thermodynamique : coût de dissipation dans une implémentation matérielle donnée. Landauer borne le coût minimal de certains effacements logiques dans un cadre thermodynamique donné ; il nimplique ni que toute noninjectivité abstraite soit réalisée comme effacement, ni que la dissipation observée atteigne la borne.

Bennett clarifie le même point en montrant quon peut rendre une computation logiquement réversible en conservant linformation sur une « bande dhistorique », mais que le problème réapparaît lors de leffacement de cet historique, ce qui rejoint explicitement largument de Landauer. Il donne aussi une borne thermodynamique en termes de kT\ln 2 pour une perte denviron un bit par opération irréversible.

Enfin, le consensus en thermodynamique de la computation admet que des modèles de computation thermodynamiquement réversible existent (dissipation tendant vers 0 dans une limite quasi-statique), mais quils exigent une logique réversible et une conduite suffisamment lente.

Prigogine : entropie, histoire et diversification des niveaux de temps

Prigogine rappelle la centralité du second principe, introduit la distinction réversible/irréversible et insiste sur le fait que lentropie (et sa production) fournit une direction privilégiée, avec la possibilité détats organisés hors équilibre (« structures dissipatives »). Il formule aussi explicitement que lincorporation déléments thermodynamiques conduit à un sens du temps lié à lirréversibilité et à lhistoire, et distingue des niveaux de temps (dynamique, Lyapunov/entropie, historique via bifurcations).

Dans la logique de ce livre, cette remarque est une correspondance : notre construction purement formelle (ordre via monotone, semi-groupe effectif) est précisément ce que la thermodynamique réalise empiriquement via entropie/production dentropie.

Implications déduites et analyse philosophique finale

Implications strictement déduites (statut explicite)

On se limite à ce qui suit des sections mathématiques.

  1. Un système itératif porte un ordre interne minimal. Dès quun successeur admissible est défini (A2), la relation datteignabilité \preceq existe et fournit une structure dantériorité (préordre). Le « temps » au sens minimal est donc lordre dengendrement des configurations.

  2. Une flèche exige une rupture de symétrie au niveau pertinent. Si la dynamique est bijective et se prolonge en groupe, « aller en arrière » est défini formellement; la structure dordre nest pas antisymétrique sur X et la récurrence (en contexte conservatif) rend impossible un monotone strict sur micro-états. À linverse, une flèche apparaît si lévolution effective au niveau considéré est une action de semi-groupe non extensible en groupe : non-injectivité, agrégation, ou monotone strict (Proposition 5).

  3. Accumulation historique : condition nécessaire. Pour quune accumulation (au sens strict : une impossibilité structurelle de « défaire exactement » la succession) soit possible, il faut au moins une des deux conditions :

    • (i) perte irréversible dantécédents (non-injectivité) ;
    • (ii) présence dun monotone strict (ressource/entropie/coût) empêchant les cycles au niveau pertinent. Landauer fournit un ancrage physique : lorsquune instanciation réalise effectivement une contraction des passés comme effacement logique, une borne minimale borne le coût associé, ce qui rend plausible une orientation irréductible dans les transformations matériellement réalisables.

Ontologie du temps comme ordre et limites du formalisme

Le point philosophique ici nest pas une doctrine, mais une lecture de nécessité.

  • Le temps napparaît pas dabord comme une substance ni comme une dimension géométrique, mais comme une structure dordre induite par la composition des transformations.
  • Une « durée » nest pas donnée : elle est une mesure (horloge) construite sur des chaînes dévénements, et une granularité est une propriété de linstrument dindexation (sous-échantillonnage, compteur, poids).

Ce que le formalisme interdit à ce stade :

  • didentifier le temps à une métrique unique universelle : sans horloge (compteur) ni structure supplémentaire, on ne dispose que dun ordre (préordre / ordre sur classes) ;
  • daffirmer une flèche absolue au niveau microscopique dans un cadre strictement réversible et conservatif : la récurrence (au sens large) impose des retours, donc la flèche doit être située au niveau de description effectif (classe/observable/système ouvert).
  • de confondre « ordre temporel » et « optimisation » : aucune fonction objectif na été postulée; seules des contraintes datteignabilité et de monotonicité (si ajoutée) sont en jeu.

Ce que le formalisme autorise dès maintenant :

  • une définition du « présent » comme classe déquivalence de récurrence (quotient X/\sim) ;
  • une définition opérationnelle de l« irréversibilité » comme non-extensibilité dun semi-groupe en groupe, compatible avec les contraintes thermodynamiques connues (Landauer, second principe) et avec la stabilité au sens Lyapunov (monotones).

Tableau comparatif synthétique

Cadre Paramètre dévolution Structure algébrique Inverses Flèche formelle Obstruction typique
Discret (itération) composition de f monoïde \langle f\rangle non si f non bijective oui (semi-groupe) non-injectivité, cycles
Discret réversible idem + f^{-1} groupe \langle f\rangle\simeq\mathbb{Z} oui non intrinsèque récurrence/cycles (si fini)
Continu (semi-flot) t\ge 0 semi-groupe (\mathbb{R}_+,+) non en général oui dissipation, perte dinfo
Continu (flot) t\in\mathbb{R} groupe (\mathbb{R},+) oui non intrinsèque récurrence (conservatif)
Propriété Injectif Non injectif
Reconstruction du passé (unique) possible (en principe) impossible (passés fusionnés)
Extension en groupe possible impossible
Coût thermodynamique deffacement non requis si tout est réversible borne minimale si effacement logique (Landauer)

Le chapitre suivant pourra donc porter sur la conséquence déjà annoncée dans le plan : comment cette structure dordre, lorsquelle saccompagne de non-injectivité et de contraintes de transformation, prépare une notion plus forte dirréversibilité et dhistoire (chapitres 910), puis de transmission et de généalogie (chapitres 1112).


Chapitre 5 — Compression, noninjectivité et classes de formes

Hypothèses et résultats (repères)

Hypothèses (H).

  • existence dune description/projection q:X\to A (contrainte de description) ;
  • possibilité de noninjectivité (collisions) induite par finitude, compression ou observabilité agrégée.

Résultats (E).

  • construction des fibres, partitions et classes déquivalence induites par q ;
  • formalisation de la compression comme projection/quotient et de la dynamique induite sur les classes (système facteur) ;
  • mise en place de quantificateurs (entropies, complexités) comme couches optionnelles indexées.

Statut.

  • noyau ensembliste pour partitions/quotients ; quantifications informationnelles annoncées comme couches mesurée/probabiliste déclarées.

Résumé exécutif

Ce chapitre formalise un mécanisme structural déjà latent dans les chapitres précédents : dès quun système itératif opère sous contraintes de description (finitude globale, finitude locale, ou observabilité agrégée), les transformations effectives deviennent typiquement non injectives. Cette noninjectivité engendre des collisions (plusieurs antécédents pour un même résultat), lesquelles imposent à leur tour des partitions de lespace des configurations en fibres et en classes déquivalence.

Dabord, on établit des résultats élémentaires mais structurants : toute application q:X\to A avec |A|<|X| induit une partition par fibres; le degré de collision se borne par des arguments de comptage (principe des tiroirs) et, sous contraintes de codage, par des inégalités de type KraftMcMillan (existence de codes à longueurs données) et par les bornes de Shannon sur la compression sans perte. Ensuite, on formalise la compression comme projection (idempotente) ou comme quotient (factorisation), et on introduit des « attracteurs de second ordre » : attracteurs de la dynamique induite sur un espace des classes (système facteur). Enfin, on relie ces constructions à des quantités de consensus : entropie de Shannon (et entropie conditionnelle) pour mesurer la perte induite par une projection déterministe, et complexité algorithmique de Kolmogorov comme mesure intrinsèque de compressibilité (non calculable en général, mais conceptuellement fondatrice).

La partie « héritage morphologique » reste formelle : elle définit un registre transmissible comme mémoire de collisions (cooccurrences de classes) et montre quelles conditions minimales (flèche dévénements, disponibilité de projections stables) sont requises pour quune accumulation historique devienne possible, sans invoquer finalité ni sémantique.

Fondations formelles : noninjectivité, collisions, partitions, fibres

Soit X un ensemble de configurations (fini ou non), et q:X\to A une application.

Définition (injectivité / noninjectivité). q est injective si q(x)=q(y)\Rightarrow x=y. Elle est non injective sil existe x\neq y tels que q(x)=q(y).

Définition (collision). Une collision est un couple (x,y) avec x\neq y et q(x)=q(y). Le modèle ne qualifie pas moralement la collision : cest un fait structurel.

Définition (fibre). Pour a\in A, la fibre (préimage) est


F_a \;=\; q^{-1}(a)\;=\;\{x\in X:\ q(x)=a\}.

Proposition 1 (partition par fibres). Lensemble \{F_a\}_{a\in A} forme une partition de X restreinte à limage : (i) (X=\bigsqcup_{a\in q(X)} F_a) ; (ii) F_a\cap F_b=\varnothing si a\neq b.

Preuve. Chaque x\in X appartient à F_{q(x)}, donc X=\bigcup_{a\in q(X)}F_a. Si x\in F_a\cap F_b, alors q(x)=a=b, contradiction si a\neq b. □

Collisions imposées par compression de cardinal

Supposons X fini, |X|=N, et |q(X)|=M.

Proposition 2 (principe des tiroirs → collision). Si M<N, alors q nest pas injective.

Preuve. Une injection de N éléments dans M<N éléments est impossible (pigeonhole). □

Proposition 3 (borne sur la plus grande fibre). Il existe a\in q(X) tel que |F_a|\ge \lceil N/M\rceil.

Preuve. \sum_{a\in q(X)}|F_a|=N. Si toutes les fibres avaient taille <N/M, la somme serait <M\cdot N/M=N, contradiction. □

Ces trois faits suffisent pour une première thèse structurale : toute réduction dun ensemble détats à un alphabet plus petit engendre des classes (fibres), et donc une perte dindividuation fine.

Cadre mesuré : partitions mesurables et conditionnement

Dans un cadre probabiliste (consensus en théorie de linformation), on suppose une variable aléatoire X à valeurs dans un ensemble fini X, et Y=q(X). Shannon définit lentropie H(X), lentropie jointe H(X,Y) et lentropie conditionnelle via la relation de chaîne


H(X,Y)=H(X)+H_X(Y),

et montre que lincertitude de Y ne croît pas lorsquon connaît X.

Dans le langage plus général des systèmes dynamiques mesurés, Kolmogorov et Sinai définissent lentropie conditionnelle sur des partitions (ou (\sigma)-algèbres) et construisent des quantités invariantes (entropie métrique) à partir de raffinement de partitions ; leur texte introduit explicitement « conditional entropy » et ses propriétés dans ce cadre.

Opérateurs de compression et quotients dynamiques

Compression comme projection idempotente

On formalise une « compression » sans sémantique comme une application de réduction q:X\to A (alphabet des classes) accompagnée dun choix de représentant r:A\to X tel que q\circ r=\mathrm{Id}_A (section).

On définit alors la projection (P:X\to X) :


P \;=\; r\circ q.

Proposition 4 (idempotence). P\circ P = P.

Preuve. P(P(x))=r(q(r(q(x))))=r((q\circ r)(q(x)))=r(q(x))=P(x). □

Corollaire (convergence en un pas). Litération de P converge immédiatement : P^{(n)}=P pour tout n\ge 1. Les points fixes de P sont exactement \mathrm{Im}(P)=r(A).

Cette forme didempotence est le prototype dun « attracteur de second ordre » au sens minimal : le système de compression possède son propre ensemble invariant (les représentants), atteint en un nombre borné ditérations.

Compression comme quotient et systèmes facteurs

Une autre formalisation (plus canonique en dynamique) consiste à partir dune relation déquivalence \sim sur X et à considérer lespace quotient X/{\sim} avec la projection canonique \pi:X\to X/{\sim}.

Soit maintenant une dynamique f:X\to X. On dit que \sim est compatible avec f si


x\sim y\ \Rightarrow\ f(x)\sim f(y),

ce qui équivaut à la bonne définition dune dynamique induite \bar f:X/{\sim}\to X/{\sim} telle que


\pi\circ f = \bar f \circ \pi.

Ceci formalise lidée que « la dynamique ne dépend que de la classe ».

Définition (attracteur de second ordre). Un attracteur A^\*\subseteq X/{\sim} de \bar f est appelé attracteur de second ordre relatif à (X,f,\sim). Il décrit un régime stable non plus sur les états, mais sur leurs classes.

Ce concept généralise un fait déjà rencontré : dans un graphe fonctionnel fini, les cycles sont des invariants sur X; un quotient peut fusionner plusieurs cycles ou plusieurs transitoires, créant une « topologie dattracteurs » plus grossière. La pertinence technique (et non interprétative) est que des régimes invariants deviennent calculables et transmissibles à une résolution plus faible.

Mortveit et Reidys, dans un cadre de dynamiques discrètes sur graphes (Sequential Dynamical Systems), mettent explicitement en avant létude de la réversibilité, des orbites périodiques, ainsi que des notions d« equivalence, morphisms and reduction », i.e. précisément des mécanismes de quotient et de réduction de dynamique, considérés comme outils structurants de la théorie.

Exemple directeur : opérateur de Kaprekar comme compression + dynamique

On considère des mots de longueur D en base B (ou des entiers à D chiffres en base B avec zéros initiaux). Lopération « trier les chiffres » est une compression : elle quotient par laction du groupe des permutations des positions (linformation « ordre des chiffres » est supprimée). Thakur formalise le processus \kappa en base B et D chiffres : \kappa(n)=\overrightarrow{n}-\overleftarrow{n}, où \overrightarrow{n} et \overleftarrow{n} sont les chiffres triés décroissant/croissant.

Young rappelle la propriété classique : en base 10 et D=4, toute itération issue dun nombre dont les chiffres ne sont pas tous égaux atteint 6174 en au plus sept étapes, et 6174 est invariant sous lopérateur.

Dans notre lecture, le point structurel est le suivant : létape de tri est un projecteur vers un représentant canonique de lorbite sous permutation (compression), puis lopérateur complet itère sur un espace fini, donc admet des cycles (chapitres 23), mais sur un espace déjà compressé.

Diagramme abstrait (Kaprekar comme quotient puis dynamique) :

flowchart LR
  X["États (D chiffres, base B)"] -->|q : quotient par permutations| A["Classes (multisets de chiffres)"]
  A -->|r : représentant canonique (tri)| Xc["Représentants triés"]
  Xc -->|d : transformation (différence)| X2["États suivants"]
  X2 -->|itération| X

Note de méthode (Kaprekar : caractérisation de régimes). Cet exemple sert ici de fil directeur (compression + dynamique). Toute conclusion quantitative sur lopérateur \kappa est indexée par (B,D) et par le protocole (distribution initiale, éventuelles règles de bruit/réparation). Un usage de type « signature » exige une caractérisation explicite des régimes : nombre et types dattracteurs, tailles de bassins, seuils de dominance, robustesse sous perturbations et sous transformations non sémantiques. Cette caractérisation est traitée comme un programme danalyse, distinct des résultats généraux du noyau.

Mesures de compression : entropies, complexités, distances

Entropie de Shannon et perte induite par une projection déterministe

Soit une variable aléatoire X à valeurs dans un ensemble fini, et Y=q(X) une projection déterministe.

Shannon établit les relations fondamentales (entropie jointe, conditionnelle) et la relation de chaîne


H(X,Y)=H(X)+H_X(Y),

ainsi que des inégalités de sousadditivité et le fait que lincertitude ne croît pas lorsquon conditionne.

Comme Y est une fonction de X, on a H(Y|X)=0 et donc


H(X) = H(Y) + H(X|Y).

Interprétation strictement formelle :

  • H(Y) mesure lincertitude au niveau des classes (partitions) ;
  • H(X|Y) mesure lincertitude résiduelle à lintérieur dune fibre (information perdue par la projection).

Proposition 5 (borne par la plus grande fibre).


H(X|Y)\ \le\ \log |F_{\max}|
\quad\text{où}\quad
|F_{\max}|=\max_{a}|F_a|.

Preuve. Conditionnellement à Y=a, la variable X prend ses valeurs dans F_a, donc son entropie conditionnelle est \le \log|F_a|; en moyennant, \le \log|F_{\max}|. □

Compression sans perte et contraintes de codage

Un « codage sans perte » impose que le décodage soit injectif sur les messages possibles. Shannon démontre que lentropie borne par le bas le taux de compression atteignable en moyenne (noiseless coding theorem) et relie directement compression, redondance, et codages efficaces.

Sur le plan combinatoire, lexistence de codes instantanés/préfixes est contrainte par linégalité de Kraft, et lextension aux codes uniquement déchiffrables par McMillan. Un cours MIT OCW rappelle cette contrainte classique et sa construction par arbres (D)-aires. Huffman fournit ensuite une procédure constructive doptimalité (minimum de redondance moyenne) pour ensembles finis de messages, explicitement dans la continuité de Shannon et en citant Kraft.

Ces résultats sont utilisés ici de façon non sémantique : ils montrent que vouloir raccourcir systématiquement les descriptions (compression) impose soit des collisions (noninjectivité du codage), soit des redondances explicites (longueurs suffisantes), soit une probabilité derreur.

Entropie combinatoire et « entropie structurelle des classes »

Kolmogorov rappelle quavant toute probabilité, on peut définir une entropie combinatoire H(x)=\log_2 N lorsque x prend ses valeurs dans un ensemble fini de taille N, et introduit aussi une entropie conditionnelle combinatoire via les ensembles possibles Y_a compatibles avec x=a.

Dans notre cadre, si q:X\to A induit des classes, une mesure structurelle minimale, indépendante de la dynamique, est


H_{\text{classes}}
\;=\;-\sum_{a\in A} p_a \log p_a,
\quad
p_a=\frac{|F_a|}{|X|}

en supposant une distribution uniforme sur X. Cest lentropie de Shannon de la variable « classe » quand on pick un état uniformément (un cas particulier du cadre mesuré).

Complexité de Kolmogorov : compressibilité intrinsèque (consensus, non constructive)

Kolmogorov introduit un troisième point de vue : mesurer linformation dun objet par la longueur de la plus courte description algorithmique produisant cet objet (approche algorithmique), après avoir exposé les approches combinatoire et probabiliste.

On en retient ici une conséquence structurale (de consensus dans la théorie) : il existe des objets (chaînes) incompressibles au sens algorithmique, pour lesquels aucune description significativement plus courte nexiste, tandis que dautres objets sont compressibles parce quils possèdent des régularités exploitables. Dans ce livre, cela nest pas interprété comme « sens » ou « finalité », mais comme propriété intrinsèque de description.

Calcul effectif en contexte discret : algorithmes et complexité

Ce chapitre requiert des outils effectifs : calculer classes, fibres, et parfois bassins, dans des cadres finis.

Calcul des fibres dune projection

Entrée : représentation explicite de X (liste des états) et de q. Sortie : dictionnaire a \mapsto F_a.

Algorithme : un seul parcours, insertion dans une table de hachage.

  • Temps : O(|X|) évaluations de q + coût de hachage (amorti).
  • Mémoire : O(|X|) au pire si on stocke tous les éléments.

Calcul des cycles et bassins dune fonction f:X\to X

Dans un cadre fini déterministe, le graphe est fonctionnel (degré sortant 1). Les cycles et bassins se calculent en temps linéaire O(N) via élimination des arbres (méthode par degrés entrants) ou via détection de cycles.

Pseudocode (élimination des noncycliques) :

Input: f[1..N]  // successeur de chaque nœud
indeg[1..N] = 0
for v in 1..N: indeg[f[v]]++

queue = all v with indeg[v]==0
mark_noncycle[v]=false

while queue not empty:
  v = pop(queue)
  mark_noncycle[v]=true
  u = f[v]
  indeg[u]--
  if indeg[u]==0: push(u)

cycles = all v with mark_noncycle[v]==false
// cycles contiennent les sommets sur cycles; les bassins se déduisent par parcours inverse

Cette structure « phase space » est précisément lobjet central des dynamiques discrètes finies (points fixes, orbites périodiques, réversibilité, réductions), comme le souligne la littérature SDS citée plus haut.

Détection locale dun cycle sur une trajectoire : accès constant

Lorsquon na pas accès à tout X mais seulement à un oracle f et un état initial, on peut détecter une périodicité par la méthode de la « tortue et du lièvre » (rhoFloyd), présentée en français dans des notes dagrégation. Dans léconomie de notre livre, ce point illustre une propriété simple : la cyclicité nest pas seulement un fait théorique, elle est détectable par des algorithmes légers.

Transmission structurale : mémoire des collisions et sousstructures transmissibles

Registre de collisions comme objet transmissible

Fixons une projection q:X\to A, permettant de remplacer les états par leurs classes a\in A. Considérons une trajectoire (x_t) et la trajectoire projetée (a_t) avec a_t=q(x_t).

On définit un registre de cooccurrences (mémoire purement combinatoire) :


M(a,b)\;=\;\#\{t:\ a_t=a,\ a_{t+1}=b\},

ou, plus généralement, une version multidistance M_\Delta(a,b)=\#\{t:\ a_t=a,\ a_{t+\Delta}=b\}.

Ce registre encode lhistoire au niveau des classes, non des identités fines : il est invariant à lintérieur des fibres, donc compatible avec le principe même de compression.

Génotype minimal comme quadruplet formel

On définit un objet transmissible \Gamma (sans interprétation biologique requise) :


\Gamma=(S, M, \mathcal{I}, \mathcal{R})

où :

  • S\in A^{n} est une séquence de classes (trace compressée) ;
  • M est un registre de cooccurrences comme cidessus ;
  • \mathcal{I} est un ensemble dinvariants dérivés (par exemple, attracteur(s) dans lespace des classes, période, temps de convergence dans lespace quotient) ;
  • \mathcal{R} est un ensemble de règles admissibles de transformation (mutations de S, mises à jour de M, contraintes de compatibilité).

Gamète comme sousstructure (fragment) et recombinaison

On définit un opérateur de fragmentation


\mathrm{Frag}(\Gamma) = \gamma = (S_\gamma, M_\gamma, \mathcal{I}_\gamma),

S_\gamma est une sousséquence (ou un ensemble de segments), M_\gamma est la restriction correspondante (sousmatrice), et \mathcal{I}_\gamma les invariants associés.

Une recombinaison minimale est une opération de somme/concaténation sous contraintes :


\Gamma'=\mathrm{Recombine}(\gamma_1,\gamma_2;\Theta),

\Theta fixe les règles dassemblage et de conflit.

Condition formelle pour accumulation historique

Les objets précédents restent stériles si lon autorise des boucles « généalogiques » illimitées : laccumulation exige une flèche structurelle (chapitre 4). Dans la logique interne, une condition minimale est lacyclicité du graphe dévénements (DAG) ou lexistence dune ressource consommée monotone interdisant les retours exacts.

À ce point, Landauer fournit un ancrage de consensus : lorsquune implémentation réalise effectivement une opération deffacement logique (fonction sans inverse univoque) dans un cadre thermodynamique donné, un coût minimal de dissipation borne lopération ; cela rend plausible (au niveau des implémentations) la nongratuité des compressions destructives.

Diagramme minimal (état → fibre → classe → registre → fragments transmissibles) :

flowchart TD
  x["État x ∈ X"] -->|q| a["Classe a ∈ A"]
  a --> Fa["Fibre F_a = q^{-1}(a)"]
  a --> S["Trace S ∈ A^n"]
  S --> M["Cooccurrences M(a,b)"]
  subgraph Gamma["Registre Γ=(S,M,,)"]
    S
    M
  end
  Gamma -->|Frag| g1["Fragment γ₁"]
  Gamma -->|Frag| g2["Fragment γ₂"]
  g1 -->|Recombine| Gp["Nouveau registre Γ'"]
  g2 -->|Recombine| Gp

Conséquences déduites strictement (lecture conditionnelle)

Cette section se limite à des implications déduites des mathématiques cidessus (sous les hypothèses explicitement posées).

Disponibilité de classes de formes. Dès quune description effective est bornée (alphabet de classes A, code plus court, quotient par symétries), la noninjectivité est structurellement imposée (Proposition 2) : des classes apparaissent alors sous ces hypothèses. Ces classes sont des « formes » au sens minimal : des ensembles détats indiscernables sous la projection considérée.

Renforcement de stabilité par projection. Une projection idempotente P=r\circ q crée un sousensemble invariant \mathrm{Im}(P) atteint en temps borné (Proposition 4). Donc, indépendamment de toute physique, la compression peut produire des régimes stables au niveau des représentants, et plus généralement au niveau du quotient (attracteurs de second ordre).

Condition de possibilité de canaux dhéritage. Un canal dhéritage au sens strictement formel exige (i) une représentation stable et transmissible (classe/registre), et (ii) une flèche empêchant le recyclage parfait des événements. Le premier point est fourni par la partition et par des invariants de quotient; le second relève des mécanismes dirréversibilité (noninjectivité, monotones) établis au chapitre 4.

Analyse philosophique finale : ontologie de la compression, limites et interdits

Nécessité ontologique minimale. Dans un système défini par transformations admissibles, lidentité fine nest pas une primitive garantie : elle est un luxe qui exige injectivité ou traçabilité complète. Or, toute contrainte de description ou de symétrie impose des quotients. Ainsi, « persister » à niveau donné signifie, le plus souvent, persister comme classe (fibre) plutôt que comme individu.

Compression nimplique ni finalité ni sémantique. Le vocabulaire de « compression » peut suggérer un acte, un but, une optimisation. Ici, il ne désigne quune relation structurale : une factorisation X\to A entraînant des collisions. Les entropies et complexités ne qualifient pas un sens, mais une quantité de distinction possible (Shannon) ou une longueur minimale de description (Kolmogorov).

Ce que le formalisme interdit à ce stade.

  • Il interdit dinférer une « meilleure » compression : sans fonction objectif, « mieux » na pas de sens mathématique.
  • Il interdit didentifier une classe à une essence : une classe est relative à une projection q. Changer q change lontologie des formes.
  • Il interdit toute téléologie cachée : un quotient peut être imposé par une symétrie, par une limitation de code, ou par une observation; aucune de ces raisons nest une intention.

Limite structurale : pluralité des niveaux. La coexistence de plusieurs projections q_1,q_2,\dots implique une pluralité de mondes de classes. La philosophie rigoureuse qui suit de ce fait est une philosophie stratifiée : il nexiste pas « la » classe absolue sans spécification du niveau de description. Ce résultat nest pas un relativisme : cest la conséquence logique que léquivalence est toujours définie par une relation (ou un observateur formel) et non par lobjet nu.

Transition logique vers les chapitres suivants. Ce chapitre a montré que la noninjectivité contraint le système à se décrire par classes, et que la dynamique peut se factoriser sur ces classes. Le chapitre suivant (classes déquivalence et invariants) pourra donc : (i) stabiliser les constructions de quotient, (ii) étudier la persistance relative des invariants sous transformation, et (iii) préparer la grammaire compositionnelle des formes (chapitres 68).


Chapitre 6 — Reproduction partielle, recombinaison et héritage morphologique

Hypothèses et résultats (repères)

Hypothèses (H).

  • objets discrets transmissibles (alphabet fini, séquences) et opérations admissibles (fragmentation, recombinaison, réparation) ;
  • orientation des événements lorsquune flèche généalogique est mobilisée (consommation non récupérable déclarée).

Résultats (E).

  • définition dun registre transmissible \Gamma et de la reproduction partielle comme transmission dinvariants sous perte ;
  • bornes élémentaires sur la perte induite par recombinaison et conditions de stabilité de certains invariants.

Statut.

  • noyau ensembliste ; quantifications (entropies, distances) restent optionnelles et indexées.

Résumé exécutif

Ce chapitre introduit une famille dopérations formelles — fragmentation, recombinaison, épissage et réparation — qui permettent de définir, sans hypothèse sémantique ni agentive, une transmission partielle de structures discrètes à travers une succession dévénements. La construction sappuie exclusivement sur des primitives non sémantiques déjà admises dans louvrage (configurations, transformations, itération et ordre induit), et prolonge la noninjectivité et les classes (chapitres précédents) par une notion de registre transmissible.

Le noyau mathématique est la définition dun génotype abstrait \Gamma=(S,M,A,R) : (i) une séquence S sur un alphabet fini, (ii) une mémoire M de cooccurrences (registre de collisions passées au niveau des classes), (iii) un ensemble A dinvariants calculés, (iv) un ensemble R de règles admissibles (mutations, épissage, réparation). Un gamète \gamma est une sousstructure obtenue par fragmentation de \Gamma; la reproduction se formalise comme la composition dun opérateur de fragmentation avec un opérateur de recombinaison produisant un nouvel objet \Gamma'. On établit des propositions élémentaires : conditions suffisantes de transmission fidèle dune sousstructure (segments invariants), bornes sur la perte dinformation induite par la recombinaison (en termes de cardinalités de préimages ou dentropie conditionnelle), et conditions de stabilité de certains invariants A sous recombinaison (homomorphismes de monoïdes).

La flèche du temps généalogique est obtenue sans postuler un temps externe : elle résulte de (i) la structure dordre induite (chapitre 4) et (ii) la consommation de ressources non réutilisables associées aux événements reproductifs (gamètesjetons), rendant la généalogie un DAG (graphe orienté acyclique). La conclusion reste strictement déduite : dans tout modèle discret capable de (a) compression en classes, (b) fragmentation et recombinaison, et (c) orientation par consommation, on obtient des conditions minimales daccumulation historique de formes transmissibles, sans présupposer finalité. Du point de vue philosophique, le chapitre fonde une ontologie de lhéritage comme persistance de contraintes (classes et cooccurrences) et explicite ce que le formalisme interdit : toute lecture intentionnelle, tout « but » de reproduction, et toute identité forte des individus.

Fondations formelles et axiomes minimaux

On travaille dans un cadre discret, compatible avec les chapitres antérieurs : un alphabet fini \mathcal{L} (classes de formes au sens du quotient/partition) et des séquences finies sur \mathcal{L}. Les définitions cidessous ne supposent ni biologie empirique ni sémantique : elles ne font quaxiomatiser des opérations de découpe et de recomposition sur des objets discrets.

A0 (alphabet et séquences). \mathcal{L} est un ensemble fini. Pour n\in\mathbb{N}, \mathcal{L}^n est lensemble des mots de longueur n, et \mathcal{L}^\* lensemble des mots finis.

A1 (génotype abstrait). Un individu est muni dun quadruplet


\Gamma \;=\; (S,M,A,R)

où :

  • S \in \mathcal{L}^\* est une séquence (trace) de classes.
  • M est une mémoire de collisions passées au niveau des classes, représentée minimalement comme un comptage de cooccurrences :
    
    M:\mathcal{L}\times \mathcal{L}\to \mathbb{N},\qquad
    M(a,b)=\#\{t:\ S_t=a,\ S_{t+1}=b\}.
    
    (Les variantes multiéchelles M_\Delta sont possibles, mais non nécessaires ici.)
  • A est un ensemble dinvariants calculés sur (S,M) (p. ex. statistiques, attracteurs dans un quotient dynamique, longueurs de cycles), dont le statut est purement mathématique.
  • R est un ensemble de règles admissibles (opérateurs) sur (S,M,A) : mutations permises, épissage, réparation, normalisation.

A2 (gamète). Un gamète est une sousstructure


\gamma \;=\; (S_\gamma, M_\gamma, A_\gamma)

S_\gamma est un sousmot (ou un multisegment) extrait de S, M_\gamma est une restriction correspondante de la mémoire M, et A_\gamma regroupe les invariants calculables localement à partir de (S_\gamma,M_\gamma).

A3 (reproduction partielle). Un événement reproductif est une application


\mathrm{Reproduce}:\gamma_1\times \gamma_2 \longrightarrow \Gamma'

\Gamma'=(S',M',A',R') est construit à partir de \gamma_1,\gamma_2 et de règles R (éventuellement avec hasard).

A4 (épissage). Un épissage est une application de sélectionconcaténation


\pi:\mathcal{L}^\*\to (\mathcal{L}^\*)^k
\quad \text{puis}\quad
\mathrm{Concat}:(\mathcal{L}^\*)^k\to \mathcal{L}^\*,

\pi choisit des segments selon des marqueurs (positions, motifs), et \mathrm{Concat} les recolle suivant un ordre imposé.

A5 (réparation). Une réparation est une application


\rho:\mathcal{L}^\*\to \mathcal{L}^\*

(ou sur \Gamma) qui projette un objet potentiellement non admissible dans une sousclasse admissible définie par des contraintes R. Elle na pas à être injective.

Ces axiomes prolongent une idée centrale des automates autoreproducteurs : la reproduction formelle exige une séparation entre (i) une description transmissible et (ii) des opérations de construction/assemblage agissant sur cette description, séparation explicitée historiquement dans les travaux de von Neumann sur les automates autoreproducteurs.

Opérateurs de fragmentation, recombinaison et réparation

On explicite maintenant trois opérateurs fondamentaux, puis on étudie leurs propriétés algébriques élémentaires.

Fragmentation

Un opérateur de fragmentation est une application


\mathrm{Frag}:\Gamma\to \mathcal{P}(\Gamma)\ \text{ou}\ \Gamma\to \gamma,

selon quon produit un ensemble de fragments ou un fragment unique.

Version segment unique. Pour un couple (i,j) avec 1\le i\le j\le |S|,


S_\gamma = S[i:j].

La mémoire restreinte peut être définie par le comptage interne aux transitions contenues dans [i:j] :


M_\gamma(a,b)=\#\{t\in[i,j-1]: S_t=a,\ S_{t+1}=b\}.

Version multisegments (épissage). On choisit une famille dintervalles disjoints \{[i_p,j_p]\}_{p=1}^k. On pose


S_\gamma = S[i_1:j_1]\ \Vert\ S[i_2:j_2]\ \Vert\ \cdots\ \Vert\ S[i_k:j_k],

\Vert est la concaténation, et M_\gamma est la somme des comptages internes à chaque segment, éventuellement augmentée de transitions « de jonction » si on les considère comme admissibles.

Recombinaison

On formalise la recombinaison comme un opérateur


\mathrm{Recombine}:\gamma_1\times \gamma_2 \to \Gamma'.

Le cas minimal est la recombinaison par concaténation :


S' = S_{\gamma_1}\ \Vert\ S_{\gamma_2}.

Une recombinaison plus proche des modèles classiques de « crossover » est définie par un masque m\in\{1,2\}^n indiquant, pour chaque position, le parent source (crossover uniforme), ou par une coupure k (crossover à un point). Ces opérateurs sont standards en modélisation algorithmique de recombinaison ; ils capturent mathématiquement le fait discuté en génétique évolutive que la reproduction sexuée implique réassortiment et recombinaison de segments héréditaires.

Pour la mémoire M', trois constructions minimales (toutes admissibles) existent :

  1. Héritage additif restreint.
    
    M' = M_{\gamma_1} + M_{\gamma_2}
    
    (somme pointparpoint), puis éventuelle mise à jour des transitions sur les jonctions.
  2. Héritage par projection. M' est recomputée à partir de S' par définition :
    
    M'(a,b)=\#\{t:\ S'_t=a,\ S'_{t+1}=b\}.
    
  3. Héritage mixte. M' combine (1) et (2), en conservant certains compteurs « historiques » tout en recalculant les transitions nouvellement créées.

Réparation

La réparation est un opérateur de projection (souvent non injectif) visant à satisfaire des contraintes R (par exemple interdictions de motifs, bornes sur longueur, compatibilité de marqueurs). La réparation est lanalogue formel dune étape de « purification/normalisation » : elle peut être idempotente si elle est une projection sur un sousensemble admissible.

Proposition 1 (idempotence de la réparation sous projection). Si \rho vérifie \rho(x)=x pour tout x admissible (fixé) et \rho(x) admissible pour tout x, alors \rho\circ \rho = \rho.

Preuve. \rho(x) est admissible, donc \rho(\rho(x))=\rho(x). □

Cette structure est la même que celle dun projecteur de compression (chapitre 5), mais appliquée ici au niveau des règles R.

Propriétés algébriques élémentaires

On note \oplus une recombinaison sur les séquences (p. ex. concaténation).

  • Associativité (concaténation). (u\Vert v)\Vert w = u\Vert (v\Vert w). Donc lopérateur « recombiner par concaténation » est associatif sur S.
  • Noncommutativité. u\Vert v \neq v\Vert u en général : la recombinaison ordonnée nest pas commutative.
  • Commutativité éventuelle. Si lon définit la recombinaison comme multiensemble de segments (ordre oublié), alors elle devient commutative mais perd de linformation (projection supplémentaire).

Sur la recombinaison à masque, lassociativité échoue en général : deux recombinaisons successives ne se réduisent pas à une recombinaison unique sans enrichir lopérateur (composition de masques). Cette nonassociativité est un fait structural : elle reflète lexistence de paramètres internes (points de coupure/masques) qui font partie du processus mais peuvent ne pas être conservés.

Transmission fidèle, métriques dhéritabilité et bornes

Condition suffisante de transmission fidèle dune sousstructure

On formalise une « sousstructure » comme un sousobjet \sigma (typiquement un segment) et on demande une condition de conservation.

Définition (inclusion de segment). Un segment \sigma\in\mathcal{L}^\* est transmis fidèlement de S à S' si \sigma apparaît comme sousmot contigu de S' et correspond à un segment extrait sans modification.

Proposition 2 (transmission fidèle sous épissage conservatif). Supposons :

  1. \mathrm{Frag} extrait un segment \sigma=S[i:j] sans altération,
  2. \mathrm{Recombine} insère \sigma comme bloc contigu dans S',
  3. \rho naltère pas \sigma (i.e. \rho agit en dehors de ses positions). Alors \sigma est transmis fidèlement.

Preuve. Par (1) \sigma est présent dans S_{\gamma}. Par (2) \sigma apparaît bloc contigu dans S'. Par (3) la réparation ne le modifie pas. □

Métriques dhéritabilité

On introduit deux métriques compatibles avec les objets (S,M), sans emprunter au vocabulaire biologique (où « héritabilité » a un sens statistique spécifique, historiquement ancré dans la génétique quantitative de Fisher).

Métrique sur séquences. On prend une distance dédition (Levenshtein) d_S(S,S') ou une distance de Hamming si les longueurs sont fixées.

Métrique sur mémoires. On définit une distance L^1 sur matrices de cooccurrence :


d_M(M,M')=\sum_{a,b\in\mathcal{L}} |M(a,b)-M'(a,b)|.

Définition (indice dhéritabilité abstrait). Pour des poids \lambda\ge 0 et une normalisation Z>0 :


h(\Gamma,\Gamma') \;=\; 1 - \frac{d_M(M,M') + \lambda\, d_S(S,S')}{Z}.

On choisit Z comme borne supérieure théorique (ou empirique) pour garantir h\in[0,1].

Bornes minimales sur la perte dinformation en recombinaison

Ici, « information » est prise au sens formel (Shannon ou combinatoire), sans sémantique. Lorsque la recombinaison est un calcul déterministe ou stochastique, elle induit une application (ou noyau) (\gamma_1,\gamma_2)\mapsto \Gamma', généralement non injective.

Approche combinatoire (préimages). Pour une recombinaison déterministe g, définissons la multiplicité :


\mu(\Gamma') = \#\{(\gamma_1,\gamma_2): g(\gamma_1,\gamma_2)=\Gamma'\}.

Alors \log \mu(\Gamma') est une mesure de « perte didentifiabilité » : plus \mu est grand, moins on peut reconstruire lorigine à partir du résultat.

Proposition 3 (borne inférieure triviale). Si g nest pas injective, il existe \Gamma' tel que \mu(\Gamma')\ge 2, donc \log\mu(\Gamma')\ge 1 bit (en base 2).

Preuve. Noninjectivité \Rightarrow existence de deux antécédents distincts menant au même résultat. □

Approche Shannon (entropie conditionnelle). Soient des variables aléatoires (\Gamma_1,\Gamma_2) (parents) et \Gamma' (descendant) liées par un mécanisme de recombinaison. Shannon a montré que toute fonction déterministe Y=q(X) ne peut pas augmenter linformation au sens entropique : lentropie ne croît pas sous application déterministe et les décompositions par entropie conditionnelle quantifient la perte. En particulier, si \Gamma' est une fonction (déterministe) de (\Gamma_1,\Gamma_2), alors


H(\Gamma') \le H(\Gamma_1,\Gamma_2),
\qquad
H(\Gamma_1,\Gamma_2\,|\,\Gamma') = H(\Gamma_1,\Gamma_2)-I(\Gamma_1,\Gamma_2;\Gamma').

La quantité H(\Gamma_1,\Gamma_2\,|\,\Gamma') mesure lambiguïté résiduelle (origine non reconstructible).

Lorsque la recombinaison implique un paramètre interne K (point de coupure, masque), le mécanisme se formalise comme \Gamma'=g(\Gamma_1,\Gamma_2,K). Ignorer K revient à projeter (compression supplémentaire), augmentant en général lambiguïté sur les origines.

Stabilité dinvariants A sous recombinaison

On formalise une classe dinvariants « composables ».

Définition (invariant homomorphe de concaténation). Soit (\mathcal{M},\oplus) un monoïde commutatif. Une application I:\mathcal{L}^\*\to \mathcal{M} est un homomorphisme si


I(u\Vert v)=I(u)\oplus I(v).

Exemples : vecteur de comptages de lettres (addition), comptage de digrammes internes (avec correction de jonction).

Proposition 4 (stabilité composable). Si I est un homomorphisme et si S'=S_{\gamma_1}\Vert S_{\gamma_2}, alors I(S')=I(S_{\gamma_1})\oplus I(S_{\gamma_2}). Donc I est stable sous recombinaison par concaténation (au sens « se compose sans perte »).

Preuve. Par définition dhomomorphisme. □

Cette proposition donne une condition claire sur le type dinvariants quon a le droit dattendre « stables » sous recombinaison : ceux qui dépendent additivement des fragments (ou qui se corrigent localement aux jonctions).

Modèles discrets, algorithmes et complexité

Aucune hypothèse « adaptative » nest requise. On décrit uniquement des mécanismes de sélection de segments, dassemblage et de réparation.

Modèles de sélection de fragments et épissage

On fixe une longueur |S|=n. Trois familles standard (abstraites) :

  1. épissage à marqueurs : sélectionner des segments entre marqueurs (positions i,j satisfaisant une contrainte).
  2. épissage aléatoire : choisir k intervalles disjoints au hasard (distribution sur tuples dintervalles).
  3. épissage pondéré : choisir des segments avec probabilité proportionnelle à un score local (fonction w sur positions), sans interprétation.

Recombinaison stochastique

Deux modèles classiques :

  • crossover à un point : choisir k\in\{1,\dots,n-1\}, produire S' = S_1[1:k]\Vert S_2[k+1:n].
  • crossover uniforme : choisir un masque m\in\{1,2\}^n et définir S'_t = S_{m_t,t}.

Ces schémas abstraits reflètent le fait empirique quen reproduction sexuée, la recombinaison réassortit des segments génétiques, thème central chez Maynard Smith. Sur le plan théorique, la littérature de génétique des populations discute leur effet sur les associations entre loci (déséquilibre de liaison) et la vitesse de production de combinaisons, avec des résultats classiques suivant les hypothèses (population finie vs infinie), notamment chez Felsenstein.

Réparation et compatibilité

La réparation \rho peut être :

  • locale (modifier un motif interdit en un motif autorisé),
  • globale (réécrire pour satisfaire une grammaire),
  • projective (projection sur un ensemble admissible minimal).

La logique rejoint une idée générale en théorie des automates et de la computation : rendre un processus « réversible » exige de conserver lhistorique; effacer lhistorique est une opération logiquement irréversible (noninjective), point discuté par Landauer et Bennett. Ici, on nen tire pas une thèse physique additionnelle : on retient le fait structural que réparation/projection est typiquement non injective.

Algorithmes et complexité

On donne des coûts asymptotiques usuels (où n=|S|, |\mathcal{L}|=B) :

Extraction dun segment S[i:j] : O(j-i+1). Multisegments : O(\sum_p (j_p-i_p+1)). Recombinaison à un point : O(n). Recombinaison uniforme : O(n) (parcours + masque). Recalcul de M depuis (S) : O(n). Distance (d_M) (matrices denses) : O(B^2); (sparse) : O(\#\text{transitions distinctes}). Distance dédition d_S : O(n^2) en général (DP), O(n) en Hamming si longueurs fixes.

Pseudocode minimal (crossover à un point + mise à jour de M) :

Input: S1, S2 (length n), cut k
S' = S1[1:k] concat S2[k+1:n]
Initialize M' = 0
for t in 1..n-1:
    M'[ S'[t], S'[t+1] ] += 1
Output: (S', M')

Gamètes non réutilisables, ressource consommée et flèche généalogique

Le chapitre 4 a établi que la flèche du temps peut être reconstruite comme nonextensibilité en groupe (semigroupe effectif), notamment par noninjectivité ou monotone. On applique ici cette idée à lordre généalogique.

Jetons de gamètes comme ressource non réutilisable

On associe à chaque individu i un multiensemble G_i de gamètesjetons (ressource finie). Un événement reproductif prend deux jetons \gamma^{(1)}\in G_p et \gamma^{(2)}\in G_q, les consomme (irréversiblement), et produit un nouvel individu c avec génotype \Gamma_c.

Formellement, lévénement est une transition :


(p,q,\gamma^{(1)},\gamma^{(2)})\;\longmapsto\; c

avec mise à jour G_p\leftarrow G_p\setminus\{\gamma^{(1)}\}, G_q\leftarrow G_q\setminus\{\gamma^{(2)}\}.

Proposition 5 (monotone de consommation). La quantité totale T=\sum_i |G_i| est un monotone décroissant strict à chaque reproduction (si aucun jeton nest créé ex nihilo au même niveau).

Preuve. Chaque événement retire au moins 2 jetons; donc T diminue strictement. □

Comme au chapitre 4, lexistence dun monotone strict interdit les cycles au niveau des événements.

Lignée comme DAG

On définit un graphe orienté \mathcal{T} dont les nœuds sont les individus (génotypes \Gamma) et où lon met des arêtes p\to c et q\to c à chaque reproduction.

Proposition 6 (acyclicité). Sous la règle « gamètes non réutilisables » et une création de jetons strictement orientée (aucune réutilisation), le graphe des événements reproductifs est acyclique.

Preuve. Une boucle impliquerait quun individu soit ancêtre de luimême, donc quune chaîne dévénements consomme des jetons tout en revenant à une configuration antérieure. Mais le monotone T diminue strictement à chaque événement (Proposition 5), donc une boucle est impossible. □

Diagramme :

flowchart TD
  P1["Parent p : Γ_p"] -->|γ_p = Frag(Γ_p)| G1["Gamète γ_p"]
  P2["Parent q : Γ_q"] -->|γ_q = Frag(Γ_q)| G2["Gamète γ_q"]
  G1 -->|Recombine| C["Enfant c : Γ_c"]
  G2 -->|Recombine| C
  C -->|Frag| Gc["Gamètes de c (nouveaux jetons)"]
  subgraph Lineage["Lignée (DAG)"]
    P1 --> C
    P2 --> C
  end

Cette structure donne une flèche généalogique sans agentivité : ce nest pas « quelquun » qui choisit, cest la présence dune règle de consommation et de transformation admissible qui impose lorientation.

Conditions minimales dhéritage des collisions passées

Le chapitre 5 a introduit le rôle des collisions (noninjectivité) et des classes. Ici, la mémoire M capture lhistorique au niveau des classes.

Deux conditions minimales ressortent :

  1. Transmissibilité partielle de M. Il faut que la fragmentation transmette des sousmatrices/cooccurrences (ou des segments permettant de les recalculer).
  2. Accumulation sans boucles. La lignée doit être un DAG (Proposition 6) ou, plus généralement, un ordre partiel dévénements (chapitre 4), afin que la mémoire agrégée ne soit pas recyclable à lidentique.

On peut formaliser une mémoire de lignée par agrégation pondérée :


M_{\mathcal{T}}=\sum_{i\in \mathcal{T}} \omega_i M_i,

\omega_i pondère la contribution (descendance, profondeur, etc.). Cette somme nintroduit pas de sémantique : elle est une opération sur compteurs.

Implications déduites strictement (lecture conditionnelle)

On ne déduit ici que ce qui suit nécessairement des sections mathématiques.

  1. Diversification sans finalité. Dès quil existe (i) une partition en classes (chapitre 5), (ii) une fragmentation non triviale, et (iii) une recombinaison, lespace des objets accessibles par itération des événements sélargit combinatoirement : le nombre de séquences composées de fragments croît au moins multiplicativement avec le nombre de fragments disponibles. Cette diversification est une conséquence de la combinatoire des concaténations et masques, pas dun objectif.

  2. Accumulation historique. Lexistence dun monotone de consommation (gamètesjetons) impose une orientation des événements, donc rend possible laccumulation dun registre M_{\mathcal{T}} qui ne peut pas être « déroulé » en sens inverse sans réintroduire des objets consommés. Ceci prolonge directement lidée que la noninjectivité et la perte dantécédents rendent le passé non reconstructible à partir du présent (chapitre 4), idée également cohérente avec la notion dirréversibilité logique discutée par Landauer et Bennett (noninversibilité à valeur unique).

  3. Condition de possibilité de mécanismes autoconstructifs. Von Neumann a montré quun cadre formel (automates cellulaires) peut contenir des dispositifs de construction universelle et dautoreproduction, en sappuyant sur des descriptions transmissibles et des opérations de construction. Le présent chapitre naffirme pas que de tels dispositifs apparaissent nécessairement, mais établit que nos opérateurs (fragmentation/recombinaison/réparation) constituent une grammaire minimale compatible avec ce type de phénomènes.

Analyse philosophique finale : ontologie de lhéritage, limites et interdits

Ontologie minimale. Lhéritage nest pas ici lhéritage didentités, mais lhéritage de structures compressées : segments S_\gamma et cooccurrences M_\gamma. Lindividu nest pas une substance ; cest un nœud dans un graphe dévénements portant un quadruplet transmissible. Cette lecture découle du fait que la noninjectivité (collisions) rend lidentité fine non conservative, donc inapte à fonder une généalogie robuste au niveau des classes.

Ce que le formalisme interdit. Il interdit toute attribution de but (la reproduction ne « vise » rien), toute lecture intentionnelle (il ny a pas de « choix » intrinsèque), et toute assimilation de ces objets à des contenus sémantiques. Le mot « génotype » est une étiquette de convenance pour \Gamma, non une importation biologique : lobjet est défini par ses composantes (S,M,A,R), pas par un référent.

Limites. Deux limites sont structurelles :

  • La stabilité sous recombinaison nest pas universelle : seuls certains invariants (homomorphes, locaux, ou conçus pour être composables) résistent à la recombinaison (Proposition 4).
  • Les métriques d_S,d_M sont des choix : elles définissent une géométrie sur lespace des génotypes, et différentes géométries conduisent à des notions différentes de proximité héréditaire. Il ne peut donc pas y avoir « une » héritabilité métrique sans convention explicite.

Pont discipliné vers la génétique des populations (sans réduction). La littérature classique en génétique évolutive met au centre le rôle de la recombinaison et discute ses avantages selon les hypothèses (modèles finis/infinis, déséquilibre de liaison, interférences entre loci). Maynard Smith a structuré le problème et Felsenstein a fourni des analyses influentes sur lavantage de recombinaison dans des cadres où la dérive crée des associations entre loci. Nous nen tirons aucune finalité : nous retenons uniquement que ces cadres établissent la pertinence mathématique dopérations de recombinaison (mélange de segments) et deffets de noninjectivité (multiples origines possibles).

Tableaux comparatifs

Objet / opération Définition minimale Propriété clé Injectif ? Coût calcul (typique)
Fragmentation \mathrm{Frag} extraction de segments réduction / sousstructure non (perte) O(n)
Épissage \pi sélection + concaténation composition de fragments non en général O(n)
Recombinaison (concat) S'=S_1\Vert S_2 associative, non commutative non (origines ambiguës) O(n)
Recombinaison (masque) mélange positionnel paramètre interne non O(n)
Réparation \rho projection admissible idempotence si projecteur non dépend contraintes
Mémoire M cooccurrences héritage de collisions recalcul O(n)
Métrique Définition Interprétation formelle Complexité
d_S distance dédition coût minimal de transformation de chaînes O(n^2)
d_M (\sum M-M' )
h normalisation de d_S,d_M indice de ressemblance transmissible coût des distances

Chapitre 7 — Généalogies, lignées et accumulation dhistoire

Hypothèses et résultats (repères)

Hypothèses (H).

  • événements reproductifs orientés, avec nonréutilisation de ressources événementielles (DAG) ;
  • opérateurs dagrégation/oubli explicités pour définir une histoire distribuée.

Résultats (E).

  • dérivation dun ordre généalogique via acyclicité et construction dun registre M_{\mathcal{T}} cumulatif ;
  • introduction de métriques dhistoire et de repères stochastiques (processus de branchement/coalescents) lorsque la couche probabiliste est mobilisée.

Statut.

  • noyau ensembliste pour lordre/DAG ; résultats probabilistes explicitement indexés par le modèle choisi.

Résumé exécutif

Ce chapitre formalise lhistoire comme un objet mathématique dérivé dévénements reproductifs orientés, et non comme un paramètre présupposé. On part de primitives non sémantiques (individus porteurs dun objet \Gamma, événements, gamètesjetons, registre M) et lon montre que, sous une règle minimale de nonréutilisation de ressources événementielles, la structure globale des filiations devient un graphe orienté acyclique (DAG). Cette acyclicité induit un ordre dantériorité « généalogique » qui se superpose à lordre ditération déjà reconstruit comme préordre/dérivé dune action de monoïde (chapitre sur le temps comme ordre).

Sur ce DAG, on définit une agrégation historique M_{\mathcal{T}} (mémoire distribuée) comme un opérateur daddition pondérée, de filtrage et doubli, et lon étudie ses propriétés algébriques (associativité, commutativité, idempotence des filtres, monotonies). On introduit des métriques de croissance historique (complexité cumulée, entropie cumulative, diversité de lignées) et des bornes élémentaires (croissance au plus linéaire ou au plus exponentielle selon le régime de branchement, avec conditions explicites).

On relie ensuite ce formalisme à des modèles stochastiques établis : (i) les processus de branchement de type GaltonWatson et leur critère dextinction/survie via fonction génératrice (résultat classique), et (ii) le coalescent de Kingman (processus de Markov sur partitions) qui décrit la généalogie « vue à rebours » de grands modèles de populations ; ces deux cadres fournissent des théorèmes consensuels sur la probabilité de survie, la profondeur attendue, et la structure statistique des lignées.

Enfin, on traite la reconstruction de lignées à partir de fragments et de registres : lidentifiabilité est en général limitée par la noninjectivité (collisions) et, dès que des recombinaisons sont autorisées, les objets de type « graphe de recombinaison ancestral (ARG) » deviennent computationnellement difficiles à inférer ; des résultats de complexité (NPdifficulté de problèmes minimaux) sont connus et cités.

Les implications restent strictement déduites : dans tout modèle satisfaisant (a) classes (compression), (b) événements de fragmentation/recombinaison, et (c) consommation non réversible de jetons, le système est structurellement capable dune accumulation historique distribuée ; aucun « but » nest requis. La section philosophique conclut sur une ontologie du temps historique comme ordre sur événements et sur ce que le formalisme interdit (téléologie, agentivité, identité forte).

Primitives et axiomes minimaux

On fixe un alphabet fini \mathcal{L} (classes de formes), et un espace de génotypes abstraits.

Axiomes dobjets

Individu. Un individu est un élément dun ensemble I. À chaque individu i\in I est associé un quadruplet


\Gamma_i = (S_i, M_i, A_i, R_i)

S_i \in \mathcal{L}^\* est une séquence finie, M_i un registre (par ex. cooccurrences), A_i un ensemble dinvariants dérivés, R_i un ensemble de règles admissibles (mutations, épissage, réparation). (Définitions : primitives du modèle de ce livre.)

Gamètejeton. À chaque individu i, on associe un multiensemble fini G_i dobjets \gamma (gamètes). Un gamète est une sousstructure \gamma=(S_\gamma,M_\gamma,A_\gamma) extraite de \Gamma_i par un opérateur de fragmentation \mathrm{Frag}.

Événement reproductif. Un événement est un quintuplet


e = (p,q,\gamma_p,\gamma_q,c)

p,q\in I sont les parents, \gamma_p\in G_p, \gamma_q\in G_q les jetons consommés, et c\in I lenfant produit. Lobjet \Gamma_c résulte dun opérateur \mathrm{Recombine}(\gamma_p,\gamma_q;\Theta) suivi dune réparation éventuelle \rho (comme dans les chapitres précédents).

Axiomes dirréversibilité généalogique (nonréutilisation)

A0 (nonréutilisation des jetons). À chaque événement e=(p,q,\gamma_p,\gamma_q,c), les jetons \gamma_p,\gamma_q sont retirés de G_p,G_q et ne peuvent pas être réintroduits identiques (au même niveau danalyse).

Cet axiome est la version minimale dun monotone de consommation : la disponibilité de jetons diminue au fil des événements, imposant une flèche dévénements (au sens formel) comme dans une action de semigroupe non extensible en groupe.

Diagramme dentités (niveau formel)

flowchart LR
  subgraph Individual["Individu i"]
    Gi["G_i : multiensemble de gamètes-jetons"]
    Gamma["Γ_i=(S_i,M_i,A_i,R_i)"]
  end
  Gamma -->|Frag| gamma["γ=(Sγ,Mγ,Aγ)"]
  Gi --> gamma
  gamma -->|Recombine| Gammac["Γ_c"]
  Gammac -->|Frag| Gc["G_c"]

Lignée comme DAG dévénements

On définit une lignée comme un graphe orienté construit par les événements reproductifs.

Définition formelle

Soit E lensemble des événements. On construit un graphe orienté \mathcal{T}=(V,E_{\to}) où :

  • V=I (les individus),
  • pour chaque événement e=(p,q,\gamma_p,\gamma_q,c), on ajoute deux arêtes orientées p\to c et q\to c.

On appelle \mathcal{T} la lignée (ou plus précisément un pedigree abstrait). Le graphe nimpose pas la biparentalité : on peut généraliser à k parents par événement, mais on reste ici dans le cas 2 pour fixer les preuves.

Acyclicité induite par la nonréutilisation

On formalise une grandeur monotone associée à la consommation.

Définition (stock total de jetons).


T = \sum_{i\in I} |G_i|.

Proposition (monotonicité stricte). Si chaque événement consomme au moins deux jetons et ne réintroduit pas les mêmes jetons, alors T décroît strictement après chaque événement (au niveau considéré).

Preuve. Un événement retire \gamma_p,\gamma_q des stocks. Sous A0, ces jetons ne sont pas remis. Donc T diminue dau moins 2. □

Théorème (acyclicité). Sous laxiome A0 et la monotonicité de T, le graphe \mathcal{T} est un DAG.

Preuve. Supposons un cycle orienté i_0\to i_1\to \cdots \to i_k=i_0. Chaque arête correspond à un événement (direct ou indirect) qui consomme des jetons et fait décroître T. En parcourant le cycle, T devrait décroître strictement et revenir à sa valeur initiale, contradiction. □

Cette forme de preuve est exactement la logique « monotone strict ⇒ pas de cycles » (même squelette que dans les preuves par fonction de Lyapunov). Elle est cohérente avec la reconstruction du temps comme ordre : un monotone strict interdit les retours exacts.

Relations dascendance et invariants combinatoires

Dans un DAG \mathcal{T}, on définit :

  • u est ancêtre de v si un chemin orienté u\to^\* v existe.
  • la profondeur \mathrm{depth}(v) : longueur maximale dun chemin orienté menant à v.
  • la largeur \mathrm{width}(\mathcal{T}) : taille maximale dun antichaîne (ensemble de nœuds incomparables) ; notion standard dans la théorie des posets/DAG (ici utilisée comme mesure « dexpansion parallèle »).

Proposition élémentaire (ordre partiel des individus). Lancêtre/descendant induit un ordre partiel sur V (réflexif via chemin vide, transitif par concaténation des chemins, antisymétrique car DAG).

Preuve. Dans un graphe sans cycles, lexistence de u\to^\* v et v\to^\* u implique un cycle si u\neq v. □

Schéma de lignée (DAG dévénements)

flowchart TD
  A["i₀"] --> C["i₂"]
  B["i₁"] --> C
  C --> E["i₄"]
  D["i₃"] --> E
  C --> F["i₅"]
  subgraph Levels["Couches (antichaînes)"]
    direction LR
    L0["génération 0"] --- L1["génération 1"] --- L2["génération 2"]
  end

Agrégation historique et métriques de complexité

Le DAG fournit lossature. L« histoire » apparaît lorsque lon définit des opérateurs dagrégation des registres M_i le long des événements.

Agrégation M_{\mathcal{T}} : somme pondérée, filtrage et oubli

Soit \omega:V\to \mathbb{R}_+ une pondération (fonction arbitraire, par ex. profondeur, centralité, ou constante).

Définition (agrégation additive).


M_{\mathcal{T}} \;=\; \sum_{i\in V} \omega(i)\, M_i

(la somme est pointparpoint sur \mathcal{L}\times\mathcal{L}).

Propriétés (algèbre). La somme est associative et commutative et définit un monoïde additif sur lespace des registres \mathbb{R}_+^{\mathcal{L}\times\mathcal{L}}. (Faits algébriques standards.)

Définition (filtrage). Un filtrage est un opérateur F agissant sur M en annulant certains coefficients :


(F_\theta M)(a,b)=M(a,b)\cdot \mathbf{1}_{M(a,b)\ge \theta}.

Propriété : F_\theta est idempotent (F_\theta\circ F_\theta=F_\theta).

Définition (oubli/exponentiel). Pour \alpha\in(0,1), on définit une agrégation « à oubli » par une récurrence sur un ordre topologique du DAG :


M^{(t+1)}=\alpha M^{(t)} + \Delta M^{(t+1)},

\Delta M^{(t+1)} est la contribution des nouveaux nœuds/hyperarêtes. Cela définit une dynamique contractante sur lespace des registres (pertinent lorsque lhistoire est « bornée »).

Lien avec lentropie et linformation (mesures de Shannon). Shannon établit lentropie H comme mesure de lincertitude dune variable discrète et introduit entropies jointes/conditionnelles dont la relation de chaîne permet de quantifier la perte lors dune projection. Ici, on peut associer au registre M une distribution normalisée p_M(a,b)=M(a,b)/\sum_{u,v} M(u,v) et définir lentropie de transitions :


H(M) = -\sum_{a,b} p_M(a,b)\log p_M(a,b).

Elle quantifie la dispersion des transitions au niveau de classes (sans sémantique).

Métriques de mémoire historique

On propose trois familles de métriques (toutes définies sur des objets mathématiques, sans interprétation psychologique).

Croissance de complexité de registre.

  • Support : \mathrm{supp}(M)=\{(a,b):M(a,b)>0\}
  • Taille support : |\mathrm{supp}(M_{\mathcal{T}})| mesure la diversité de transitions observées.
  • Normes : \|M_{\mathcal{T}}\|_1=\sum_{a,b} M_{\mathcal{T}}(a,b) (compte total), \|M_{\mathcal{T}}\|_0=|\mathrm{supp}| (diversité).

Entropie cumulative.

  • H(M_{\mathcal{T}}) comme cidessus.
  • Entropie conditionnelle (si lon découple états sources et transitions) : H(B|A) mesure la dispersion des successeurs conditionnellement à la source, via standard Shannon.

Diversité de lignées. On mesure la diversité par partition au niveau des descendants (par exemple via classes \Gamma projetées) ; techniquement, cela revient à une entropie de distribution de types.

Bornes élémentaires. Dans le cas où lon agrège simplement des cooccurrences et où chaque nouvel individu ajoute au plus |S_i|-1 transitions, on obtient une borne triviale :


\|M_{\mathcal{T}}\|_1 \le \sum_{i\in V} \omega(i)\,(|S_i|-1).

Si \omega\equiv 1 et |S_i|\le n_{\max}, alors \|M_{\mathcal{T}}\|_1\le |V|\,(n_{\max}-1) (croissance au plus linéaire en nombre dindividus). À linverse, si le nombre dindividus croît exponentiellement (processus supercritique), la masse agrégée croît exponentiellement en espérance (section suivante).

Structure datteignabilité temporelle : couches et accumulation

On peut visualiser lhistoire comme accumulation par couches (antichaînes) dans le DAG.

flowchart LR
  subgraph TimeLayers["Couches d'événements (ordre partiel)"]
    direction TB
    L0["Couche 0: sources"] --> L1["Couche 1"]
    L1 --> L2["Couche 2"]
    L2 --> L3["Couche 3"]
  end
  L0 --- M0["M couche 0"]
  L1 --- M1["ΔM couche 1"]
  L2 --- M2["ΔM couche 2"]
  L3 --- M3["ΔM couche 3"]
  M0 --> Agg["Agrégation: somme/oubli"]
  M1 --> Agg
  M2 --> Agg
  M3 --> Agg
  Agg --> MT["M_𝒯"]

Modèles stochastiques de reproduction et survie des lignées

Processus de branchement de GaltonWatson

Le modèle de GaltonWatson (historique) a été introduit dans le contexte de lextinction de familles (noms), par Galton et Watson. Formellement, si Z_n est la taille de la génération n et si chaque individu engendre un nombre i.i.d. denfants \xi, on a :


Z_{n+1}=\sum_{k=1}^{Z_n} \xi_k^{(n)},\qquad Z_0=1.

Résultats classiques (consensus) :

  • La probabilité dextinction q est la plus petite solution dans [0,1] de
    
    q = \varphi(q),
    
    \varphi(s)=\mathbb{E}(s^\xi) est la fonction génératrice.
  • Si m=\mathbb{E}[\xi]\le 1, alors q=1 (extinction presque sûre) ; si m>1, alors q<1 (survie avec probabilité positive).

Ces résultats fournissent une lecture quantitative de « survivre comme lignée » : lacyclicité et laccumulation ne garantissent pas lexpansion ; en régime souscritique, la lignée séteint presque sûrement.

Coalescent de Kingman : généalogie « vue à rebours »

Pour un échantillon de n individus dans une grande population idéale (WrightFisher / Moran), Kingman introduit un processus de Markov continu sur lensemble des partitions de \{1,\dots,n\}, décrivant les coalescences des lignées ancestrales lorsquon remonte le temps. Propriété centrale (consensus) : lorsque k lignées ancestrales sont présentes, le taux de coalescence est


\lambda_k = \binom{k}{2},

et les temps dattente entre coalescences successives sont exponentiels indépendants de paramètres \lambda_k (après un choix déchelle). Cette structure (pure death process sur le nombre de blocs) est explicitement discutée dans les présentations standards du coalescent.

Lien avec notre formalisme : le DAG « vers lavant » (reproduction) devient, lorsquon le regarde sur un échantillon de feuilles, un arbre aléatoire « vers larrière » (coalescent). Ceci fournit des formules pour la profondeur attendue (temps jusquà MRCA) et pour la distribution de longueurs de branches.

Recombinaison : graphes ancestraux (ARG) et difficulté computationnelle

Avec recombinaison, lancestralité nest plus un arbre unique mais un graphe : lancestral recombination graph (ARG), qui combine événements de coalescence et de recombinaison. Des sources de synthèse décrivent lARG comme structure fondamentale de la généalogie génomique. Des travaux classiques (Hudson) posent des modèles coalescents intégrant recombinaison, en lien avec la structure des généalogies le long du génome.

Résultat clé pour notre chapitre « algorithmes » : construire des ARG minimaux (minimiser le nombre dévénements de recombinaison compatibles avec des données) est computationnellement difficile ; plusieurs travaux mentionnent explicitement la NPdifficulté de variantes de construction minimale. Ce point justifie une limite interne : même si le modèle définit une histoire comme DAG/ARG, la reconstruction exacte peut être non identifiable ou intractable.

Reconstruction algorithmique des lignées et limites didentifiabilité

Le modèle distingue deux problèmes : reconstruction de lossature (le DAG) et reconstruction des contenus (S,M,A).

Reconstruction dun DAG à partir de distances (heuristique)

Si lon observe un ensemble dindividus V_{\text{obs}} avec des distances d_S (sur séquences) et/ou d_M (sur registres), une stratégie heuristique consiste à :

  1. construire un graphe de proximité (kNN, seuil),
  2. imposer une orientation par un ordre externe (horloge interne, monotone, ou timestamps observés),
  3. extraire un DAG minimal (par ex. arborescence couvrante minimale orientée, ou ensemble de parents minimisant une fonction de coût).

Ce type de méthode est heuristique : sans hypothèses additionnelles, de nombreux DAG peuvent être compatibles avec les mêmes distances.

Reconstruction avec recombinaison : réduction à des problèmes NPdifficiles

Lorsque la recombinaison est autorisée, lhistoire devient un graphe (ARG) plutôt quun arbre. Plusieurs problèmes naturels deviennent NPdifficiles :

  • minimiser le nombre de recombinaisons dans un réseau phylogénétique, NPhard dans des formulations standard.
  • construire un ARG minimal cohérent avec des données, NPhard dans des formulations minimales.

Conséquence méthodologique (interne à louvrage) : une théorie abstraite de lhistoire doit accepter que « lhistoire exacte » est souvent une classe dhistoires compatibles, plutôt quun objet unique reconstructible.

Limite informationnelle : noninjectivité et collisions

Même sans recombinaison, la noninjectivité (collisions) implique que plusieurs passés peuvent mener au même présent. Landauer relie explicitement les fonctions logiquement irréversibles (sans inverse univoque) à une irréversibilité physique et à un coût minimal deffacement, ce qui fournit un ancrage consensuel à lidée que linformation sur les antécédents ne peut pas être récupérée gratuitement. Ici, on nen déduit pas une physique de la lignée : on en tire une contrainte formelle sur lidentifiabilité.

Conditions minimales daccumulation irréversible et implications déduites

Conditions minimales (formelles)

On peut isoler trois conditions, chacune dérivée des constructions précédentes :

  • Orientation événementielle : existence dun monotone strict (ici, consommation de jetons) ⇒ DAG ⇒ ordre historique (preuves cidessus).
  • Noninjectivité effective : collisions au niveau des classes/observations ⇒ impossibilité de reconstruire le passé fin ⇒ lhistoire est irréductible à létat présent (principe général, cohérent avec Landauer et avec la théorie de linformation de Shannon, où une projection déterministe détruit linformation conditionnelle).
  • Séparation déchelles (argument de consensus) : pour voir une flèche à un niveau donné, il faut que la dynamique à ce niveau ne soit pas réversible « en pratique » (agrégation, dissipation, noninjectivité). Cette idée est compatible avec le fait que des dynamiques microscopiques réversibles peuvent produire des irréversibilités macroscopiques via agrégation et perte dinformation, point discuté classiquement en mécanique statistique et dans la lecture informationnelle de lentropie.

Implications strictement déduites (statut explicite)

Sans ajouter de spéculation, on peut affirmer :

  1. Disponibilité dune mémoire distribuée. Dès quil existe un DAG dévénements et une variable additive M_{\mathcal{T}}=\sum \omega(i)M_i, lhistoire devient un objet global distribué sur les nœuds, non réductible à un seul état local.

  2. Possibilité daugmentation de complexité historique. En régime où le nombre dindividus croît (p. ex. branchement supercritique m>1), les quantités cumulées (\|M_{\mathcal{T}}\|_1, diversité de transitions, entropie) croissent typiquement avec la taille de la lignée; GaltonWatson fournit le critère probabiliste minimal pour quune telle croissance soit possible avec probabilité non nulle.

  3. Diversification sans finalité. La diversification découle de la combinatoire des recombinaisons de fragments et de lexpansion du DAG; aucun objectif nest requis pour obtenir une dispersion des types.

Analyse philosophique finale : ontologie des lignées, limites et interdits

Ontologie minimale : histoire comme ordre dévénements

Le chapitre montre que « lhistoire » nest pas une donnée primitive : elle apparaît lorsque lon remplace la notion détat par celle dévénement orienté. Une lignée nest pas une essence : cest une structure dordre (DAG) munie de contenus transmissibles (\Gamma) et de cumulants (M_{\mathcal{T}}).

Cette ontologie est strictement structurale : être « dans » une histoire signifie être situé dans un poset dévénements et contribuer à un registre global.

Ce que le formalisme interdit

  • Il interdit toute agentivité : aucun individu n« agit » au sens intentionnel; il ne fait que participer à des opérateurs admissibles.
  • Il interdit toute finalité : la survie/expansion dune lignée est un résultat contingent mesurable (ex. probabilité de survie en GaltonWatson), non un but.
  • Il interdit lidentité forte : la noninjectivité implique que plusieurs histoires distinctes peuvent être compatibles avec un même état présent; avec recombinaison, la pluralité dARG compatibles et la difficulté computationnelle rendent cette limite encore plus marquée.

Limites internes

  • La notion dagrégation M_{\mathcal{T}} dépend dun choix de pondération \omega et dopérateurs de filtrage/oubli : il nexiste pas de « mémoire historique unique » sans convention.
  • La reconstruction exacte des histoires peut être impossible (non identifiabilité) et/ou intractable (NPdifficulté) dans des cadres riches (recombinaison).

Tableaux comparatifs

DAG et cycles : structures dhistoire

Structure Définition Propriété clé Interprétation formelle
DAG graphe orienté sans cycles ordre partiel ancêtre/descendant histoire irréversible (événements non recyclables)
Graphe avec cycles existence de boucle orientée retour possible absence de flèche dévénements au niveau considéré
Arbre (cas particulier de DAG) DAG avec un parent (ou deux) et sans recombinaison MRCA bien défini généalogie sans recombinaison
ARG DAG avec nœuds de recombinaison pas un arbre unique généalogie multiarbres corrélés

Modèles stochastiques : branchement vs coalescent

Modèle « Sens du temps » Objet aléatoire Résultat canonique
GaltonWatson vers lavant tailles Z_n, arbre de descendance extinction q solution q=\varphi(q); q=1 si m\le1
Coalescent de Kingman vers larrière partition/ arbre de coalescence dun échantillon taux \binom{k}{2} pour k lignées; pure death process
Coalescent avec recombinaison vers larrière ARG structure plus complexe; inférence difficile

Métriques dhistoire

Métrique Définition Coût de calcul (typique) Commentaire
\|M_{\mathcal{T}}\|_1 somme des compteurs (O( \mathcal{L}
( \mathrm{supp}(M_{\mathcal{T}}) ) nombre de transitions distinctes
H(M_{\mathcal{T}}) entropie Shannon sur transitions O(\#\text{nonzéros}) dispersion sans sémantique
profondeur/largeur invariants DAG (O( V

Chapitre 8 — Stabilisation, contraintes sur lavenir et émergence de propriétés épistémiques

Hypothèses et résultats (repères)

Hypothèses (H).

  • cadre discret fini pour la stabilisation en temps fini ; ou cadre compact/continu pour des résultats asymptotiques ;
  • choix déclaré dune granularité/description lorsquon parle de contraintes sur lavenir à un niveau donné.

Résultats (E).

  • définitions de stabilisation, bassins, verrous et contraintes sur lavenir ;
  • articulation entre stabilisation et propriétés épistémiques dérivées (réduction dincertitude) sans sujet, avec quantification optionnelle indexée.

Statut.

  • noyau ensembliste pour les implications combinatoires ; couches [M]/[P] uniquement lorsque une mesure ou un noyau est déclaré.

Résumé exécutif

Ce chapitre reconstruit la notion de stabilisation comme propriété formelle dune dynamique (discrète ou continue) sur un espace de configurations, puis en déduit une notion de contrainte sur lavenir : la dynamique, en convergeant vers des ensembles invariants attractifs, réduit effectivement lensemble des futurs accessibles à partir dun ensemble initial détats (incertitude, agrégation, ou classe). Dans le cadre discret fini, cette réduction est absolue : toute orbite tombe en temps fini dans un cycle, et lespace se partitionne en bassins qui déterminent des « destinées » asymptotiques. Dans le cadre compact métrique/topologique, on remplace largument de finitude par la compacité et la notion d(\omega)-limite : les ensembles limites sont non vides, compacts et invariants, et les attracteurs se définissent par attraction dun voisinage.

On formalise ensuite des mécanismes de verrouillage : frontières de bassins, barrières de transition et mesures de « force de verrouillage » (taille de bassin, probabilité dévasion, temps moyen dévasion). Sous bruit, les bassins deviennent des régions métastables, et les questions se déplacent vers la robustesse (stabilité structurelle) et les transitions rares. Les repères de consensus mobilisés sont : stabilité de Lyapunov (définitions canonisées), stabilité structurelle en dimension 2 (Peixoto) et cadres hyperboliques (programme de Smale).

Enfin, on définit des propriétés épistémiques dérivées sans invoquer de sujet : un objet/variable dérivée est dite « épistémique » lorsquelle (i) est une contrainte stable/transmissible sur la dynamique, (ii) réduit formellement lincertitude sur des états futurs (via entropie conditionnelle ou information mutuelle au sens de Shannon), et (iii) reste opératoire sous perturbations admissibles. Shannon fournit le langage minimal (entropie, conditionnement) et Jaynes formalise le rôle des contraintes comme base destimation maximale dentropie (sans hypothèse sémantique), tandis que Landauer apporte la contrainte thermodynamique sur les opérations logiquement irréversibles qui « effacent » des distinctions (borne kT / kT\ln 2 par bit).

Primitives, axiomes et définitions de stabilisation

On fixe des primitives non sémantiques déjà admises dans louvrage : un espace de configurations X, une dynamique (itération ou flot), des classes (quotients/projections), et des registres transmissibles (génotypes abstraits \Gamma et mémoires M). Aucune finalité nest supposée.

Primitives

  • Configurations : ensemble X (fini, dénombrable ou compact métrique selon le cadre).
  • Dynamique discrète : application f:X\to X, itérée f^{(n)}.
  • Dynamique continue (semi-flot) : famille \{\Phi_t\}_{t\ge 0} satisfaisant \Phi_0=\mathrm{Id} et \Phi_{t+s}=\Phi_t\circ\Phi_s; on distingue le cas réversible (flot, t\in\mathbb{R}) du cas irréversible (semi-groupe). Cette distinction est centrale dans la théorie des systèmes dynamiques différentiables (conjugaison, robustesse), telle que synthétisée par Smale.
  • Classes / compression : projection q:X\to A (partition en fibres) ou quotient \pi:X\to X/{\sim} compatible avec f (système facteur).
  • Génotype abstrait : un quadruplet \Gamma=(S,M,A,R) avec séquence S sur un alphabet fini, mémoire M (cooccurrences), invariants A et règles R (fragmentation/recombinaison/réparation). (Construction interne à louvrage, non empirique par elle-même.)
  • Registres : M est un opérateur de comptage discret (par ex. transitions entre classes), susceptible dagrégation au sein dune lignée (chapitres précédents du manuscrit).

Stabilisation dans le cadre discret fini

Définition (stabilisation forte, discret fini). Dans X fini, une orbite (x_n) est dite stabilisée si elle devient périodique après un transitoire : il existe \mu\ge 0 et p\ge 1 tels que x_{n+p}=x_n pour tout n\ge \mu. Cela équivaut à « l(\omega)-comportement est un cycle ». (Ce fait découle du principe des tiroirs et de la structure des graphes fonctionnels.)

Proposition (stabilisation en temps fini). Si |X|=N, toute orbite dun système déterministe f:X\to X est stabilisée, avec \mu+p\le N.

Preuve (élémentaire). Les N+1 termes x_0,\dots,x_N contiennent une répétition x_i=x_j avec i<j; par déterminisme, x_{i+k}=x_{j+k} pour tout k, donc périodicité à partir de \mu=i de période p=j-i, et \mu+p=j\le N. □

Définition (bassin discret). Pour un cycle C, le bassin est B(C)=\{x:\exists n,\ f^{(n)}(x)\in C\}. Le bassin formalise déjà une « contrainte sur lavenir » : tous les futurs tardifs dun état du bassin appartiennent au cycle.

Stabilisation dans le cadre compact métrique

On suppose (X,d) compact métrique et f:X\to X continue.

Définition ((\omega)-limite). \omega(x) est lensemble des valeurs dadhérence de \{f^{(n)}(x)\}.

Proposition (existence d\omega(x), consensus standard). Pour tout x, \omega(x) est non vide, compact, et invariant : f(\omega(x))=\omega(x).

Preuve (compactness + continuité). La suite \{f^{(n)}(x)\} vit dans un compact, donc admet une sous-suite convergente; d\omega(x)\neq\varnothing et compacité par fermeture dans un compact. Si y\in\omega(x), il existe n_k\to\infty tel que f^{(n_k)}(x)\to y; par continuité, f^{(n_k+1)}(x)=f(f^{(n_k)}(x))\to f(y), donc f(y)\in\omega(x), i.e. f(\omega(x))\subseteq\omega(x). Linclusion inverse suit parce que si z\in\omega(x), alors il est aussi limite dune suite f^{(n_k+1)}(x), donc z\in f(\omega(x)). □

Définition (attracteur topologique, rappel). Un compact invariant A\subseteq X est un attracteur sil existe un ouvert U\supseteq A tel que \mathrm{dist}(f^{(n)}(x),A)\to 0 pour tout x\in U. (Cette définition est standard dans la théorie des systèmes dynamiques; elle est utilisée dans les textes fondateurs sur invariants et entropie topologique.)

Stabilisation, stabilité de Lyapunov et robustesse structurelle

La stabilisation (convergence vers un invariant) doit être distinguée de la stabilité au sens de Lyapunov (insensibilité aux petites perturbations de la condition initiale) et de la stabilité structurelle (insensibilité aux petites perturbations de la dynamique).

  • Stabilité de Lyapunov (définition canonique) : un équilibre est stable si toute trajectoire partant assez près reste proche pour tout temps, et asymptotiquement stable si elle converge en plus vers léquilibre. Ces définitions proviennent du cadre de Lyapunov (1892) et restent le standard pour relier attraction et robustesse locale.
  • Stabilité structurelle : un système est structurellement stable si toute perturbation suffisamment petite est topologiquement conjuguée au système initial (préservation qualitative des trajectoires). Smale en fait un objet central du programme moderne (conjugaison, hyperbolicité, Axiom A).
  • Cas des surfaces (Peixoto) : pour des champs de vecteurs C^1 sur une surface compacte, les champs structurellement stables forment un ensemble ouvert et dense (théorèmes de Peixoto).

Contraintes sur lavenir et verrous dynamiques

Une dynamique déterministe rend le futur dun état unique, mais louvrage travaille à plusieurs niveaux (incertitude initiale, classes, génotypes, bruit). Cest à ces niveaux que la notion de « contrainte sur lavenir » devient non triviale : elle quantifie la réduction de lensemble des futurs accessibles à partir dun ensemble détats initialement compatibles.

Réduction de lespace des possibles

Soit U\subseteq X un ensemble détats initiaux possibles (incertitude, classe, fibre). On définit lensemble des futurs au temps (n) :


F_n(U)=f^{(n)}(U)=\{f^{(n)}(x): x\in U\}.

On dit quil y a verrouillage vers un attracteur A si F_n(U) converge vers A au sens de Hausdorff (ou, plus faiblement, si \sup_{x\in U}\mathrm{dist}(f^{(n)}(x),A)\to 0). Dans ce cas, le système force, à grande échelle, la réduction des futurs accessibles à une région arbitrairement petite autour de A.

Proposition (contrainte par bassin, discret). Dans X fini, si U\subseteq B(C) pour un cycle C, alors il existe n_0 tel que F_n(U)\subseteq C pour tout n\ge n_0.

Preuve. Chaque x\in U atteint C en un temps t(x). Poser n_0=\max_{x\in U} t(x) (maximum fini car U fini ou X fini). Pour n\ge n_0, f^{(n)}(x)\in C pour tout x\in U; donc F_n(U)\subseteq C. □

Cette proposition exhibe une contrainte « dure » sur lavenir, imposée par la structure des bassins.

Verrous topologiques et barrières de transition

Dans un système déterministe sans bruit, deux bassins distincts ne communiquent pas : une orbite ne peut pas « changer de bassin » sans modification exogène de létat ou des règles. Les frontières de bassins (séparatrices) jouent alors le rôle de barrières.

Dans un cadre métrique, on peut formaliser une barrière comme un ensemble K invariant (ou quasi-invariant) tel que tout chemin continu reliant deux bassins doit intersecter K. Dans les systèmes différentiables, les séparatrices de stabilité (variétés stables/instables) matérialisent cette géométrie; et la stabilité structurelle (Peixoto/Smale) dit quand cette géométrie est robuste sous perturbations.

Coût informationnel minimal pour franchir une barrière

Le chapitre ne postule pas une énergie mécanique universelle. En revanche, si un franchissement de barrière est effectivement réalisé par une opération logiquement irréversible (par ex. une projection/effacement qui force létat dans un autre bassin en détruisant la trace de son passé), alors, dans une implémentation thermodynamique donnée, Landauer fournit une borne minimale sur le coût associé à leffacement.

Landauer argumente que les dispositifs effectuant des fonctions logiques sans inverse univoque (logiquement irréversibles) sont associés à une irréversibilité physique et requièrent une génération minimale de chaleur typiquement de lordre de kT par fonction irréversible, et en particulier kT\ln 2 par bit effacé dans les formulations modernes.

Ainsi, on peut associer à une barrière franchissable uniquement par une opération « effaçant » \Delta b bits de distinction un coût minimal :


E_{\min}\ \ge\ \Delta b\; kT\ln 2,

non parce que lénergie est une primitive du modèle, mais parce que toute instanciation physique dune telle opération irréversible subit cette borne.

Diagramme de structure datteignabilité : bassins, barrières, verrouillage

flowchart LR
  subgraph X["Espace des configurations"]
    U0["Ensemble initial U"] -->|itération| U1["F_n(U)"]
    U1 --> A1["Attracteur A₁"]
    U1 --> A2["Attracteur A₂"]
    A1 --- Bnd["Barrière / frontière de bassin"]
    A2 --- Bnd
  end
  note1["Verrouillage: F_n(U) ⊂ Nε(A₁) pour n grand"] --- U1

Mesures, entropies et bornes de verrouillage

Le verrouillage peut être quantifié de plusieurs façons, selon le cadre (discret/continu, déterministe/stochastique). On présente des mesures compatibles avec les consensuses (Shannon, entropie topologique) et avec des quantités opérationnelles (probabilité dévasion, temps moyen dévasion).

Entropie structurelle des bassins (discret)

Soit X fini, et \{B(C_i)\}_{i=1}^K la partition de X par bassins de cycles (attracteurs discrets). Posons p_i=|B(C_i)|/|X|. On définit lentropie structurelle de bassins :


H_{\mathrm{bassins}}=-\sum_{i=1}^K p_i \log p_i.

Proposition (bornes).


0 \le H_{\mathrm{bassins}} \le \log K,

avec H_{\mathrm{bassins}}=0 ssi un bassin domine tout (p_i=1 pour un i), et H_{\mathrm{bassins}}=\log K ssi p_i=1/K.

Preuve. Propriété standard de lentropie de Shannon appliquée à une distribution finie. Shannon introduit lentropie comme mesure de lincertitude dune source discrète et en dérive les propriétés élémentaires (concavité, maxima sous contrainte).

Interprétation purement formelle : faible H_{\mathrm{bassins}} signifie forte dominance (verrouillage global), tandis quun H_{\mathrm{bassins}} élevé signifie pluralité de futurs asymptotiques selon létat initial.

Entropie topologique et complexité interne dun régime

Lentropie topologique h_{\mathrm{top}}(f) a été introduite par AdlerKonheimMcAndrew comme invariant de conjugaison topologique pour applications continues sur espaces compacts, mesurant une croissance exponentielle de complexité orbitale via raffinements de recouvrements ouverts.

La coexistence est importante : un système peut avoir (i) un petit nombre dattracteurs dominants (verrouillage global fort) et (ii) une entropie topologique positive sur un attracteur chaotique (complexité interne élevée). Les deux quantités répondent à des questions différentes : « où finit-on ? » versus « à quel point la dynamique est-elle complexe sur le régime atteint ? ».

Probabilité de sortie et temps moyen dévasion (cadre stochastique discret)

Pour modéliser le bruit, on considère une chaîne de Markov sur X avec matrice de transition P. Un « bassin » devient une région B\subseteq X et l« évasion » signifie frapper X\setminus B.

Probabilité de sortie avant absorption. Soit h(x) la probabilité, en partant de x\in B, datteindre un ensemble cible C\subseteq X\setminus B avant de sortir de B par un autre mécanisme (ou avant une absorption interne). Alors h satisfait un système linéaire harmonique sur (B) :


h(x)=\sum_{y\in X} P(x,y)\,h(y),\quad x\in B,

avec conditions au bord h|_C=1 et h|_{X\setminus (B\cup C)}=0. (Preuve élémentaire par propriété de Markov et loi des probabilités totales.)

Temps moyen dévasion. Soit \tau_B=\inf\{n\ge 0: X_n\notin B\}. La fonction u(x)=\mathbb{E}_x[\tau_B] vérifie


u(x)=1+\sum_{y\in B} P(x,y)\,u(y),\quad x\in B,

et u=0 hors de B. Cest encore un système linéaire, donc calculable en temps polynomial en |B| par inversion de matrice ou méthodes itératives (GaussSeidel). (Résultat de théorie élémentaire des chaînes de Markov finies.)

Ces formules fournissent des métriques de verrouillage concrètes : un bassin fortement verrouillé a une faible probabilité dévasion (sur un horizon donné) et/ou un temps moyen dévasion élevé.

Tableau comparatif des métriques de verrouillage

Cadre Mesure de verrouillage Définition Calcul/estimation
Discret déterministe taille de bassin ( B(C)
Discret déterministe entropie de bassins H_{\mathrm{bassins}}(p_i) exact une fois p_i connus (Shannon)
Compact continu attraction uniforme \sup_{x\in U}\mathrm{dist}(f^{(n)}(x),A)\to 0 analyse théorique / bornes
Stochastique (Markov) prob. dévasion solution harmonique h=Ph sur B système linéaire
Stochastique (Markov) temps moyen dévasion u=1+Pu sur B système linéaire

Robustesse sous bruit et stabilité structurelle des régimes

La stabilisation (convergence) ne suffit pas : une stabilisation non robuste ne contraint pas durablement les futurs si de petites perturbations changent la structure des attracteurs/bassins.

Robustesse locale : stabilité de Lyapunov

La stabilité de Lyapunov fournit un critère minimal de robustesse locale : rester proche sous petites perturbations initiales et, en cas de stabilité asymptotique, converger malgré ces perturbations. Ces notions sont introduites dans le texte fondateur de Lyapunov (1892) et structurent toute la théorie moderne de stabilité.

Robustesse globale : stabilité structurelle (Peixoto, Smale)

Deux repères de consensus encadrent ce chapitre.

  • Peixoto (surfaces) : sur une surface compacte, les champs de vecteurs structurellement stables (au sens C^1) forment un ensemble ouvert et dense, et admettent une caractérisation qualitative (pas de connexions selleselle, ensembles non errants hyperboliques, etc.). Cela signifie quen dimension 2, un « régime » typique est qualitativement robuste.
  • Smale (programme hyperbolique) : la stabilité structurelle est liée à lhyperbolicité et à la conjugaison topologique; Smale formalise un cadre global (Axiom A, décomposition spectrale) où les propriétés qualitatives persistent sous perturbations.

Ces résultats justifient une distinction interne au chapitre : un attracteur nest « contraignant pour lavenir » de manière durable que sil est robuste (au moins localement, idéalement structurellement).

Entropie, irréversibilité et structures dissipatives (ancrage thermodynamique)

Prigogine rappelle, dans sa leçon Nobel, lusage des fonctions de Lyapunov en thermodynamique de stabilité et la centralité de la production dentropie (signe non négatif) pour lorientation irréversible, tout en distinguant les situations où une fonction de potentiel (Lyapunov) existe ou non.

Ce point sert ici uniquement comme correspondance de consensus : dans des systèmes physiques ouverts loin de léquilibre, des « régimes organisés » peuvent persister (structures dissipatives), ce qui correspond formellement à lexistence densembles invariants attirants sous contrainte dissipative.

Propriétés épistémiques dérivées

On introduit maintenant « épistémique » comme adjectif dérivé et non comme fondement : il sagit de caractériser certains invariants/contraintes comme capables de jouer un rôle de réduction dincertitude sur lavenir, sans postuler sujet, signification, ni intention.

Définition formelle dune propriété épistémique dérivée

Soit (X_t)_{t\ge 0} une dynamique (déterministe ou stochastique) sur X, et soit D_t = D(X_t) une variable dérivée (par exemple : étiquette de bassin, classe, invariant calculé à partir dun génotype \Gamma). On dit que D possède une propriété épistémique dérivée à lhorizon \tau sil existe un gain strict de prévisibilité :


H(X_{t+\tau}\mid D_t)\ <\ H(X_{t+\tau}).

Équivalemment, linformation mutuelle satisfait


I(D_t; X_{t+\tau})\ >\ 0.

Ces quantités (entropie, conditionnement, information mutuelle) sont introduites dans le cadre de Shannon comme mesures formelles de lincertitude et de la réduction dincertitude (indépendamment de toute sémantique).

Remarque de méthode. Cette définition ne dit pas que « le système connaît » quoi que ce soit; elle dit quil existe une variable dérivée stable qui porte une contrainte suffisante pour réduire lensemble des futurs accessibles.

Variables épistémiques typiques : étiquette de bassin et invariants transmissibles

Exemple 1 (étiquette de bassin). Dans un système discret fini déterministe, définissons D(x)=i si x\in B(C_i). Alors D(f^{(n)}(x))=D(x) pour tout n (lorbite ne quitte pas son bassin). De plus, D prédit lattracteur final; à horizon \tau grand, il prédit que X_{t+\tau} appartient au cycle C_{D_t}. Donc H(X_{t+\tau}\mid D_t) est strictement plus petit quen labsence de D_t dès que plusieurs bassins existent et que lincertitude initiale couvre plusieurs bassins. (Preuve directe par définition des bassins.)

Exemple 2 (registre transmissible). Soit un génotype abstrait \Gamma=(S,M,A,R) transmis partiellement dans une lignée (chapitres précédents). Une variable dérivée D(\Gamma) peut être un invariant de second ordre (attracteur dans lespace quotient des classes, statistique stable de transitions, etc.). Si D est stable sous recombinaison/réparation (homomorphisme ou invariant robuste) et influence la dynamique (construit un bassin dominant pour la descendance), alors D devient une contrainte transmissible qui réduit lincertitude sur les régimes atteints par les descendants (réduction de la diversité des futurs). Cette « épistémicité » est structurelle : transmission + stabilité + pouvoir de contrainte.

Conditions nécessaires et suffisantes (propositions élémentaires)

Proposition (nécessité minimale). Si D_t est presque sûrement constant (aucune variation), alors I(D_t;X_{t+\tau})=0 et aucune propriété épistémique dérivée napparaît.

Preuve. Si D_t\equiv c, alors H(X_{t+\tau}\mid D_t)=H(X_{t+\tau}\mid c)=H(X_{t+\tau}). □

Proposition (suffisance simple via attracteurs dominants). Supposons quil existe deux bassins B_1,B_2 de mesures positives (ou de tailles positives en discret) et que lincertitude initiale place une masse non nulle sur chacun. Alors la variable D(x)=\mathbf{1}_{x\in B_1} satisfait I(D_t; \text{attracteur final})>0 et donc réduit lincertitude sur un futur suffisamment tardif.

Preuve. D détermine quel attracteur final sera atteint (par définition des bassins), et comme D nest pas constante (probabilités non triviales), linformation mutuelle est positive. □

Jaynes : contraintes et prédiction minimale biaisée

Jaynes formalise lidée quune description par contraintes partielles (moments, invariants) induit une distribution de probabilité « la moins biaisée » compatible avec ces contraintes via le principe de maximum dentropie. Cela fournit un pont formel entre « contrainte stable » et « prédiction distribuationnelle », sans invocation sémantique.

Dans notre langage, si un invariant D est transmissible et stable, alors la classe des futurs compatibles avec D est restreinte; le maximum dentropie donne alors une manière canonique (au sens de Jaynes) dassigner des probabilités sur ces futurs lorsque lon ne conserve que D comme contrainte.

Diagramme : génotype → invariant → attracteur → contrainte sur lavenir

flowchart TD
  Gamma["Γ=(S,M,A,R)"] --> D["Invariant dérivé D(Γ)"]
  D --> Basin["Bassin/Region verrouillée B(D)"]
  Basin --> Attr["Régime stable / attracteur"]
  D --> Pred["Réduction dincertitude sur futurs: H(Futur|D) < H(Futur)"]

Conséquences strictement déduites (lecture conditionnelle)

Les conclusions suivantes ne supposent ni « sujet », ni téléologie; elles suivent des constructions mathématiques précédentes.

Disponibilité de formes persistantes qui contraignent les futurs. Lexistence dattracteurs (discrets ou topologiques) implique quil existe des régimes invariants atteints à partir de voisinages : à grande échelle, lensemble des futurs accessibles se réduit aux régimes attractifs. La dynamique produit donc des « formes persistantes » (au sens invariant) capables de canaliser les trajectoires.

Possibilité dobjets « explicatifs » sans sujet. Dès quil existe une variable dérivée D stable et transmissible qui réduit formellement lincertitude sur des futurs (Shannon), D joue un rôle explicatif minimal : il condense une contrainte suffisante pour discriminer des destinées possibles. Ce caractère « explicatif » nest pas psychologique : cest une propriété dordre et dinformation conditionnelle.

Flèche et verrouillage sous contraintes irréversibles. Si le verrouillage exige des opérations non injectives (effacement, projection) pour changer de bassin, alors, dans une implémentation thermodynamique donnée, Landauer fournit une borne minimale sur le coût associé à leffacement ; couplé à lexistence de monotones (à la Lyapunov/entropie), cela explique pourquoi certains verrous peuvent être « coûteux » à franchir dans des instanciations physiques.

Analyse philosophique et limites

Ontologie des contraintes

Le chapitre autorise une thèse philosophique minimale (et non circulaire) : ce qui « persiste » et « agit sur lavenir » nest pas létat individuel, mais une structure dinvariance et dattraction (attracteur + bassin, ou invariant stable) qui réduit lespace des possibles. Lontologie nest pas celle dentités substantielles, mais celle de contraintes dynamiques.

Cette ontologie est compatible avec deux repères classiques :

  • La stabilité (Lyapunov) comme définition de ce qui résiste aux perturbations locales.
  • La stabilité structurelle (Peixoto/Smale) comme définition de ce qui résiste aux perturbations des lois elles-mêmes.

Ce que le formalisme interdit

  • Il interdit de traiter « connaissance » comme primitive : les propriétés épistémiques sont définies a posteriori comme réduction dincertitude sur lavenir via variables dérivées, sans sémantique.
  • Il interdit didentifier « attracteur » à « optimum » (aucune fonction de coût nest postulée) et interdit toute téléologie implicite.
  • Il interdit dinférer une métrique temporelle universelle à partir du seul verrouillage : les métriques (temps moyen dévasion, probabilités de sortie) dépendent du bruit, de léchelle dobservation et des conventions de mesure.

Limites internes (à assumer explicitement)

  • Dépendance au niveau de description. Les bassins, entropies structurelles et variables D dépendent du choix de projection q et de la granularité temporelle; changer de niveau de description peut transformer des transitions rares en transitions fréquentes (ou inversement).
  • Pluralité des notions dattracteur. Il existe plusieurs définitions non équivalentes (topologique, mesurée, Milnor attractor). Le chapitre se limite à une définition topologique standard et à des critères robustes (Lyapunov, stabilité structurelle) reconnus.
  • Les structures dissipatives ne sont pas un axiome. Le lien avec Prigogine est une correspondance empirique consensuelle : il illustre que des régimes attractifs peuvent exister loin de léquilibre et que lentropie/production dentropie jouent un rôle structurant, mais cela ne remplace pas les démonstrations abstraites du chapitre.

Tableau de synthèse : stabilisation et épistémicité dérivée

Notion Définition formelle Condition clé Statut
Stabilisation (discret fini) transitoire + cycle finitude + déterminisme démontré (élémentaire)
Stabilisation (compact) \omega(x) non vide, invariant compacité + continuité démontré (élémentaire)
Robustesse locale stabilité de Lyapunov (\varepsilon)-\delta consensus (Lyapunov)
Robustesse structurelle conjugaison sous perturbation hyperbolicité / critères consensus (Peixoto/Smale)
Contrainte sur lavenir F_n(U)\to A ou U\subset B(A) attracteur + bassin déduit
Propriété épistémique dérivée (H(Futur D) < H(Futur)) I(D;Futur)>0 + stabilité
Coût minimal deffacement E_{\min}\ge kT\ln 2\ \Delta b logique irréversible consensus (Landauer)

Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification

Hypothèses et résultats (repères)

Hypothèses (H).

  • existence de reproduction/variation et dune notion de viabilité (contraintes) ;
  • introduction dune repondération w (fitness structurelle) comme paramètre de modèle, sans finalité.

Résultats (E).

  • reconstruction de la sélection comme effet de repondération des distributions (opérateur S_w) ;
  • décomposition de lévolution moyenne par léquation de Price (covariance + transformation intralignées) ;
  • définition de métriques de complexité et conditions explicites sous lesquelles une complexification est possible.

Statut.

  • les énoncés sur distributions et modèles de population relèvent dune couche probabiliste déclarée ; aucune optimisation nest postulée.

Résumé exécutif

Ce chapitre formalise la sélection comme un phénomène purement structural : un opérateur agissant sur des distributions de génotypes \Gamma, sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de noninjectivité) et des lignées orientées (DAG dévénements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une tendance différentielle à produire des descendants admissibles (au sens des contraintes R), ce qui se traduit mathématiquement par une repondération des distributions par une fonction de poids w(\Gamma) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie.

Deux résultats structurants sont établis. Dabord, lopérateur de sélection S_w conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) augmente la moyenne \mathbb{E}[w] dune manière mesurable (inégalité élémentaire via la variance). Ensuite, léquation de Price fournit une identité générale de variation des moyennes : le changement dune quantité moyenne (trait, invariant, complexité) se décompose en un terme de covariance entre variation et fitness, plus un terme de transformation « intralignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique.

La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines mesures de complexité (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, (iii) profondeur logique de Bennett pour distinguer laléatoire « shallow » du complexe « deep » (résultat dune longue histoire causale/computationnelle). On montre que la complexification nest pas un monotone universel : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets doubli, de bruit, et de coût deffacement (Landauer) lorsquon considère limplémentabilité physique des opérations irréversibles.

Enfin, on place ces définitions dans des modèles canoniques de consensus : WrightFisher/Wright (population génétique), Moran (naissancesmorts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (LiebermanHauertNowak) où la structure dinteraction modifie probabilités de fixation et temps dabsorption. Les implications sont strictement déduites : si un modèle possède (a) reproduction partielle, (b) héritage de contraintes (invariants) et (c) sélection structurale (repondération par w), alors il existe des régimes où certains invariants s'accumulent et où des trajectoires historiques de complexité croissante sont possibles (probabilistiquement), sans présupposer finalité ni « progrès ».

Cadre formel minimal

On fixe un cadre qui ne présuppose ni biologie empirique ni intention.

Espaces et objets. On dispose dun espace X de configurations (discret fini, ou compact métrique selon les besoins), et dune dynamique f:X\to X (ou un semiflot). Louvrage a déjà établi que litération induit une structure dordre (préordre, puis ordre sur classes) et que lévolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.)

Classes et génotypes. On considère un espace de génotypes \mathcal{G}, dont un élément est un quadruplet


\Gamma=(S,M,A,R),

S est une séquence sur un alphabet fini \mathcal{L}, M est un registre de cooccurrences (compteurs non négatifs), A un ensemble dinvariants dérivés, et R un ensemble de règles admissibles (fragmentation, recombinaison, réparation). Le passage X\to \mathcal{L} (classes) est interprété comme compression/noninjectivité (fibres et partitions), mais cela nest pas requis pour définir la sélection ; cela est utilisé pour relier sélection et mémoire M.

Populations comme distributions. Une population est une mesure de probabilité p sur \mathcal{G} (cas discret : p\in\Delta(\mathcal{G}), simplex). Le « temps » au niveau populationnel est un index ditération dun opérateur sur distributions.

Reproduction/variation comme noyau de transition. On encode reproduction, recombinaison et mutation par un noyau (K) :


K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum_{\Gamma'} K(\Gamma'\mid \Gamma)=1.

Ainsi, létape de variation (sans sélection) est simplement


p^{\text{var}}(\Gamma') = \sum_{\Gamma} p(\Gamma)\,K(\Gamma'\mid \Gamma).

Cest une mise à jour de Markov (linéaire sur le simplex).

Fitness structurelle non téléologique. On définit une fonction w:\mathcal{G}\to\mathbb{R}_+ comme une intensité différentielle de reproduction admissible, par exemple :

  • w(\Gamma)=\mathbb{E}[\#\text{descendants admissibles}\mid \Gamma], ou
  • w(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma), ou
  • w(\Gamma)=\mathbb{P}(\text{conserver un invariant }A_0\mid\Gamma).

Aucune de ces définitions nimplique un but : w est un paramètre de la dynamique effective.

Sélection structurelle et invariants sélectionnés

Définition de lopérateur de sélection

Définition (opérateur de sélection). Soit p une distribution sur \mathcal{G}, et w\ge 0 une fonction non identiquement nulle. On définit


(S_w p)(\Gamma) \;=\; \frac{w(\Gamma)\,p(\Gamma)}{\langle w,p\rangle},
\quad \text{où}\quad
\langle w,p\rangle=\sum_{\Gamma} w(\Gamma)p(\Gamma).

Cest la repondération standard « proportionnelle à w » (forme canonique de la sélection).

Proposition (biendéfinition). Si \langle w,p\rangle>0, alors S_w p est une distribution (non négative et de somme 1).

Preuve. w(\Gamma)p(\Gamma)\ge 0. La somme vaut \sum_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1. □

Cette opération est la version abstraite (et non téléologique) du mécanisme « les types à plus grand taux de reproduction deviennent plus fréquents ».

Sélection + variation : dynamique composée

Le modèle minimal de sélectionvariation est alors


p_{t+1} \;=\; K\big(S_w p_t\big),

K est lopérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement :

  • sélection (non linéaire, renormalisation),
  • variation (linéaire, mélange).

Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple)

Un fait classique (et ici démontré explicitement) est que, lorsque w ne dépend pas de p (pas de dépendance fréquentielle), la sélection seule augmente la moyenne de w.

Proposition (augmentation de la moyenne de w sous S_w). Supposons w:\mathcal{G}\to\mathbb{R}_+ indépendante de p. Alors


\mathbb{E}_{S_w p}[w] \;\ge\; \mathbb{E}_{p}[w],

avec égalité ssi w est constante (p)-presque partout.

Preuve. On calcule


\mathbb{E}_{S_w p}[w]=\sum_{\Gamma} w(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]}
= \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}.

Or \mathbb{E}_p[w^2]=\mathrm{Var}_p(w)+\mathbb{E}_p[w]^2, donc


\frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}=\mathbb{E}_p[w]+\frac{\mathrm{Var}_p(w)}{\mathbb{E}_p[w]}
\ge \mathbb{E}_p[w].

Égalité ssi \mathrm{Var}_p(w)=0, i.e. w constante sur le support. □

Cette proposition est un énoncé strictement mathématique : il ne dit pas que « lévolution progresse », il dit que lopérateur S_w concentre la masse sur les régions de plus grand w.

Équation de Price : invariants sélectionnés par covariance

La question centrale de ce chapitre est : quels invariants sont sélectionnés ? On répond sans métaphore par léquation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec w, modulé par ce qui se transforme pendant la reproduction.

Énoncé (forme générale, un pas). Soit une population dindividus i (ou de génotypes \Gamma) avec une quantité z (trait, invariant, complexité) et un nombre de descendants w (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \bar z entre deux générations se décompose en :


\Delta \bar z \;=\; \frac{\mathrm{Cov}(w,z)}{\bar w} \;+\; \frac{\mathbb{E}[w\,\Delta z]}{\bar w},

\Delta z est le changement de z entre parent et descendant (terme « transmission/transformations internes »). Price montre explicitement que la variation attribuable à la sélection sexprime comme un terme de covariance, et il illustre la transparence de cette écriture. (La version 1972 étend ce formalisme et discute des cas plus complexes, notamment quand la structure de sélection nest pas une simple sélection « génétique » au sens standard.)

Lecture structurale (sans finalité).

  • Si \mathrm{Cov}(w,z)>0, alors la sélection tend à augmenter la moyenne de z, toutes choses égales par ailleurs.
  • Si \mathbb{E}[w\,\Delta z] est négatif (mutation destructrice, réparation projective), il peut annuler ou inverser leffet de covariance.

Ainsi, un invariant « sélectionné » est un invariant z dont la covariance avec w est durablement positive et dont la transmission nefface pas lavantage.

Dynamique de complexification et métriques de complexité

Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle C sur \Gamma (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous laction conjointe variationsélectionhéritage.

Trois familles de métriques (consensus)

Entropie structurelle (Shannon). Pour une distribution p sur \mathcal{G}, lentropie de Shannon


H(p)=-\sum_{\Gamma} p(\Gamma)\log p(\Gamma)

mesure la dispersion des types possibles. Shannon introduit lentropie comme mesure dincertitude dune source discrète et en établit les propriétés élémentaires et le rôle des conditionnements. Dans notre cadre, H(p_t) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes.

Complexité algorithmique (Kolmogorov). Kolmogorov distingue explicitement une approche combinatoire, probabiliste et algorithmique de « quantité dinformation », en reliant la mesure à des descriptions minimales (approche par fonctions récursives). On note K(\Gamma) la longueur de la plus courte description (programme) produisant \Gamma sur une machine universelle. On note (consensus en théorie) : K nest pas calculable en général, mais sert de référence conceptuelle pour la compressibilité.

Profondeur logique (Bennett). Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir dun programme (presque) le plus court, avec un paramètre de signification. Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis quun objet compressible mais difficile à générer peut être « deep ».

Complexification comme dérive positive dune fonctionnelle

Soit C:\mathcal{G}\to\mathbb{R} une mesure de complexité (au choix : K, profondeur, taille de support de M, etc.). Définissons la moyenne populationnelle


\bar C_t = \mathbb{E}_{p_t}[C].

Proposition (variation de \bar C sous sélection pure). Sous sélection seule p' = S_w p,


\bar C' - \bar C
= \frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}.

Preuve.


\bar C'=\sum_\Gamma C(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]}
=\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}.

Donc


\bar C' - \bar C
=\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}-\mathbb{E}_p[C]
=\frac{\mathbb{E}_p[wC]-\mathbb{E}_p[w]\mathbb{E}_p[C]}{\mathbb{E}_p[w]}
=\frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}.

Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à w.

Conditions nécessaires pour une dynamique de complexification

En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) :

  • Variation : la dynamique doit explorer des génotypes de C différents (sinon covariance nulle).
  • Héritabilité : les opérations de reproduction doivent préserver suffisamment C (ou le reconstruire) pour que lavantage corrélé à w ne soit pas détruit; sinon le terme \mathbb{E}[w\Delta C] compense négativement.
  • Corrélation structurale : il faut une covariance positive durable \mathrm{Cov}(w,C)>0.

Le formalisme de Jaynes, qui reconstruit des distributions à partir de contraintes par maximum dentropie, fournit un langage canonique pour dire que « conserver une contrainte D » réduit lincertitude sur les états possibles (donc sur les futurs), sans sémantique. Ici, cette remarque sert uniquement à justifier quune contrainte transmissible peut être traitée comme paramètre de prédiction probabiliste, sans postuler de sujet.

Modèles de sélection : processus stochastiques, fixation et sélection sur graphes

Cette section relie les définitions abstraites à des modèles de consensus qui fournissent des résultats quantitatifs.

Moran, Wright et Kimura : fixation sous dérive et sélection

Moran (naissances/morts individuelles). Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences.

Wright (populations mendéliennes). Wright (1931) est lune des sources fondatrices de la génétique des populations et discute explicitement dérive, sélection, structure, et effectifs (modèle large).

Kimura (probabilité de fixation). Kimura dérive une formule générale de probabilité de fixation u(p) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). Dans le cas de sélection génique constante (avantage sélectif s), il obtient explicitement


u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}},

et pour un mutant unique en diploïde (p=\tfrac{1}{2N}),


u=\frac{1-e^{-2s}}{1-e^{-4Ns}},

avec approximation u\approx \frac{2s}{1-e^{-4Ns}} lorsque |s| est petit, et u\to \tfrac{1}{2N} quand s\to 0 (neutralité).

Interprétation structurale (non téléologique). La fixation nest pas un « but » : cest labsorption dun processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection et de chance.

Sélection sur graphes dinteraction : structure comme modulateur de sélection

Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer leffet de sélection. Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité quun mutant « prenne le dessus » (fixe) et donc le taux dévolution.

Point méthodologique pour louvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles :

  1. sélection par repondération w(\Gamma) dans une population homogène ;
  2. sélection induite par contraintes de communication entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique.

Des travaux ultérieurs (consensus en modélisation) notent que les probabilités de fixation et temps dabsorption ne se ferment analytiquement que pour certaines classes de graphes, et que le calcul exact devient souvent algorithmique (systèmes linéaires, méthodes numériques).

Branching processes multitypes avec sélection (critère spectral)

Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le processus de branchement multitypes : chaque type engendre une distribution denfants de différents types; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multitypes et leurs critères de supercriticité. Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne M (PerronFrobenius).

Dans le langage du chapitre, un type \Gamma avec w(\Gamma) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la survivabilité des lignées.

Algorithmes, simulations et coût computationnel

Cette section propose des schémas minimalistes, compatibles avec le formalisme et avec la pratique.

Schéma générique sélectionvariationreproduction

On suppose une population de taille N représentée par \Gamma^{(1)},\dots,\Gamma^{(N)}.

  1. Évaluation structurale : calculer un score w_i=w(\Gamma^{(i)}).
  2. Sélection (roulettewheel) : tirer des parents avec probabilité w_i/\sum_j w_j.
  3. Reproduction/variation : produire un enfant via fragmentation/recombinaison/mutation (noyau K).
  4. Mise à jour de la mémoire : mettre à jour M (cooccurrences, héritage partiel).
  5. Boucle.

Complexité :

  • calcul des poids : dépend de w (souvent O(\mathrm{size}(\Gamma)));
  • sélection par cumul : O(N) par génération (ou O(\log N) avec arbre de Fenwick);
  • reproduction : souvent linéaire en longueur de séquence (concaténation/crossover O(n)).

Estimation de fitness structurelle

Le chapitre ne fixe pas une forme unique de w. Deux familles naturelles (toutes deux non téléologiques) :

  • Fitness de viabilité : w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\ \text{admissible}).
  • Fitness de robustesse : w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit}), ce qui se relie aux probabilités dévasion/temps moyen dévasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins).

Ces constructions ne disent pas « pourquoi » un type est viable; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif.

Diagramme de flux : accumulation vs effacement

flowchart TD
  P["Population p_t sur Γ"] --> Sw["Sélection S_w (répondération)"]
  Sw --> Var["Variation K (mutation/recombinaison)"]
  Var --> Pn["Population p_{t+1}"]
  Var --> MT["Mémoires M des descendants"]
  MT --> Agg["Agrégation le long des lignées (somme/filtre/oubli)"]
  Agg --> Hist["Histoire distributive M_𝒯"]
  Sw -->|concentre| Lock["Réduction de diversité (H(p))"]
  Agg -->|accumule| Comp["Potentiel de complexification (support/entropie/profondeur)"]

Deux effets peuvent coexister : la sélection peut réduire la diversité de population (entropie H(p)) tout en favorisant, à léchelle des lignées, laccumulation dun registre M_{\mathcal{T}} et laugmentation de la profondeur logique de certains objets (complexification).

Implications déduites et analyse philosophique

Conséquences strictement déduites (lecture conditionnelle)

Les implications cidessous sont des conséquences logiques des définitions, pas des hypothèses additionnelles.

Disponibilité dune sélection non téléologique. Dès quun système possède (i) une reproduction/variation (noyau K) et (ii) une différence systématique de production de descendants admissibles (fonction w), alors la dynamique des distributions inclut une étape de repondération équivalente à S_w. Il y a donc sélection structurelle dès que le système nest pas neutre au sens où tous les types nont pas le même « taux de continuation » (fitness structurelle).

Sélection dinvariants par covariance. Léquation de Price montre que laccroissement moyen dune quantité z à travers une génération est gouverné par une covariance avec w et par un terme de transformation interne; ainsi, toute accumulation durable dun invariant exige une covariance positive persistante et une transmission non destructrice.

Possibilité de complexité croissante sans “progrès”. Si lon choisit C comme mesure de complexité (support de M, profondeur logique de Bennett, etc.), la condition minimale pour une dérive positive est \mathrm{Cov}(w,C)>0 (sélection) et un terme \mathbb{E}[w\,\Delta C] non trop négatif (héritage). Price donne précisément le schéma de cette décomposition. Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à laléatoire : « deep » signifie « résultat dun long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel.

Contraintes physiques minimales (implémentabilité). Si le système réalise des opérations logiquement irréversibles (projections, effacements) pour maintenir certains régimes (standardisation, réparation projective), alors, dans une implémentation thermodynamique donnée, Landauer fournit une borne minimale associée à leffacement de distinctions. Cela ne fonde pas la sélection, mais borne le coût de certaines opérations de stabilisation/effacement dans des instanciations physiques.

Ontologie de la sélection structurelle et statut de la complexité

Philosophiquement, deux points sont licites (et deux sont interdits).

Ce qui devient structurellement dicible.

  1. La sélection nest pas un “principe finaliste” mais un effet de repondération dans un espace de transformations où tous les types nont pas la même continuation. La sélection est donc une propriété de lopérateur dévolution, pas une intention.
  2. Un invariant sélectionné nest pas une essence : cest une quantité dont la covariance avec w est positive et transmissible (Price), donc un corrélat stable de persistance.

Ce que le formalisme interdit.

  1. Il interdit de confondre « fitness » avec « optimalité » ou « but » : w est un paramètre de reproduction/persistance, et non une fonction objectif métaphysique.
  2. Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, doù la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie).

Tableaux comparatifs

Objet Définition formelle Rôle dans la dynamique Risque de confusion à éviter
Sélection S_w p(\Gamma)\mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]} concentration sur grands w “choix”, “but”
Variation K noyau markovien (K(\Gamma' \Gamma)) exploration/mutation/recombinaison
Invariant sélectionné z \mathrm{Cov}(w,z)>0 (+ transmission) augmentation moyenne “essence”
Fixation absorption stochastique domination dun type “victoire recherchée”
Modèle Type Résultat canonique (consensus) Source
Moran birthdeath (finie) dynamique stochastique des fréquences Moran (1958)
Fixation diffusion approx. continue u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}} (genic selection) Kimura (1962)
Sélection/covariance identité décomposition par covariance + transmission Price (1970)
Graphes population structurée fixation dépend de la topologie; amplificateurs/suppresseurs Lieberman et al. (2005)
Métrique de complexité Ce quelle mesure Propriété structurante Source
H(p) (Shannon) dispersion des types conditionnement, bornes, codage Shannon (1948)
K(\Gamma) (Kolmogorov) compressibilité intrinsèque distingue structure vs aléa (en principe) Kolmogorov (1968)
Profondeur logique D (Bennett) longueur dhistoire computationnelle “deep” ≠ “random” Bennett (1988)

Chapitre 10 — Attracteurs, cycles et ensembles invariants

Hypothèses et résultats (repères)

Hypothèses (H).

  • cadre discret fini pour la structure “transitoire + cycle” ;
  • ou cadre topologique/métrique (compacité, continuité) pour les attracteurs définis par limites.

Résultats (E).

  • synthèse structurale des attracteurs, bassins, stabilité/robustesse et quantificateurs associés (indexés) ;
  • clarification du statut des bifurcations et des changements de bassins comme phénomènes dépendant dhypothèses de régularité.

Statut.

  • noyau ensembliste pour les garanties combinatoires ; couches topologique/métrique et quantifications uniquement si déclarées.

Résumé exécutif

Ce chapitre établit, sous hypothèses minimales, la structure des comportements à long terme des systèmes dynamiques, dabord dans un cadre discret fini, puis dans des cadres topologiques/métriques plus généraux. Dans le cadre discret (X,f) avec X fini, litération dune application f:X\to X impose quà partir de tout état initial lorbite devienne prépériodique : un transitoire suivi dun cycle (preuve par principe des tiroirs). Cette propriété permet une description globale par graphe fonctionnel : chaque composante contient exactement un cycle dirigé, et tous les autres états sy déversent via des arborescences. On en déduit des définitions formelles de point fixe, cycle, ensemble invariant, attracteur discret et bassin, ainsi que des algorithmes de calcul linéaires pour cycles et bassins.

Dans un cadre métrique/topologique, on remplace la finitude brute par la notion de limite : ensembles \omega(x), invariance et attraction au sens de la distance à un ensemble. On introduit les définitions classiques de stabilité (Lyapunov) et dattracteur topologique, notamment via la notion de trapping region (région piège) et lintersection décroissante des itérés, qui fournit un attracteur sous hypothèses de piégeage. Les théorèmes structurants cités comme consensus comprennent : (i) la stabilité de Lyapunov (définitions canoniques), (ii) la frontière dimensionnelle PoincaréBendixson en dimension 2 (absence dattracteurs chaotiques pour les flots plans sous hypothèses standard), (iii) la stabilité structurelle dans la tradition Smale (hyperbolicité, conjugaison topologique, persistance qualitative).

On formalise ensuite robustesse et bifurcations, en particulier la bifurcation de Hopf (naissance dune orbite périodique à partir dun équilibre sous conditions standard) à partir dune traduction de larticle original. On discute les changements soudains de bassins et dattracteurs (crises) via un article classique de GrebogiOttYorke.

Enfin, on introduit des mesures structurelles (taille des bassins, dominance, entropie structurelle au sens Shannon, entropie topologique au sens AdlerKonheimMcAndrew) et des métriques (distance dédition) avec des indications de calcul/estimation. Les implications restent strictement déduites : dans tout modèle itératif sur un espace détats fini (ou compact) et à dynamique déterministe, lexistence dattracteurs signifie que le système dispose de régimes persistants qui canalisent les trajectoires ; cela fournit une condition de possibilité (non suffisante) pour toute accumulation ultérieure de structures transmissibles. La conclusion philosophique analyse le statut ontologique des attracteurs comme objetslimites, et explicite ce que le formalisme interdit (téléologie, assimilation sémantique).

Cadre discret fini

On se place dans un cadre minimal : un ensemble fini détats et une règle déterministe dévolution.

Définitions formelles

Soit X un ensemble fini non vide, |X|=N, et f:X\to X une application.

Orbite. À partir de x\in X, on définit x_0=x et x_{t+1}=f(x_t). Lorbite est (x_t)_{t\ge 0}.

Point fixe. x^\*\in X est un point fixe si f(x^\*)=x^\*.

Point périodique et cycle. x\in X est périodique de période p\ge 1 si f^{(p)}(x)=x et p est minimal. Le cycle associé est


C(x)=\{x,f(x),\dots,f^{(p-1)}(x)\}.

Ensemble invariant. Un sousensemble S\subseteq X est (positivement) invariant si f(S)\subseteq S. Il est invariant au sens fort si f(S)=S. Un cycle est invariant au sens fort.

Attracteur discret (définition minimale pour le fini). Dans le cadre déterministe fini, on appelle attracteur discret tout cycle (y compris le cas p=1). Cette convention nintroduit aucune métrique : elle identifie lobjet asymptotique de toute trajectoire dans lespace fini.

Bassin dun cycle. Pour un cycle C, le bassin est


B(C)=\{x\in X:\exists t\ge 0,\ f^{(t)}(x)\in C\}.

Prépériodicité forcée et borne temporelle

Proposition (prépériodicité). Pour tout x\in X, il existe \mu\ge 0 et p\ge 1 tels que x_{t+p}=x_t pour tout t\ge\mu. On peut choisir \mu+p\le N.

Démonstration (principe des tiroirs). Les N+1 termes x_0,\dots,x_N appartiennent à X de taille N, donc il existe 0\le i<j\le N tel que x_i=x_j. Posons \mu=i, p=j-i. Comme f est déterministe, x_{i+k}=x_{j+k} pour tout k\ge 0, donc périodicité à partir de i. Enfin \mu+p=j\le N. □

Cette propriété fournit une lecture stricte du « long terme » en fini : lasymptote nest jamais un ensemble compliqué, seulement un cycle.

Structure globale en graphe fonctionnel

On associe à (X,f) un graphe orienté G_f=(X,E)


E=\{(x,f(x)):\ x\in X\}.

Chaque sommet a degré sortant 1 (une flèche vers son successeur), mais peut avoir plusieurs antécédents (collisions).

Proposition (un cycle par composante). Chaque composante connexe faible de G_f contient exactement un cycle dirigé; tous les autres sommets de la composante alimentent ce cycle via des arborescences orientées.

Démonstration (esquisse complète). Existence : à partir dun sommet, suivre les arêtes sortantes produit une suite dans un ensemble fini, donc une répétition, donc un cycle (proposition précédente). Unicité : si deux cycles distincts C_1,C_2 étaient dans la même composante faible, alors il existerait un chemin non orienté entre eux. En partant de tout sommet de ce chemin et en suivant les arêtes sortantes (qui sont uniques), lorbite doit aboutir à un cycle unique; or un même sommet ne peut aboutir à deux cycles distincts. Donc contradiction ; un seul cycle par composante. □

Proposition (partition par bassins). Les bassins des cycles forment une partition de X.

Démonstration. Tout x aboutit à un cycle C_x, donc appartient à B(C_x) (couvre X). Si x\in B(C_1)\cap B(C_2), lorbite entre dans C_1 et y reste (invariance), donc C_1=C_2. □

Diagramme (relations étatorbitebassincycle)

flowchart TD
  x["État initial x"] --> orb["Orbite (f^t(x))_{t≥0}"]
  orb --> rep["Répétition forcée (∃i<j: f^i(x)=f^j(x))"]
  rep --> cyc["Cycle C (ensemble invariant)"]
  x --> bas["Bassin B(C)"]
  bas --> cyc
  cyc --> inv["Invariance: f(C)=C"]

Calcul effectif des cycles et bassins

Dans un graphe fonctionnel fini, on peut calculer en temps linéaire les sommets cycliques en éliminant itérativement les sommets de degré entrant nul (topologie inverse), puis en reconstruisant les bassins par parcours inverse depuis les cycles.

  • Temps : O(N) (construction des degrés entrants + élimination + parcours).
  • Mémoire : O(N) (stockage de f et des antécédents).

Ce fait sert de repère méthodologique : dans le cadre fini, la structure asymptotique nest pas seulement théorique, elle est aussi calculable de façon efficace.

Extension topologique et métrique

Le passage du discret fini au continu ne change pas la logique : il remplace la répétition brute par des notions de limite (compacité), de voisinage et de stabilité.

(\omega)-limites et invariance sur compacts

Soit (X,d) compact métrique et f:X\to X continue.

Définition ((\omega)-limite). \omega(x) est lensemble des valeurs dadhérence de ({f^{(n)}(x)}) :


\omega(x)=\bigcap_{m\ge 0}\overline{\{f^{(n)}(x):n\ge m\}}.

Proposition (consensus standard, preuve élémentaire). Pour tout x, \omega(x) est non vide, compact, et invariant f(\omega(x))=\omega(x).

Démonstration. La compacité assure lexistence de soussuites convergentes, donc \omega(x)\neq\varnothing; cest un fermé dans un compact, donc compact. Linvariance suit de la continuité : si f^{(n_k)}(x)\to y, alors f^{(n_k+1)}(x)=f(f^{(n_k)}(x))\to f(y), df(y)\in\omega(x). Linclusion réciproque découle du fait que tout point limite est aussi limite dune suite décalée. □

Définition topologique dattracteur et existence via trapping region

La notion d« attracteur » admet plusieurs variantes; ici, on retient une définition topologique standard via voisinage attiré.

Définition (attracteur topologique). Un compact non vide A\subseteq X est un attracteur si :

  1. f(A)=A ;
  2. il existe un ouvert U\supseteq A tel que \mathrm{dist}(f^{(n)}(x),A)\to 0 pour tout x\in U.

Le bassin est B(A)=\{x:\mathrm{dist}(f^{(n)}(x),A)\to 0\}.

Une manière constructive dobtenir un attracteur est dexhiber une région piège (« trapping region ») ; cette approche apparaît notamment dans la littérature sur attracteurs et quasiattracteurs.

Proposition (existence dun attracteur à partir dune trapping region). Soit U\subseteq X un ouvert dont ladhérence \overline U est compacte et tel que f(\overline U)\subseteq U. Alors


A:=\bigcap_{n\ge 0} f^{(n)}(\overline U)

est un compact non vide invariant, et toute orbite partant dans \overline U reste dans \overline U et approche A (au sens de la distance à A). (Ce résultat est un standard dans la théorie qualitative; on le formule ici en version minimale et on le rattache au vocabulaire « trapping region » utilisé dans la littérature sur attracteurs.)

Démonstration (élémentaire). Les ensembles f^{(n)}(\overline U) sont non vides, compacts, emboîtés décroissants, donc leur intersection A est non vide et compacte (propriété standard des compacts). Linvariance f(A)=A suit de la continuité et de lidentité f(f^{(n)}(\overline U))=f^{(n+1)}(\overline U). Lattraction découle du fait que la distance à lintersection dune suite décroissante de compacts tend vers 0 le long des itérés (argument par contradiction utilisant la compacité). □

Stabilité de Lyapunov (robustesse locale)

Les définitions canonisées de Lyapunov posent la robustesse locale des équilibres (et, par extension, densembles invariants).

Définition (Lyapunov). Un équilibre x^\* est stable si \forall\varepsilon>0\ \exists\delta>0 tel que \|x(0)-x^\*\|<\delta\Rightarrow \|x(t)-x^\*\|<\varepsilon pour tout t\ge 0. Il est asymptotiquement stable si, en plus, x(t)\to x^\* quand t\to\infty.

Cette stabilité est distincte de lattraction : attraction signifie « convergence vers », stabilité signifie « rester proche sous perturbation ».

Frontière PoincaréBendixson (dimension 2) et impossibilité dattracteurs étranges

En dimension 2 (flots sur le plan/surfaces sous hypothèses standard), le théorème de PoincaréBendixson impose que les ensembles (\omega)-limites compacts non vides ne peuvent pas supporter une dynamique « étrange » au sens chaotique : ils sont essentiellement équilibres et orbites périodiques (éventuellement avec connexions). Le résultat est traditionnellement attribué à Poincaré et Bendixson; une source primaire est larticle de Bendixson (1901), qui développe la théorie qualitative des courbes intégrales près des singularités.

Attracteurs étranges : définition opérationnelle et jalons

Le terme « attracteur étrange » na pas une définition unique universelle; on adopte ici une définition opérationnelle :

Un attracteur A est dit étrange si (i) il est attractif (au sens topologique), (ii) la dynamique restreinte à A nest pas périodique et présente une sensibilité/instabilité orbitale (au sens de séparation dorbites), et (iii) lensemble A présente typiquement une géométrie non régulière (souvent fractale) ou une structure détirementrepliement.

Trois jalons de consensus illustrent ce type dobjet :

  • Lorenz (1963) montre quun système différentiel dissipatif simple peut produire une dynamique non périodique associée à un attracteur (paradigme du « Lorenz attractor »).
  • Hénon (1976) exhibe une application bidimensionnelle dissipative présentant un attracteur étrange pour certains paramètres.
  • RuelleTakens (1971) proposent un mécanisme de transition vers la turbulence où des attracteurs plus complexes que les cycles apparaissent dans des systèmes dissipatifs.

Smale : hyperbolicité et organisation qualitative

Smale (1967) synthétise la théorie moderne des systèmes dynamiques différentiables : ensembles non errants, hyperbolicité (Axiom A), conjugaison topologique et stabilité structurelle. Dans le cadre de ce chapitre, cela fournit un repère consensuel : certaines classes dinvariants (hyperboliques) ont des propriétés de robustesse fortes, tandis que des régimes non hyperboliques peuvent bifurquer fréquemment.

Robustesse, bifurcations et stabilité structurelle

Définitions formelles de robustesse

Soit une famille \{f_\lambda\} (applications ou flots) dépendant dun paramètre \lambda.

Robustesse dun invariant. Un invariant A_\lambda est robuste si, pour \lambda' proche, il existe un invariant A_{\lambda'} « du même type » (par ex. conjugué topologiquement ou proche en distance de Hausdorff).

Stabilité structurelle (idée standard). Un système f est structurellement stable si toute perturbation suffisamment petite (dans une topologie C^r sur les champs de vecteurs/difféomorphismes) est topologiquement conjuguée à f sur lensemble pertinent (souvent lensemble non errant). Cette notion est centrale chez Smale.

En dimension 2, un résultat classique de Peixoto établit louverture et la densité des systèmes structurellement stables parmi les flots lisses sur surfaces compactes (repère de consensus sur la généricité de la robustesse qualitative en dimension 2).

Bifurcation de Hopf (consensus, source primaire via traduction)

La bifurcation de Hopf formalise la naissance (ou disparition) dune orbite périodique à partir dun équilibre lorsque une paire de valeurs propres complexes franchit laxe imaginaire sous conditions de non dégénérescence. Larticle original de Hopf (1942) est accessible via une traduction reproduite dans un volume de référence. Dans le cadre de ce chapitre, on retient lénoncé suivant comme consensus (preuve omise) : sous conditions standard, il existe une bifurcation locale conduisant à un cycle limite dont la stabilité dépend du signe dun coefficient de forme normale.

Changements de bassins et crises (attracteurs chaotiques)

Même lorsque linvariant persiste, la géométrie du bassin peut changer brutalement. GrebogiOttYorke (1982) analysent des « crises » : collisions entre orbites périodiques instables et attracteurs chaotiques entraînant élargissement soudain, apparition ou destruction dun attracteur et/ou de son bassin (route vers chaos, transitoires). Ce point justifie une distinction fondamentale : robustesse de lattracteur \neq robustesse du bassin.

Mesures structurelles et calcul

Les attracteurs fournissent une organisation qualitative; on peut quantifier cette organisation par des métriques adaptées au cadre (discret/continu).

Taille des bassins et dominance (discret fini)

Soient C_1,\dots,C_K les cycles, B_i=B(C_i), et p_i=|B_i|/|X|.

  • Dominance : D=\max_i p_i\in[1/K,1].
  • Nombre dattracteurs : K. Ces quantités décrivent la concentration des destinées asymptotiques.

Entropie structurelle des bassins (Shannon)

On définit lentropie structurelle des bassins


H_{\text{bassins}}=-\sum_{i=1}^K p_i\log p_i,

avec bornes 0\le H_{\text{bassins}}\le \log K, atteintes respectivement en cas de bassin unique (dominance totale) et déquilibre parfait. Ces propriétés sont des conséquences standards de lentropie de Shannon appliquée à une distribution finie.

Entropie topologique (AKM) : complexité orbitale interne

AdlerKonheimMcAndrew (1965) introduisent lentropie topologique comme invariant pour applications continues sur compacts, via croissance de raffinements de recouvrements ouverts. Cette quantité capture une complexité orbitale pouvant être positive même lorsque lespace se verrouille vers un petit nombre dattracteurs (ex. attracteur chaotique unique).

Métriques discrètes : distance dédition

Pour comparer des états représentés comme mots/séquences (par ex. classes morphologiques), on utilise des métriques combinatoires. Levenshtein (1965/1966) propose des modèles de canaux avec insertions/suppressions/réversions et introduit la distance dédition comme métrique naturelle associée à ces opérations. Une fois une métrique fixée, on peut définir des voisinages discrets, étudier la sensibilité locale et construire des versions « épaisses » des bassins (stabilité par petites modifications).

Calcul et estimation : exact vs échantillonné

  • En discret fini, cycles et bassins se calculent exactement en O(N) (graphe fonctionnel).
  • Dans de très grands espaces, on estime les p_i par échantillonnage : tirer des états selon une loi \nu, itérer jusquà convergence au cycle, estimer les fréquences de cycles. Sous hypothèses i.i.d., la convergence est gouvernée par la loi des grands nombres (consensus probabiliste).

Implications strictement déduites (lecture conditionnelle)

Cette section tire des conséquences uniquement des résultats mathématiques établis cidessus, sans postuler dintention, de sémantique ou d« optimisation ».

Dans un cadre discret fini (ou à description effectivement finie), litération impose lexistence de cycles et donc de régimes persistants (attracteurs discrets). Il en résulte une partition en bassins : une information complète sur létat initial est, en général, superflue pour déterminer le long terme, car seule la classe « bassin » importe pour lasymptote. Cette réduction est une conséquence logique de la structure des graphes fonctionnels.

Dans un cadre compact, la compacité garantit lexistence densembles \omega(x) invariants. Si, de plus, une région piège existe, lintersection décroissante des itérés fournit un attracteur topologique qui attire un voisinage entier. Ainsi, la disponibilité de régimes stables nest pas une hypothèse supplémentaire : elle est structurellement compatible et souvent forcée par les contraintes (finitude ou piégeage).

Concernant la « réplication interne » (au sens formel : production dune occurrence persistante dune même sousstructure), ce chapitre nassume aucun mécanisme de reproduction. Il établit seulement une condition nécessaire : tout mécanisme de duplication stable exige lexistence de motifs suffisamment persistants (ensembles invariants attractifs ou métastables) pour ne pas être détruits immédiatement par la dynamique. Cette condition est purement logique : sans invariants persistants, aucune structure ne peut être copiée « de manière répétée » dans le temps.

Enfin, on note une contrainte importante (sans extrapolation) : dans les systèmes conservatifs mesurés à volume fini, la récurrence de Poincaré (1890) implique des retours, ce qui rend impossible une monotonie stricte sur les microétats; ainsi, les attracteurs globaux au sens dissipatif exigent typiquement une dissipation, une ouverture, ou un niveau de description agrégé. Cette remarque est une contrainte de cohérence entre « attracteurs dissipatifs » et « récurrence conservatrice », et non une hypothèse de physique supplémentaire.

Analyse philosophique finale

Nécessité ontologique minimale des attracteurs

La construction mathématique impose une thèse ontologique minimale : dans un système gouverné par des transformations itérées, lanalyse du long terme se fait alors en termes densembles invariants et de classes asymptotiques (cycles, (\omega)-limites). Létat instantané na pas de privilège ontologique dans la description du long terme : ce qui « persiste » est un invariant, et ce qui « structure » lespace des possibles est la partition en bassins.

Cette thèse ne dépend pas dune interprétation; elle découle de la structure démontrée (prépériodicité en fini, invariance des (\omega)-limites sur compacts).

Limites du formalisme (et ce quil interdit)

Le chapitre impose plusieurs interdictions méthodologiques.

  • Il interdit dassimiler « attracteur » à « optimum » : aucune fonction de coût ni principe de minimisation na été postulé; un attracteur est défini par invariance et attraction, pas par optimalité.
  • Il interdit toute téléologie : la convergence est une propriété de la dynamique et de la structure de lespace, non un « but ».
  • Il interdit toute interprétation sémantique prématurée : attracteurs et bassins peuvent ultérieurement être interprétés comme supports de contraintes opératoires, mais ils ne sont pas, en euxmêmes, des « connaissances » ou des « significations ».
  • Il interdit de conclure à la robustesse sans hypothèse : la robustesse exige des conditions supplémentaires (Lyapunov, hyperbolicité, stabilité structurelle), et les bassins peuvent changer qualitativement (bifurcations, crises).

Tableaux comparatifs

Notion Discret fini (X,f) Continu/compact (X,d,f) ou flot
Invariant f(S)\subseteq S f(S)\subseteq S ou \varphi_t(S)=S
Asymptote cycle atteint en temps fini \omega(x) (compact invariant)
Attracteur cycle (déf. minimale) compact invariant attirant un voisinage (trapping region possible)
Bassin atteignabilité vers un cycle convergence \mathrm{dist}(f^n(x),A)\to 0
Chaos possible (cartes) typiquement ≥3D pour flots; exclu en plan (PB)
Mesure de complexité H_{\text{bassins}} (Shannon) h_{\text{top}} (AKM), stabilité/hyperbolicité (Smale)
Propriété Attracteur (existence) Attracteur robuste (qualitative)
Définition invariance + attraction persistance sous perturbation
Outils (\omega)-limites, trapping region Lyapunov, hyperbolicité, stabilité structurelle
Sensibilité des bassins peut être élevée peut rester fragile (crises possibles)

Schéma de structure datteignabilité (attracteurs, organisation par bassins)

flowchart LR
  subgraph L["Structure datteignabilité qualitative"]
    B1["Bassin B(A₁)"] --> A1["Attracteur A₁"]
    B2["Bassin B(A₂)"] --> A2["Attracteur A₂"]
    B3["Bassin B(A₃)"] --> A3["Attracteur A₃"]
    B1 --- S12["Frontière"]
    B2 --- S12
    B2 --- S23["Frontière"]
    B3 --- S23
  end

Dans un système itératif, les attracteurs et invariants ne sont pas une option interprétative mais une conséquence structurelle (finitude/compacité/continuité). Les chapitres suivants introduisent ensuite les mécanismes de noninjectivité, de compression et dhéritage qui transforment ces invariants en structures transmissibles à travers des lignées, sans faire intervenir de finalité.


Chapitre 11 — Reproduction partielle et transmission

Hypothèses et résultats (repères)

Hypothèses (H).

  • cadre discret avec noninjectivité et classes (perte didentifiabilité) ;
  • transmission définie comme préservation partielle dinvariants sous fragmentation/recombinaison admissible.

Résultats (E).

  • formalisation de la reproduction partielle comme transmission de contraintes plutôt que conservation dorigines ;
  • mise en évidence que la persistance longue dépend de la transmissibilité de contraintes, pas dune identité fine.

Statut.

  • noyau ensembliste ; les lectures informationnelles restent des correspondances déclarées, non des axiomes.

Introduction

Les chapitres précédents ont établi successivement : lexistence despaces de configurations, litération nécessaire, la formation de cycles invariants, la non-injectivité structurelle, la formation de classes, la normalisation, la sélection différentielle, la consommation irréversible et lapparition dune flèche effective.

Le chapitre 10 a montré que lenchaînement dévénements consommants rend lhistoire irréductible : lordre des transformations ne peut être supprimé sans perte de validité future.

Le présent chapitre introduit une propriété nouvelle : la reproduction partielle. Il ne sagit pas dune copie parfaite ni dune conservation intégrale dun état, mais dune transmission de structures compatibles avec les contraintes accumulées.

Lobjectif est triple :

  • formaliser mathématiquement la reproduction partielle,
  • montrer que la transmission implique, dans ce cadre, perte et fragmentation,
  • établir que la persistance longue exige recombinaison admissible plutôt que conservation dorigine.

Aucune hypothèse biologique nest posée. Les résultats utilisés relèvent de la théorie des automates, de la théorie de linformation et des systèmes dynamiques discrets.

Définition formelle de la reproduction partielle

On considère un espace détats admissibles X et une dynamique admissible f: X \to X.

Définition

Une structure S \subseteq X est dite reproductible partiellement sil existe :

  • un opérateur de génération G: X \to \mathcal{P}(X),
  • une application de projection P: X \to X,

tels que, pour certains états x contenant S (au sens structurel défini au chapitre 6), on ait :


\exists y \in G(x)\ \text{tel que}\ P(y) \sim S,

\sim désigne une relation déquivalence structurelle.

Autrement dit : un état peut engendrer un nouvel état contenant une structure équivalente, sans que létat global soit identique.

La reproduction partielle ne préserve donc pas lidentité fine, seulement une classe dinvariants.

Fragmentation structurelle

Définition

Une fragmentation est une application F: X \to X^k (pour un certain k \ge 1) qui associe à un état un ensemble fini de sous-structures.

La fragmentation est admissible si chaque composant reste valide sous les contraintes du système.

Propriété

Toute reproduction partielle dans un espace non injectif implique une fragmentation implicite.

Démonstration esquissée

Si lapplication générative était globalement injective et sans fragmentation, la copie serait exacte. Or la non-injectivité démontrée au chapitre 5 implique perte dinformation fine. La reproduction ne peut donc conserver lintégralité des composantes initiales. Elle sélectionne un sous-ensemble dinvariants.

La fragmentation nest donc pas accidentelle, mais structurellement nécessaire.

Recombinaison admissible

Définition

Une recombinaison est une opération R: X^k \to X telle que létat recomposé respecte les contraintes admissibles.

Condition dadmissibilité

Pour tout (x_1, \ldots, x_k) admissible, R(x_1, \ldots, x_k) \in X.

Dans les automates cellulaires étudiés par von Neumann, une machine auto-reproductrice nest pas une copie directe delle-même, mais une construction progressive à partir de fragments dinformation interprétés localement. La reproductibilité dépend de règles locales de recomposition, non dune duplication globale instantanée.

La recombinaison admissible constitue donc le mécanisme fondamental de transmission.

Perte contrôlée et non-conservation de lorigine

Définition

On appelle perte contrôlée une réduction de description telle que la quantité dinformation perdue est bornée par un invariant de classe.

Soit K(x) la complexité descriptive minimale (au sens de Kolmogorov). La reproduction partielle satisfait typiquement :


K(\text{descendant}) \le K(\text{ancêtre}) + c,

avec perte dinformation fine non reconstruisible.

Conséquence

Lorigine exacte dune structure nest pas reconstructible à partir de ses descendants.

Il nexiste pas dapplication inverse globale G^{-1} compatible avec la dynamique irréversible.

Ainsi, la transmission nest pas conservation. Elle est stabilisation dinvariants sous perte.

Transmission comme persistance de classe

Définition

Une classe C est transmissible si :


\forall x \in C,\ \exists y \in G(x)\ \text{tel que}\ y \in C.

Autrement dit, la classe se reproduit sous la dynamique générative.

Propriété

Une classe transmissible correspond à un attracteur de second ordre (chapitre 5) dans lespace des classes.

Ainsi, la reproduction partielle opère non sur les états individuels, mais sur les classes structurelles.

Conséquence structurale

La transmission exige :

  • fragmentation,
  • recombinaison,
  • perte dinformation fine,
  • stabilité dinvariants,
  • non-reconstructibilité de lorigine.

Lidentité individuelle est donc sacrifiée au profit de la stabilité de classe.

La reproduction parfaite serait incompatible avec la non-injectivité et lirréversibilité cumulée établies précédemment.

Implications déduites (lecture conditionnelle)

Si lon considère un système dynamique soumis à consommation irréversible, la persistance à long terme nest possible que pour des structures capables :

  • de générer des structures équivalentes,
  • de tolérer la perte,
  • de se recomposer localement,
  • de stabiliser leurs invariants.

Cette propriété nest pas propre au vivant biologique ; elle est formellement nécessaire à toute accumulation historique durable.

Analyse philosophique

La reproduction partielle dissocie identité et persistance.

Ce qui persiste nest pas un individu, mais une classe dinvariants.

Lorigine cesse dêtre un point stable. Elle devient un nœud dans un graphe de transmissions irréversibles.

La notion d« essence conservée » est remplacée par celle de « contrainte transmissible ».

Conclusion

Le chapitre 11 établit que la transmission exige la perte didentité fine.

La reproduction partielle nest pas une copie, mais une projection stabilisée dinvariants sous fragmentation et recombinaison admissible.

Il sensuit :

La persistance longue ne dépend pas de la conservation de lorigine, mais de la transmissibilité de contraintes structurelles.

Le chapitre suivant étendra cette logique à la formation de lignées et à laccumulation généalogique de contraintes.


Chapitre 12 — Généalogies et lignées de formes

Hypothèses et résultats (repères)

Hypothèses (H).

  • relation dengendrement orientée reconstruite (pas de temps externe) ;
  • objets transmissibles (attributs, classes, signatures) définis avant usage, sous noninjectivité.

Résultats (E).

  • construction de lignées comme graphes orientés (et variantes) et formalisation de lhéritage sous collisions ;
  • articulation avec sélection structurelle comme effet de filtrage sous contraintes, sans téléologie.

Statut.

  • noyau ensembliste/combinatoire ; toute quantification est indexée par les choix déclarés.

Introduction

Ce chapitre introduit la notion de lignée comme une structure combinatoire orientée décrivant la transmission de formes sous contraintes dirréversibilité et de noninjectivité. Le point de départ est une exigence minimale : une relation dengendrement doit être orientée, mais lorientation ne peut pas être imposée par un « temps » externe ; elle doit être reconstruite à partir des règles mêmes qui produisent les occurrences. La formalisation seffectue donc en deux temps : dabord la construction dun graphe orienté de lignée à partir dévénements dengendrement ; ensuite lintroduction dobjets transmissibles (attributs, classes, signatures) qui survivent malgré les collisions et la perte dinversibilité.

Dans ce cadre, « transmettre » ne signifie ni « copier », ni « conserver », mais « produire une descendance relationnelle en préservant certains invariants ». Lenjeu nest pas dattribuer une finalité à cette persistance : lobjectif est au contraire de montrer comment une sélection structurelle peut émerger comme effet de filtrage et de conditionnement, sans hypothèse téléologique.

Les termes chargés de connotations (lignée, héritage, sélection) sont dabord définis comme objets formels. Les lectures externes possibles (informationnelles, physiques, ou relatives à des systèmes de transmission concrets) ne sont proposées quen fin de chapitre, une fois le formalisme fermé.

Préliminaires de théorie des graphes orientés

Graphes orientés, multigraphes, hypergraphes

Définition (graphe orienté). Un graphe orienté est un couple G=(V,E)V est un ensemble de sommets et E\subseteq V\times V un ensemble darêtes orientées. Une arête (u,v)\in E est notée u\to v.

Définition (multigraphe orienté). Un multigraphe orienté autorise plusieurs arêtes distinctes de u vers v. On le modélise par une multiplicité m:V\times V\to \mathbb{N}.

Définition (hyperarête dirigée). Une hyperarête dirigée est une paire (P,c)P est un multiensemble fini de sommets (les entrées) et c\in V est un sommet (la sortie). On note P\Rightarrow c. Larité est |P|.

Le passage dun hypergraphe à un graphe ordinaire se fait en remplaçant P\Rightarrow c par les arêtes p\to c pour p\in P, ce qui conserve linformation dascendance mais pas nécessairement linformation darité.

Degrés, parents, enfants

Définition (degré entrant et sortant). Le degré entrant de v est \deg^-(v)=|\{u\in V:u\to v\}|. Le degré sortant de v est \deg^+(v)=|\{u\in V:v\to u\}|.

Définition (ensemble des parents et des enfants).


\mathrm{Par}(v)=\{u\in V:u\to v\},\qquad \mathrm{Enf}(v)=\{u\in V:v\to u\}.

Ces notions permettent de discuter de branchement, sans présumer dun mécanisme de copie.

Chemins, atteignabilité, ascendance

Définition (chemin orienté). Un chemin orienté de u vers v est une suite (v_0,\dots,v_k) telle que v_0=u, v_k=v et v_i\to v_{i+1} pour tout i\in\{0,\dots,k-1\}. Sa longueur est k.

Définition (atteignabilité). On note u\to^\* v lexistence dun chemin orienté de u vers v.

Définition (relation dascendance). On définit \preceq_G par


u\preceq_G v \quad \Longleftrightarrow \quad u\to^\* v.

Cette relation est réflexive et transitive.

Définition (ancêtres et descendants).


\mathrm{Anc}(v)=\{u\in V:u\preceq_G v\},\qquad \mathrm{Desc}(u)=\{v\in V:u\preceq_G v\}.

Cycles, DAG et ordre topologique

Définition (cycle orienté). Un cycle orienté est un chemin (v_0,\dots,v_k) avec k\ge 1 tel que v_0=v_k et v_0,\dots,v_{k-1} distincts.

Définition (DAG). Un DAG est un graphe orienté sans cycle orienté.

Définition (ordre topologique). Un ordre topologique dun DAG fini est une bijection \tau:V\to\{1,\dots,|V|\} telle que u\to v\Rightarrow \tau(u)<\tau(v).

Proposition (existence dun ordre topologique). Tout DAG fini admet un ordre topologique.

Ordre partiel, antichaînes, générations

Proposition (ordre partiel induit). Si G est un DAG, alors \preceq_G est un ordre partiel (réflexif, antisymétrique, transitif).

Définition (antichaîne). Un ensemble A\subseteq V est une antichaîne si, pour tout u\neq v dans A, ni u\preceq_G v ni v\preceq_G u.

Définition (racines, profondeur, générations). Un sommet r est une racine si \deg^-(r)=0. La profondeur (dans un DAG) est


\mathrm{depth}(v)=\max\{k:\exists (v_0,\dots,v_k)\ \text{chemin avec}\ v_k=v\}.

La génération n est V_n=\{v\in V:\mathrm{depth}(v)=n\}.

Construction dun graphe orienté de lignée

Occurrences et types

Pour obtenir un objet « généalogique », il faut distinguer deux niveaux :

  • niveau des occurrences, qui sont singulières et ne se répètent pas ;
  • niveau des types (formes), qui peuvent réapparaître par collision ou normalisation.

Le graphe de lignée portera sur les occurrences.

Définition (ensemble doccurrences). On fixe un ensemble V doccurrences. Une occurrence est un jeton abstrait représentant un événement singulier dans lhistoire.

Définition (ensemble de types et étiquetage). Soit X un ensemble de types. Un étiquetage est une application


\ell:V\to X.

Deux occurrences distinctes v\neq v' peuvent partager le même type \ell(v)=\ell(v').

Événements dengendrement comme hyperarêtes

Définition (événement dengendrement). Un événement est une paire (P,c) où :

  • P=(p_1,\dots,p_k)\in V^k est une liste doccurrences parentales,
  • c\in V est loccurrence enfant,
  • k\ge 1 est larité.

Lensemble des événements est \mathcal{E}\subseteq \bigsqcup_{k\ge 1} (V^k\times V).

Définition (hypergraphe dengendrement). Le hypergraphe est \mathcal{H}=(V,\mathcal{E}) dont les hyperarêtes sont P\Rightarrow c.

Définition (graphe de lignée associé). Le graphe orienté associé est \mathcal{T}=(V,E) avec


E=\{(p_i,c): (P,c)\in\mathcal{E},\ P=(p_1,\dots,p_k),\ i\in\{1,\dots,k\}\}.

Définition (lignée). La lignée est la relation dascendance \preceq_{\mathcal{T}}. Une branche est un chemin maximal (par inclusion). Une chaîne est un sousensemble totalement ordonné pour \preceq_{\mathcal{T}}.

Représentation bipartite des événements

Dans certains raisonnements, on conserve linformation darité. Une représentation standard consiste à introduire explicitement les événements comme nœuds dun graphe bipartite.

Définition (graphe dincidence bipartite). On définit un graphe orienté bipartite \mathcal{B}=(V\sqcup \mathcal{E},E_B) par :

  • pour tout événement e=(P,c) et tout parent p\in P, une arête p\to e ;
  • une arête e\to c.

Proposition (équivalence dascendance). La relation dascendance entre occurrences induite par \mathcal{B} restreinte à V coïncide avec celle induite par \mathcal{T}, tout en permettant dexprimer explicitement larité et le coût éventuel de lévénement.

Cette représentation évite dattribuer au seul degré entrant dun sommet le sens dune arité, car un même sommet peut avoir plusieurs événements créateurs selon le modèle retenu (ici on en impose au plus un, mais la représentation reste commode pour la discussion des coûts).

Acyclicité par construction inductive

Axiome (création). Chaque occurrence c\in V admet au plus un événement créateur e_c\in\mathcal{E} tel que c soit lenfant de e_c. Les occurrences sans événement créateur sont des racines.

Axiome (engendrement vers linédit). Il existe une filtration V^{(0)}\subset V^{(1)}\subset \dots telle que :

  • V^{(0)} est lensemble des racines,
  • si (P,c) est le (n)-ième événement, alors P\subseteq V^{(n-1)} et c\in V^{(n)}\setminus V^{(n-1)}.

Proposition (acyclicité). Sous ces axiomes, \mathcal{T} est un DAG.

Preuve. Toute arête p\to c va dun sommet déjà présent dans V^{(n-1)} vers un sommet nouvellement introduit dans V^{(n)}. La fonction \tau(c)=n est alors un ordre topologique : p\to c\Rightarrow \tau(p)<\tau(c). Un cycle orienté violerait cette strict inégalité. □

Monotone de lignée issu dune ressource non réutilisable

Définition (jetons consommés). Soit \Omega un ensemble de jetons. À chaque événement e\in\mathcal{E}, on associe un ensemble fini J(e)\subset\Omega de jetons consommés.

Axiome (nonréutilisation).


e\neq e' \Longrightarrow J(e)\cap J(e')=\varnothing.

Définition (coût). Le coût est w(e)=|J(e)|\in\mathbb{N}.

Définition (coût cumulatif). On définit C:V\to\mathbb{N} par récurrence :

  • si v est une racine, C(v)=0 ;
  • si v est créé par e_v=(P,v), alors

C(v)=\max_{p\in P} C(p) + w(e_v).

Proposition (monotonicité stricte). Si p\to v est une arête (avec p\in P pour lévénement créateur de v) et si w(e_v)\ge 1, alors C(p)<C(v).

Preuve. Par définition, C(v)\ge C(p)+w(e_v)\ge C(p)+1. □

Corollaire. La fonction \widetilde{C}(v)=-C(v) est strictement décroissante le long des arêtes. La lignée est donc orientée par un monotone strict dérivé de la consommation.

On note que la répétition dun type \ell(v) nimplique aucun retour : la croissance de C rend la répétition compatible avec lirréversibilité.

Héritage sans essence : attributs, quotient, signature

Attributs et règles dhéritage

Définition (espace dattributs). Soit \mathcal{A} un ensemble dattributs.

Définition (étiquetage dattribut). Un étiquetage est a:V\to\mathcal{A}.

Définition (règle dhéritage). Pour un événement e=(P,c) darité k, une règle dhéritage est


H_e:\mathcal{A}^k\to\mathcal{A}

telle que a(c)=H_e(a(p_1),\dots,a(p_k)).

Définition (collision dhéritage). Il y a collision si


\exists e\neq e',\ \exists P,P' \text{ tels que } H_e(a(P))=H_{e'}(a(P')).

La collision formelle suffit à exprimer la nonreconstructibilité de lorigine.

Équivalences, signatures et grammaire de classes

Définition (équivalence sur les types). Soit \sim une équivalence sur X. Elle induit une équivalence sur V par v\sim_V v'\iff \ell(v)\sim \ell(v').

Définition (signature). Une signature est une application \sigma:X\to\Sigma vers un ensemble fini \Sigma telle que x\sim y\Rightarrow \sigma(x)=\sigma(y). On définit \bar{\sigma}=\sigma\circ \ell:V\to\Sigma.

Définition (compatibilité de lhéritage avec la signature). Pour chaque événement e darité k, il existe une application \widehat{H}_e:\Sigma^k\to\Sigma telle que


\bar{\sigma}(c)=\widehat{H}_e\big(\bar{\sigma}(p_1),\dots,\bar{\sigma}(p_k)\big).

Cette définition transforme lhéritage en une opération sur un alphabet fini, sans postuler un mécanisme de copie.

Accumulation structurale et héritage des collisions passées

Quotient de lignée et coalescence au niveau signature

Définition (quotient des occurrences par signature). On définit v\equiv v' par \bar{\sigma}(v)=\bar{\sigma}(v'). Le quotient est V/{\equiv}, naturellement indexé par \Sigma.

Définition (graphe de signatures). On définit G_\Sigma=(\Sigma,E_\Sigma) par


(\alpha,\beta)\in E_\Sigma \Longleftrightarrow \exists u\to v\ \text{dans}\ \mathcal{T}\ \text{avec}\ \bar{\sigma}(u)=\alpha,\ \bar{\sigma}(v)=\beta.

Proposition (cycles possibles sur les classes). Il est possible que G_\Sigma contienne des cycles même si \mathcal{T} est un DAG.

Cette proposition formalise lidée suivante : la lignée (sur occurrences) encode une antériorité irréversible, tandis que la dynamique sur classes (signatures) peut réutiliser une même classe, car une classe peut être atteinte à des instants distincts et depuis des histoires distinctes.

Accumulateur dhistoire sur DAG

Définition (monoïde dagrégation). Soit (\mathcal{M},\oplus,0) un monoïde commutatif.

Définition (accumulateur local). Une application m:V\to\mathcal{M} fournit une contribution locale.

Définition (accumulateur historique). Sur le DAG \mathcal{T}, on définit M:V\to\mathcal{M} par récurrence :


M(v)=m(v)\ \oplus\ \bigoplus_{u\in \mathrm{Par}(v)} \big(W(u,v)\odot M(u)\big),

W(u,v) est un poids et \odot une action compatible.

Proposition (biendéfinition). Un ordre topologique de \mathcal{T} garantit la définition sans ambiguïté de M.

Mémoire des collisions

Définition (collision informationnelle). Une collision au niveau signature est une paire doccurrences v\neq v' telle que \bar{\sigma}(v)=\bar{\sigma}(v').

Proposition (héritage des collisions passées). Si \bar{\sigma}(v)=\bar{\sigma}(v') mais M(v)\neq M(v'), alors la classe transmissible \bar{\sigma} ne suffit pas à déterminer lhistoire accumulée. La collision transforme des histoires distinctes en un même état observable au niveau classe, tout en laissant subsister une multiplicité dhistoires possibles au niveau des contraintes cumulées.

Cette proposition, formulée sans lecture externe, capture lidée que « la fusion devient un fait hérité » : la noninjectivité nefface pas le passé, elle le rend indistinct.

Exemple calculé : comptage de signatures

Paramètres

  • Alphabet \Sigma=\{A,B,C\}.
  • Monoïde \mathcal{M}=\mathbb{N}^3 avec addition composante par composante et neutre (0,0,0).
  • m(v)=e_{\bar{\sigma}(v)}e_A=(1,0,0), e_B=(0,1,0), e_C=(0,0,1).
  • W(u,v)=1, \odot triviale.

DAG

  • Sommets v_0,v_1,v_2,v_3.
  • Arêtes v_0\to v_2, v_1\to v_2, v_2\to v_3.
  • Signatures \bar{\sigma}(v_0)=A, \bar{\sigma}(v_1)=B, \bar{\sigma}(v_2)=A, \bar{\sigma}(v_3)=C.

Calculs détaillés

  • M(v_0)=m(v_0)=(1,0,0).
  • M(v_1)=m(v_1)=(0,1,0).
  • Parents de v_2 : \mathrm{Par}(v_2)=\{v_0,v_1\}.
    
    M(v_2)=m(v_2)\oplus M(v_0)\oplus M(v_1)
    
    m(v_2)=(1,0,0). M(v_0)\oplus M(v_1)=(1,0,0)+(0,1,0)=(1,1,0). Donc M(v_2)=(1,0,0)+(1,1,0)=(2,1,0).
  • Parents de v_3 : \mathrm{Par}(v_3)=\{v_2\}.
    
    M(v_3)=m(v_3)\oplus M(v_2)
    
    m(v_3)=(0,0,1). Donc M(v_3)=(0,0,1)+(2,1,0)=(2,1,1).

Conclusion de lexemple La signature C ninforme pas sur la composition historique. Laccumulateur M encode une mémoire strictement croissante sur le DAG. La réapparition de A illustre que des classes peuvent se répéter sans annuler lhistoire : cest exactement le régime où des structures transmissibles persistent malgré les collisions.

Disparition des branches instables

Filtre de viabilité et élagage

Définition (prédicat de viabilité). Un prédicat est P:V\to\{0,1\}. Un sommet est viable si P(v)=1.

Définition (sousDAG viable).


V_P=\{v\in V:P(v)=1\},\qquad E_P=E\cap (V_P\times V_P).

Le sousgraphe G_P=(V_P,E_P) est le résultat dun élagage.

Proposition (idempotence). \mathfrak{E}(\mathfrak{E}(\mathcal{T}))=\mathfrak{E}(\mathcal{T}).

Définition (branche stable). Dans un DAG infini, une branche est stable si elle contient une infinité de sommets viables.

Modèle stochastique minimal : processus de branchement

Définition. Soit K une variable aléatoire à valeurs dans \mathbb{N}. On définit


Z_0=1,\qquad Z_{n+1}=\sum_{i=1}^{Z_n} K_i,

(K_i) sont i.i.d. de loi K.

Définition (moyenne).


\mu=\mathbb{E}[K].

Théorème (critère standard). Sous des hypothèses usuelles : si \mu\le 1 extinction presque sûre, si \mu>1 survie avec probabilité strictement positive.

Ce résultat exprime la disparition des branches instables sans hypothèse doptimisation.

Sélection sans finalité

Mesures sur les générations

Définition (poids). Un poids est w:V\to \mathbb{R}_+. Exemples formels :

  • w(v)=g(M(v)) pour une fonction g,
  • w(v)=|\mathrm{Desc}(v)\cap V_{n+k}| (descendance à horizon k),
  • w(v)=\mathbb{P}(P(v)=1 \mid \text{informations}).

Définition (mesure normalisée). Sur V_n,


\pi_n(v)=\frac{w(v)}{\sum_{u\in V_n} w(u)}.

Proposition (sélection). La sélection est définie ici comme la concentration de \pi_n sur un sousensemble strict de V_n. La concentration résulte dinégalités de poids, donc dinégalités de croissance ou de viabilité, sans finalité.

Effet de conditionnement

Conditionner sur la nonextinction modifie la distribution observée. Les histoires compatibles avec la survie sont surreprésentées, ce qui crée un effet directionnel apparent sans nécessiter dobjectif.

Interprétations après formalisation

Lecture informationnelle

  • \bar{\sigma} représente une compression en classes.
  • G_\Sigma rend visible lhéritage des collisions : retours sur classes sans retour sur occurrences.
  • M est une mémoire distribuée définie sur un DAG.

Lecture cosmologique minimale

  • C impose une flèche dantériorité dérivée.
  • Les lignées persistantes deviennent des contraintes héritées qui restreignent lespace des transformations futures.

Lecture relative à des systèmes de transmission concrets

  • Les hyperarêtes P\Rightarrow c modélisent des opérations à arité finie.
  • Les collisions expriment limpossibilité structurelle de reconstruire une origine à partir du seul résultat normalisé.

Références consensuelles utiles

  • Reinhard Diestel, Graph Theory (théorie des graphes).
  • Theodore E. Harris, The Theory of Branching Processes (processus de branchement).
  • Krishna B. Athreya, Peter E. Ney, Branching Processes (processus de branchement).

Conclusion

Les graphes orientés de lignées ont été introduits explicitement comme limage combinatoire dévénements dengendrement sur un ensemble doccurrences, distinct du niveau des types. Une règle minimale de création orientée rend le graphe acyclique, et la consommation irréversible fournit un monotone cumulatif quantifiant lhistoire. Lhéritage est formalisé par des règles sur attributs, puis ramené à des signatures discrètes par quotient, ce qui rend la perte didentifiabilité structurelle. Laccumulation structurale est définie par un accumulateur sur DAG, et lhéritage des collisions passées apparaît lorsque plusieurs histoires se projettent sur la même signature malgré des historiques cumulés distincts. Enfin, la disparition des branches instables et la sélection sans finalité se décrivent par filtrage de viabilité, dynamique de branchement et concentration de mesure.

On obtient : certaines structures transmissibles persistent sous contraintes, indépendamment de toute finalité. Le chapitre suivant étudie ces structures persistantes comme contraintes actives sur lensemble des futurs admissibles.


Chapitre 13 — Structures persistantes et verrouillage des futurs

Hypothèses et résultats (repères)

Hypothèses (H).

  • un espace détats X et une famille de transformations admissibles \mathcal{T} (cadre discret) ;
  • une description \Pi et une règle de restriction associée, fixées indépendamment de leffet observé ;
  • quantification optionnelle par \mu, d ou un coût c déclarés (si mobilisés).

Résultats (E).

  • définition du futur accessible \mathcal{F}(x) et du verrouillage comme réduction monotone de latteignabilité sous contraintes actives ;
  • distinction de statut entre verrouillage ensembliste (structurel) et quantifications (indexées) ;
  • discipline de robustesse sous changements de granularité/description lorsque des comparaisons sont revendiquées.

Statut.

  • verrouillage ensembliste : couche [E] ; quantification : couche [M] (indexée) ; probabiliste : couche [P] uniquement si un noyau est déclaré.

Introduction

Le chapitre précédent a établi un formalisme de filiation au moyen de graphes orientés acycliques, ainsi que des opérateurs de transmission et de composition permettant de décrire, sans vocabulaire substantiel, la propagation de structures partielles à travers des événements de séparation et de collision.

Le présent chapitre introduit le mécanisme par lequel ces structures transmissibles deviennent des contraintes actives sur lévolution : lexistence dune structure persistante ne se limite pas à être détectable dans létat courant ; elle restreint lensemble des trajectoires futures accessibles depuis cet état. Le verrouillage des futurs est défini comme une réduction monotone, au cours du temps, de lespace des devenirs admissibles, pouvant aller jusquà des sous-ensembles invariants, des classes absorbantes, ou des attracteurs au sens des systèmes dynamiques dissipatifs.

Notations et prérequis

Soit :

  • (X,\mathcal{B}) un espace mesurable détats (ou un espace topologique X muni de sa tribu borélienne ; le choix dépendra des résultats mobilisés).
  • \mathcal{T} un ensemble de transformations admissibles f : X \to X (temps discret).
  • \langle \mathcal{T}\rangle le semi-groupe engendré par \mathcal{T} par composition.

Remarque (admissibilité) Le choix de lensemble \mathcal{T} est une hypothèse structurale : il encode ce qui est disponible (symétries, localité, ressources) et reste indépendant de toute finalité. Lorsque plusieurs choix raisonnables de \mathcal{T} existent, les énoncés quantifiés sont compris comme relatifs à ce choix, et la robustesse sévalue par variation contrôlée de \mathcal{T} (et des opérateurs de compatibilité associés).

Pour x \in X et n \in \mathbb{N}, lensemble des états atteignables en n étapes est :


\operatorname{Reach}_n(x)
=

\{ f_n \circ \cdots \circ f_1(x) \;:\; f_1,\ldots,f_n \in \mathcal{T} \}.

Le futur accessible (ensemble des états atteignables à horizon fini quelconque) est :


\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x),
\qquad
\operatorname{Reach}_0(x)=\{x\}.

Si une mesure de référence \mu est disponible (mesure de volume, mesure stationnaire, etc.), la “taille” du futur accessible peut être mesurée par \mu(\mathcal{F}(x)). Dans un cadre fini, on utilisera plutôt la cardinalité |\mathcal{F}(x)|.

Dans les chapitres précédents, une structure a été introduite sous des formes compatibles : partition ou quotient de X, sous-tribu informative, ensemble de contraintes locales transportables, ou collection de motifs partiels transmissibles. Le chapitre présent nimpose pas un choix unique ; il impose en revanche un ordre logique minimal, garantissant labsence dauto-justification.

Hypothèse de base (structure comme information opératoire)

Une structure est représentée par :

  • un opérateur de description \Pi qui associe à un état x une description s=\Pi(x) dans un espace de descriptions S ;
  • une règle de restriction indexée par s, qui sélectionne soit un ensemble détats admissibles, soit une relation de transitions admissibles, soit une sous-famille de transformations admissibles.

Cette dissociation impose lordre : description puis contrainte. La structure nest pas définie comme “ce qui restreint”, mais comme une description préalable associée à une règle de restriction fixée indépendamment de leffet constaté.

Structures comme contraintes actives

Définition dune contrainte

Une contrainte admet plusieurs représentations équivalentes. Toutes seront utilisées, car elles correspondent à des points de vue complémentaires sur “ce qui est interdit”.

Contrainte détat Un sous-ensemble A \subseteq X ; létat est admissible si x\in A.

Contrainte de transition Une relation R \subseteq X\times X ; une transition x\to y est admissible si (x,y)\in R.

Contrainte fonctionnelle Une application g:X\to Y et une condition g(x)\in C_Y (notamment g(x)=0 ou g(x)\le 0). Cela induit lensemble admissible A=\{x: g(x)\in C_Y\}.

Contrainte de coût Une fonction c:X\times X\to [0,+\infty] et un seuil \kappa ; (x,y) est admissible si c(x,y)\le \kappa. Le cas c(x,y)=+\infty encode linterdiction stricte.

Interconversions utiles (sans perte)

  • Dune contrainte détat A, on déduit la contrainte de transition R_A=A\times A.
  • Dune contrainte fonctionnelle g(x)\in C_Y, on déduit la contrainte détat A=\{x: g(x)\in C_Y\}.
  • Dune contrainte de coût c(x,y)\le \kappa, on déduit la contrainte de transition R=\{(x,y): c(x,y)\le \kappa\}.

Définition dune contrainte active

Le qualificatif “active” désigne un effet effectif sur latteignabilité, et non lexistence nominale dune règle.

Soit (X,\mathcal{T}) et deux ensembles de transformations admissibles \mathcal{T}\supseteq \mathcal{T}'. Le passage de \mathcal{T} à \mathcal{T}' est une activation de contrainte au point x si :


\mathcal{F}_{\mathcal{T}'}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x),

\mathcal{F}_{\mathcal{T}}(x) désigne le futur accessible construit avec \mathcal{T}, et \mathcal{F}_{\mathcal{T}'}(x) celui construit avec \mathcal{T}'.

Une contrainte est globalement active si linclusion stricte vaut sur un ensemble détats non négligeable (mesure non nulle, ou partie dense, selon le cadre retenu).

Structures et activation

Soit \Pi:X\to S une description, et soit \mathcal{T}(s)\subseteq \mathcal{T} une famille de transformations admissibles indexée par s\in S.

Une structure s est dite active au point x si, pour \Pi(x)=s, on a :


\mathcal{F}_{\mathcal{T}(s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x).

Cette définition impose que (\Pi,\mathcal{T}(\cdot)) soit donné avant toute interprétation : la structure nest pas “ce qui réduit”, elle est “ce qui est décrit” et “ce qui impose ensuite une restriction”.

Contraintes endogènes et ensembles invariants

Il est pertinent de distinguer deux sources de contraintes.

Contraintes exogènes Restrictions prescrites sur \mathcal{T} (interdictions, règles externes).

Contraintes endogènes Restrictions produites par la structure interne de la dynamique : ensembles invariants, classes absorbantes, attracteurs, dissipation, non-injectivité, réduction effective de dimension.

Le verrouillage des futurs relève principalement des contraintes endogènes. Lhéritage de structures, traité plus loin, fournit un mécanisme endogène de génération et stabilisation de contraintes au sein dun processus de filiation.

Réduction de lespace des trajectoires futures

Verrouillage comme réduction monotone des futurs accessibles

On modélise laccumulation ou lactivation progressive de contraintes par une suite densembles de transformations admissibles (\mathcal{T}_t)_{t\in\mathbb{N}} telle que :


\mathcal{T}_{t+1}\subseteq \mathcal{T}_t
\quad \text{pour tout } t.

Le futur accessible à partir du temps t est défini par :


\mathcal{F}^{(t)}(x)
=

\bigcup_{n\ge 0}
\left\{
f_{t+n}\circ \cdots \circ f_{t+1}(x)
:
f_{t+k}\in \mathcal{T}_{t+k}
\right\}.

Alors, pour tout x :


\mathcal{F}^{(t+1)}(x)\subseteq \mathcal{F}^{(t)}(x),

donc la famille (\mathcal{F}^{(t)}(x))_t est décroissante.

Le verrouillage correspond à la situation où linclusion est strictement décroissante sur une suite de temps, ou, de façon plus structurelle, lorsque lintersection limite est strictement plus petite :


\mathcal{F}^{(\infty)}(x)=\bigcap_{t\ge 0}\mathcal{F}^{(t)}(x)
\subsetneq
\mathcal{F}^{(0)}(x).

Cas fini Si X est fini, les ensembles \mathcal{F}^{(t)}(x) sont des sous-ensembles dun ensemble fini ; la décroissance est donc stationnaire en temps fini. Le verrouillage est alors un phénomène à horizon fini, détectable par stabilisation des ensembles atteignables.

Cas infini Si X est infini, lintersection peut être non vide tout en étant strictement plus petite que \mathcal{F}^{(0)}(x) ; lanalyse se fait alors via la mesure, la topologie, ou des invariants dynamiques (dimension effective, entropie topologique, etc.).

Niveaux, quantification et robustesse du verrouillage

Dans le cas fini, la stabilisation dune famille décroissante est automatique ; on caractérise alors le verrouillage par (i) lintensité de la réduction, (ii) sa vitesse, (iii) sa structure (goulots, fragmentation), et (iv) sa robustesse aux choix de mesure, de projection et dadmissibilité.

Niveau 1 — verrouillage ensembliste (noyau) Le verrouillage est une inclusion de futurs accessibles. On dira quil est strict en t1→t2 sil existe x tel que \mathcal{F}^{(t_2)}(x)\subsetneq \mathcal{F}^{(t_1)}(x).

Niveau 2 — verrouillage quantifié (mesurable) On fixe un quantificateur et on mesure la réduction, par exemple :

  • réduction de futur accessible (cas fini) : L_{\mathcal{F}}(t,x)=|\mathcal{F}^{(0)}(x)|-|\mathcal{F}^{(t)}(x)| et l_{\mathcal{F}}(t,x)=L_{\mathcal{F}}(t,x)/|\mathcal{F}^{(0)}(x)| lorsque |\mathcal{F}^{(0)}(x)|>0 ;
  • réduction de futur accessible (cas mesuré) : L_{\mathcal{F}}^{\mu}(t,x)=\mu(\mathcal{F}^{(0)}(x))-\mu(\mathcal{F}^{(t)}(x)) et l_{\mathcal{F}}^{\mu}(t,x)=L_{\mathcal{F}}^{\mu}(t,x)/\mu(\mathcal{F}^{(0)}(x)) lorsque \mu(\mathcal{F}^{(0)}(x))>0 ;
  • vitesse de verrouillage (seuil \theta\in (0,1)) : \tau_{\theta}(x)=\inf\{t\ge 0 : l_{\mathcal{F}}(t,x)\ge \theta\} (ou la variante mesurée) ;
  • quantificateurs structurels : nombre de composantes fortement connexes atteignables, distribution des bassins, goulots (coupes) dans le graphe datteignabilité, diamètre de \mathcal{F}^{(t)}(x) sous une quasimétrique de chemin lorsque lon introduit un coût de transition.

Niveau 3 — verrouillage robuste (statut) Une conclusion quantifiée est dite robuste si elle persiste qualitativement sous :

  • variations raisonnables de mesure \mu,
  • variations de projection / quotient \Pi,
  • variations de ladmissibilité \mathcal{T} dans une classe déclarée,
  • et, lorsque des contraintes héritées interviennent, variations de lopérateur \operatorname{Comp} dans une famille explicitée.

Hypothèses et ruptures (statut local)

Les résultats centraux de ce chapitre sont accompagnés dune note structurée :

  • Hypothèses : liste explicite (finitude/compacité, piégeage/dissipativité, admissibilité fixée, mesure \mu, projection \Pi, etc.)
  • Conclusion : énoncé exact
  • Ruptures : ce qui nest plus garanti si une hypothèse est retirée

Bibliothèque minimale de ruptures (vocabulaire standard pour ce chapitre)

  • Finitude retirée : stabilisation en temps fini non garantie ; cycles/attracteurs non garantis ; nécessité dinvariants, de topologie ou de mesure pour conclure.
  • Compacité retirée : fuite possible ; absence dattracteur global ; quantifications par “volume” pouvant diverger.
  • Absence de piégeage/dissipativité : errance possible ; le futur accessible peut rester vaste sans contraction durable.
  • Admissibilité non fixée : reconfiguration du futur accessible ; quantités non comparables sans aligner la classe dadmissibilité (même \mathcal{T}, même \operatorname{Comp}, même règle dactivation).
  • Changement de projection/quotient \Pi : nonMarkovianité apparente possible ; conclusions sur verrouillage observé susceptibles dêtre des artefacts de représentation.

Estimation, bornes et substituts (quand le futur est intractable)

Le futur accessible complet \mathcal{F}^{(t)}(x) est souvent trop coûteux à calculer (voire non calculable selon la classe de transformations). Toute quantification proposée sur \mathcal{F}^{(t)}(x) est donc accompagnée :

  • dau moins un estimateur calculable ;
  • dau moins une borne (supérieure ou inférieure) ;
  • et dune note de statut (dépendances aux choix).

Estimateurs par échantillonnage de trajectoires

  • Échantillonnage de chemins de longueur bornée n\le n_{\max} sous une politique déclarée (uniforme, filtrée par ressource, locale).
  • Estimation de \mu(\mathcal{F}^{(t)}(x)) par couverture empirique : fraction détats visités (fini) ou volume discrétisé (continu) sous une maille déclarée.
  • Estimation dun temps caractéristique de verrouillage \tau_{\theta} par répétitions (mêmes choix dexploration et de quantificateur).

Bornes supérieures et inférieures

  • Bornes par coupes/goulots : si une coupe sépare x dune région, alors la perte de futur est au moins celle de la région rendue inaccessible.
  • Bornes par invariants/monotones : si un monotone interdit un ensemble, alors ce bloc est exclu du futur accessible.
  • Bornes par composantes : taille des composantes fortement connexes atteignables comme majorants (structurels) de récurrence.

Métriques de substitution

  • Diamètre de futur (selon une quasidistance déclarée) : \mathrm{diam}(\mathcal{F}^{(t)}(x)).
  • Conductance / coupe minimale du graphe atteignable (si pondération).
  • Nombre et tailles des composantes fortement connexes atteignables.
  • Variation de diamètre ou de fragmentation sous verrouillage.

Note de statut obligatoire Chaque estimateur précise : (i) la dépendance à la politique dexploration (si stochastique), (ii) la dépendance à la métrique/mesure, et (iii) les conditions sous lesquelles il est majorant/minorant.

Verrouillage via ensembles invariants, classes absorbantes et attracteurs

Dans le cas déterministe F:X\to X :

  • A est positivement invariant si F(A)\subseteq A.
  • A est invariant si F(A)=A.
  • A est absorbant si pour tout x\in X, il existe n tel que F^n(x)\in A.

Si un ensemble absorbant strict A\subsetneq X existe, alors tout futur accessible à partir de nimporte quel état devient contenu dans A après un temps fini dépendant de létat initial. Le verrouillage est ici un fait ensembliste.

Dans les systèmes dissipatifs (au sens standard), les attracteurs offrent une forme stabilisée du verrouillage : un attracteur A est un ensemble compact invariant possédant un bassin B(A) (ensemble détats initiaux dont lorbite approche A). Alors, pour x\in B(A), ladhérence de lorbite est contenue dans A, ce qui implique une restriction durable des devenirs.

Le verrouillage nimplique pas unicité. Plusieurs attracteurs et bassins peuvent coexister ; la réduction du futur dépend alors du bassin effectif dans lequel létat initial se situe.

Verrouillage relatif à une observable (réduction par projection)

Soit une application de réduction \Pi:X\to S (projection, quotient, codage). Pour une dynamique F:X\to X, le processus réduit est :


S_{t+1}=\Pi(F(X_t)),
\qquad
S_t=\Pi(X_t).

En général, il nexiste pas de G:S\to S tel que \Pi\circ F = G\circ \Pi : le système réduit nest pas autonome.

On définit néanmoins lensemble des futurs observables depuis une description s\in S :


\mathcal{F}_S(s)
=

\{
\Pi(x')
:
x'\in \mathcal{F}(x)
\text{ pour un } x\in \Pi^{-1}(s)
\}.

Même si le futur microscopique est large, le futur observable peut être fortement restreint : cest un verrouillage relatif à lobservable. Ce point est structurel, et ne dépend pas dune interprétation : il résulte du fait quune projection identifie des états distincts.

Monotonie et comparaison sous projection

  • Pour un état x, limage \Pi(\mathcal{F}(x)) (futur microscopique projeté) est toujours incluse dans \mathcal{F}_S(\Pi(x)), puisque \mathcal{F}_S est défini comme union sur la fibre \Pi^{-1}(s).
  • Lorsque la réduction est compatible (cas rare) au sens où il existe G:S\to S tel que \Pi\circ F = G\circ \Pi, la dynamique projetée est autonome et lon peut comparer directement des futurs accessibles en S. En dehors de ce cas, toute conclusion “au niveau (S)” doit rappeler la définition adoptée pour \mathcal{F}_S.

Artefacts de quotient (faux positifs / faux négatifs)

  • Identifier des états distincts peut produire un verrouillage artificiel (faux positif) si lon confond une faible diversité descriptive avec une réduction effective des futurs microscopiques.
  • À linverse, définir le futur dune description comme une union sur toute la fibre \Pi^{-1}(s) peut masquer un verrouillage (faux négatif) : la fibre agrège des microétats soumis à des restrictions différentes.

Double granularité (robustesse à la description) Toute conclusion quantifiée sur verrouillage est vérifiée sur au moins deux granularités \Pi_1,\Pi_2 déclarées pertinentes, où “pertinent” signifie : (i) invariance opérationnelle pour lanalyse visée, ou (ii) correspondance à une observation explicitée.

Règle de cohérence : formuler dabord sur létat étendu lorsquun registre de contraintes intervient Lorsque le verrouillage dépend dun registre de contraintes K (contraintes héritées, consommation, compatibilité), lénoncé principal est formulé sur lespace étendu Y=X\times\mathcal{P}(\mathfrak{C}) (chapitre 15), puis seulement projeté sur X.

Gabarit minimal

  • espace étendu : y_t=(x_t,K_t)
  • futur étendu : \mathcal{F}_Y(y)
  • projection : \pi_X(y)=x
  • énoncé de verrouillage : inclusion sur \mathcal{F}_Y
  • effet observé : inclusion (ou non) sur \mathcal{F} après projection, discutée séparément

Dépendance au passé sans mémoire explicite

Dans un système Markovien au niveau de létat complet (ou dune variable détat suffisante), le futur ne dépend que du présent. La dépendance au passé apparaît lorsque :

  • la variable suivie est une description partielle \Pi(x) ;
  • ou des variables internes de contrainte existent mais ne sont pas incluses dans lobservation.

Deux mécanismes couvrent exhaustivement le cadre présent. Dans les deux cas, la dépendance au passé au niveau observé ne suffit pas, à elle seule, à conclure à une mémoire transmissible : elle peut provenir dun état incomplet (variable cachée) ou dun registre interne non observé, et se reformule sur un espace détat étendu où la dynamique est fermée.

Mécanisme A : non-Markovianité induite par réduction (système caché)

Soit (X_t)_{t\ge 0} une chaîne de Markov sur X de noyau K(x,\mathrm{d}x'). Soit \Pi:X\to S et S_t=\Pi(X_t).

En général, (S_t) nest pas Markovien. Il existe un noyau effectif dépendant de lhistoire :


\mathbb{P}(S_{t+1}\in \cdot \mid S_0,\ldots,S_t)
=

\mathcal{K}_t(S_0,\ldots,S_t;\cdot).

Raison structurelle La connaissance de S_t fixe seulement la fibre \Pi^{-1}(S_t), mais pas la distribution conditionnelle de X_t sur cette fibre ; cette distribution dépend de lhistoire. Ainsi, la loi de S_{t+1} dépend de lhistoire sans quune variable “mémoire” explicite ne soit introduite dans S_t.

Cas limite où le processus réduit redevient Markovien Le processus réduit est Markovien si la partition induite par \Pi est compatible avec le noyau (lumpabilité), cest-à-dire si tous les états dune même cellule induisent la même loi sur les cellules futures. En dehors de ce cas, la dépendance au passé est générique.

Mécanisme B : variables internes de contrainte non observées (hystérésis)

Soit une dynamique augmentée sur X\times M :


(x_{t+1},m_{t+1})=\Psi(x_t,m_t),

M représente un registre interne de contrainte (paramètre lent, ressource consommée, défaut cumulé, variable dissipative, etc.).

Si seule la composante x_t est observée, la dynamique apparente sur X nest pas autonome :


x_{t+1}=\pi_X(\Psi(x_t,m_t)).

Deux histoires différentes peuvent mener au même x_t avec des valeurs différentes de m_t. Or m_t restreint les transitions futures ; les futurs accessibles depuis x_t dépendent donc du passé, sans que cette dépendance ne soit portée par une variable explicite dans lespace observé.

Correspondance entre les deux mécanismes

Tout processus réduit non Markovien peut être réalisé comme la projection dun processus Markovien sur un espace étendu. Cette correspondance nest pas utilisée comme justification, mais comme garantie logique : la dépendance au passé est un effet de réduction ou de variable interne, et non un postulat additionnel.

Robustesse cumulative

La robustesse cumulative formalise le fait que certaines contraintes persistantes deviennent progressivement moins sensibles :

  • aux fluctuations détat dans un voisinage ;
  • aux perturbations (déterministes ou stochastiques) ;
  • aux recompositions via collisions.

Elle repose sur deux mécanismes non exclusifs : lemboîtement de régions admissibles et la contraction (au sens métrique ou probabiliste), auxquels sajoute un mécanisme de redondance interne.

Notions de robustesse

Les notions standards suivantes sont toutes pertinentes et non redondantes :

  • stabilité de Lyapunov autour dun ensemble invariant ;
  • attractivité ;
  • stabilité asymptotique ;
  • stabilité structurelle (conjugaison sous perturbations) ;
  • robustesse probabiliste (persistance en probabilité sous bruit faible).

Le chapitre nen privilégie aucune par principe : elles servent doutillage pour caractériser différents régimes de persistance.

Emboîtement densembles admissibles

On modélise laccumulation de contraintes par une suite densembles admissibles (A_t)_{t\ge 0} telle que :


A_{t+1}\subseteq A_t\subseteq X,
\qquad
x_t\in A_t \Rightarrow x_{t+1}\in A_{t+1}.

Toute trajectoire admissible est confinée dans :


A_{\infty}=\bigcap_{t\ge 0}A_t.

Interprétation strictement mathématique Même si A_t reste large pour des temps initiaux, lintersection peut être strictement plus petite, éventuellement de dimension effective plus faible. La robustesse cumulative se lit alors comme une concentration progressive des trajectoires ou des mesures images sur A_{\infty}.

Contraction et perte effective de degrés de liberté

Dans un espace métrique (X,d), une condition suffisante de robustesse est lexistence dune contraction locale ou en moyenne :


d(F(x),F(y))\le \lambda\,d(x,y),
\qquad
0\le \lambda < 1,

sur une région pertinente.

Conséquence directe Des trajectoires initialement distinctes deviennent indiscernables à lavenir : plusieurs passés se rabattent sur un même futur. Le verrouillage prend alors une forme forte : la multiplicité des devenirs diminue du fait de la contraction.

Dans les systèmes où coexistent directions contractantes et expansives, la théorie des variétés stables et instables décrit la décomposition des directions. Dans un cadre dissipatif, lattracteur peut avoir une dimension fractale strictement plus petite que celle de lespace ambiant, ce qui formalise une réduction durable des degrés de liberté effectifs.

Redondance interne et bassins de réalisations

Un mécanisme complémentaire, distinct de la contraction, est la redondance : une contrainte macroscopique peut admettre de nombreuses réalisations microscopiques connectées par les transformations admissibles.

Formellement, si une contrainte macroscopique correspond à une fibre A=\Pi^{-1}(s), la robustesse dépend :

  • de la taille de A (nombre ou mesure de réalisations) ;
  • de la connectivité de A sous les transformations admissibles (possibilité de “changer de réalisation” tout en conservant s) ;
  • de lexistence dun bassin (au sens ensembliste ou probabiliste) qui renvoie vers A après perturbation.

Ce mécanisme explique une robustesse qui nest pas due à la rigidité, mais à la multiplicité des réalisations.

Contraintes héritées

Les chapitres antérieurs ont introduit des graphes orientés de filiation et des opérateurs de transmission partielle. Il reste à formaliser comment des contraintes deviennent héritées, au sens où elles se propagent le long des arêtes et se stabilisent.

Espace des contraintes et ordre naturel

Soit \mathfrak{C} un ensemble de contraintes élémentaires. On considère lensemble des collections :


\mathcal{P}(\mathfrak{C})

muni de lordre par inclusion.

À toute collection K\subseteq \mathfrak{C}, on associe :

  • un ensemble admissible A(K)\subseteq X (intersection des contraintes détat induites) ;
  • une relation admissible R(K)\subseteq X\times X (intersection des contraintes de transition induites) ;

avec cohérence monotone :


K_1\subseteq K_2
\Rightarrow
A(K_2)\subseteq A(K_1),
\qquad
R(K_2)\subseteq R(K_1).

La lecture est purement ordinale : “plus de contraintes” implique “moins dadmissible”.

Transport le long dune arête

Soit un graphe orienté acyclique G=(V,E). À chaque arête e=(u\to v), on associe un opérateur de transmission :


\tau_e:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}).

Le nœud v hérite de u le long de e si :


\tau_e(K_u)\subseteq K_v.

Propriété de monotonicité attendue Il est naturel dexiger :


K_1\subseteq K_2
\Rightarrow
\tau_e(K_1)\subseteq \tau_e(K_2),

afin de préserver lordre “plus de contraintes” le long des transmissions.

Collisions et compatibilité

Si v possède des prédécesseurs u_1,\ldots,u_k, les contraintes candidates transmises sont :


\widetilde{K}_v
=

\bigcup_{i=1}^k \tau_{(u_i\to v)}(K_{u_i}).

Lunion peut créer des incompatibilités (ensemble admissible vide, relation admissible vide). On introduit un opérateur de compatibilité :


\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C})

tel que :

  • \operatorname{Comp}(K)\subseteq K ;
  • A(\operatorname{Comp}(K))\neq \varnothing et/ou R(\operatorname{Comp}(K))\neq \varnothing ;
  • si K est déjà compatible, \operatorname{Comp}(K)=K.

Règle minimale de composition


K_v \supseteq \operatorname{Comp}(\widetilde{K}_v).

Aucune optimisation nest requise : seule la satisfaisabilité est imposée.

Remarque (familles de compatibilité) Les axiomes cidessus ne déterminent pas un unique opérateur. Dans une couche minimale non téléologique, on explicite, lorsque pertinent, une famille de compatibilités (minimale, maximale, locale, priorisée par coût de vérification / invariance / ancienneté, ou stochastique) et lon distingue ce qui est invariant de ce qui dépend du choix de compatibilité.

On fixe la convention suivante.

Statut des résultats (invariant vs dépendant)

  • Invariant : valable pour toute compatibilité satisfaisant un noyau daxiomes minimal A0 explicitement énoncé.
  • Dépendant : valable seulement pour une classe de compatibilités, ou pour une politique de choix, ou pour une famille paramétrée ; dans ce cas, le résultat est explicitement indexé par la classe/politique/paramètre.

Noyau daxiomes minimal A0 (pour revendiquer “invariant”)

  • A0.1 (bientypé) : \operatorname{Comp} agit sur lespace des contraintes et retourne une collection de contraintes.
  • A0.2 (compatibilité déclarée) : il existe un prédicat de satisfaisabilité \mathrm{Sat} (global) ou \mathrm{Sat}_r (local) tel que la sortie \operatorname{Comp}(K) soit compatible au sens déclaré.
  • A0.3 (monotonie, si utilisée) : lorsquun résultat invoque des points fixes ou une convergence par ordre, la monotonie requise (de \operatorname{Comp} ou de lopérateur global F(K)=\operatorname{Comp}(K\cup \Phi(\cdot))) est posée comme hypothèse, jamais présumée.
  • A0.4 (idempotence/extensivité, si utilisées) : ces propriétés ne sont exigées que lorsquun résultat les emploie (logique de fermeture) ; elles ne sont pas implicites.
  • A0.5 (changement de granularité, si revendiqué) : si un résultat est annoncé stable sous projection/quotient, lhypothèse correspondante est déclarée (commutation exacte ou contrôle explicite de lécart).

Classes canoniques de compatibilités (à nommer et à limiter)

  • Classe fermeture \mathcal{C}_{\mathrm{closure}} : compatibilités de type fermeture (monotonie + idempotence ; extensivité selon convention). Elles sont le régime naturel pour les arguments de points fixes et dautostabilisation par ordre.
  • Classe réparation minimale \mathcal{C}_{\mathrm{repair\_min}} : \operatorname{Comp} “répare” en supprimant un minimum de contraintes pour rétablir \mathrm{Sat}, selon un critère de minimalité déclaré (inclusion, cardinalité, coût de vérification, etc.). Cela introduit un choix donc un biais à déclarer.
  • Classe locale \mathcal{C}_{\mathrm{local},r} : compatibilités approximatives \operatorname{Comp}_r maintenant une cohérence locale \mathrm{Sat}_r (paramètre r ou autre budget). Les résultats sont soit robustes sur un intervalle de r, soit indexés par r.
  • Classe choix \mathcal{C}_{\mathrm{choice}} : \operatorname{Comp} choisit explicitement une solution parmi plusieurs satisfaisables. Cest une source directe de biais (et donc de sélection) : la politique de choix est déclarée et testée en robustesse.

Politique dintroduction

  • Un nouveau type de compatibilité est introduit seulement sil relève dune classe canonique cidessus, ou sil justifie lajout dune nouvelle classe par une motivation structurale et par au moins un résultat invariant non trivial.
  • Toute compatibilité paramétrée est décrite comme une famille (\operatorname{Comp}_{\theta})_{\theta} ; ses résultats ne sont dits “structurels” que sils persistent sur un ensemble non trivial de paramètres.

Critère de robustesse à \operatorname{Comp} Un phénomène est déclaré “structurel” visàvis de la compatibilité sil persiste sur plusieurs classes canoniques, ou sur une région non triviale de paramètres, ou sous variation de politique dans \mathcal{C}_{\mathrm{choice}}. Sinon, il est traité comme dépendant dinstanciation.

Verrouillage induit par héritage

Une contrainte héritée devient facteur de verrouillage dès quelle restreint latteignabilité des descendants.

On associe à K un ensemble de transformations admissibles induites, par exemple :


\mathcal{T}(K)
=

\{ f\in\mathcal{T} :
\forall x\in A(K),\ (x,f(x))\in R(K)
\}.

Le futur accessible depuis le nœud v est alors :


\mathcal{F}_{\mathcal{T}(K_v)}(x_v).

Forme explicite de “le passé agit sans être représenté” Il peut exister deux nœuds v et v' tels que \Pi(x_v)=\Pi(x_{v'}) (même description observable) mais K_v\neq K_{v'} (contraintes héritées différentes). Alors, en général :


\mathcal{F}_{\mathcal{T}(K_v)}(x_v)
\neq
\mathcal{F}_{\mathcal{T}(K_{v'})}(x_{v'}).

Le passé agit via la variable de contrainte K, sans que la description observée \Pi(x) porte une mémoire explicite de ce passé.

Stabilisation

Une contrainte c\in\mathfrak{C} est stabilisée le long dune suite de descendants (v_n) si, à partir dun rang, c\in K_{v_n} pour tout n ultérieur. Plus généralement, un sous-ensemble K^\star est stabilisé si K^\star\subseteq K_{v_n} à partir dun rang.

La stabilisation est le passage dun verrouillage local (lié à un événement de transmission ou de collision) à un verrouillage durable (lié à la persistance de contraintes au long cours).

Résultat logique

Les constructions précédentes conduisent à une proposition strictement ensembliste :

  • une structure devient contrainte active dès quelle réduit le futur accessible ;
  • toute accumulation monotone de contraintes produit une réduction monotone des futurs accessibles ;
  • toute réduction par projection, ou tout oubli de variables internes de contrainte, induit une dépendance au passé au niveau des descriptions ;
  • lhéritage de contraintes sur un graphe orienté suffit à faire varier lensemble des futurs accessibles sans modifier nécessairement la description observée.

La phrase « le passé agit sans être représenté » est donc un énoncé technique : la variable descriptive peut rester constante tandis que lensemble admissible des transformations change, via des contraintes héritées ou cachées.

Notes bibliographiques minimales

Les notions mobilisées ici appartiennent à des cadres standard :

  • systèmes dynamiques (invariance, classes absorbantes, attracteurs, stabilité) ;
  • chaînes de Markov et modèles cachés (réduction non Markovienne, compatibilité de partitions, lumpabilité) ;
  • théorie de linformation (projection, perte dinformation, suffisance) ;
  • semi-groupes dopérateurs (cadre temps continu, dissipation).

Aucune hypothèse non standard nest requise pour établir les résultats ensemblistes du chapitre.

Conclusion

Le verrouillage des futurs a été défini comme une propriété datteignabilité : des structures persistantes, lorsquelles se traduisent en contraintes actives, réduisent lespace des trajectoires futures. La dépendance au passé a été formalisée sans variable de mémoire explicite, par réduction non Markovienne ou par variables internes non observées. Enfin, lhéritage sur graphes orientés a été articulé à ces notions pour produire un mécanisme de verrouillage durable.

Le chapitre suivant pourra exploiter ce cadre pour étudier une sélection structurelle fondée sur compatibilité et transmissibilité, sans introduire doptimisation ni de finalité.


Chapitre 14 — Sélection structurelle sans optimisation

Hypothèses et résultats (repères)

Hypothèses (H).

  • un espace détats X, une admissibilité \mathcal{T} et un espace de contraintes \mathfrak{C} ;
  • un opérateur de compatibilité \operatorname{Comp} choisi (classe/politique/paramètres déclarés) ;
  • couche probabiliste optionnelle : noyau P déclaré lorsque des énoncés stochastiques sont formulés.

Résultats (E).

  • reconstruction de la sélection comme filtrage induit par la compatibilité et la géométrie de ladmissible, sans optimisation ;
  • séparation explicite entre satisfaisabilité (\operatorname{Comp}_{\mathrm{sat}}) et choix (\operatorname{Comp}_{\mathrm{choice}}) ;
  • observables et tests de robustesse indexés par \Pi, \mu et P lorsque ces objets sont mobilisés.

Statut.

  • noyau ensembliste : couche [E] ; résultats mesurés/probabilistes : couches [M]/[P] indexées.

Introduction

Les chapitres précédents ont construit, sans hypothèse téléologique, une dynamique de formes reposant sur quatre ingrédients abstraits : un espace détats admissibles, une famille de transformations admissibles, une irréversibilité cumulée (au sens dune consommation non récupérable), et une transmission partielle décrite par des graphes orientés de filiation. Le chapitre 13 a ajouté un mécanisme de verrouillage des futurs : certaines structures, lorsquelles sénoncent comme contraintes actives, réduisent lensemble des trajectoires accessibles.

Le présent chapitre formalise la sélection structurelle comme un effet de filtrage induit par la compatibilité des contraintes, et non comme loptimisation dune fonction objectif. La sélection nest pas introduite comme une loi supplémentaire : elle est reconstruite comme une propriété émergente des dynamiques restreintes (par admissibilité, héritage, et verrouillage), dans des ensembles finis ou mesurables. Lordre de construction est : définitions, lemmes ensemblistes et probabilistes, puis une lecture conditionnelle minimale et une analyse philosophique.

Le résultat logique annoncé par le plan se formule ainsi : la sélection est géométrique, au sens où elle dépend principalement de la forme de lensemble admissible (volume, connectivité, bassins, spectre dun opérateur de transition) et non dune maximisation explicite.

Convention (statut probabiliste) Les énoncés ensemblistes de ce chapitre ne supposent aucun noyau de transition. Lorsque des conclusions probabilistes sont formulées (dominance, stationnarité/quasistationnarité, temps dabsorption, spectre dopérateurs), elles sont explicitement indexées par un noyau P fixé, et leur robustesse se teste par variation contrôlée de P dans une famille déclarée.

Cadre, notations et objets

Espace détats, transformations et atteignabilité

Soit X un ensemble détats (fini ou muni dune structure mesurable ou topologique). Soit \mathcal{T} une famille de transformations admissibles f : X \to X. Pour x\in X et n\in\mathbb{N}, lensemble des états atteignables en n étapes est :


\operatorname{Reach}_n(x)=\{ f_n\circ\cdots\circ f_1(x) : f_1,\ldots,f_n\in\mathcal{T}\}.

Le futur accessible est :


\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x).

Ces objets ont été introduits pour rendre explicite la dépendance de lévolution à lensemble des transformations admissibles, sans présupposer de métrique ni de finalité.

Contraintes, compatibilité et transformation restreinte

Soit \mathfrak{C} un ensemble de contraintes élémentaires. À toute collection K\subseteq\mathfrak{C}, on associe :

  • un ensemble admissible détats A(K)\subseteq X,
  • une relation admissible de transitions R(K)\subseteq X\times X,

avec monotonie par inclusion :


K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1).

Définition (compatibilité). Une collection K est dite compatible si A(K)\neq\varnothing et si R(K) autorise au moins une transition depuis A(K), cest-à-dire :


\exists x\in A(K),\ \exists y\in X,\ (x,y)\in R(K).

Cette définition est minimale : la compatibilité nest pas une propriété sémantique, seulement la non-contradiction opérationnelle.

Définition (transformations induites). La famille de transformations admissibles sous contraintes K est définie par :


\mathcal{T}(K)=\{ f\in\mathcal{T} : \forall x\in A(K),\ (x,f(x))\in R(K)\}.

Ainsi, les contraintes agissent comme un filtre sur \mathcal{T}.

Occurrences, graphes de filiation et transmission de contraintes

Le chapitre 12 a introduit un graphe orienté acyclique G=(V,E) (éventuellement enrichi en hyperarêtes), où chaque sommet v\in V représente une occurrence (un état situé dans une trajectoire), et chaque arête u\to v représente une relation dengendrement admissible.

On note x_v\in X létat associé au sommet v, et K_v\subseteq\mathfrak{C} la collection de contraintes portée par v (contraintes actives, héritées, ou produites par compatibilité).

Pour chaque arête e=(u\to v), on suppose donné un opérateur de transmission :


\tau_e:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}),

monotone pour linclusion. La mise en commun de contraintes lors dune collision (plusieurs parents) est suivie dun opérateur de compatibilité \operatorname{Comp} produisant une sous-collection compatible :


\widetilde{K}_v=\bigcup_{u\to v}\tau_{(u\to v)}(K_u),\qquad K_v \supseteq \operatorname{Comp}(\widetilde{K}_v).

Lopérateur \operatorname{Comp} noptimise rien : il réalise une fermeture par satisfaisabilité (éviter lensemble vide).

Remarque (compatibilité : satisfaisabilité vs choix) Selon linstanciation, \operatorname{Comp} peut se situer dans deux régimes conceptuellement distincts :

  • \operatorname{Comp}_{\mathrm{sat}} : maintien de satisfaisabilité sans préférence (suppression minimale de contradictions locales, ou règle déterminée).
  • \operatorname{Comp}_{\mathrm{choice}} : choix parmi plusieurs souscollections satisfaisables.

Dans le second cas, le critère de choix (sil existe) est déclaré et appartient à une classe non téléologique (coût de vérification, stabilité historique, localité, contraintes darchitecture). Un biais de compatibilité est un biais de sélection : sil existe, il est explicite et fait lobjet dun test de robustesse.

Discipline (statut des résultats) Dans la suite, lorsquun passage dépend de la classe de compatibilité (fermeture, réparation minimale, cohérence locale \operatorname{Comp}_r, choix), ou dune politique de choix, ou dun paramètre, cette dépendance est explicitement annoncée et lénoncé est indexé en conséquence (cf. chapitre 13, collisions et compatibilité).

Rejet de la téléologie et définition opérationnelle de la sélection

Rejet formel de loptimisation comme primitive

Définition (optimisation explicite). On dit quune dynamique introduit une optimisation explicite si elle suppose donnée une fonction U:X\to\mathbb{R} (ou U:S\to\mathbb{R} sur un espace de descriptions), et si les transitions admissibles sont sélectionnées en vue de maximiser U (localement ou globalement).

Le cadre de louvrage exclut une telle primitive. Les objets admis sont : admissibilité, compatibilité, transmission, consommation irréversible, verrouillage des futurs. Par construction, aucun U nest requis.

Définition ensembliste de la sélection comme filtrage

Définition (filtre de sélection). Soit \Omega lensemble des trajectoires candidates (au sens denchaînements de transformations dans \mathcal{T}) depuis un état initial x. Soit \mathcal{A}\subseteq\Omega lensemble des trajectoires admissibles au regard des contraintes actives (compatibilité locale, transitions autorisées, contraintes héritées).

La sélection ensembliste est lapplication :


\operatorname{Sel}:\Omega \mapsto \mathcal{A},

cest-à-dire la restriction de lensemble des trajectoires possibles aux trajectoires admissibles.

Cette définition ne produit pas une préférence ; elle produit une élimination.

Définition probabiliste (sélection comme conditionnement)

Pour comparer quantitativement des régimes, une mesure (ou probabilité) sur les trajectoires est pertinente.

Soit \mathbb{P} une loi a priori sur \Omega (issue, par exemple, dun choix stochastique de transformations dans \mathcal{T}, ou dun bruit sur les transitions). La sélection probabiliste est le conditionnement sur ladmissibilité :


\mathbb{P}_{\text{sel}}(\cdot)=\mathbb{P}(\cdot \mid \mathcal{A}).

Lorsque \mathbb{P}(\mathcal{A})=0, lensemble admissible est vide au sens probabiliste : il nexiste pas de trajectoire réalisable sous la loi considérée.

Dans ce formalisme, “sélection” signifie : renormalisation sur le sous-ensemble admissible.

Encadré (exploration vs sélection) Une dominance observée peut provenir du mécanisme dexploration (noyau P, politique dapplication des transformations, filtrage par ressource) plutôt que de la structure de lespace admissible. On distingue donc :

  • topologie du graphe datteignabilité : attracteurs, bassins, composantes fortement connexes, goulots ;
  • mécanisme dexploration : P (ou loi a priori sur \Omega), politiques et contraintes de ressource ;
  • test de robustesse : variation de P dans une famille \mathcal{P} déclarée, en vérifiant la stabilité qualitative des conclusions.

Sélection par compatibilité

Viabilité et compatibilité : une même notion à deux niveaux

Définition (viabilité locale). Un état x\in X est viable sous contraintes K si :


x\in A(K)\quad \text{et}\quad \exists f\in\mathcal{T}(K)\ \text{tel que}\ f(x)\in A(K').

Cette définition explicite quune compatibilité statique (être dans A(K)) nest pas suffisante : il faut aussi une possibilité de continuation.

Définition (chemin compatible). Une trajectoire x_0\to x_1\to\cdots\to x_n est compatible si, pour une suite de contraintes (K_t), on a :


x_t\in A(K_t),\quad (x_t,x_{t+1})\in R(K_t),\quad K_{t+1}\supseteq \operatorname{Comp}\Big(\bigcup \tau(K_t)\Big).

Ici, \tau désigne lensemble des transmissions actives à létape.

Lemmes de filtrage

Lemme (monotonie de la sélection en contrainte). Si K_1\subseteq K_2, alors lensemble des trajectoires compatibles sous K_2 est inclus dans celui sous K_1.

Démonstration. Par monotonie, A(K_2)\subseteq A(K_1) et R(K_2)\subseteq R(K_1), donc toute trajectoire satisfaisant les contraintes plus fortes satisfait aussi les contraintes plus faibles.

Conclusion : augmenter les contraintes ne peut quéliminer des trajectoires.

Lemme (compatibilité comme géométrie densemble). Dans un espace mesurable, la “force” dun filtre peut être mesurée par la diminution de mesure :


\Delta(K)=\mu(A(\varnothing))-\mu(A(K)).

Dans un espace fini, on remplace \mu par la cardinalité. La sélection, vue comme filtrage, se quantifie alors par une réduction de “volume” admissible.

La dépendance au volume et à la connectivité est une première manifestation du caractère géométrique.

Disparition des structures non transmissibles

Définition de transmissibilité

Définition (transmissibilité dune description). Soit \Pi:X\to S une projection vers un espace de descriptions S. Une description s\in S est transmissible si, pour toute occurrence v telle que \Pi(x_v)=s, il existe au moins un descendant w accessible depuis v dans le graphe de filiation, tel que \Pi(x_w)=s (ou appartienne à un voisinage fixé de s, si S est topologique).

Cette définition est structurelle : elle nutilise ni objectif ni récompense.

Définition (transmissibilité sous contraintes héritées). Une contrainte c\in\mathfrak{C} est transmissible le long dune arête e si c\in K\Rightarrow c\in \tau_e(K). Elle est transmissible sur un sous-graphe si elle est transmissible le long de toutes ses arêtes.

Proposition de disparition

Proposition (extinction en modèle probabiliste). Soit une dynamique stochastique sur un ensemble fini de classes S, modélisée par une matrice de transition P=(p_{ij}) avec p_{ij}\ge 0 et \sum_j p_{ij}=1. Soit B\subseteq S lensemble des classes compatibles et transmissibles (au sens où elles possèdent au moins une sortie dans B). Alors lensemble S\setminus B est transitoire au sens de Markov : la probabilité dy rester indéfiniment est nulle, et la masse finit par se concentrer sur les classes récurrentes incluses dans B.

Interprétation technique. Les classes non transmissibles nont pas de cycles internes ni de retours compatibles : elles ne peuvent pas porter de régime stationnaire. Leur “disparition” signifie : absence dans le support des mesures limites (stationnaires, quasi-stationnaires, ou limites conditionnées).

Cette proposition relève de la théorie standard des chaînes de Markov finies : classes transientes et récurrentes.

Régimes dominants

Pour parler de “dominance” sans optimisation, il faut une notion quantitative intrinsèque : la stabilité dune distribution de classes sous un opérateur de transition restreint.

Opérateur de transition restreint et Perron-Frobenius

Soit B\subseteq S lensemble des classes compatibles. On définit la matrice restreinte P_B en ne conservant que les transitions à lintérieur de B. Deux situations se présentent.

Cas sans absorption externe Si P_B est stochastique (chaque ligne somme à 1), alors une distribution stationnaire \pi satisfait :


\pi=\pi P_B,\qquad \sum_{i\in B}\pi_i=1,\quad \pi_i\ge 0.

Lorsque le sous-système est irréductible et apériodique (conditions standard), \pi est unique et décrit un régime dominant au sens probabiliste : la distribution des classes converge vers \pi indépendamment de létat initial (dans B).

Cas avec fuite (filtrage fort, verrouillage) Si des transitions sortent de B (événements incompatibles, consommation empêchant la continuation), la dynamique sur B peut être modélisée par une matrice sous-stochastique Q (lignes de somme \le 1). La théorie standard des distributions quasi-stationnaires montre quil existe des distributions \nu sur B telles que :


\nu Q = \lambda \nu,\qquad 0<\lambda<1,

\lambda est le taux de survie moyen par pas. La distribution \nu décrit un régime dominant conditionnel : conditionnellement au fait de ne pas être “éliminé” (sortie de B), la distribution des classes tend vers \nu.

Ce mécanisme nest pas une optimisation : la dominance est donnée par le spectre dun opérateur non négatif. Le rôle de Perron-Frobenius (spectre principal, vecteur propre positif) est ici strictement géométrique au sens des opérateurs.

Dominance et bassins

Dans un cadre déterministe, la dominance sexprime par les bassins dattraction : un attracteur est dominant si son bassin est “grand” (par mesure, par volume, ou par cardinalité). Dans un cadre stochastique, la dominance sexprime par la concentration de mesure sur un ensemble récurrent ou quasi-récurrent.

Dans les deux cas, la dominance dépend de la géométrie des régions admissibles et de leur connectivité sous transformations admissibles.

Stabilisation des contraintes

Définition de stabilisation (rappel)

Une contrainte c\in\mathfrak{C} est stabilisée le long dune lignée si, à partir dun rang, elle est présente dans toutes les occurrences ultérieures. Une collection K^\star est stabilisée si K^\star\subseteq K_v pour toutes les occurrences suffisamment tardives dune lignée.

Proposition de stabilisation par filtrage monotone

On suppose :

  • monotonie dhéritage : pour toute arête u\to v, \tau_{(u\to v)}(K_u)\subseteq K_v,
  • compatibilité non expansive : \operatorname{Comp}(K)\subseteq K,
  • verrouillage : lensemble des transitions admissibles se réduit le long des trajectoires (au sens du chapitre 13).

Alors, le long de toute trajectoire admissible, la suite (K_t) est croissante pour linclusion (ou, plus exactement, non décroissante après fermeture compatible), et donc admet une limite ensembliste :


K_\infty=\bigcup_{t\ge 0}K_t.

Dans le cas où \mathfrak{C} est fini (ou où seules un nombre fini de contraintes sont activables à résolution finie), la stabilisation se produit en un temps fini : il existe T tel que K_t=K_T pour tout t\ge T. Dans un cadre infini, la stabilisation peut être asymptotique.

Ce résultat est une propriété combinatoire demboîtement : il na pas besoin dune fonction objectif.

Sens précis de “la sélection est géométrique”

La formule “géométrique” peut être rendue non métaphorique par trois critères complémentaires.

Niveaux et dépendances (mesure et noyau)

On distinguera trois niveaux compatibles.

Niveau 1 — sélection ensembliste (invariant minimal) Elle porte sur lexistence densembles invariants, de bassins non vides et, en version Markov, sur la décomposition récurrent/transient. Ce niveau ne dépend ni dune mesure de référence ni dun noyau probabiliste.

Niveau 2 — sélection mesurée (indexée par \mu) Elle quantifie la dominance (taille de bassins, volumes atteignables) relativement à une mesure \mu sur X (ou sur un quotient). Toute comparaison quantitative doit préciser \mu.

Niveau 3 — sélection stochastique/opératorielle (indexée par P) Elle définit la dominance via un noyau de transition P (ou, de façon équivalente, via une loi a priori explicite sur les trajectoires), à travers stationnarité/quasistationnarité, temps dabsorption et spectre dopérateurs non négatifs. Toute conclusion spectrale est relative à P.

Statut (robustesse) Les conclusions des niveaux 23 acquièrent un statut robuste lorsquelles persistent sous variations contrôlées de \mu, de projection \Pi et de noyau P dans une classe non téléologique déclarée.

Observables (avec statut dindexation)

  • Observables structurelles (invariantes) : existence densembles invariants/attracteurs ensemblistes, composantes fortement connexes atteignables, goulots, fragmentation.
  • Observables mesurées (indexées par \mu) : volumes de bassins, densités atteignables, D_{\mu}(S) ou variantes.
  • Observables stochastiques (indexées par P) : temps dabsorption, poids stationnaire/quasistationnaire, spectre dominant (quand défini).

Chaque observable porte explicitement son indexation : sans \mu ou sans P, elle na pas de statut quantitatif.

Critère ensembliste

La sélection dépend densembles admissibles A(K) et de relations admissibles R(K). Deux systèmes ayant même couple (A,R) (à isomorphisme près) induisent les mêmes filtrages de trajectoires, indépendamment de toute interprétation.

Critère métrique ou de mesure

Dans un espace muni dune mesure \mu, lintensité de la sélection se lit comme réduction de mesure des ensembles atteignables :


\mu(\mathcal{F}_{\mathcal{T}(K)}(x)) \le \mu(\mathcal{F}_{\mathcal{T}}(x)).

Dans un espace fini, le même énoncé vaut pour les cardinalités.

Critère spectral

Dans un modèle probabiliste sur classes, les régimes dominants sont déterminés par le spectre dun opérateur non négatif (matrice de transition restreinte, opérateur de transfert). La “préférence” apparente est alors une propriété du vecteur propre principal, qui dépend de la structure du graphe des transitions et des poids, non dune maximisation explicite.

Ces trois critères sont cohérents : ensemble admissible, volume accessible, et spectre principal sont trois expressions dune même dépendance à la forme des contraintes.

Portée minimale (lecture conditionnelle)

Une dynamique de transformations admissibles, soumise à des contraintes héritées et à une consommation irréversible, produit une sélection structurelle dès quelle élimine des trajectoires incompatibles. La sélection ne requiert ni intention, ni objectif, ni notion de bénéfice : elle est leffet dun espace de possibles restreint, dans lequel seules certaines structures sont transmissibles et stabilisables.

La conséquence minimale est la suivante : dès que la transmission est possible, lespace des lignées se stratifie en sous-graphes de persistance et sous-graphes dextinction. Les régimes dominants sont ceux qui correspondent à des sous-graphes fortement connectés, à de grands bassins, ou à un spectre principal favorable, selon le régime (déterministe, stochastique, ou mixte).

Analyse philosophique

Le terme “sélection” est souvent associé à une lecture finaliste (comme si une entité choisissait). Le cadre présent le rend superflu : la sélection est un filtrage imposé par la compatibilité et la transmissibilité.

Trois confusions récurrentes sont évitées par construction.

Confusion entre sélection et optimisation La sélection, ici, naméliore rien : elle restreint. Toute “amélioration” apparente nest quun effet secondaire dun filtrage répétitif.

Confusion entre stabilité et valeur Un régime dominant nest pas “meilleur” : il est stable, fréquent, ou spectralement prépondérant sous des contraintes données.

Confusion entre explication et justification Décrire pourquoi certaines structures persistent nimplique aucune justification normative de cette persistance. Le chapitre ne produit ni devoir-être, ni hiérarchie axiologique.

La sélection structurelle sans optimisation constitue ainsi une catégorie logique : elle explique des distributions et des dominances comme conséquences dune géométrie de contraintes, sans introduire de finalité dans les primitives.

Conclusion

La sélection structurelle a été reconstruite comme un mécanisme de filtrage et de conditionnement imposé par la compatibilité, lhéritage et le verrouillage des futurs. Les structures non transmissibles disparaissent au sens strict : elles ne peuvent pas appartenir au support des mesures limites ni aux composantes récurrentes des dynamiques restreintes. Les régimes dominants sont déterminés par des propriétés géométriques (bassins, connectivité, volume admissible) et, dans les modèles probabilistes, par le spectre dopérateurs non négatifs.

Ainsi, la formule “la sélection est géométrique” admet un contenu précis : la sélection dépend de la forme des ensembles et des graphes dadmissibilité, non de loptimisation dun objectif.


Chapitre 15 — Structures contraignant leur propre évolution

Hypothèses et résultats (repères)

Hypothèses (H).

  • passage à un espace étendu Y=X\times\mathcal{P}(\mathfrak{C}) et règle dactualisation \Phi posée comme paramètre de modèle ;
  • opérateur \operatorname{Comp} et admissibilité \mathcal{T}(K) déclarés (classe et paramètres annoncés) ;
  • stabilisation : régimes et paquets dhypothèses (H22PF/TR/RB/CT) explicités lorsque revendiqués.

Résultats (E).

  • définition dautostabilisation non réflexive via boucles de contraintes (points fixes/cycles) ;
  • taxonomie des régimes de stabilisation (S1/S2/S3) et dépendances locales ;
  • définition de quasiinvariance et de limites de transformation comme invariants dintersection/conditionnement.

Statut.

  • noyau ensembliste pour les définitions/implications ; quantifications et conclusions probabilistes seulement sous indexation déclarée.

Introduction

Les chapitres précédents ont établi un cadre où lévolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes déquivalence, transmission partielle (graphe orienté de filiation) et, plus récemment, sélection structurelle comme filtrage par compatibilité. Le chapitre 13 a formalisé le verrouillage des futurs comme réduction monotone de latteignabilité, et le chapitre 14 a reformulé la sélection comme effet géométrique (volume, connectivité, spectre dun opérateur restreint) sans optimisation.

Le présent chapitre introduit un seuil logique : certaines structures ne se contentent pas de persister sous contrainte ; leur présence induit des contraintes qui restreignent ensuite lespace de leurs propres transformations futures. Il sagit dune auto-stabilisation non réflexive : aucune boucle de décision nest postulée, seulement des boucles formelles entre description, admissibilité et contraintes héritées.

On définit :

  • lespace étendu où les contraintes deviennent des variables détat,
  • les boucles de contraintes comme propriétés dun opérateur dactualisation,
  • les régimes quasi-invariants comme invariance asymptotique ou conditionnelle,
  • les limites de transformation comme intersections de familles admissibles,
  • les niveaux dorganisation comme tours de quotients stabilisés.

Cadre et notations

Espace détats et transformations admissibles

Soit X un ensemble détats, fini ou muni dune structure mesurable ou topologique. Soit \mathcal{T} une famille de transformations admissibles f:X\to X (temps discret). Pour x\in X, le futur accessible (atteignabilité) est :


\mathcal{F}_{\mathcal{T}}(x)=\bigcup_{n\ge 0}\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}.

Contraintes élémentaires et familles induites

Soit \mathfrak{C} un ensemble de contraintes élémentaires. À toute collection K\subseteq\mathfrak{C}, on associe :

  • un ensemble admissible détats A(K)\subseteq X,
  • une relation admissible de transitions R(K)\subseteq X\times X,

avec monotonie :


K_1\subseteq K_2 \Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1).

On définit la famille de transformations admissibles induite par K :


\mathcal{T}(K)=\{f\in\mathcal{T}: \forall x\in A(K),\ (x,f(x))\in R(K)\}.

Une collection K est dite compatible si A(K)\neq\varnothing et si au moins une transition est réalisable depuis A(K) :


\exists x\in A(K),\ \exists y\in X,\ (x,y)\in R(K).

Pour éliminer les contradictions, on suppose donné un opérateur de compatibilité :


\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}),

tel que \operatorname{Comp}(K)\subseteq K, et \operatorname{Comp}(K) soit compatible dès que cela est possible (au sens où il existe une sous-collection compatible). Cette définition est minimale : aucune optimalité nest requise, seulement la satisfaisabilité.

Remarque (calculabilité et coût de satisfaisabilité) Le rôle de \operatorname{Comp} est de maintenir une forme de satisfaisabilité : lexistence dune souscollection compatible. Selon linstanciation des contraintes, décider ou construire une telle souscollection peut être coûteux, voire indécidable ; ce point doit être assumé comme hypothèse, et non traité comme un détail “gratuit”.

Deux statuts doivent donc être distingués :

  • statut fort : on suppose un prédicat global de satisfaisabilité \mathrm{Sat}(K) effectif, et \operatorname{Comp} garantissant \mathrm{Sat}(\operatorname{Comp}(K)) lorsquune souscollection compatible existe ;
  • statut faible : on remplace \mathrm{Sat} par une cohérence locale \mathrm{Sat}_r et \operatorname{Comp} par une approximation \operatorname{Comp}_r, sans garantie générale (les conclusions deviennent conditionnelles à lapproximation).

Ce changement de statut affecte directement les garanties de points fixes, la robustesse et lexistence de régions piégées (selon les hypothèses retenues plus loin).

Discipline (classe et paramètres) Lorsque lon raisonne en régime de fermeture/point fixe, la monotonie/idempotence requises situent \operatorname{Comp} dans une classe de fermeture \mathcal{C}_{\mathrm{closure}} (ou, plus généralement, exigent la monotonie de lopérateur global de mise à jour). Lorsque lon travaille avec une cohérence locale \mathrm{Sat}_r, la dépendance au paramètre r est traitée comme une famille (\operatorname{Comp}_r)_r : les énoncés sont soit robustes sur un intervalle de r, soit explicitement indexés.

Description structurelle

Soit \Pi:X\to S une application de description vers un espace S (ensemble fini, espace mesurable, ou espace topologique). Une « structure » sera ici une valeur s\in S ou une cellule \Pi^{-1}(s)\subseteq X. Les niveaux dorganisation seront traités plus loin comme des compositions de telles descriptions.

Auto-stabilisation non réflexive

Espace étendu des états et des contraintes

Le verrouillage des futurs et lhéritage de contraintes montrent que lévolution effective dépend non seulement de x\in X, mais aussi dun registre de contraintes actives. On définit donc lespace étendu :


Y = X \times \mathcal{P}(\mathfrak{C}).

Un élément y=(x,K)\in Y encode un état x et une collection K de contraintes actives.

Règle dactualisation des contraintes

Lactualisation des contraintes est posée comme un objet explicite, indépendant de leffet observé.

Statut (paramètre de modèle). La règle \Phi est un choix de modélisation : les énoncés sur autostabilisation sont conditionnels à sa classe (monotonie, localité, bornes de capacité, etc.). Une \Phi ajustée a posteriori pour activer précisément les contraintes qui renforcent un phénomène ne confère pas à ce phénomène un statut générique.

Définition (règle dactualisation). Une règle dactualisation est une application


\Phi: Y \to \mathcal{P}(\mathfrak{C})

telle que, pour tout (x,K), la collection mise à jour soit :


K^+ = \operatorname{Comp}(K \cup \Phi(x,K)).

Interprétation technique. \Phi(x,K) représente lensemble des contraintes nouvellement activées par la situation (x,K) : consommation irréversible cumulée, incompatibilités révélées par transitions réalisées, contraintes héritées dun graphe de filiation, ou activation endogène par entrée dans un régime invariant. Le formalisme ne présuppose pas la nature de ces mécanismes : il exige seulement que \Phi soit donné avant lanalyse.

Dynamique augmentée

On suppose que lévolution de x dépend de K par restriction de la famille de transformations. Deux cas, exhaustifs dans ce cadre, sont utiles.

Cas déterministe conditionné (choix de transformation fixé). On fixe un sélecteur \sigma:Y\to \mathcal{T} tel que \sigma(x,K)\in \mathcal{T}(K) lorsque cela est possible, et on définit :


x^+ = \sigma(x,K)(x),\qquad K^+ = \operatorname{Comp}(K\cup\Phi(x,K)).

Cas stochastique conditionné (loi sur les transformations). On fixe une loi \mathbb{P}(\cdot\mid x,K) supportée sur \mathcal{T}(K), puis x^+=f(x) avec f\sim \mathbb{P}(\cdot\mid x,K), et K^+ comme ci-dessus.

Dans les deux cas, on obtient une dynamique sur Y :


\Psi:Y\to Y,\qquad \Psi(x,K)=(x^+,K^+).

Définition dauto-stabilisation non réflexive

Définition (auto-stabilisation). Une description s\in S est dite auto-stabilisante (non réflexive) sil existe une collection K_s\subseteq\mathfrak{C} compatible et un ensemble non négligeable B_s\subseteq \Pi^{-1}(s) tels que, pour tout x\in B_s, en posant K_0=K_s, la dynamique augmentée vérifie :

  1. persistance descriptive :
    
    \Pi(x_t)=s\ \text{pour tout } t\ge 0;
    
  2. stabilité des contraintes (au moins au sens de la limite) :
    
    K_s \subseteq K_t\ \text{pour tout } t,\quad \text{et}\quad \exists K_\infty\ \text{tel que}\ K_t\uparrow K_\infty;
    
  3. activité : la restriction est effective, cest-à-dire
    
    \mathcal{F}_{\mathcal{T}(K_s)}(x) \subsetneq \mathcal{F}_{\mathcal{T}}(x).
    

Remarques.

  • La condition K_t\uparrow K_\infty est entendue au sens dinclusion non décroissante (éventuellement après application de \operatorname{Comp}).
  • La persistance peut être remplacée par une quasi-persistance (définie plus loin) lorsque des fuites rares ou un bruit sont présents.
  • Aucune intention nest postulée : la stabilité est un fait de fermeture de la dynamique dans Y.

Critères observables (testabilité)

Sans critères observables explicites, lauto-stabilisation reste difficile à falsifier. Dans une instanciation donnée, on évalue donc au minimum :

  • invariance dune région U\subseteq Y : proposer U et tester \Psi(U)\subseteq U (région piégée) ;
  • régime du registre K_t : convergence vers un point fixe, ou apparition dun cycle/quasicycle (selon un critère et une distance déclarés sur lespace des contraintes) ;
  • effet sur le futur accessible : vérifier un verrouillage strict (ensembliste ou quantifié) entre \mathcal{F}_{\mathcal{T}}(x) et \mathcal{F}_{\mathcal{T}(K)}(x).

Boucles de contraintes

Boucle comme point fixe (cas monotone)

Lorsque lactualisation est monotone (activation cumulée), la notion de boucle pertinente est le point fixe.

Définition (point fixe de contrainte). Une collection K^\star\subseteq\mathfrak{C} est un point fixe de la mise à jour si, pour un ensemble E\subseteq X,


\forall x\in E,\quad \operatorname{Comp}(K^\star\cup\Phi(x,K^\star))=K^\star.

Dans ce cas, la contrainte est stabilisée : aucune nouvelle contrainte ne peut être activée (dans E) sans contradiction.

Proposition (existence en cas fini de contraintes). Si |\mathfrak{C}|<\infty et si la suite (K_t) est non décroissante pour linclusion, alors elle se stabilise en temps fini : il existe T tel que K_t=K_T pour tout t\ge T.

Démonstration.

  • Paramètre : |\mathfrak{C}|=M.
  • Chaque étape peut ajouter au moins une contrainte nouvelle ou stabiliser.
  • Le nombre maximal dajouts stricts est M.
  • Donc au plus M étapes strictement croissantes ; au-delà, stabilisation. Conclusion : il existe T\le M tel que K_T=K_{T+1}=\cdots.

Cette proposition est combinatoire et ne dépend daucune interprétation.

Cas infini : existence par points fixes sur treillis (Tarski)

La stabilisation en temps fini repose sur la finitude de \mathfrak{C}. Dans un cadre infini, lexistence de points fixes devient un résultat non trivial qui peut être garanti sous hypothèses dordre.

On munit \mathcal{P}(\mathfrak{C}) de lordre par inclusion, ce qui en fait un treillis complet. Soit F:\mathcal{P}(\mathfrak{C})\to \mathcal{P}(\mathfrak{C}) un opérateur de mise à jour de contraintes (opérateur « effectif » dactualisation, obtenu en fixant un régime dévolution). Si F est monotone, alors il admet des points fixes ; plus précisément, F admet un plus petit et un plus grand point fixe (théorème de Tarski).

Dans le cas cumulatif K\subseteq F(K) (activation sans relâchement), litération K_{t+1}=F(K_t) depuis \varnothing construit le plus petit point fixe, ce qui justifie lusage de « points fixes » comme notion structurante même lorsque \mathfrak{C} est infini.

Régions piégées dans lespace étendu Y (attracteurs de second ordre)

La notion de point fixe de contraintes décrit une stabilisation de K. Une stabilisation complète de la paire (x,K) sexprime naturellement par une région piégée dans Y.

Définition (région piégée). Un ensemble U\subseteq Y est une région piégée si \Psi(U)\subseteq U.

Si Y est fini (ou, plus généralement, si U est non vide compact dans un cadre topologique où \Psi est continue), lintersection décroissante


A=\bigcap_{n\ge 0}\Psi^{(n)}(U)

est non vide et invariante. Elle décrit un attracteur de second ordre dans Y : un régime stable pour létat et les contraintes.

Boucles non monotones (cas avec relâchement)

Si \operatorname{Comp} ou \Phi peut retirer des contraintes (par incompatibilité révélée, changement de régime, bascule de réalisation microscopique), alors des cycles K_0\to K_1\to\cdots\to K_0 deviennent possibles.

Définition (cycle de contraintes). Une suite finie distincte (K_0,\ldots,K_{p-1}) est un cycle si


K_{t+1}=\operatorname{Comp}(K_t\cup\Phi(x_t,K_t)),\quad K_p=K_0,

pour une trajectoire (x_t).

Dans le cadre présent, on ne postule pas lexistence de tels cycles ; on les traite comme un cas possible lorsque lactualisation nest pas monotone.

Détection, statut et interprétation. Un cycle se détecte par simulation de la mise à jour (sur Y, ou sur K lorsquelle est fermée), en recherchant un p>1 tel que K_{t+p}=K_t après un transitoire. Sans hypothèses de monotonie, ce régime a un statut faible : observation conditionnelle à linstanciation et au protocole dexploration. Un cycle de contraintes correspond alors à une stabilisation non ponctuelle mais récurrente : la restriction imposée au futur est périodique plutôt que fixe.

Hypothèses et régimes de stabilisation (paquets H22)

Paquets dhypothèses standard

On note \mathcal{K}=\mathcal{P}(\mathfrak{C}) lespace des registres de contraintes.

H22PF (point fixe, ordre/monotonie)

  • \mathcal{K} est un treillis complet (ordre par inclusion).
  • lopérateur global de mise à jour F:\mathcal{K}\to\mathcal{K} est monotone (isotone).
  • si F est construit à partir de \operatorname{Comp}, alors \operatorname{Comp} est monotone et compatible au sens déclaré (chapitre 13, collisions et compatibilité).
  • optionnel : idempotence/extensivité lorsque lon raisonne en logique de fermeture.

Conclusion typique : existence dau moins un point fixe (Tarski) et, dans certains cadres, calculabilité par itération.

H22TR (région piégée en espace étendu)

  • espace étendu Y=X\times\mathcal{K}.
  • existence dun ensemble U\subseteq Y tel que \Psi(U)\subseteq U.

Conclusion typique : lévolution (x_t,K_t) reste dans un domaine contrôlé, condition de possibilité pour parler de stabilisation ou de récurrence sans “fuite”.

H22RB (robustesse sous perturbations/approximations)

  • variations contrôlées de \operatorname{Comp} ou de \Phi (familles déclarées), ou
  • cohérence locale \mathrm{Sat}_r et opérateur \operatorname{Comp}_r monotone, avec statut déclaré.

Conclusion typique : stabilité qualitative des diagnostics sous ces variations (sinon, propriété dépendante dinstanciation).

H22CT (contraction/vitesse, si revendiquée)

  • existence dune distance d_{\mathcal{K}} sur \mathcal{K}.
  • contraction locale dune application de mise à jour dans d_{\mathcal{K}}, avec un facteur q<1.

Conclusion typique : vitesse de convergence contrôlée.

Taxonomie des régimes de stabilisation

Régime S1 (point fixe / limite en inclusion)

  • applicable lorsque la mise à jour est monotone (H22PF) ; souvent combiné avec un piégeage (H22TR).
  • le registre converge vers un point fixe K^\star ou se stabilise au sens dune limite en inclusion.

Régime S2 (cycle / invariant non ponctuel)

  • applicable lorsque la monotonie échoue ou lorsque des relâchements/substitutions sont possibles.
  • K_t peut entrer dans un cycle K_{t+p}=K_t ; lobjet invariant pertinent est alors une orbite périodique (ou un ensemble invariant), pas un point fixe.

Régime S3 (quasistationnaire / métastable)

  • applicable lorsque linvariance est seulement conditionnelle ou approximative (bruit, fuite rare, réduction dobservable).
  • la “stabilisation” est alors un phénomène à statut faible : persistance sur un horizon long, dépendante de paramètres, de ressources ou de granularité.

Règle de vocabulaire : on nemploie pas “stabilisation” sans préciser S1/S2/S3.

Table locale de dépendances (stabilisation → hypothèses)

  • Stabilisation S1 : dépend de H22PF (et souvent H22TR).
  • Existence de région autostabilisante : dépend de H22TR + (S1 ou S2).
  • Vitesse de stabilisation : dépend de H22CT (si revendiquée).
  • Robustesse des conclusions de stabilisation : dépend de H22RB.

Régimes quasi-invariants

La persistance stricte (invariance) est trop forte dès quun bruit, une réduction dobservable, ou une fuite rare est admise. Une notion standard est alors linvariance approximative ou conditionnelle.

Quasi-invariance ensembliste (déterministe)

Définition (ensemble quasi-invariant). Soit F:X\to X une dynamique déterministe. Un ensemble B\subseteq X est quasi-invariant à tolérance \varepsilon sur un horizon n si


\#\{x\in B : F^n(x)\notin B\}\ \le\ \varepsilon\,\#B

dans un cadre fini, ou


\mu(\{x\in B : F^n(x)\notin B\})\ \le\ \varepsilon\,\mu(B)

dans un cadre mesurable.

Cette définition est exhaustive au regard du choix dun critère de fuite : cardinalité (fini) ou mesure (mesurable).

Quasi-stationnarité (stochastique avec fuite)

Dans un modèle de transitions sur un ensemble B avec fuite (matrice sous-stochastique Q), une distribution quasi-stationnaire \nu satisfait


\nu Q = \lambda\,\nu,\qquad 0<\lambda<1,

et décrit un régime stable conditionnellement à la non-sortie de B. Ce résultat est standard : il formalise des régimes “persistants sous condition” sans invariance stricte.

Quasi-invariance dans lespace étendu Y

Dans Y=X\times\mathcal{P}(\mathfrak{C}), un régime quasi-invariant peut concerner :

  • la description s=\Pi(x),
  • les contraintes K,
  • ou la paire (s,K).

Définition (quasi-invariance de paire). Un ensemble D\subseteq S\times\mathcal{P}(\mathfrak{C}) est quasi-invariant si, à partir dune mesure initiale supportée sur D, la probabilité (ou mesure) de sortie de D reste inférieure à un seuil \varepsilon sur lhorizon considéré.

Cela permet de traiter les « régimes quasi-invariants » du plan comme objets mathématiques, sans vocabulaire substantiel.

Limites de transformation

Le verrouillage des futurs peut être lu comme une diminution de lensemble des transformations effectivement utilisables. Cette diminution peut stabiliser et définir des limites.

Intersection limite des familles admissibles

Pour une trajectoire (x_t,K_t), on définit la famille admissible à linstant t :


\mathcal{T}_t=\mathcal{T}(K_t).

Dans le cas monotone K_{t+1}\supseteq K_t, on a \mathcal{T}_{t+1}\subseteq \mathcal{T}_t. On définit alors la limite :


\mathcal{T}_\infty = \bigcap_{t\ge 0} \mathcal{T}_t.

Définition (limite de transformation). On appelle limite de transformation lensemble \mathcal{T}_\infty, interprété comme le résidu des transformations compatibles avec les contraintes stabilisées.

Propriété (stabilisation en cas fini de contraintes). Si |\mathfrak{C}|<\infty et si K_t stabilise à K_T, alors \mathcal{T}_\infty=\mathcal{T}(K_T) et la limite est atteinte en temps fini.

Limite par observable (frontière effective)

Si lanalyse porte sur une description s=\Pi(x), la limite de transformation peut être relative : des transformations distinctes au niveau de X peuvent être indiscernables au niveau de S. On définit alors la famille effective sur S :


\mathcal{G}_t(s)=\{\Pi(f(x)) : x\in \Pi^{-1}(s),\ f\in \mathcal{T}_t\}.

Une frontière effective apparaît lorsque \mathcal{G}_t(s) se stabilise alors que \mathcal{T}_t continue de se réduire à léchelle microscopique. Cela formalise une limite de transformation au niveau descriptif.

Niveaux dorganisation

Le plan annonce des niveaux dorganisation. Dans le cadre présent, ils sont traités comme une hiérarchie de descriptions (coarse-grainings) stabilisées, sans sémantique.

Hiérarchie de descriptions

Définition (tour de descriptions). Une tour de descriptions est une suite


X \xrightarrow{\Pi_1} S_1 \xrightarrow{\Pi_2} S_2 \xrightarrow{\Pi_3} \cdots \xrightarrow{\Pi_m} S_m,

où chaque \Pi_{k+1}:S_k\to S_{k+1} est une réduction (quotient, projection, agrégation). On note \Pi^{(k)}=\Pi_k\circ\cdots\circ\Pi_1 : X\to S_k.

Cette liste de transformations est exhaustive au regard du mécanisme considéré : toute hiérarchie dobservables est une composition de réductions.

Niveau comme description autonome (approximation de fermeture)

Un niveau S_k est dit quasi-autonome si la dynamique induite sur S_k est approximativement fermée, au sens suivant.

Définition (fermeture approximative). Il existe une application G_k:S_k\to S_k telle que


\Pi^{(k)}\circ F \approx G_k\circ \Pi^{(k)},

\approx signifie égalité sauf sur un ensemble de mesure au plus \varepsilon, ou en probabilité au moins 1-\varepsilon, selon le cadre.

Ce critère est standard : il formalise quune description est suffisante pour prédire sa propre évolution à une tolérance fixée.

Relation avec auto-stabilisation et verrouillage

Lorsque (\Pi^{(k)}(x_t),K_t) est quasi-invariant et que K_t se stabilise, le niveau S_k devient un niveau dorganisation effectif : la description est stable, et les transformations futures sont confinées dans une sous-dynamique.

Proposition (niveau comme condition de possibilité). Si un niveau S_k est quasi-autonome et si les contraintes associées se stabilisent vers K_\infty, alors lensemble des futurs descriptifs accessibles depuis une description initiale s\in S_k est contenu dans un sous-ensemble strict \mathcal{F}_{S_k}(s)\subsetneq S_k, dès que la contrainte est active.

Cette proposition reformule, au niveau des descriptions, le verrouillage des futurs : la structure décrite ne se contente pas de persister, elle restreint les descriptions futures possibles.

Portée minimale (lecture conditionnelle)

Dans un cadre formel où :

  • certaines descriptions s=\Pi(x) sont transmissibles,
  • les contraintes se cumulent ou se stabilisent,
  • la dynamique est restreinte par compatibilité et héritage,

il existe des structures qui deviennent des conditions de possibilité : leur maintien impose des restrictions sur les transformations futures, et ces restrictions favorisent la persistance de la description (ou de sa classe), tout en rendant inaccessibles des régions entières de lespace des possibles.

Le contenu est modal : il concerne des ensembles détats atteignables et des futurs accessibles, non des finalités.

Analyse philosophique

Trois distinctions permettent déviter lambiguïté.

Condition de possibilité versus cause Une cause est un événement situé dans une trajectoire. Une condition de possibilité est une restriction durable sur lensemble des trajectoires admissibles. Le chapitre traite des secondes.

Stabilité versus identité Lauto-stabilisation formalisée ici porte sur une description et un registre de contraintes, non sur la conservation dun individu. La stabilité est une propriété dorbite dans lespace étendu Y.

Futur possible versus futur réalisé Le verrouillage concerne lensemble des futurs accessibles ; il ne sélectionne pas une trajectoire unique. La distinction entre “impossible” et “non réalisé” est ici mathématique : limpossible correspond à labsence datteignabilité sous les transformations admissibles.

Conclusion

Le chapitre a défini un mécanisme dauto-stabilisation non réflexive en introduisant lespace étendu Y=X\times\mathcal{P}(\mathfrak{C}) et une règle explicite dactualisation des contraintes. Les boucles de contraintes ont été traitées comme points fixes (cas monotone) ou cycles (cas non monotone). Les régimes quasi-invariants ont été définis en versions ensembliste et probabiliste, et les limites de transformation ont été formalisées par intersection densembles admissibles. Enfin, les niveaux dorganisation ont été introduits comme tours de descriptions quasi-autonomes, stabilisées par verrouillage.

Il sensuit : certaines structures deviennent des conditions de possibilité, car elles restreignent durablement lespace de leurs propres transformations futures, sans quaucune optimisation ni finalité ne soit postulée.


Chapitre 16 — Interprétation épistémique minimale

Hypothèses et résultats (repères)

Hypothèses (H).

  • fermeture prédictive sur létat étendu Y (Markovianité au niveau complet (x,K)) ;
  • lecture sur observable partielle : projection \Pi déclarée, avec statut (dépendant/robuste) explicite ;
  • couche probabiliste optionnelle : noyau P déclaré lorsquon parle de lois conditionnelles du futur.

Résultats (E).

  • définition de la connaissance comme classe déquivalence prédictive (ensembliste/probabiliste) ou comme résidu de contraintes stabilisées transmissibles ;
  • critère de stabilité sous changements de description (raffinement/coarsening) lorsque une robustesse est revendiquée ;
  • correspondances interdisciplinaires annoncées comme dictionnaire, sans rétroinférence vers le noyau.

Statut.

  • noyau ensembliste (classes/futurs) ; couche [P] uniquement si P est déclaré ; ponts énergétiques annoncés comme optionnels et indexés.

Introduction

Les chapitres précédents ont construit un cadre où lévolution est définie par des transformations admissibles, restreintes par des contraintes actives, avec non-injectivité, classes déquivalence, transmission partielle sur graphes orientés, verrouillage des futurs, sélection structurelle sans optimisation et, enfin, auto-stabilisation non réflexive dans lespace étendu étatscontraintes.

Le présent chapitre introduit tardivement le terme « connaissance ». La connaissance doit être dérivée comme un résidu nécessaire de la dynamique déjà formalisée. Le chapitre vise une interprétation épistémique minimale, compatible avec des disciplines différentes, sans supposer un sujet, ni une sémantique, ni une finalité.

On obtient :

  • des trajectoires différentes deviennent indistinguables pour le futur dès lors quelles induisent le même futur accessible (ou la même loi du futur) ;
  • lobjet qui capture cette indistinguabilité est une classe déquivalence sur les histoires ;
  • lorsquune collection de contraintes se stabilise et se transmet, elle réalise une compression opérationnelle des histoires en un objet prédictif, au sens où elle suffit à déterminer lensemble des futurs admissibles.

La connaissance, dans ce sens minimal, est ce qui reste dune histoire lorsquon ne conserve que ce qui contraint encore le futur.

Politique lexicale (statut du mot « connaissance »)

Dans ce chapitre, « connaissance » est un alias tardif entièrement défini par les constructions qui suivent. Il peut être remplacé sans perte par :

  • « classe déquivalence prédictive » (définie par futur accessible / loi de futur) ;
  • ou « registre de contraintes stabilisées transmissibles » (défini par K, \Phi, \operatorname{Comp} et la filiation).

Les lectures cognitives, biologiques, physiques ou computationnelles, lorsquelles sont proposées, sont explicitement signalées comme interprétations optionnelles indexées par leurs hypothèses dinstanciation ; elles naltèrent pas le noyau minimal.

Cadre et notations

États, transformations et futur accessible

Soit X un ensemble détats (fini ou muni dune structure mesurable ou topologique). Soit \mathcal{T} un ensemble de transformations admissibles f:X\to X.

Pour x\in X et n\in\mathbb{N}, lensemble atteignable en n étapes est :


\operatorname{Reach}_n(x)=\{f_n\circ\cdots\circ f_1(x): f_1,\ldots,f_n\in\mathcal{T}\}.

Le futur accessible (atteignabilité à horizon fini quelconque) est :


\mathcal{F}(x)=\bigcup_{n\ge 0}\operatorname{Reach}_n(x).

Contraintes et dynamique conditionnée

Soit \mathfrak{C} un ensemble de contraintes élémentaires. À toute collection K\subseteq\mathfrak{C}, on associe :

  • un ensemble admissible A(K)\subseteq X,
  • une relation admissible R(K)\subseteq X\times X,

avec monotonie par inclusion :


K_1\subseteq K_2\Rightarrow A(K_2)\subseteq A(K_1),\qquad R(K_2)\subseteq R(K_1).

La famille de transformations admissibles induite par K est :


\mathcal{T}(K)=\{f\in\mathcal{T}:\forall x\in A(K),\ (x,f(x))\in R(K)\}.

Un opérateur de compatibilité \operatorname{Comp} est supposé donné :


\operatorname{Comp}:\mathcal{P}(\mathfrak{C})\to\mathcal{P}(\mathfrak{C}),

tel que \operatorname{Comp}(K)\subseteq K, et tel que \operatorname{Comp}(K) soit compatible dès lors quune sous-collection compatible existe. Cette définition ne contient aucune optimisation : il sagit uniquement déviter la contradiction opérationnelle.

Espace étendu et actualisation des contraintes

Comme au chapitre 15, on introduit lespace étendu :


Y=X\times \mathcal{P}(\mathfrak{C}),

dont un élément y=(x,K) encode un état et ses contraintes actives.

On suppose donnée une règle dactualisation :


\Phi:Y\to \mathcal{P}(\mathfrak{C}),

et une mise à jour :


K^+=\operatorname{Comp}(K\cup \Phi(x,K)).

Lévolution de x dépend de K via une restriction de \mathcal{T}. Dans une version stochastique (commode pour lénoncé dobjets prédictifs), on suppose une loi conditionnelle \mathbb{P}(\cdot\mid x,K) supportée sur \mathcal{T}(K).

La dynamique est alors :


(x_{t+1},K_{t+1})=\Psi(x_t,K_t),

\Psi résume le mécanisme « choisir une transformation admissible sous K_t, lappliquer, puis actualiser K ».

Histoires et futurs

On note une histoire (temps discret) :


h_t=(x_0,x_1,\ldots,x_t),

ou, dans lespace étendu :


\tilde{h}_t=((x_0,K_0),(x_1,K_1),\ldots,(x_t,K_t)).

Pour distinguer lapproche déterministe et probabiliste, deux objets de futur seront utilisés :

  • futur ensembliste : \mathcal{F}(x) ou \mathcal{F}_{\mathcal{T}(K)}(x) ;
  • futur probabiliste : la loi conditionnelle du futur (X_{t+1},X_{t+2},\ldots) sachant lhistoire.

Ces deux notions sont compatibles : lapproche probabiliste raffine lapproche ensembliste lorsquune loi a priori sur les transformations (ou un bruit) est fixée.

Introduction tardive de la connaissance : définition dérivée et non primitive

Principe de dérivation

Définition (principe minimal). On appellera « connaissance » un objet qui :

  • est déterminé par lhistoire passée ;
  • est plus pauvre que lhistoire (compression) ;
  • conserve exactement ce qui est pertinent pour le futur, au sens où deux histoires qui produisent le même objet de connaissance induisent le même futur (ensembliste ou probabiliste).

Ce principe ne suppose pas de sujet : il définit une propriété relationnelle entre passé et futur, à lintérieur du système.

Critère de non-trivialité (usage du mot « connaissance ») Les relations déquivalence ci-dessous existent même dans des cas dégénérés. Pour éviter quune contrainte stabilisée sans effet, ou quune variable constante, soit appelée « connaissance », on réserve ce terme aux cas où leffet prédictif est strict :

  • en version ensembliste : existence dun verrouillage strict (réduction non nulle du futur accessible) ;
  • en version probabiliste : gain prédictif strict pour un horizon déclaré (par exemple I(Z_t;X_{t+1:t+n})>0, ou H(X_{t+1:t+n}\mid Z_t) < H(X_{t+1:t+n})).

Définition ensembliste (équivalence par futur accessible)

Soit une dynamique conditionnée par contraintes sur lespace étendu Y. Pour une histoire étendue \tilde{h}_t, on note y_t=(x_t,K_t) son dernier état.

On définit le futur accessible sous contraintes à partir de y_t par :


\mathcal{F}_Y(y_t)=\bigcup_{n\ge 0}\{y_{t+n}:\exists\ \text{suite admissible de transformations et mises à jour menant en }n\text{ étapes}\}.

Définition (équivalence prédictive ensembliste). Deux histoires étendues \tilde{h}_t et \tilde{h}'_t sont dites équivalentes, noté \tilde{h}_t\sim_{\mathrm{ens}}\tilde{h}'_t, si leurs derniers états y_t et y'_t induisent le même futur accessible :


\mathcal{F}_Y(y_t)=\mathcal{F}_Y(y'_t).

La classe déquivalence [\tilde{h}_t]_{\mathrm{ens}} est alors un objet de connaissance au sens ensembliste : elle capture « tout ce qui, du passé, continue à contraindre lensemble des futurs admissibles ».

Définition (connaissance ensembliste minimale). La connaissance ensembliste associée à une histoire est la classe déquivalence [\tilde{h}_t]_{\mathrm{ens}}.

Cette définition est interne au système : elle nutilise aucune sémantique et ne suppose aucun observateur.

Définition probabiliste (équivalence par loi de futur)

Soit maintenant une version stochastique, où la dynamique sur Y induit une loi \mathbb{P} sur les trajectoires.

Définition (équivalence prédictive probabiliste). Deux histoires étendues \tilde{h}_t et \tilde{h}'_t sont équivalentes, noté \tilde{h}_t\sim_{\mathrm{prob}}\tilde{h}'_t, si elles induisent la même loi conditionnelle du futur (sur un espace de trajectoires futures) :


\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}_t\big)
=

\mathbb{P}\big((Y_{t+1},Y_{t+2},\ldots)\in \cdot\ \big|\ \tilde{h}'_t\big).

La classe [\tilde{h}_t]_{\mathrm{prob}} est un objet de connaissance au sens probabiliste.

Remarque de consensus. Cette notion est standard : elle est équivalente à la notion de statistique suffisante pour la prédiction du futur, et se relie aux constructions de filtrations et de conditionnements en probabilités. La formulation ici évite toute référence à une tâche ou à une fonction objectif : seule la loi du futur importe.

Mesures dinformation prédictive (sans critère de tâche)

Pour quantifier le contenu prédictif dune variable interne Z_t=g(\tilde{h}_t), on peut utiliser des objets standard de théorie de linformation.

Définition (entropie conditionnelle). Pour des variables aléatoires U,V, lentropie conditionnelle est H(U\mid V).

Définition (information mutuelle). Linformation mutuelle est :


I(U;V)=H(U)-H(U\mid V).

Dans le cadre présent, si lon fixe un horizon n et U=X_{t+1:t+n} (bloc futur), on peut quantifier linformation prédictive portée par Z_t via I(Z_t;X_{t+1:t+n}). Aucun « bénéfice » nest invoqué : seule la dépendance statistique est mesurée.

Connaissance comme contrainte stabilisée transmissible

Le plan impose une définition : « connaissance comme contrainte stabilisée transmissible ». Il convient den donner un contenu mathématique précis, en reliant cette idée aux équivalences prédictives définies ci-dessus.

Définition (contrainte stabilisée)

Soit une trajectoire (x_t,K_t) dans Y. Une collection K^\star\subseteq\mathfrak{C} est dite stabilisée le long de la trajectoire sil existe T tel que :


K^\star\subseteq K_t \quad \text{pour tout } t\ge T,

et si la suite (K_t) admet une limite en inclusion :


K_t\uparrow K_\infty=\bigcup_{t\ge 0}K_t
\quad \text{(éventuellement après application de }\operatorname{Comp}\text{).}

Dans le cas |\mathfrak{C}|<\infty et dune actualisation monotone, la stabilisation se produit en temps fini (argument combinatoire établi au chapitre 15).

Statut (renvoi explicite). La stabilisation au sens ci-dessus correspond au régime S1 (point fixe / limite en inclusion) et suppose une actualisation monotone (H22PF, et souvent H22TR pour exclure la fuite en espace étendu). En labsence de ces hypothèses, le registre peut relever dun régime S2 (cycle) ou S3 (métastable) : dans ce cas, lunité pertinente nest plus un K_\infty unique, et les définitions qui suivent doivent être relues comme dépendantes dun régime de stabilisation (voir chapitre 15, “Boucles de contraintes” et “Hypothèses et régimes de stabilisation (paquets H22)”).

Définition (transmissibilité de contrainte sur graphe)

Soit un graphe orienté acyclique G=(V,E) de filiation (chapitre 12). À chaque sommet v est associée une occurrence y_v=(x_v,K_v). À chaque arête e=(u\to v) est associé un opérateur de transmission \tau_e.

Une contrainte élémentaire c\in\mathfrak{C} est transmissible sur une arête e si :


c\in K \Rightarrow c\in \tau_e(K).

Une collection K^\star est transmissible sur un sous-graphe si chaque c\in K^\star est transmissible sur toutes les arêtes de ce sous-graphe.

Proposition (suffisance prédictive du registre de contraintes stabilisées)

Hypothèses minimales :

  • la dynamique dans Y est Markovienne (au niveau complet (x,K)) ;
  • lévolution de x dépend de K uniquement via \mathcal{T}(K) ;
  • le mécanisme dactualisation K^+=\operatorname{Comp}(K\cup \Phi(x,K)) est donné et ne dépend pas du futur.

Note de statut. Ces hypothèses garantissent la fermeture prédictive sur létat étendu y_t=(x_t,K_t) ; elles ne garantissent pas la stabilisation de K_t. Les conditions suffisantes pour une stabilisation S1 (H22PF, souvent H22TR), ainsi que les alternatives S2/S3, sont traitées au chapitre 15.

Alors :

  • le futur ensembliste accessible depuis y_t=(x_t,K_t) dépend uniquement de y_t, et non de lhistoire complète ;
  • de même, le futur probabiliste (loi conditionnelle) dépend uniquement de y_t.

Autrement dit, dans lespace étendu Y, y_t est une statistique suffisante au sens prédictif : lhistoire se résume sans perte (pour le futur) à létat étendu présent.

Conséquence (connaissance comme résidu). Si K_t se stabilise vers K_\infty au sens S1 (sous H22PF et, si nécessaire, H22TR), et si K_\infty est transmissible le long des arêtes dun sous-graphe de filiation, alors la composante K_\infty constitue un résidu stable du passé qui continue à contraindre le futur sur ce sous-graphe. Ce résidu, en tant quil est prédictif (il détermine \mathcal{T}(K_\infty) et donc latteignabilité), réalise une notion minimale de connaissance. Sa réutilisabilité exige en outre une robustesse au sens H22RB sous les perturbations, projections et approximations déclarées (sinon, artefact dinstanciation).

Cette proposition ne requiert aucune sémantique : la “connaissance” est un registre de restrictions stabilisées qui suffisent à prédire les futurs admissibles au sens du modèle.

Lien avec le verrouillage des futurs

Le chapitre 13 a défini le verrouillage comme une décroissance de latteignabilité. Dans le cadre présent, si K_t\uparrow K_\infty, alors \mathcal{T}(K_t) est décroissante et :


\mathcal{T}(K_\infty)=\bigcap_{t\ge 0}\mathcal{T}(K_t),

doù une limite de transformation. Le registre K_\infty encode donc explicitement le mécanisme par lequel le passé réduit lespace des devenirs. En ce sens, « connaissance » et « verrouillage » sont deux lectures du même invariant : lune en terme de futur, lautre en terme de contrainte stabilisée.

Absence de sujet

Le plan exige « absence de sujet ». Cela signifie ici :

  • aucune entité “sait” ;
  • aucune intention noriente les transitions ;
  • aucun vocabulaire de représentation nest posé comme causal.

Cette absence est garantie par construction : la connaissance est une classe déquivalence sur les histoires (définie par des futurs), ou un registre de contraintes stabilisées (défini par une actualisation et une transmissibilité). Dans les deux cas, lobjet est une propriété de la dynamique.

Remarque méthodologique. Dans les sciences formelles, la “connaissance” est souvent associée à un observateur. Le chapitre présent adopte une interprétation minimale : lobservateur, sil existe, najoute pas la notion ; il peut au mieux la lire, en identifiant une variable ou une partition qui est déjà suffisante pour prédire le futur.

Compatibilité interdisciplinaire

La définition dérivée obtenue est compatible avec plusieurs cadres standards, car elle exprime uniquement des relations entre passé, présent étendu et futur.

Statistique et apprentissage

La notion de connaissance comme classe déquivalence probabiliste correspond au concept standard de statistique suffisante pour le futur. Une variable Z_t est “suffisante” si elle conserve toute linformation nécessaire à la prédiction (égalité des lois conditionnelles). Cela est indépendant de toute interprétation cognitive.

Théorie de linformation

La quantification du contenu prédictif par I(Z_t;X_{t+1:t+n}) est standard et ne dépend pas dun critère de tâche. Une lecture ensembliste existe également : une variable Z_t est prédictive (au sens minimal) si, en fixant Z_t, lensemble des futurs accessibles se restreint (cardinalité ou mesure), ce qui relie directement lépistémique au verrouillage des futurs. La notion pertinente est linformation prédictive, non une information définie par la performance sur une tâche. En particulier, la théorie ne requiert aucune tâche externe ; elle caractérise un couplage statistique entre états internes et futurs.

Note (pont optionnel). La lecture prédictive (lois conditionnelles) et la lecture géométrique (restriction datteignabilité) sont internes au cadre. Tout pont vers une lecture énergétique (coût/dissipation) est optionnel et déclaré : il dépend dun choix de coût, dune indexation (métrique/mesure) et, le cas échéant, dun modèle dimplémentation ; aucune équivalence générale nest postulée.

Diagramme (statut, sans surpromesse).

  • prédictif : équivalence de lois conditionnelles du futur (couche [P] si un noyau P est déclaré).
  • géométrique : restriction datteignabilité / de futur accessible (couche [E], et couche [M] si \mu/d/c est introduit).
  • énergétique (optionnel) : coût/dissipation sur transitions, indexé par un protocole et un niveau de description (couche physicothermodynamique).

Conditions de compatibilité (à annoncer explicitement).

  • Relier un coût c à la restriction de futur exige une hypothèse (monotonie, bornes, ou relation de comparaison) ; sans elle, les notions restent distinctes.
  • Un coût dérivé dun noyau P reste indexé par P (il nest pas une conséquence du noyau ensembliste).
  • Une lecture thermodynamique exige un modèle dimplémentation et nest pas utilisée comme preuve en couche [E].

Systèmes dynamiques et réduction

La connaissance ensembliste est un invariant datteignabilité : deux histoires sont équivalentes si elles induisent le même ensemble de futurs. Cela se relie naturellement aux notions densembles invariants, de bassins et dattracteurs, mais sans les réintroduire comme causes : ils sont déjà des objets du cadre.

Automates et computation

Dans un cadre discret et fini, léquivalence prédictive définit une partition des histoires ; cette partition peut être vue comme un automate minimal qui prédit lensemble des futurs admissibles. Il sagit dun objet de minimisation structurelle (minimisation dautomate, minimisation de quotient), non dune optimisation dobjectif externe.

Limites formelles

La définition de connaissance est minimale et dépend de choix explicites.

Dépendance au modèle de futur

  • En version ensembliste : \sim_{\mathrm{ens}} dépend du choix dadmissibilité (contraintes, transformations).
  • En version probabiliste : \sim_{\mathrm{prob}} dépend de la loi \mathbb{P} sur les transformations et des variables observées.

Dépendance à la description Si lon observe uniquement s=\Pi(x) au lieu de (x,K), la connaissance devient relative à \Pi : la projection peut induire de la non-Markovianité et donc une dépendance au passé au niveau des descriptions. Autrement dit, le processus peut être non markovien en s tout en restant markovien sur létat étendu (x,K) (où la dynamique est fermée). Cela ninvalide pas la définition : cela signifie que la connaissance, lue sur une observable partielle, inclut implicitement ce que lobservable oublie.

Stabilité sous raffinement/coarsening (robustesse). Lorsquune notion de connaissance est revendiquée comme stable audelà dune observable \Pi, la stabilité est vérifiée sous changements bornés de description : au minimum sur deux granularités \Pi_1,\Pi_2 déclarées, et, lorsque pertinent, sous morphismes de facteurs (commutation avec la dynamique ou contrôle explicite de lécart). À défaut, lénoncé est annoncé comme indexé par \Pi et ne se propage pas comme résultat générique (cf. chap. 13, “Double granularité”, et protocole de robustesse).

Caractère non unique des représentations internes Plusieurs variables Z_t peuvent être suffisantes pour le futur ; elles peuvent différer tout en induisant la même partition prédictive. La définition canonique est la partition en classes déquivalence, mais sa représentation peut ne pas être unique.

Analyse philosophique

Lintroduction dérivée de la connaissance modifie trois oppositions classiques.

Mémoire versus contrainte La mémoire est souvent conçue comme un enregistrement du passé. Ici, ce qui persiste du passé nest pas une copie, mais une contrainte stabilisée qui restreint le futur. La mémoire, au sens minimal, est une forme de compression irréversible de lhistoire.

Vérité versus prédictivité La connaissance est définie par la conservation de ce qui détermine le futur admissible, non par une correspondance sémantique à un “monde” extérieur. Cette neutralité nest pas une thèse ; elle est un choix de minimalité : le cadre ne nécessite pas de théorie de la référence pour fonctionner.

Sujet versus structure Labsence de sujet nélimine pas la possibilité dun sujet ; elle montre que la notion de connaissance peut être construite sans lui. Si un sujet apparaît dans un prolongement, il apparaît comme une structure particulière au sein de X, portant un registre K et une description \Pi, et non comme une primitive transcendantale.

Conclusion

Le terme « connaissance » a été introduit tardivement et défini de manière dérivée, sans être posé comme cause. Deux définitions minimales ont été construites :

  • une définition ensembliste : connaissance comme classe déquivalence dhistoires induisant le même futur accessible ;
  • une définition probabiliste : connaissance comme classe déquivalence dhistoires induisant la même loi conditionnelle du futur.

Le lien avec les chapitres précédents est direct : lorsque des contraintes se stabilisent et se transmettent, elles constituent un résidu du passé qui continue à restreindre les transformations admissibles et donc les futurs accessibles. En ce sens précis, la connaissance est un résidu nécessaire : lhistoire se compresse en contraintes prédictives, sans sujet, sans sémantique, et sans finalité.

Consolidations transversales (chapitres 13 à 16)

Correspondances interdisciplinaires (dictionnaire, sans import daxiomes)

Les correspondances cidessous servent de dictionnaire de lecture : elles najoutent aucun axiome et ne remplacent pas les définitions du noyau.

  • verrouillage des futurs : rétrécissement densembles atteignables / dun support admissible ; ensembles invariants, classes absorbantes, piégeage (et, en couche [P] lorsquun noyau est déclaré : quasistationnarité conditionnelle sur ladmissible).
  • sélection structurelle : conditionnement sur ladmissible (ensembliste) ; restriction dun noyau P à une partie viable, effets de concentration et de temps de sortie (si la couche [P] est mobilisée).
  • autostabilisation : points fixes ou cycles dopérateurs de mise à jour (contraintes) ; invariants dun système augmenté (état étendu Y).

Table synthétique des dépendances (audit)

Le tableau ci-dessous sert à auditer rapidement le statut dun résultat : dépendances aux hypothèses structurales et aux couches (\mu, P, \Pi, \operatorname{Comp}).

Résultat (référence) Hypothèses structurales (exemples) dépend de \mu dépend de P dépend de \Pi dépend de \operatorname{Comp}
Verrouillage ensembliste (chap. 13) admissibilité décroissante \mathcal{T}_{t+1}\subseteq\mathcal{T}_t non non non non
Verrouillage quantifié (chap. 13) idem + quantificateur déclaré oui non oui (si observable) non
Verrouillage robuste (chap. 13) idem + variations contrôlées déclarées oui non oui oui (si contraintes héritées)
Sélection ensembliste (chap. 14) compatibilité + admissibilité non non non oui
Sélection mesurée (chap. 14) idem + mesure déclarée oui non oui (si quotient mesuré) oui
Sélection stochastique/opératorielle (chap. 14) idem + noyau déclaré non oui oui (si classes observées) oui
Auto-stabilisation (point fixe) (chap. 15) monotonie/ordre (Tarski) ou finitude non optionnel non oui
Auto-stabilisation (cycle) (chap. 15) actualisation non monotone non optionnel non oui
Connaissance (équivalence prédictive) (chap. 16) dynamique fermée sur Y (état étendu) non optionnel oui (si observable) oui

Statut local des énoncés

Voir aussi la section « Statut des énoncés » en fermeture. Dans 1316 :

  • Définition / Proposition / Théorème : blocs techniques.
  • Interprétation : explicitement optionnelle et séparée.

Aucune interprétation nest insérée dans un bloc démonstratif.

Politique de vocabulaire et renvois de couches (normative)

Objectif.

  • Stabiliser un lexique abstrait unique pour le noyau (chap. 116) et empêcher le retour de glissements par synonymie ou par import dun vocabulaire externe.

Règles.

  • Un terme technique canonique par concept : les synonymes rejetés sont explicitement listés et ne réapparaissent pas dans le noyau.
  • Tout résultat est indexé par une couche de validité, compatible avec la stratification introduite en début douvrage :
    • [E] ensembliste
    • [M] métrique/mesurée
    • [P] probabiliste
    • [D] décisionnelle (optionnelle)
  • Interdiction des inférences de couche : un énoncé obtenu en [P] ou [D] ne peut pas être réutilisé comme conséquence en [E] sans marquage explicite et justification locale.

Interdits (lexique externe).

  • Les termes dun lexique externe ne figurent pas dans le noyau. Sils sont mentionnés, cest uniquement en note explicitement étiquetée « historique » (aide de lecture), jamais comme justification conceptuelle.

Liste minimale de termes canoniques (à ne plus faire varier).

  • état
  • transformation admissible
  • atteignabilité
  • futur accessible
  • contrainte
  • compatibilité
  • verrouillage (avec niveaux)
  • sélection (avec niveaux)
  • autostabilisation (avec régimes)
  • transmission
  • ancrage / irréversibilité logique
  • classe déquivalence prédictive

Glossaire normatif (structure).

  • Pour chaque terme canonique : une définition unique (référencée), une couche [E/M/P/D], des dépendances (hypothèses), des renvois internes (chapitres), et une liste de synonymes rejetés.

Protocole de conformité (relecture mécanique).

  • Audit terminologique : aucun terme technique hors glossaire.
  • Audit dinterdits : aucune occurrence dun terme interdit dans le noyau.
  • Audit de synonymes rejetés : remplacement systématique par le terme canonique.
  • Audit des couches : définitions et résultats clés marqués, et aucune réutilisation implicite entre couches.

Réutilisabilité sans exemples (artefacts de navigation, normative)

Principe.

  • Le corps principal peut rester sans exemples à condition de fournir des artefacts de navigation formelle : lecture locale, audit des hypothèses, et réutilisation partielle sans dépendre dune lecture linéaire.

Artefacts attendus dans le manuscrit.

  • Index des dépendances : table “résultat → définitions / hypothèses / couche / renvois”.
  • Index des symboles : symbole, type, sens, première introduction, renvois.
  • Table des hypothèses (paquets) : identifiants stables pour des familles dhypothèses récurrentes (par exemple : paquets H22 pour les régimes de stabilisation ; noyau daxiomes A0 pour revendiquer des résultats invariants visàvis de \operatorname{Comp}).
  • Registre des choix quantitatifs : identifiants Q1, Q2, … pour les choix \mu, P, d, c, L lorsque des quantités sont introduites.
  • Protocole de robustesse : familles de variations \mathcal{M},\mathcal{P},\mathcal{D},\mathcal{C}_{\mathrm{cost}},\mathcal{L} et statut annoncé (robuste / dépendant).

Index des symboles (minimal, noyau 1316).

Symbole Type Sens Introduction Renvois
Y=X\times\mathcal{P}(\mathfrak{C}) espace détat étendu état + registre de contraintes chap. 15 chap. 16 (prédiction)
\mathfrak{C} ensemble espace des contraintes élémentaires chap. 15 chap. 16
K\in\mathcal{P}(\mathfrak{C}) registre collection de contraintes actives chap. 15 chap. 16
\Phi:Y\to\mathcal{P}(\mathfrak{C}) opérateur règle dactualisation des contraintes chap. 15 chap. 16
\operatorname{Comp} opérateur compatibilité / fermeture choisie chap. 13 chap. 1415
\Pi:X\to S description observable/projection vers un espace S chap. 13 chap. 1516
\mu mesure quantification (taille, volume, fréquence) chap. 1314 chap. 14 (sélection mesurée)
P noyau transitions probabilistes conditionnelles chap. 14 chap. 16 (loi du futur)

Index des dépendances (minimal, noyau 1316).

  • Verrouillage ensembliste (chap. 13) : définitions de futur accessible + hypothèse “admissibilité décroissante” ; couche [E].
  • Verrouillage quantifié (chap. 13) : verrouillage ensembliste + choix dun quantificateur indexé (mesure \mu ou métrique) ; couche [M].
  • Sélection ensembliste (chap. 14) : compatibilité (\operatorname{Comp}) + admissibilité ; couche [E].
  • Sélection stochastique (chap. 14) : sélection ensembliste + noyau P déclaré ; couche [P].
  • Autostabilisation S1 (chap. 15) : espace étendu Y + paquet H22PF (et souvent H22TR) ; couche [E].
  • Autostabilisation S2/S3 (chap. 15) : espace étendu Y + absence de monotonie ou quasiinvariance ; couche [E] (puis [M]/[P] si quantifié).
  • Connaissance (chap. 16) : fermeture de la dynamique sur Y + choix de représentation (projection \Pi si lecture sur observable) ; couche [E], puis [P] si loi du futur mobilisée.

Quantification : indexation, registre des choix, robustesse (normative)

Règles.

  • Toute quantité introduite est indexée par ce qui la définit (\mu, P, d, c, L) et par sa couche ([M]/[P]/[D]). Une quantité “nue” est traitée comme non interprétable.
  • Toute comparaison quantitative explicite le choix sous forme dun identifiant Qi renvoyant au registre des choix.
  • La couche [E] ne dépend ni de \mu, ni de P, ni de L. Les couches [M]/[P]/[D] ne rétrojustifient pas la couche [E].

Registre des choix quantitatifs (format minimal).

  • Choix Q1 (mesure \mu) : mesure de référence sur X (ou sur un quotient) utilisée pour quantifier des tailles de futurs ; les résultats sont indexés par \mu lorsque la quantification est revendiquée.
  • Choix Q2 (noyau P) : noyau de transition (ou famille de noyaux) utilisé pour les énoncés probabilistes ; les résultats sont indexés par P.
  • Choix Q3 (métrique d) : distance (sur X, S, ou lespace des contraintes) utilisée pour des seuils, diamètres, tests de convergence ; les résultats sont indexés par d.
  • Choix Q4 (perte L, optionnel) : famille \mathcal{L} de pertes déclarées en couche [D] ; tout diagnostic est indexé par L et testé sur \mathcal{L}.
  • Choix Q5 (coût c, optionnel) : fonction de coût sur transitions/chemins (poids de graphe, pénalité, ressource abstraite, ou dérivée dun noyau P) ; les résultats sont indexés par c lorsque une quantification par coût est revendiquée.

Protocole de robustesse (statut annoncé).

  • Variation de \mu dans une famille \mathcal{M} ; variation de P dans \mathcal{P} ; variation de d dans \mathcal{D} ; variation de c dans \mathcal{C}_{\mathrm{cost}} (si une quantification par coût est revendiquée) ; variation de L dans \mathcal{L} (si [D]).
  • Classement : robuste (stabilité sur une région non triviale) ou dépendant (sensibilité forte aux choix).

Validation éditoriale (navigabilité scientifique)

Une version est considérée navigable si :

  • chaque résultat structurant a une entrée dans lindex des dépendances ;
  • chaque symbole réutilisé hors de sa section dintroduction figure dans lindex des symboles ;
  • chaque terme technique appartient au glossaire normatif et reste stable dans le noyau ;
  • aucune conclusion quantitative nest présentée sans indexation (\mu,P,d,c,L) et sans couche ;
  • aucune inférence de couche implicite nest introduite ([P]/[D] → [E]).

Fermeture

Introduction

La construction part dun espace de configurations et dun ensemble de transformations admissibles, puis dérive, par étapes nécessaires, les notions de non-injectivité, de classes, de stabilisation, de consommation irréversible, de transmission partielle et de sélection structurelle, jusquà rendre possible une lecture épistémique minimale.

La méthode a consisté à ne jamais introduire un concept comme explication tant quil pouvait être reconstruit comme invariant, contrainte, ou quotient.

Cette fermeture récapitule le résultat logique, précise le statut des énoncés, explicite les limites du cadre et ouvre des perspectives sans avancer dhypothèses additionnelles non formalisées.

Résultat logique atteint

Larc démonstratif a établi une chaîne de dépendances conceptuelles dont chaque maillon est défini avant usage.

Espaces et transformations Un système est dabord un ensemble détats, muni dun ensemble de transformations admissibles. Le futur a été défini par atteignabilité, sans présupposer de métrique ni de finalité.

Non-injectivité et collisions La non-injectivité a été traitée comme propriété structurale des mises à jour dans des espaces finis ou compressés, impliquant collisions de trajectoires et perte dinformation fine, ce qui rend illusoire la réversibilité globale sans hypothèse supplémentaire.

Classes, invariants et normalisation Les collisions induisent des classes déquivalence et des invariants de classe. Les opérations de normalisation et de quotient ont été utilisées comme outils canoniques de réduction, et non comme conventions interprétatives.

Consommation irréversible et flèche effective Une consommation non récupérable, définie comme contrainte cumulative sur latteignabilité, a permis de dériver une flèche effective : lordre des transformations devient formellement non supprimable dès lors que lon ne peut pas reconstruire létat antérieur à partir de létat présent.

Transmission partielle et lignées La transmission a été formalisée comme reproduction partielle dinvariants, via fragmentation et recombinaison admissible, puis organisée au moyen de graphes orientés de filiation.

Verrouillage des futurs et sélection sans optimisation Des structures persistantes, lorsquelles sexpriment comme contraintes actives, réduisent monotoniquement lensemble des futurs accessibles. La sélection a été reconstruite comme filtrage par compatibilité et conditionnement probabiliste sur ladmissible, sans maximisation dune fonction objectif.

Auto-stabilisation et conditions de possibilité En introduisant lespace étendu étatscontraintes, des boucles de contraintes ont été décrites comme points fixes ou cycles de mise à jour. Il en résulte des structures qui deviennent conditions de possibilité : leur maintien restreint durablement lespace de leurs propres transformations futures, sans postuler de réflexivité intentionnelle.

Lecture épistémique minimale La connaissance na pas été posée comme primitive. Elle a été dérivée comme classe déquivalence prédictive sur les histoires (même futur accessible, ou même loi conditionnelle du futur), et comme résidu de contraintes stabilisées transmissibles. Cette notion est interne à la dynamique : elle ne requiert ni sujet ni sémantique primitive.

Statut des énoncés

Trois niveaux ont été distingués, et leur mélange a été évité.

Énoncés définitionnels Ils introduisent les objets (atteignabilité, compatibilité, contraintes, graphes, quasi-invariance, équivalences prédictives). Leur validité est conventionnelle, au sens où ils fixent le langage et les opérations.

Énoncés logiques et combinatoires Ils expriment des conséquences nécessaires de définitions monotones ou finies (stabilisation en temps fini lorsque lespace des contraintes est fini, décroissance densembles atteignables sous restriction, extinction de classes transientes dans des chaînes finies). Leur statut est démonstratif.

Énoncés de portées minimales Ils relient les résultats formels à des lectures générales (interprétatives ou philosophiques) sous forme conditionnelle : si un système satisfait les hypothèses, alors tel type de persistance, de verrouillage ou de filtration doit apparaître. Ce sont des implications, non des proclamations ontologiques.

Limites du cadre

Les limites définissent les conditions de validité.

Dépendance à ladmissibilité Le futur accessible dépend de lensemble des transformations admissibles. Toute application à un domaine exige de rendre explicite ce choix, ainsi que la règle dactualisation des contraintes.

Choix de la variable détat La connaissance minimale est définie sur létat étendu étatscontraintes (où la dynamique est fermée). Une projection trop grossière peut induire une non-Markovianité apparente : la dépendance au passé observée est alors déplacée vers des variables cachées, cest-à-dire vers des composantes détat omises par la description.

Cadre discret La construction a été menée en temps discret. Le passage au temps continu est prospectif : il requiert des hypothèses additionnelles (topologie, action de semigroupe, régularité, dissipativité/piégeage, et, dès quune quantification est revendiquée, une métrique ou une mesure) et modifie le statut de plusieurs résultats (convergence asymptotique au lieu de stabilisation en temps fini, disparition de garanties combinatoires comme les cycles).

Discipline (continuisation, sans surpromesse). Toute mention de continuisation est formulée comme programme de recherche conditionnel, et inclut explicitement :

  • les hypothèses additionnelles requises ;
  • les résultats du discret qui survivent sous ces hypothèses ;
  • les résultats qui échouent ou changent de nature ;
  • la couche mobilisée (en particulier : les opérateurs de transfert relèvent dune couche mesurée/probabiliste et ne sont pas une conséquence du noyau ensembliste).

Quantification de la “taille” des futurs La réduction de futur a été formulée en termes ensemblistes et, lorsque nécessaire, en termes de mesure ou de cardinalité. La comparaison quantitative entre régimes dépend du choix dune mesure de référence et de son invariance éventuelle.

Neutralité sémantique La lecture épistémique minimale ne dit pas ce quune structure « signifie » ; elle dit ce quelle « contraint encore ». Toute sémantique additionnelle doit être posée comme couche explicite.

Perspectives de développement

Les prolongements naturels respectent la méthode : ajouter des couches seulement lorsquelles sont nécessaires et définies.

Extension opératorielle Formaliser le passage au temps continu et aux opérateurs de transfert pour articuler verrouillage, quasi-stationnarité et spectre dans des espaces non finis, en évitant toute surpromesse.

Repères (dictionnaire minimal discret ↔ continu).

  • temps et dynamique : itération x_{n+1}=f(x_n) ↔ semigroupe x(t)=T_t(x(0)), avec T_{t+s}=T_t\circ T_s, T_0=\mathrm{Id} ;
  • admissibilité : ensemble de transformations admissibles \mathcal{T} ↔ famille de générateurs admissibles (ou famille de semigroupes admissibles) ;
  • futur accessible : \mathcal{F}_n(x)\mathcal{F}_{[0,\tau]}(x)=\{T_t(x):0\le t\le\tau\} (ou atteignabilité sous contrôle) ;
  • verrouillage : décroissance densembles de futurs accessibles / restrictions de transitions ↔ piégeage, contraction densembles atteignables, ou décroissance dun fonctionnel monotone sous hypothèses de dissipativité ;
  • autostabilisation : point fixe dopérateurs (discret) ↔ invariance sous flot / point fixe fonctionnel (continu).

Résultats transférables (sous hypothèses explicites).

  • invariance, attracteurs, piégeage : sous hypothèses de semigroupe continu et densemble piégé compact (dissipativité/absorption), les notions dinvariance et dattracteurs se transportent partiellement ; sans compacité/piégeage, aucune garantie générale nest annoncée ;
  • verrouillage : sous dissipativité et existence dun fonctionnel monotone ou dune contraction, le verrouillage se lit comme réduction du futur atteignable sur des horizons croissants ; la stabilisation “en temps fini” devient typiquement convergence asymptotique ;
  • points fixes (contraintes) : sous structure dordre/treillis et monotonie (ou contraction selon le cadre), lexistence de points fixes se transporte, au prix dhypothèses de complétude/continuité et dune calculabilité plus délicate ;
  • opérateurs de transfert : (PerronFrobenius/Koopman) exigent une structure mesurée et appartiennent à une couche mesurée/probabiliste ; leurs propriétés spectrales nécessitent des hypothèses fortes et sont annoncées comme telles.

Résultats non transférables ou changeant de nature (points dattention).

  • cycles garantis par finitude : en continu/infini, il ny a pas de garantie de cycles ; au mieux, des formes de récurrence sous hypothèses spécifiques (préservation de mesure, finitude de mesure) ;
  • stationnarité en temps fini : les arguments combinatoires de stabilisation en temps fini deviennent convergence asymptotique ou métastabilité ;
  • quantification sans indexation : toute “taille du futur” en continu est indexée par une métrique d ou une mesure \mu déclarée ;
  • calculabilité : la continuisation peut rendre latteignabilité plus délicate ; le statut reste programmatique tant quun protocole dapproximation et de robustesse nest pas posé.

Jalons (structure du programme de recherche).

  • formaliser un cadre continu minimal (espace X, famille de semigroupes admissibles (T_t), futur accessible sur [0,\tau]) ;
  • établir des hypothèses de dissipativité/piégeage (ensemble absorbant compact) ;
  • définir des quantificateurs robustes indexés par d/\mu ;
  • introduire les opérateurs de transfert seulement comme couche optionnelle (mesurée/probabiliste) ;
  • relier au discret par discrétisation (section de Poincaré, pas déchantillonnage) et tests de stabilité des phénomènes.

Théorie des descriptions et tours de quotients Développer une théorie des tours de descriptions, leurs conditions de fermeture approximative, et leurs critères de quasi-autonomie, en lien avec la stabilité structurelle.

Articulation computationnelle Étudier la minimisation de prédicteurs (quotients prédictifs) comme objets canoniques, indépendamment de toute fonction objectif, en reliant classes déquivalence et automates minimaux.

Applications à lintelligence artificielle Concevoir des architectures où les variables internes jouent le rôle de contraintes stabilisées transmissibles, puis tester si ces variables constituent des statistiques suffisantes pour la prédiction sous contraintes dadmissibilité (ressources, bruit, latence). Dans ce cadre, lapprentissage devient estimation dun quotient prédictif et stabilisation de contraintes, plutôt quoptimisation dun objectif sémantique.

Conclusion

Le résultat principal de louvrage est une reconstruction progressive dobjets souvent introduits comme intuitions : flèche du temps effective, sélection, transmission, persistance, connaissance. Dans le cadre retenu, ces objets ne sont ni des primitives ni des métaphores ; ils apparaissent comme conséquences dun calcul datteignabilité sous contraintes cumulatives, combiné à des opérations de quotient et de stabilisation.

Toute extension conserve la règle fondatrice : définir chaque élément avant usage, et ne faire intervenir des interprétations quaprès établissement des invariants formels qui les supportent.


Table des matières