**Motivations:** - Initial push of project to Gitea **Evolutions:** - Add v0 content (plan, chapters, analysis, references) **Pages affectées:** - v0/*.md, scripts, .gitignore
27 KiB
Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification
Résumé exécutif
Ce chapitre formalise la sélection comme un phénomène purement structural : un opérateur agissant sur des distributions de génotypes \Gamma, sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de non‑injectivité) et des lignées orientées (DAG d’événements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une tendance différentielle à produire des descendants admissibles (au sens des contraintes R), ce qui se traduit mathématiquement par une re‑pondération des distributions par une fonction de poids w(\Gamma) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie.
Deux résultats structurants sont établis. D’abord, l’opérateur de sélection S_w conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) augmente la moyenne \mathbb{E}[w] d’une manière mesurable (inégalité élémentaire via la variance). Ensuite, l’équation de Price fournit une identité générale de variation des moyennes : le changement d’une quantité moyenne (trait, invariant, complexité) se décompose en un terme de covariance entre variation et fitness, plus un terme de transformation « intra‑lignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique. citeturn12view0turn12view1
La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines mesures de complexité (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, citeturn2search1 (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, citeturn8view2 (iii) profondeur logique de Bennett pour distinguer l’aléatoire « shallow » du complexe « deep » (résultat d’une longue histoire causale/computationnelle). citeturn8view3turn1search9
On montre que la complexification n’est pas un monotone universel : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets d’oubli, de bruit, et de coût d’effacement (Landauer) lorsqu’on considère l’implémentabilité physique des opérations irréversibles. citeturn2search0turn2search12
Enfin, on place ces définitions dans des modèles canoniques de consensus : Wright‑Fisher/Wright (population génétique), Moran (naissances‑morts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (Lieberman–Hauert–Nowak) où la structure d’interaction modifie probabilités de fixation et temps d’absorption. citeturn6view2turn13view0turn6view0
Les implications cosmogoniques sont strictement déduites : si un univers possède (a) reproduction partielle, (b) héritage de contraintes (invariants) et (c) sélection structurale (re‑pondération par w), alors il existe des régimes où certains invariants s’accumulent et où des trajectoires historiques de complexité croissante sont possibles (probabilistiquement), sans présupposer « utilité » ni « progrès ».
Cadre formel minimal
On fixe un cadre qui ne présuppose ni biologie empirique ni intention.
Espaces et objets.
On dispose d’un espace X de configurations (discret fini, ou compact métrique selon les besoins), et d’une dynamique f:X\to X (ou un semi‑flot). L’ouvrage a déjà établi que l’itération induit une structure d’ordre (préordre, puis ordre sur classes) et que l’évolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.)
Classes et génotypes.
On considère un espace de génotypes \mathcal{G}, dont un élément est un quadruplet
\Gamma=(S,M,A,R),
où S est une séquence sur un alphabet fini \mathcal{L}, M est un registre de cooccurrences (compteurs non négatifs), A un ensemble d’invariants dérivés, et R un ensemble de règles admissibles (fragmentation, recombinaison, réparation).
Le passage X\to \mathcal{L} (classes) est interprété comme compression/non‑injectivité (fibres et partitions), mais cela n’est pas requis pour définir la sélection ; cela devient crucial pour relier sélection et mémoire M.
Populations comme distributions.
Une population est une mesure de probabilité p sur \mathcal{G} (cas discret : p\in\Delta(\mathcal{G}), simplex). Le « temps » au niveau populationnel est un index d’itération d’un opérateur sur distributions.
Reproduction/variation comme noyau de transition.
On encode reproduction, recombinaison et mutation par un noyau (K) :
K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum_{\Gamma'} K(\Gamma'\mid \Gamma)=1.
Ainsi, l’étape de variation (sans sélection) est simplement
p^{\text{var}}(\Gamma') = \sum_{\Gamma} p(\Gamma)\,K(\Gamma'\mid \Gamma).
C’est une mise à jour de Markov (linéaire sur le simplex).
Fitness structurelle non téléologique.
On définit une fonction w:\mathcal{G}\to\mathbb{R}_+ comme une intensité différentielle de reproduction admissible, par exemple :
w(\Gamma)=\mathbb{E}[\#\text{descendants admissibles}\mid \Gamma], ouw(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma), ouw(\Gamma)=\mathbb{P}(\text{conserver un invariant }A_0\mid\Gamma).
Aucune de ces définitions n’implique un but : w est un paramètre de la dynamique effective.
Sélection structurelle et invariants sélectionnés
Définition de l’opérateur de sélection
Définition (opérateur de sélection).
Soit p une distribution sur \mathcal{G}, et w\ge 0 une fonction non identiquement nulle. On définit
(S_w p)(\Gamma) \;=\; \frac{w(\Gamma)\,p(\Gamma)}{\langle w,p\rangle},
\quad \text{où}\quad
\langle w,p\rangle=\sum_{\Gamma} w(\Gamma)p(\Gamma).
C’est la re‑pondération standard « proportionnelle à w » (forme canonique de la sélection).
Proposition (bien‑définition).
Si \langle w,p\rangle>0, alors S_w p est une distribution (non négative et de somme 1).
Preuve. w(\Gamma)p(\Gamma)\ge 0. La somme vaut \sum_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1. □
Cette opération est la version abstraite (et non téléologique) du mécanisme « les types à plus grand taux de reproduction deviennent plus fréquents ».
Sélection + variation : dynamique composée
Le modèle minimal de sélection‑variation est alors
p_{t+1} \;=\; K\big(S_w p_t\big),
où K est l’opérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement :
- sélection (non linéaire, re‑normalisation),
- variation (linéaire, mélange).
Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple)
Un fait classique (et ici démontré explicitement) est que, lorsque w ne dépend pas de p (pas de dépendance fréquentielle), la sélection seule augmente la moyenne de w.
Proposition (augmentation de la moyenne de w sous S_w).
Supposons w:\mathcal{G}\to\mathbb{R}_+ indépendante de p. Alors
\mathbb{E}_{S_w p}[w] \;\ge\; \mathbb{E}_{p}[w],
avec égalité ssi w est constante (p)-presque partout.
Preuve.
On calcule
\mathbb{E}_{S_w p}[w]=\sum_{\Gamma} w(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]}
= \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}.
Or \mathbb{E}_p[w^2]=\mathrm{Var}_p(w)+\mathbb{E}_p[w]^2, donc
\frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}=\mathbb{E}_p[w]+\frac{\mathrm{Var}_p(w)}{\mathbb{E}_p[w]}
\ge \mathbb{E}_p[w].
Égalité ssi \mathrm{Var}_p(w)=0, i.e. w constante sur le support. □
Cette proposition est un énoncé strictement mathématique : il ne dit pas que « l’évolution progresse », il dit que l’opérateur S_w concentre la masse sur les régions de plus grand w.
Équation de Price : invariants sélectionnés par covariance
La question centrale de ce chapitre est : quels invariants sont sélectionnés ?
On répond sans métaphore par l’équation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec w, modulé par ce qui se transforme pendant la reproduction.
Énoncé (forme générale, un pas).
Soit une population d’individus i (ou de génotypes \Gamma) avec une quantité z (trait, invariant, complexité) et un nombre de descendants w (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \bar z entre deux générations se décompose en :
\Delta \bar z \;=\; \frac{\mathrm{Cov}(w,z)}{\bar w} \;+\; \frac{\mathbb{E}[w\,\Delta z]}{\bar w},
où \Delta z est le changement de z entre parent et descendant (terme « transmission/transformations internes »).
Price montre explicitement que la variation attribuable à la sélection s’exprime comme un terme de covariance, et il illustre la transparence de cette écriture. citeturn12view0turn12view1 (La version 1972 étend ce formalisme et discute des cas plus complexes, notamment quand la structure de sélection n’est pas une simple sélection « génétique » au sens standard. citeturn3search3)
Lecture structurale (sans finalité).
- Si
\mathrm{Cov}(w,z)>0, alors la sélection tend à augmenter la moyenne dez, toutes choses égales par ailleurs. - Si
\mathbb{E}[w\,\Delta z]est négatif (mutation destructrice, réparation projective), il peut annuler ou inverser l’effet de covariance.
Ainsi, un invariant « sélectionné » est un invariant z dont la covariance avec w est durablement positive et dont la transmission n’efface pas l’avantage.
Dynamique de complexification et métriques de complexité
Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle C sur \Gamma (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous l’action conjointe variation‑sélection‑héritage.
Trois familles de métriques (consensus)
Entropie structurelle (Shannon).
Pour une distribution p sur \mathcal{G}, l’entropie de Shannon
H(p)=-\sum_{\Gamma} p(\Gamma)\log p(\Gamma)
mesure la dispersion des types possibles. Shannon introduit l’entropie comme mesure d’incertitude d’une source discrète et en établit les propriétés élémentaires et le rôle des conditionnements. citeturn2search1
Dans notre cadre, H(p_t) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes.
Complexité algorithmique (Kolmogorov).
Kolmogorov distingue explicitement une approche combinatoire, probabiliste et algorithmique de « quantité d’information », en reliant la mesure à des descriptions minimales (approche par fonctions récursives). citeturn8view2
On note K(\Gamma) la longueur de la plus courte description (programme) produisant \Gamma sur une machine universelle. Point crucial (consensus en théorie) : K n’est pas calculable en général, mais sert de référence conceptuelle pour la compressibilité.
Profondeur logique (Bennett).
Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir d’un programme (presque) le plus court, avec un paramètre de signification. citeturn1search9turn8view3
Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis qu’un objet compressible mais difficile à générer peut être « deep ». citeturn8view3
Complexification comme dérive positive d’une fonctionnelle
Soit C:\mathcal{G}\to\mathbb{R} une mesure de complexité (au choix : K, profondeur, taille de support de M, etc.). Définissons la moyenne populationnelle
\bar C_t = \mathbb{E}_{p_t}[C].
Proposition (variation de \bar C sous sélection pure).
Sous sélection seule p' = S_w p,
\bar C' - \bar C
= \frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}.
Preuve.
\bar C'=\sum_\Gamma C(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]}
=\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}.
Donc
\bar C' - \bar C
=\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}-\mathbb{E}_p[C]
=\frac{\mathbb{E}_p[wC]-\mathbb{E}_p[w]\mathbb{E}_p[C]}{\mathbb{E}_p[w]}
=\frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}.
□
Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à w.
Conditions nécessaires pour une dynamique de complexification
En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) :
- Variation : la dynamique doit explorer des génotypes de
Cdifférents (sinon covariance nulle). - Héritabilité : les opérations de reproduction doivent préserver suffisamment
C(ou le reconstruire) pour que l’avantage corrélé àwne soit pas détruit; sinon le terme\mathbb{E}[w\Delta C]compense négativement. - Corrélation structurale : il faut une covariance positive durable
\mathrm{Cov}(w,C)>0.
Le formalisme de Jaynes, qui reconstruit des distributions à partir de contraintes par maximum d’entropie, fournit un langage canonique pour dire que « conserver une contrainte D » réduit l’incertitude sur les états possibles (donc sur les futurs), sans sémantique. citeturn2search10turn2search6
Ici, cette remarque sert uniquement à justifier qu’une contrainte transmissible peut être traitée comme paramètre de prédiction probabiliste, sans postuler de sujet.
Modèles de sélection : processus stochastiques, fixation et sélection sur graphes
Cette section relie les définitions abstraites à des modèles de consensus qui fournissent des résultats quantitatifs.
Moran, Wright et Kimura : fixation sous dérive et sélection
Moran (naissances/morts individuelles).
Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences. citeturn6view2
Wright (populations mendéliennes).
Wright (1931) est l’une des sources fondatrices de la génétique des populations et discute explicitement dérive, sélection, structure, et effectifs (modèle large). citeturn0search5turn0search1
Kimura (probabilité de fixation).
Kimura dérive une formule générale de probabilité de fixation u(p) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). citeturn5view1turn13view0
Dans le cas de sélection génique constante (avantage sélectif s), il obtient explicitement
u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}},
et pour un mutant unique en diploïde (p=\tfrac{1}{2N}),
u=\frac{1-e^{-2s}}{1-e^{-4Ns}},
avec approximation u\approx \frac{2s}{1-e^{-4Ns}} lorsque |s| est petit, et u\to \tfrac{1}{2N} quand s\to 0 (neutralité). citeturn13view0turn13view1
Interprétation structurale (non téléologique).
La fixation n’est pas un « but » : c’est l’absorption d’un processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection et de chance. citeturn5view1turn13view1
Sélection sur graphes d’interaction : structure comme modulateur de sélection
Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer l’effet de sélection. citeturn6view0
Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité qu’un mutant « prenne le dessus » (fixe) et donc le taux d’évolution. citeturn6view0
Point méthodologique pour l’ouvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles :
- sélection par re‑pondération
w(\Gamma)dans une population homogène ; - sélection induite par contraintes de communication entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique.
Des travaux ultérieurs (consensus en modélisation) notent que les probabilités de fixation et temps d’absorption ne se ferment analytiquement que pour certaines classes de graphes, et que le calcul exact devient souvent algorithmique (systèmes linéaires, méthodes numériques). citeturn1search3turn4search4
Branching processes multi‑types avec sélection (critère spectral)
Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le processus de branchement multi‑types : chaque type engendre une distribution d’enfants de différents types; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multi‑types et leurs critères de super‑criticité. citeturn14search0
Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne M (Perron–Frobenius). citeturn14search0turn14search2
Dans le langage du chapitre, un type \Gamma avec w(\Gamma) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la survivabilité des lignées.
Algorithmes, simulations et coût computationnel
Cette section propose des schémas minimalistes, compatibles avec le formalisme et avec la pratique.
Schéma générique sélection‑variation‑reproduction
On suppose une population de taille N représentée par \Gamma^{(1)},\dots,\Gamma^{(N)}.
- Évaluation structurale : calculer un score
w_i=w(\Gamma^{(i)}). - Sélection (roulette‑wheel) : tirer des parents avec probabilité
w_i/\sum_j w_j. - Reproduction/variation : produire un enfant via fragmentation/recombinaison/mutation (noyau
K). - Mise à jour de la mémoire : mettre à jour
M(cooccurrences, héritage partiel). - Boucle.
Complexité :
- calcul des poids : dépend de
w(souventO(\mathrm{size}(\Gamma))); - sélection par cumul :
O(N)par génération (ouO(\log N)avec arbre de Fenwick); - reproduction : souvent linéaire en longueur de séquence (concaténation/crossover
O(n)).
Estimation de fitness structurelle
Le chapitre ne fixe pas une forme unique de w. Deux familles naturelles (toutes deux non téléologiques) :
- Fitness de viabilité :
w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\ \text{admissible}). - Fitness de robustesse :
w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit}), ce qui se relie aux probabilités d’évasion/temps moyen d’évasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins).
Ces constructions ne disent pas « pourquoi » un type est viable; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif.
Diagramme de flux : accumulation vs effacement
flowchart TD
P["Population p_t sur Γ"] --> Sw["Sélection S_w (répondération)"]
Sw --> Var["Variation K (mutation/recombinaison)"]
Var --> Pn["Population p_{t+1}"]
Var --> MT["Mémoires M des descendants"]
MT --> Agg["Agrégation le long des lignées (somme/filtre/oubli)"]
Agg --> Hist["Histoire distributive M_𝒯"]
Sw -->|concentre| Lock["Réduction de diversité (H(p))"]
Agg -->|accumule| Comp["Potentiel de complexification (support/entropie/profondeur)"]
L’important est la coexistence de deux effets possibles : la sélection peut réduire la diversité de population (entropie H(p)) tout en favorisant, à l’échelle des lignées, l’accumulation d’un registre M_{\mathcal{T}} et l’augmentation de la profondeur logique de certains objets (complexification).
Implications cosmogoniques et analyse philosophique
Conséquences cosmogoniques strictement déduites
Les implications ci‑dessous sont des conséquences logiques des définitions, pas des hypothèses additionnelles.
Disponibilité d’une sélection non téléologique.
Dès qu’un univers possède (i) une reproduction/variation (noyau K) et (ii) une différence systématique de production de descendants admissibles (fonction w), alors la dynamique des distributions inclut une étape de re‑pondération équivalente à S_w. Il y a donc sélection structurelle dès que l’univers n’est pas neutre au sens où tous les types n’ont pas le même « taux de continuation » (fitness structurelle).
Sélection d’invariants par covariance.
L’équation de Price montre que l’accroissement moyen d’une quantité z à travers une génération est gouverné par une covariance avec w et par un terme de transformation interne; ainsi, toute accumulation durable d’un invariant exige une covariance positive persistante et une transmission non destructrice. citeturn12view0turn12view1
Possibilité de complexité croissante sans “progrès”.
Si l’on choisit C comme mesure de complexité (support de M, profondeur logique de Bennett, etc.), la condition minimale pour une dérive positive est \mathrm{Cov}(w,C)>0 (sélection) et un terme \mathbb{E}[w\,\Delta C] non trop négatif (héritage). Price donne précisément le schéma de cette décomposition. citeturn12view0turn12view1
Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à l’aléatoire : « deep » signifie « résultat d’un long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel. citeturn1search9turn8view3
Contraintes physiques minimales (implémentabilité).
Si l’univers réalise des opérations logiquement irréversibles (projections, effacements) pour maintenir certains régimes (standardisation, réparation projective), Landauer impose une borne de dissipation minimale liée à l’effacement de distinctions. Cela ne fonde pas la sélection, mais impose un coût minimal à certaines opérations de stabilisation/effacement. citeturn2search0turn2search12
Ontologie de la sélection structurelle et statut de la complexité
Philosophiquement, deux points sont licites (et deux sont interdits).
Ce qui devient nécessairement dicible.
- La sélection n’est pas un “principe finaliste” mais un effet de re‑pondération dans un espace de transformations où tous les types n’ont pas la même continuation. La sélection est donc une propriété de l’opérateur d’évolution, pas une intention.
- Un invariant sélectionné n’est pas une essence : c’est une quantité dont la covariance avec
west positive et transmissible (Price), donc un corrélat stable de persistance. citeturn12view0turn12view1
Ce que le formalisme interdit.
- Il interdit de confondre « fitness » avec « optimalité » ou « but » :
west un paramètre de reproduction/persistance, et non une fonction objectif métaphysique. - Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, d’où la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie). citeturn8view3turn1search9
Tableaux comparatifs
| Objet | Définition formelle | Rôle dans la dynamique | Risque de confusion à éviter |
|---|---|---|---|
Sélection S_w |
p(\Gamma)\mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]} |
concentration sur grands w |
“choix”, “but” |
Variation K |
noyau markovien (K(\Gamma' | \Gamma)) | exploration/mutation/recombinaison |
Invariant sélectionné z |
\mathrm{Cov}(w,z)>0 (+ transmission) |
augmentation moyenne | “essence” |
| Fixation | absorption stochastique | domination d’un type | “victoire recherchée” |
| Modèle | Type | Résultat canonique (consensus) | Source |
|---|---|---|---|
| Moran | birth–death (finie) | dynamique stochastique des fréquences | Moran (1958) citeturn6view2 |
| Fixation diffusion | approx. continue | u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}} (genic selection) |
Kimura (1962) citeturn13view0 |
| Sélection/covariance | identité | décomposition par covariance + transmission | Price (1970) citeturn12view0turn12view1 |
| Graphes | population structurée | fixation dépend de la topologie; amplificateurs/suppresseurs | Lieberman et al. (2005) citeturn6view0 |
| Métrique de complexité | Ce qu’elle mesure | Propriété structurante | Source |
|---|---|---|---|
H(p) (Shannon) |
dispersion des types | conditionnement, bornes, codage | Shannon (1948) citeturn2search1 |
K(\Gamma) (Kolmogorov) |
compressibilité intrinsèque | distingue structure vs aléa (en principe) | Kolmogorov (1968) citeturn8view2 |
Profondeur logique D (Bennett) |
longueur d’histoire computationnelle | “deep” ≠ “random” | Bennett (1988) citeturn1search9turn8view3 |