algo/v0/chapitre9.md
Nicolas Cantu e93b10a719 Script de compilation, livre consolidé v0, structure v1 et correctifs
**Motivations:**
- Compilation du livre à partir des chapitres v0
- Création de la structure v1 avec chapitres et correctifs

**Evolutions:**
- v0/compile_livre.py : script de compilation
- v0/livre.md : livre consolidé généré
- Modifications des chapitres v0 (1-32), introduction, fermeture, plan_total_ouvrage, references, analyses critiques
- v1 : abstract, chapitres 1-16, correctifs chapitres 17-32, introduction, fermeture, plan_total_ouvrage, references

**Pages affectées:**
- v0/ : compile_livre.py (nouveau), livre.md (nouveau), chapitre1-32.md, introduction.md, fermeture.md, plan_total_ouvrage.md, references.md, analyse_critique_ouvrage*.md
- v1/ : abstract.md, chapitre1-16.md, correctifs/chapitre17-32.md, introduction.md, fermeture.md, plan_total_ouvrage.md, references.md (nouveaux)

Co-authored-by: Cursor <cursoragent@cursor.com>
2026-02-14 00:44:58 +01:00

27 KiB
Raw Blame History

livre version auteur chapitre type
Théorie des futurs accessibles v0 Nicolas Cantu 9 chapitre initial

Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification

Résumé exécutif

Ce chapitre formalise la sélection comme un phénomène purement structural : un opérateur agissant sur des distributions de génotypes \Gamma, sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de noninjectivité) et des lignées orientées (DAG dévénements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une tendance différentielle à produire des descendants admissibles (au sens des contraintes R), ce qui se traduit mathématiquement par une repondération des distributions par une fonction de poids w(\Gamma) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie.

Deux résultats structurants sont établis. Dabord, lopérateur de sélection S_w conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) augmente la moyenne \mathbb{E}[w] dune manière mesurable (inégalité élémentaire via la variance). Ensuite, léquation de Price fournit une identité générale de variation des moyennes : le changement dune quantité moyenne (trait, invariant, complexité) se décompose en un terme de covariance entre variation et fitness, plus un terme de transformation « intralignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique. citeturn12view0turn12view1

La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines mesures de complexité (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, citeturn2search1 (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, citeturn8view2 (iii) profondeur logique de Bennett pour distinguer laléatoire « shallow » du complexe « deep » (résultat dune longue histoire causale/computationnelle). citeturn8view3turn1search9
On montre que la complexification nest pas un monotone universel : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets doubli, de bruit, et de coût deffacement (Landauer) lorsquon considère limplémentabilité physique des opérations irréversibles. citeturn2search0turn2search12

Enfin, on place ces définitions dans des modèles canoniques de consensus : WrightFisher/Wright (population génétique), Moran (naissancesmorts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (LiebermanHauertNowak) où la structure dinteraction modifie probabilités de fixation et temps dabsorption. citeturn6view2turn13view0turn6view0
Les implications cosmogoniques sont strictement déduites : si un univers possède (a) reproduction partielle, (b) héritage de contraintes (invariants) et (c) sélection structurale (repondération par w), alors il existe des régimes où certains invariants saccumulent et où des trajectoires historiques de complexité croissante sont possibles (probabilistiquement), sans présupposer « utilité » ni « progrès ».

Cadre formel minimal

On fixe un cadre qui ne présuppose ni biologie empirique ni intention.

Espaces et objets.
On dispose dun espace X de configurations (discret fini, ou compact métrique selon les besoins), et dune dynamique f:X\to X (ou un semiflot). Louvrage a déjà établi que litération induit une structure dordre (préordre, puis ordre sur classes) et que lévolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.)

Classes et génotypes.
On considère un espace de génotypes \mathcal{G}, dont un élément est un quadruplet


\Gamma=(S,M,A,R),

S est une séquence sur un alphabet fini \mathcal{L}, M est un registre de cooccurrences (compteurs non négatifs), A un ensemble dinvariants dérivés, et R un ensemble de règles admissibles (fragmentation, recombinaison, réparation).
Le passage X\to \mathcal{L} (classes) est interprété comme compression/noninjectivité (fibres et partitions), mais cela nest pas requis pour définir la sélection ; cela devient crucial pour relier sélection et mémoire M.

Populations comme distributions.
Une population est une mesure de probabilité p sur \mathcal{G} (cas discret : p\in\Delta(\mathcal{G}), simplex). Le « temps » au niveau populationnel est un index ditération dun opérateur sur distributions.

Reproduction/variation comme noyau de transition.
On encode reproduction, recombinaison et mutation par un noyau (K) :


K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum_{\Gamma'} K(\Gamma'\mid \Gamma)=1.

Ainsi, létape de variation (sans sélection) est simplement


p^{\text{var}}(\Gamma') = \sum_{\Gamma} p(\Gamma)\,K(\Gamma'\mid \Gamma).

Cest une mise à jour de Markov (linéaire sur le simplex).

Fitness structurelle non téléologique.
On définit une fonction w:\mathcal{G}\to\mathbb{R}_+ comme une intensité différentielle de reproduction admissible, par exemple :

  • w(\Gamma)=\mathbb{E}[\#\text{descendants admissibles}\mid \Gamma], ou
  • w(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma), ou
  • w(\Gamma)=\mathbb{P}(\text{conserver un invariant }A_0\mid\Gamma).

Aucune de ces définitions nimplique un but : w est un paramètre de la dynamique effective.

Sélection structurelle et invariants sélectionnés

Définition de lopérateur de sélection

Définition (opérateur de sélection).
Soit p une distribution sur \mathcal{G}, et w\ge 0 une fonction non identiquement nulle. On définit


(S_w p)(\Gamma) \;=\; \frac{w(\Gamma)\,p(\Gamma)}{\langle w,p\rangle},
\quad \text{où}\quad
\langle w,p\rangle=\sum_{\Gamma} w(\Gamma)p(\Gamma).

Cest la repondération standard « proportionnelle à w » (forme canonique de la sélection).

Proposition (biendéfinition).
Si \langle w,p\rangle>0, alors S_w p est une distribution (non négative et de somme 1).

Preuve. w(\Gamma)p(\Gamma)\ge 0. La somme vaut \sum_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1. □

Cette opération est la version abstraite (et non téléologique) du mécanisme « les types à plus grand taux de reproduction deviennent plus fréquents ».

Sélection + variation : dynamique composée

Le modèle minimal de sélectionvariation est alors


p_{t+1} \;=\; K\big(S_w p_t\big),

K est lopérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement :

  • sélection (non linéaire, renormalisation),
  • variation (linéaire, mélange).

Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple)

Un fait classique (et ici démontré explicitement) est que, lorsque w ne dépend pas de p (pas de dépendance fréquentielle), la sélection seule augmente la moyenne de w.

Proposition (augmentation de la moyenne de w sous S_w).
Supposons w:\mathcal{G}\to\mathbb{R}_+ indépendante de p. Alors


\mathbb{E}_{S_w p}[w] \;\ge\; \mathbb{E}_{p}[w],

avec égalité ssi w est constante (p)-presque partout.

Preuve.
On calcule


\mathbb{E}_{S_w p}[w]=\sum_{\Gamma} w(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]}
= \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}.

Or \mathbb{E}_p[w^2]=\mathrm{Var}_p(w)+\mathbb{E}_p[w]^2, donc


\frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}=\mathbb{E}_p[w]+\frac{\mathrm{Var}_p(w)}{\mathbb{E}_p[w]}
\ge \mathbb{E}_p[w].

Égalité ssi \mathrm{Var}_p(w)=0, i.e. w constante sur le support. □

Cette proposition est un énoncé strictement mathématique : il ne dit pas que « lévolution progresse », il dit que lopérateur S_w concentre la masse sur les régions de plus grand w.

Équation de Price : invariants sélectionnés par covariance

La question centrale de ce chapitre est : quels invariants sont sélectionnés ?
On répond sans métaphore par léquation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec w, modulé par ce qui se transforme pendant la reproduction.

Énoncé (forme générale, un pas).
Soit une population dindividus i (ou de génotypes \Gamma) avec une quantité z (trait, invariant, complexité) et un nombre de descendants w (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \bar z entre deux générations se décompose en :


\Delta \bar z \;=\; \frac{\mathrm{Cov}(w,z)}{\bar w} \;+\; \frac{\mathbb{E}[w\,\Delta z]}{\bar w},

\Delta z est le changement de z entre parent et descendant (terme « transmission/transformations internes »).
Price montre explicitement que la variation attribuable à la sélection sexprime comme un terme de covariance, et il illustre la transparence de cette écriture. citeturn12view0turn12view1 (La version 1972 étend ce formalisme et discute des cas plus complexes, notamment quand la structure de sélection nest pas une simple sélection « génétique » au sens standard. citeturn3search3)

Lecture structurale (sans finalité).

  • Si \mathrm{Cov}(w,z)>0, alors la sélection tend à augmenter la moyenne de z, toutes choses égales par ailleurs.
  • Si \mathbb{E}[w\,\Delta z] est négatif (mutation destructrice, réparation projective), il peut annuler ou inverser leffet de covariance.

Ainsi, un invariant « sélectionné » est un invariant z dont la covariance avec w est durablement positive et dont la transmission nefface pas lavantage.

Dynamique de complexification et métriques de complexité

Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle C sur \Gamma (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous laction conjointe variationsélectionhéritage.

Trois familles de métriques (consensus)

Entropie structurelle (Shannon).
Pour une distribution p sur \mathcal{G}, lentropie de Shannon


H(p)=-\sum_{\Gamma} p(\Gamma)\log p(\Gamma)

mesure la dispersion des types possibles. Shannon introduit lentropie comme mesure dincertitude dune source discrète et en établit les propriétés élémentaires et le rôle des conditionnements. citeturn2search1
Dans notre cadre, H(p_t) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes.

Complexité algorithmique (Kolmogorov).
Kolmogorov distingue explicitement une approche combinatoire, probabiliste et algorithmique de « quantité dinformation », en reliant la mesure à des descriptions minimales (approche par fonctions récursives). citeturn8view2
On note K(\Gamma) la longueur de la plus courte description (programme) produisant \Gamma sur une machine universelle. Point crucial (consensus en théorie) : K nest pas calculable en général, mais sert de référence conceptuelle pour la compressibilité.

Profondeur logique (Bennett).
Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir dun programme (presque) le plus court, avec un paramètre de signification. citeturn1search9turn8view3
Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis quun objet compressible mais difficile à générer peut être « deep ». citeturn8view3

Complexification comme dérive positive dune fonctionnelle

Soit C:\mathcal{G}\to\mathbb{R} une mesure de complexité (au choix : K, profondeur, taille de support de M, etc.). Définissons la moyenne populationnelle


\bar C_t = \mathbb{E}_{p_t}[C].

Proposition (variation de \bar C sous sélection pure).
Sous sélection seule p' = S_w p,


\bar C' - \bar C
= \frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}.

Preuve.


\bar C'=\sum_\Gamma C(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]}
=\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}.

Donc


\bar C' - \bar C
=\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}-\mathbb{E}_p[C]
=\frac{\mathbb{E}_p[wC]-\mathbb{E}_p[w]\mathbb{E}_p[C]}{\mathbb{E}_p[w]}
=\frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}.

Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à w.

Conditions nécessaires pour une dynamique de complexification

En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) :

  • Variation : la dynamique doit explorer des génotypes de C différents (sinon covariance nulle).
  • Héritabilité : les opérations de reproduction doivent préserver suffisamment C (ou le reconstruire) pour que lavantage corrélé à w ne soit pas détruit; sinon le terme \mathbb{E}[w\Delta C] compense négativement.
  • Corrélation structurale : il faut une covariance positive durable \mathrm{Cov}(w,C)>0.

Le formalisme de Jaynes, qui reconstruit des distributions à partir de contraintes par maximum dentropie, fournit un langage canonique pour dire que « conserver une contrainte D » réduit lincertitude sur les états possibles (donc sur les futurs), sans sémantique. citeturn2search10turn2search6
Ici, cette remarque sert uniquement à justifier quune contrainte transmissible peut être traitée comme paramètre de prédiction probabiliste, sans postuler de sujet.

Modèles de sélection : processus stochastiques, fixation et sélection sur graphes

Cette section relie les définitions abstraites à des modèles de consensus qui fournissent des résultats quantitatifs.

Moran, Wright et Kimura : fixation sous dérive et sélection

Moran (naissances/morts individuelles).
Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences. citeturn6view2

Wright (populations mendéliennes).
Wright (1931) est lune des sources fondatrices de la génétique des populations et discute explicitement dérive, sélection, structure, et effectifs (modèle large). citeturn0search5turn0search1

Kimura (probabilité de fixation).
Kimura dérive une formule générale de probabilité de fixation u(p) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). citeturn5view1turn13view0
Dans le cas de sélection génique constante (avantage sélectif s), il obtient explicitement


u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}},

et pour un mutant unique en diploïde (p=\tfrac{1}{2N}),


u=\frac{1-e^{-2s}}{1-e^{-4Ns}},

avec approximation u\approx \frac{2s}{1-e^{-4Ns}} lorsque |s| est petit, et u\to \tfrac{1}{2N} quand s\to 0 (neutralité). citeturn13view0turn13view1

Interprétation structurale (non téléologique).
La fixation nest pas un « but » : cest labsorption dun processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection et de chance. citeturn5view1turn13view1

Sélection sur graphes dinteraction : structure comme modulateur de sélection

Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer leffet de sélection. citeturn6view0
Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité quun mutant « prenne le dessus » (fixe) et donc le taux dévolution. citeturn6view0

Point méthodologique pour louvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles :

  1. sélection par repondération w(\Gamma) dans une population homogène ;
  2. sélection induite par contraintes de communication entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique.

Des travaux ultérieurs (consensus en modélisation) notent que les probabilités de fixation et temps dabsorption ne se ferment analytiquement que pour certaines classes de graphes, et que le calcul exact devient souvent algorithmique (systèmes linéaires, méthodes numériques). citeturn1search3turn4search4

Branching processes multitypes avec sélection (critère spectral)

Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le processus de branchement multitypes : chaque type engendre une distribution denfants de différents types; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multitypes et leurs critères de supercriticité. citeturn14search0
Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne M (PerronFrobenius). citeturn14search0turn14search2

Dans le langage du chapitre, un type \Gamma avec w(\Gamma) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la survivabilité des lignées.

Algorithmes, simulations et coût computationnel

Cette section propose des schémas minimalistes, compatibles avec le formalisme et avec la pratique.

Schéma générique sélectionvariationreproduction

On suppose une population de taille N représentée par \Gamma^{(1)},\dots,\Gamma^{(N)}.

  1. Évaluation structurale : calculer un score w_i=w(\Gamma^{(i)}).
  2. Sélection (roulettewheel) : tirer des parents avec probabilité w_i/\sum_j w_j.
  3. Reproduction/variation : produire un enfant via fragmentation/recombinaison/mutation (noyau K).
  4. Mise à jour de la mémoire : mettre à jour M (cooccurrences, héritage partiel).
  5. Boucle.

Complexité :

  • calcul des poids : dépend de w (souvent O(\mathrm{size}(\Gamma)));
  • sélection par cumul : O(N) par génération (ou O(\log N) avec arbre de Fenwick);
  • reproduction : souvent linéaire en longueur de séquence (concaténation/crossover O(n)).

Estimation de fitness structurelle

Le chapitre ne fixe pas une forme unique de w. Deux familles naturelles (toutes deux non téléologiques) :

  • Fitness de viabilité : w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\ \text{admissible}).
  • Fitness de robustesse : w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit}), ce qui se relie aux probabilités dévasion/temps moyen dévasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins).

Ces constructions ne disent pas « pourquoi » un type est viable; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif.

Diagramme de flux : accumulation vs effacement

flowchart TD
  P["Population p_t sur Γ"] --> Sw["Sélection S_w (répondération)"]
  Sw --> Var["Variation K (mutation/recombinaison)"]
  Var --> Pn["Population p_{t+1}"]
  Var --> MT["Mémoires M des descendants"]
  MT --> Agg["Agrégation le long des lignées (somme/filtre/oubli)"]
  Agg --> Hist["Histoire distributive M_𝒯"]
  Sw -->|concentre| Lock["Réduction de diversité (H(p))"]
  Agg -->|accumule| Comp["Potentiel de complexification (support/entropie/profondeur)"]

Limportant est la coexistence de deux effets possibles : la sélection peut réduire la diversité de population (entropie H(p)) tout en favorisant, à léchelle des lignées, laccumulation dun registre M_{\mathcal{T}} et laugmentation de la profondeur logique de certains objets (complexification).

Implications cosmogoniques et analyse philosophique

Conséquences cosmogoniques strictement déduites

Les implications cidessous sont des conséquences logiques des définitions, pas des hypothèses additionnelles.

Disponibilité dune sélection non téléologique.
Dès quun univers possède (i) une reproduction/variation (noyau K) et (ii) une différence systématique de production de descendants admissibles (fonction w), alors la dynamique des distributions inclut une étape de repondération équivalente à S_w. Il y a donc sélection structurelle dès que lunivers nest pas neutre au sens où tous les types nont pas le même « taux de continuation » (fitness structurelle).

Sélection dinvariants par covariance.
Léquation de Price montre que laccroissement moyen dune quantité z à travers une génération est gouverné par une covariance avec w et par un terme de transformation interne; ainsi, toute accumulation durable dun invariant exige une covariance positive persistante et une transmission non destructrice. citeturn12view0turn12view1

Possibilité de complexité croissante sans “progrès”.
Si lon choisit C comme mesure de complexité (support de M, profondeur logique de Bennett, etc.), la condition minimale pour une dérive positive est \mathrm{Cov}(w,C)>0 (sélection) et un terme \mathbb{E}[w\,\Delta C] non trop négatif (héritage). Price donne précisément le schéma de cette décomposition. citeturn12view0turn12view1
Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à laléatoire : « deep » signifie « résultat dun long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel. citeturn1search9turn8view3

Contraintes physiques minimales (implémentabilité).
Si lunivers réalise des opérations logiquement irréversibles (projections, effacements) pour maintenir certains régimes (standardisation, réparation projective), Landauer impose une borne de dissipation minimale liée à leffacement de distinctions. Cela ne fonde pas la sélection, mais impose un coût minimal à certaines opérations de stabilisation/effacement. citeturn2search0turn2search12

Ontologie de la sélection structurelle et statut de la complexité

Philosophiquement, deux points sont licites (et deux sont interdits).

Ce qui devient nécessairement dicible.

  1. La sélection nest pas un “principe finaliste” mais un effet de repondération dans un espace de transformations où tous les types nont pas la même continuation. La sélection est donc une propriété de lopérateur dévolution, pas une intention.
  2. Un invariant sélectionné nest pas une essence : cest une quantité dont la covariance avec w est positive et transmissible (Price), donc un corrélat stable de persistance. citeturn12view0turn12view1

Ce que le formalisme interdit.

  1. Il interdit de confondre « fitness » avec « optimalité » ou « but » : w est un paramètre de reproduction/persistance, et non une fonction objectif métaphysique.
  2. Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, doù la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie). citeturn8view3turn1search9

Tableaux comparatifs

Objet Définition formelle Rôle dans la dynamique Risque de confusion à éviter
Sélection S_w p(\Gamma)\mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]} concentration sur grands w “choix”, “but”
Variation K noyau markovien (K(\Gamma' \Gamma)) exploration/mutation/recombinaison
Invariant sélectionné z \mathrm{Cov}(w,z)>0 (+ transmission) augmentation moyenne “essence”
Fixation absorption stochastique domination dun type “victoire recherchée”
Modèle Type Résultat canonique (consensus) Source
Moran birthdeath (finie) dynamique stochastique des fréquences Moran (1958) citeturn6view2
Fixation diffusion approx. continue u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}} (genic selection) Kimura (1962) citeturn13view0
Sélection/covariance identité décomposition par covariance + transmission Price (1970) citeturn12view0turn12view1
Graphes population structurée fixation dépend de la topologie; amplificateurs/suppresseurs Lieberman et al. (2005) citeturn6view0
Métrique de complexité Ce quelle mesure Propriété structurante Source
H(p) (Shannon) dispersion des types conditionnement, bornes, codage Shannon (1948) citeturn2search1
K(\Gamma) (Kolmogorov) compressibilité intrinsèque distingue structure vs aléa (en principe) Kolmogorov (1968) citeturn8view2
Profondeur logique D (Bennett) longueur dhistoire computationnelle “deep” ≠ “random” Bennett (1988) citeturn1search9turn8view3