# Chapitre 9 — Sélection structurelle, invariants et dynamique de complexification ## Résumé exécutif Ce chapitre formalise la **sélection** comme un phénomène purement structural : un **opérateur** agissant sur des distributions de génotypes \(\Gamma\), sans finalité ni agentivité. Le point de départ est minimal : un espace discret (ou compact) de configurations, une dynamique (itération et/ou reproduction), des classes (issues de non‑injectivité) et des lignées orientées (DAG d’événements). La sélection apparaît lorsque, parmi les génotypes possibles, certains ont une **tendance différentielle** à produire des descendants admissibles (au sens des contraintes \(R\)), ce qui se traduit mathématiquement par une **re‑pondération** des distributions par une fonction de poids \(w(\Gamma)\) interprétée comme « fitness structurelle » (nombre attendu de descendants viables, probabilité de survie de lignée locale, etc.), sans téléologie. Deux résultats structurants sont établis. D’abord, l’opérateur de sélection \(S_w\) conserve le simplex des distributions et (sous hypothèses simples de fitness indépendante des fréquences) **augmente la moyenne** \(\mathbb{E}[w]\) d’une manière mesurable (inégalité élémentaire via la variance). Ensuite, l’**équation de Price** fournit une identité générale de variation des moyennes : le changement d’une quantité moyenne (trait, invariant, complexité) se décompose en un terme de **covariance** entre variation et fitness, plus un terme de transformation « intra‑lignées » (mutation, recombinaison, réparation). Price formule explicitement le rôle central de la covariance comme moteur mathématique de la sélection, dans un cadre exact et non téléologique. citeturn12view0turn12view1 La « complexification » est ensuite définie de façon non ambiguë comme une croissance de certaines **mesures de complexité** (structurelle, informationnelle, algorithmique, et/ou historique). On introduit trois familles de métriques, toutes standardisées : (i) entropies de Shannon (structurelles) pour quantifier diversité/distribution, citeturn2search1 (ii) complexité algorithmique de Kolmogorov pour quantifier la compressibilité intrinsèque, citeturn8view2 (iii) profondeur logique de Bennett pour distinguer l’aléatoire « shallow » du complexe « deep » (résultat d’une longue histoire causale/computationnelle). citeturn8view3turn1search9 On montre que la complexification **n’est pas un monotone universel** : elle exige des conditions explicites (variation, héritabilité au sens métrique, et covariance positive entre fitness structurelle et complexité), et elle est limitée par des effets d’oubli, de bruit, et de coût d’effacement (Landauer) lorsqu’on considère l’implémentabilité physique des opérations irréversibles. citeturn2search0turn2search12 Enfin, on place ces définitions dans des modèles canoniques de consensus : Wright‑Fisher/Wright (population génétique), Moran (naissances‑morts individuelles), Kimura (probabilité de fixation sous sélection via équations de diffusion), et sélection sur graphes (Lieberman–Hauert–Nowak) où la structure d’interaction modifie probabilités de fixation et temps d’absorption. citeturn6view2turn13view0turn6view0 Les implications cosmogoniques sont strictement déduites : si un univers possède (a) reproduction partielle, (b) héritage de contraintes (invariants) et (c) sélection structurale (re‑pondération par \(w\)), alors il existe des régimes où certains invariants s’accumulent et où des trajectoires historiques de complexité croissante sont possibles (probabilistiquement), sans présupposer « utilité » ni « progrès ». ## Cadre formel minimal On fixe un cadre qui ne présuppose ni biologie empirique ni intention. **Espaces et objets.** On dispose d’un espace \(X\) de configurations (discret fini, ou compact métrique selon les besoins), et d’une dynamique \(f:X\to X\) (ou un semi‑flot). L’ouvrage a déjà établi que l’itération induit une structure d’ordre (préordre, puis ordre sur classes) et que l’évolution vers des attracteurs définit des bassins et des contraintes sur les futurs. (Ces éléments sont des prérequis du présent chapitre.) **Classes et génotypes.** On considère un espace de génotypes \(\mathcal{G}\), dont un élément est un quadruplet \[ \Gamma=(S,M,A,R), \] où \(S\) est une séquence sur un alphabet fini \(\mathcal{L}\), \(M\) est un registre de cooccurrences (compteurs non négatifs), \(A\) un ensemble d’invariants dérivés, et \(R\) un ensemble de règles admissibles (fragmentation, recombinaison, réparation). Le passage \(X\to \mathcal{L}\) (classes) est interprété comme compression/non‑injectivité (fibres et partitions), mais cela n’est pas requis pour définir la sélection ; cela devient crucial pour relier sélection et mémoire \(M\). **Populations comme distributions.** Une population est une mesure de probabilité \(p\) sur \(\mathcal{G}\) (cas discret : \(p\in\Delta(\mathcal{G})\), simplex). Le « temps » au niveau populationnel est un index d’itération d’un opérateur sur distributions. **Reproduction/variation comme noyau de transition.** On encode reproduction, recombinaison et mutation par un noyau \(K\) : \[ K(\Gamma' \mid \Gamma) \ge 0,\qquad \sum_{\Gamma'} K(\Gamma'\mid \Gamma)=1. \] Ainsi, l’étape de variation (sans sélection) est simplement \[ p^{\text{var}}(\Gamma') = \sum_{\Gamma} p(\Gamma)\,K(\Gamma'\mid \Gamma). \] C’est une mise à jour de Markov (linéaire sur le simplex). **Fitness structurelle non téléologique.** On définit une fonction \(w:\mathcal{G}\to\mathbb{R}_+\) comme une **intensité différentielle de reproduction admissible**, par exemple : - \(w(\Gamma)=\mathbb{E}[\#\text{descendants admissibles}\mid \Gamma]\), ou - \(w(\Gamma)=\mathbb{P}(\text{produire au moins un descendant viable}\mid \Gamma)\), ou - \(w(\Gamma)=\mathbb{P}(\text{conserver un invariant }A_0\mid\Gamma)\). Aucune de ces définitions n’implique un but : \(w\) est un paramètre de la dynamique effective. ## Sélection structurelle et invariants sélectionnés ### Définition de l’opérateur de sélection **Définition (opérateur de sélection).** Soit \(p\) une distribution sur \(\mathcal{G}\), et \(w\ge 0\) une fonction non identiquement nulle. On définit \[ (S_w p)(\Gamma) \;=\; \frac{w(\Gamma)\,p(\Gamma)}{\langle w,p\rangle}, \quad \text{où}\quad \langle w,p\rangle=\sum_{\Gamma} w(\Gamma)p(\Gamma). \] C’est la re‑pondération standard « proportionnelle à \(w\) » (forme canonique de la sélection). **Proposition (bien‑définition).** Si \(\langle w,p\rangle>0\), alors \(S_w p\) est une distribution (non négative et de somme 1). *Preuve.* \(w(\Gamma)p(\Gamma)\ge 0\). La somme vaut \(\sum_{\Gamma} w(\Gamma)p(\Gamma)/\langle w,p\rangle=1\). □ Cette opération est la version abstraite (et non téléologique) du mécanisme « les types à plus grand taux de reproduction deviennent plus fréquents ». ### Sélection + variation : dynamique composée Le modèle minimal de sélection‑variation est alors \[ p_{t+1} \;=\; K\big(S_w p_t\big), \] où \(K\) est l’opérateur linéaire induit par le noyau de transition. Cette factorisation sépare clairement : - **sélection** (non linéaire, re‑normalisation), - **variation** (linéaire, mélange). ### Inégalité élémentaire : augmentation de la moyenne de fitness (cas simple) Un fait classique (et ici démontré explicitement) est que, lorsque \(w\) ne dépend pas de \(p\) (pas de dépendance fréquentielle), la sélection seule augmente la moyenne de \(w\). **Proposition (augmentation de la moyenne de \(w\) sous \(S_w\)).** Supposons \(w:\mathcal{G}\to\mathbb{R}_+\) indépendante de \(p\). Alors \[ \mathbb{E}_{S_w p}[w] \;\ge\; \mathbb{E}_{p}[w], \] avec égalité ssi \(w\) est constante \(p\)-presque partout. *Preuve.* On calcule \[ \mathbb{E}_{S_w p}[w]=\sum_{\Gamma} w(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} = \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}. \] Or \(\mathbb{E}_p[w^2]=\mathrm{Var}_p(w)+\mathbb{E}_p[w]^2\), donc \[ \frac{\mathbb{E}_p[w^2]}{\mathbb{E}_p[w]}=\mathbb{E}_p[w]+\frac{\mathrm{Var}_p(w)}{\mathbb{E}_p[w]} \ge \mathbb{E}_p[w]. \] Égalité ssi \(\mathrm{Var}_p(w)=0\), i.e. \(w\) constante sur le support. □ Cette proposition est un énoncé strictement mathématique : il ne dit pas que « l’évolution progresse », il dit que l’opérateur \(S_w\) concentre la masse sur les régions de plus grand \(w\). ### Équation de Price : invariants sélectionnés par covariance La question centrale de ce chapitre est : **quels invariants sont sélectionnés** ? On répond sans métaphore par l’équation de Price : ce qui augmente (en moyenne) est ce qui covarie positivement avec \(w\), modulé par ce qui se transforme pendant la reproduction. **Énoncé (forme générale, un pas).** Soit une population d’individus \(i\) (ou de génotypes \(\Gamma\)) avec une quantité \(z\) (trait, invariant, complexité) et un nombre de descendants \(w\) (« fitness » au sens de nombre de descendants). Alors le changement de la moyenne \(\bar z\) entre deux générations se décompose en : \[ \Delta \bar z \;=\; \frac{\mathrm{Cov}(w,z)}{\bar w} \;+\; \frac{\mathbb{E}[w\,\Delta z]}{\bar w}, \] où \(\Delta z\) est le changement de \(z\) entre parent et descendant (terme « transmission/transformations internes »). Price montre explicitement que la variation attribuable à la sélection s’exprime comme un terme de covariance, et il illustre la transparence de cette écriture. citeturn12view0turn12view1 (La version 1972 étend ce formalisme et discute des cas plus complexes, notamment quand la structure de sélection n’est pas une simple sélection « génétique » au sens standard. citeturn3search3) **Lecture structurale (sans finalité).** - Si \(\mathrm{Cov}(w,z)>0\), alors la sélection tend à augmenter la moyenne de \(z\), toutes choses égales par ailleurs. - Si \(\mathbb{E}[w\,\Delta z]\) est négatif (mutation destructrice, réparation projective), il peut annuler ou inverser l’effet de covariance. Ainsi, un invariant « sélectionné » est un invariant \(z\) dont la covariance avec \(w\) est durablement positive et dont la transmission n’efface pas l’avantage. ## Dynamique de complexification et métriques de complexité Le terme « complexification » ne doit pas être utilisé sans métrique. On propose donc une définition opérationnelle : une dynamique de complexification est un régime où une fonctionnelle \(C\) sur \(\Gamma\) (ou sur une lignée) présente une dérive positive (en moyenne, ou presque sûrement), sous l’action conjointe variation‑sélection‑héritage. ### Trois familles de métriques (consensus) **Entropie structurelle (Shannon).** Pour une distribution \(p\) sur \(\mathcal{G}\), l’entropie de Shannon \[ H(p)=-\sum_{\Gamma} p(\Gamma)\log p(\Gamma) \] mesure la dispersion des types possibles. Shannon introduit l’entropie comme mesure d’incertitude d’une source discrète et en établit les propriétés élémentaires et le rôle des conditionnements. citeturn2search1 Dans notre cadre, \(H(p_t)\) peut décroître sous sélection (concentration) même si la complexité des génotypes individuels croît : la complexité « populationnelle » et la complexité « individuelle » sont donc distinctes. **Complexité algorithmique (Kolmogorov).** Kolmogorov distingue explicitement une approche combinatoire, probabiliste et algorithmique de « quantité d’information », en reliant la mesure à des descriptions minimales (approche par fonctions récursives). citeturn8view2 On note \(K(\Gamma)\) la longueur de la plus courte description (programme) produisant \(\Gamma\) sur une machine universelle. Point crucial (consensus en théorie) : \(K\) n’est pas calculable en général, mais sert de référence conceptuelle pour la compressibilité. **Profondeur logique (Bennett).** Bennett propose la profondeur logique comme mesure du « caractère organisé » : temps minimal requis pour générer un objet à partir d’un programme (presque) le plus court, avec un paramètre de signification. citeturn1search9turn8view3 Conséquence importante : une séquence aléatoire peut avoir grande complexité de Kolmogorov (incompressible) tout en étant « shallow » (pas de longue histoire de calcul), tandis qu’un objet compressible mais difficile à générer peut être « deep ». citeturn8view3 ### Complexification comme dérive positive d’une fonctionnelle Soit \(C:\mathcal{G}\to\mathbb{R}\) une mesure de complexité (au choix : \(K\), profondeur, taille de support de \(M\), etc.). Définissons la moyenne populationnelle \[ \bar C_t = \mathbb{E}_{p_t}[C]. \] **Proposition (variation de \(\bar C\) sous sélection pure).** Sous sélection seule \(p' = S_w p\), \[ \bar C' - \bar C = \frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}. \] *Preuve.* \[ \bar C'=\sum_\Gamma C(\Gamma)\frac{w(\Gamma)p(\Gamma)}{\mathbb{E}_p[w]} =\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}. \] Donc \[ \bar C' - \bar C =\frac{\mathbb{E}_p[wC]}{\mathbb{E}_p[w]}-\mathbb{E}_p[C] =\frac{\mathbb{E}_p[wC]-\mathbb{E}_p[w]\mathbb{E}_p[C]}{\mathbb{E}_p[w]} =\frac{\mathrm{Cov}_p(w,C)}{\mathbb{E}_p[w]}. \] □ Ainsi, la sélection ne « crée » pas directement la complexité : elle amplifie ce qui est déjà présent et corrélé à \(w\). ### Conditions nécessaires pour une dynamique de complexification En combinant la proposition précédente avec le terme de transmission (Price), on obtient une condition minimale (non téléologique) : - **Variation** : la dynamique doit explorer des génotypes de \(C\) différents (sinon covariance nulle). - **Héritabilité** : les opérations de reproduction doivent préserver suffisamment \(C\) (ou le reconstruire) pour que l’avantage corrélé à \(w\) ne soit pas détruit; sinon le terme \(\mathbb{E}[w\Delta C]\) compense négativement. - **Corrélation structurale** : il faut une covariance positive durable \(\mathrm{Cov}(w,C)>0\). Le formalisme de Jaynes, qui reconstruit des distributions à partir de contraintes par maximum d’entropie, fournit un langage canonique pour dire que « conserver une contrainte \(D\) » réduit l’incertitude sur les états possibles (donc sur les futurs), sans sémantique. citeturn2search10turn2search6 Ici, cette remarque sert uniquement à justifier qu’une contrainte transmissible peut être traitée comme paramètre de prédiction probabiliste, sans postuler de sujet. ## Modèles de sélection : processus stochastiques, fixation et sélection sur graphes Cette section relie les définitions abstraites à des modèles de consensus qui fournissent des résultats quantitatifs. ### Moran, Wright et Kimura : fixation sous dérive et sélection **Moran (naissances/morts individuelles).** Moran propose un modèle où les événements de naissance et de mort se produisent individuellement, modifiant la fréquence génique comme processus aléatoire; il obtient des résultats exacts pour certaines distributions et discute la « rate of approach » des fréquences. citeturn6view2 **Wright (populations mendéliennes).** Wright (1931) est l’une des sources fondatrices de la génétique des populations et discute explicitement dérive, sélection, structure, et effectifs (modèle large). citeturn0search5turn0search1 **Kimura (probabilité de fixation).** Kimura dérive une formule générale de probabilité de fixation \(u(p)\) en termes de la moyenne et variance du changement de fréquence par génération, en posant une équation de Kolmogorov backward (approche diffusion). citeturn5view1turn13view0 Dans le cas de sélection génique constante (avantage sélectif \(s\)), il obtient explicitement \[ u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}}, \] et pour un mutant unique en diploïde (\(p=\tfrac{1}{2N}\)), \[ u=\frac{1-e^{-2s}}{1-e^{-4Ns}}, \] avec approximation \(u\approx \frac{2s}{1-e^{-4Ns}}\) lorsque \(|s|\) est petit, et \(u\to \tfrac{1}{2N}\) quand \(s\to 0\) (neutralité). citeturn13view0turn13view1 **Interprétation structurale (non téléologique).** La fixation n’est pas un « but » : c’est l’absorption d’un processus stochastique fini dont les états absorbants sont « tout A » ou « tout B ». Kimura souligne explicitement que succès/échec dépend de sélection **et** de chance. citeturn5view1turn13view1 ### Sélection sur graphes d’interaction : structure comme modulateur de sélection Lieberman, Hauert et Nowak généralisent le Moran process à une population structurée par un graphe : les individus occupent des sommets, et les arêtes pondérées déterminent qui remplace qui; ils étudient la probabilité de fixation de mutants et montrent que certaines structures peuvent amplifier ou supprimer l’effet de sélection. citeturn6view0 Ils formulent explicitement la question centrale : comment la structure du graphe affecte la probabilité qu’un mutant « prenne le dessus » (fixe) et donc le taux d’évolution. citeturn6view0 Point méthodologique pour l’ouvrage : « sélection structurelle » peut signifier deux choses, toutes deux formelles : 1) sélection par re‑pondération \(w(\Gamma)\) dans une population homogène ; 2) sélection induite par **contraintes de communication** entre individus (graphe), où la topologie influe sur les probabilités de remplacement, même à fitness identique. Des travaux ultérieurs (consensus en modélisation) notent que les probabilités de fixation et temps d’absorption ne se ferment analytiquement que pour certaines classes de graphes, et que le calcul exact devient souvent algorithmique (systèmes linéaires, méthodes numériques). citeturn1search3turn4search4 ### Branching processes multi‑types avec sélection (critère spectral) Pour relier sélection et croissance/décroissance de lignées, un cadre standard est le **processus de branchement multi‑types** : chaque type engendre une distribution d’enfants de différents types; la condition de survie dépend de la matrice moyenne des descendants. Harris fournit une référence classique de la théorie des processus de branchement, incluant les versions multi‑types et leurs critères de super‑criticité. citeturn14search0 Au niveau de consensus, la condition « supercritique » (croissance possible avec probabilité positive) est liée au rayon spectral de la matrice moyenne \(M\) (Perron–Frobenius). citeturn14search0turn14search2 Dans le langage du chapitre, un type \(\Gamma\) avec \(w(\Gamma)\) élevé augmente le rayon spectral effectif de la matrice moyenne des descendants : la sélection structurelle devient une contrainte sur la **survivabilité** des lignées. ## Algorithmes, simulations et coût computationnel Cette section propose des schémas minimalistes, compatibles avec le formalisme et avec la pratique. ### Schéma générique sélection‑variation‑reproduction On suppose une population de taille \(N\) représentée par \(\Gamma^{(1)},\dots,\Gamma^{(N)}\). 1) **Évaluation structurale** : calculer un score \(w_i=w(\Gamma^{(i)})\). 2) **Sélection** (roulette‑wheel) : tirer des parents avec probabilité \(w_i/\sum_j w_j\). 3) **Reproduction/variation** : produire un enfant via fragmentation/recombinaison/mutation (noyau \(K\)). 4) **Mise à jour de la mémoire** : mettre à jour \(M\) (cooccurrences, héritage partiel). 5) **Boucle**. Complexité : - calcul des poids : dépend de \(w\) (souvent \(O(\mathrm{size}(\Gamma))\)); - sélection par cumul : \(O(N)\) par génération (ou \(O(\log N)\) avec arbre de Fenwick); - reproduction : souvent linéaire en longueur de séquence (concaténation/crossover \(O(n)\)). ### Estimation de fitness structurelle Le chapitre ne fixe pas une forme unique de \(w\). Deux familles naturelles (toutes deux non téléologiques) : - **Fitness de viabilité** : \(w(\Gamma)=\mathbb{P}(\rho(\mathrm{Recombine}(\mathrm{Frag}(\Gamma),\cdot))\ \text{admissible})\). - **Fitness de robustesse** : \(w(\Gamma)=\mathbb{P}(\text{rester dans un bassin attractif sous bruit})\), ce qui se relie aux probabilités d’évasion/temps moyen d’évasion dans les modèles markoviens (résolution de systèmes linéaires sur bassins). Ces constructions ne disent pas « pourquoi » un type est viable; elles disent seulement « comment » une contrainte de persistance se traduit en taux effectif. ### Diagramme de flux : accumulation vs effacement ```mermaid flowchart TD P["Population p_t sur Γ"] --> Sw["Sélection S_w (répondération)"] Sw --> Var["Variation K (mutation/recombinaison)"] Var --> Pn["Population p_{t+1}"] Var --> MT["Mémoires M des descendants"] MT --> Agg["Agrégation le long des lignées (somme/filtre/oubli)"] Agg --> Hist["Histoire distributive M_𝒯"] Sw -->|concentre| Lock["Réduction de diversité (H(p))"] Agg -->|accumule| Comp["Potentiel de complexification (support/entropie/profondeur)"] ``` L’important est la coexistence de deux effets possibles : la sélection peut réduire la diversité de population (entropie \(H(p)\)) tout en favorisant, à l’échelle des lignées, l’accumulation d’un registre \(M_{\mathcal{T}}\) et l’augmentation de la profondeur logique de certains objets (complexification). ## Implications cosmogoniques et analyse philosophique ### Conséquences cosmogoniques strictement déduites Les implications ci‑dessous sont des conséquences logiques des définitions, pas des hypothèses additionnelles. **Disponibilité d’une sélection non téléologique.** Dès qu’un univers possède (i) une reproduction/variation (noyau \(K\)) et (ii) une différence systématique de production de descendants admissibles (fonction \(w\)), alors la dynamique des distributions inclut une étape de re‑pondération équivalente à \(S_w\). Il y a donc sélection structurelle dès que l’univers n’est pas neutre au sens où tous les types n’ont pas le même « taux de continuation » (fitness structurelle). **Sélection d’invariants par covariance.** L’équation de Price montre que l’accroissement moyen d’une quantité \(z\) à travers une génération est gouverné par une covariance avec \(w\) et par un terme de transformation interne; ainsi, toute accumulation durable d’un invariant exige une covariance positive persistante et une transmission non destructrice. citeturn12view0turn12view1 **Possibilité de complexité croissante sans “progrès”.** Si l’on choisit \(C\) comme mesure de complexité (support de \(M\), profondeur logique de Bennett, etc.), la condition minimale pour une dérive positive est \(\mathrm{Cov}(w,C)>0\) (sélection) et un terme \(\mathbb{E}[w\,\Delta C]\) non trop négatif (héritage). Price donne précisément le schéma de cette décomposition. citeturn12view0turn12view1 Bennett justifie pourquoi certaines formes de complexité intéressantes ne se réduisent pas à l’aléatoire : « deep » signifie « résultat d’un long calcul/histoire », ce qui est compatible avec une accumulation historique au sens formel. citeturn1search9turn8view3 **Contraintes physiques minimales (implémentabilité).** Si l’univers réalise des opérations logiquement irréversibles (projections, effacements) pour maintenir certains régimes (standardisation, réparation projective), Landauer impose une borne de dissipation minimale liée à l’effacement de distinctions. Cela ne fonde pas la sélection, mais impose un coût minimal à certaines opérations de stabilisation/effacement. citeturn2search0turn2search12 ### Ontologie de la sélection structurelle et statut de la complexité Philosophiquement, deux points sont licites (et deux sont interdits). **Ce qui devient nécessairement dicible.** 1) La sélection n’est pas un “principe finaliste” mais un **effet de re‑pondération** dans un espace de transformations où tous les types n’ont pas la même continuation. La sélection est donc une propriété de l’**opérateur d’évolution**, pas une intention. 2) Un invariant sélectionné n’est pas une essence : c’est une quantité dont la covariance avec \(w\) est positive et transmissible (Price), donc un corrélat stable de persistance. citeturn12view0turn12view1 **Ce que le formalisme interdit.** 1) Il interdit de confondre « fitness » avec « optimalité » ou « but » : \(w\) est un paramètre de reproduction/persistance, et non une fonction objectif métaphysique. 2) Il interdit de faire de la complexité une valeur : Bennett insiste précisément sur la distinction entre information “au sens Shannon/Kolmogorov” et notions de valeur/organisation, d’où la proposition de la profondeur logique (qui reste néanmoins une définition formelle, pas une axiologie). citeturn8view3turn1search9 ### Tableaux comparatifs | Objet | Définition formelle | Rôle dans la dynamique | Risque de confusion à éviter | |---|---|---|---| | Sélection \(S_w\) | \(p(\Gamma)\mapsto \frac{w(\Gamma)p(\Gamma)}{\mathbb{E}[w]}\) | concentration sur grands \(w\) | “choix”, “but” | | Variation \(K\) | noyau markovien \(K(\Gamma'|\Gamma)\) | exploration/mutation/recombinaison | “création orientée” | | Invariant sélectionné \(z\) | \(\mathrm{Cov}(w,z)>0\) (+ transmission) | augmentation moyenne | “essence” | | Fixation | absorption stochastique | domination d’un type | “victoire recherchée” | | Modèle | Type | Résultat canonique (consensus) | Source | |---|---|---|---| | Moran | birth–death (finie) | dynamique stochastique des fréquences | Moran (1958) citeturn6view2 | | Fixation diffusion | approx. continue | \(u(p)=\frac{1-e^{-4Nsp}}{1-e^{-4Ns}}\) (genic selection) | Kimura (1962) citeturn13view0 | | Sélection/covariance | identité | décomposition par covariance + transmission | Price (1970) citeturn12view0turn12view1 | | Graphes | population structurée | fixation dépend de la topologie; amplificateurs/suppresseurs | Lieberman et al. (2005) citeturn6view0 | | Métrique de complexité | Ce qu’elle mesure | Propriété structurante | Source | |---|---|---|---| | \(H(p)\) (Shannon) | dispersion des types | conditionnement, bornes, codage | Shannon (1948) citeturn2search1 | | \(K(\Gamma)\) (Kolmogorov) | compressibilité intrinsèque | distingue structure vs aléa (en principe) | Kolmogorov (1968) citeturn8view2 | | Profondeur logique \(D\) (Bennett) | longueur d’histoire computationnelle | “deep” ≠ “random” | Bennett (1988) citeturn1search9turn8view3 |