algo/v0/introduction.md
Nicolas Cantu 109160de66 Initial commit
**Motivations:**
- Initial push of project to Gitea

**Evolutions:**
- Add v0 content (plan, chapters, analysis, references)

**Pages affectées:**
- v0/*.md, scripts, .gitignore
2026-02-13 16:17:01 +01:00

109 lines
11 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# Introduction
Un livre peut tenter de décrire le monde, ou bien tenter de décrire les conditions minimales sous lesquelles une description du monde devient possible. Le présent ouvrage relève de la seconde ambition. Il ne part pas dune ontologie, dune physique, dune psychologie, ni dune théorie de linformation déjà constituée. Il part dun problème plus nu : comment une structure, au sein dun ensemble de transformations possibles, peut-elle devenir assez stable pour être réutilisée, transmise, et agir comme contrainte sur ce qui peut advenir ensuite.
Cette question nest pas traitée ici comme une question “de sens” ou “dinterprétation”, mais comme une question de construction : quelles définitions sont nécessaires, quelles hypothèses sont réellement employées, quels résultats sont démontrés, et quelles lectures ne sont que des traductions optionnelles dun même noyau formel. Louvrage adopte donc une discipline explicite : distinguer, à chaque étape, ce qui est choisi (définitions), ce qui est déduit (propositions, lemmes, théorèmes), et ce qui est seulement proposé comme lecture possible (interprétations conditionnelles, instanciations physiques ou computationnelles).
## Objet et thèse directrice
Lobjet central est un triplet conceptuel minimal :
- un espace détats, entendu au sens le plus large (configurations, descriptions, classes, états internes, états dun système abstrait) ;
- un ensemble de transformations admissibles, cest-à-dire un catalogue de transitions autorisées, dont la composition induit une dynamique ;
- un mécanisme de contraintes, qui réduit ou organise ces transformations au cours de lévolution.
À partir de ce triplet, louvrage construit progressivement des notions qui sont habituellement posées comme primitives : temps effectif, irréversibilité, mémoire, transmission, sélection, et finalement connaissance. La thèse directrice peut être formulée sans métaphysique et sans agent : une “connaissance” est une contrainte stabilisée, opératoire et transmissible, qui réduit durablement lespace des futurs accessibles pour une classe de trajectoires, et dont la stabilisation peut être étudiée indépendamment dune sémantique.
Cette formulation ne présuppose ni sujet connaissant, ni objectif, ni valeur, ni finalité. Elle ne présuppose pas non plus que linformation soit une substance : elle la reconstruit, lorsque cela devient nécessaire, comme une mesure dérivée dindistinguabilités et de restrictions sur latteignabilité.
## Positionnement scientifique et neutralité sémantique
Louvrage se situe à lintersection de plusieurs traditions, sans se confondre avec aucune :
- la théorie des systèmes dynamiques (attracteurs, invariants, régions piégées, stabilité) ;
- la théorie des graphes et des automates (atteignabilité, composantes, cycles, quotients) ;
- la théorie de lordre et des points fixes (monotonie, treillis, fermetures, convergence par itération) ;
- la théorie de linformation (entropies, informations mutuelles) uniquement comme couche optionnelle, lorsque des structures probabilistes sont explicitement introduites ;
- la thermodynamique de non-équilibre uniquement comme instanciation possible, sous hypothèses additionnelles, et jamais comme conséquence du noyau minimal.
Ce positionnement impose une règle de méthode : aucune notion empruntée à une discipline ne doit être importée comme évidence. Si un mot est employé (stabilité, sélection, mémoire, information, contrainte), il doit soit être défini dans le cadre, soit être explicitement présenté comme un raccourci terminologique dont les conditions dusage sont déclarées.
La conséquence est une neutralité sémantique volontaire. Les objets formels construits peuvent recevoir des lectures variées : lecture computationnelle (contraintes comme règles de calcul), lecture biologique (contraintes comme architectures héritées), lecture sociale (contraintes comme normes), lecture physique (contraintes comme restrictions de transitions). Aucune de ces lectures nest “la” lecture par défaut. Elles deviennent pertinentes seulement lorsquun dictionnaire dinstanciation est fourni et que ses hypothèses sont assumées.
## Hypothèses minimales et stratification en couches
Louvrage est construit par couches, afin de contrôler la puissance explicative sans perdre la rigueur.
### Couche ensembliste et dynamique
Elle ne suppose aucune probabilité. Elle utilise des ensembles détats et des transformations admissibles, puis définit atteignabilité, futurs accessibles, cycles, bassins, et restrictions. À ce niveau, les résultats portent sur des inclusions, des quotients, des obstructions (absence dinverse, non-injectivité), et des ordres induits.
### Couche métrique et quantitative
Elle introduit des distances, coûts de chemin, quasi-métriques ou mesures de taille, non comme réalités physiques, mais comme instruments de quantification. Elle permet de comparer des intensités de verrouillage, des vitesses de stabilisation, des goulots, des fragmentations de futurs.
### Couche probabiliste
Elle napparaît que si un noyau de transition est explicitement défini (comment les transformations admissibles sont choisies ou appliquées). À ce niveau seulement, les notions spectrales, stationnaires ou quasi-stationnaires deviennent légitimes. Toute conclusion probabiliste est alors indexée par le noyau choisi.
### Couche physico-thermodynamique (optionnelle)
Elle exige des hypothèses spécifiques (système ouvert, flux, conditions de stationnarité, structure déchanges). Elle peut relier certaines asymétries de transitions à des productions dentropie, mais sans rétro-inférer cette lecture dans le noyau minimal.
Cette stratification nest pas un artifice didactique : elle est une exigence épistémologique. Elle rend explicite ce qui est nécessaire pour obtenir tel type de conclusion et empêche de confondre un résultat structurel avec une instanciation contingente.
## Ce que louvrage ne fait pas
Pour éviter les malentendus, plusieurs refus sont constitutifs du projet.
### Absence de téléologie primitive
Aucune maximisation, aucune “utilité”, aucune fonction objectif nest posée comme moteur. Si des quantités ressemblant à des coûts ou à des pertes sont introduites, elles sont traitées comme des paramètres dinstanciation, non comme des fins.
### Absence de psychologie et de subjectivité
Le livre ne décrit pas un sujet qui connaît. Il décrit des structures qui contraignent, se stabilisent, se transmettent, et qui, une fois stabilisées, peuvent servir de supports à une prédictivité. Léventuelle interprétation cognitive, si elle est souhaitée, est une lecture secondaire.
### Absence dexclusivité ontologique
Aucune thèse nest avancée sur “ce que le monde est”. Les résultats sont conditionnels : si un système a telles propriétés structurelles, alors tels phénomènes (cycles, verrouillage, stabilisation, sélection) apparaissent.
### Absence de promesse de quantification universelle
La quantification (mesures, entropies, distances) dépend de choix. Louvrage cherche donc moins une “valeur” universelle quun ensemble de quantificateurs contrôlables et testables, accompagnés de protocoles de robustesse.
## Programme de lecture
La progression suit une logique dengendrement.
- Dabord, établir les objets de base : états, transformations admissibles, atteignabilité, itération.
- Ensuite, montrer comment la répétition, les cycles, les classes et les quotients apparaissent sans hypothèse de finalité.
- Puis, introduire des mécanismes dirréversibilité : non-injectivité, projections, pertes didentifiabilité, monotones.
- Construire ensuite des mécanismes de transmission : ce qui passe dune trajectoire à une autre sans supposer lidentité fine des états.
- Définir le verrouillage des futurs : réduction monotone des transformations admissibles et de latteignabilité, puis en proposer des quantifications non triviales.
- Reconstruire la sélection comme filtrage structurel : dominance géométrique, bassins, effets spectraux éventuels lorsquune couche probabiliste est posée.
- Étendre enfin lespace détat en incluant les contraintes elles-mêmes, afin de formaliser lauto-stabilisation : points fixes, régions piégées, attracteurs de second ordre.
- Conclure par une lecture épistémique minimale : ce qui mérite dêtre appelé “connaissance” dans ce cadre, et ce que cette appellation najoute pas.
À chaque étape, la question de la robustesse est centrale : quels résultats survivent au changement de granularité (projections, quotients), au changement de mesure, au changement de noyau de transition, ou au changement de règle de compatibilité des contraintes.
## Critères de validité et exigence de réfutabilité
Un cadre abstrait peut devenir invulnérable aux critiques sil est trop flexible. Louvrage se prémunit de ce risque en adoptant trois critères.
### Traçabilité des hypothèses
Chaque résultat doit indiquer les hypothèses exactes qui le rendent vrai : finitude, compacité, monotonie, existence dune fermeture, présence dun noyau probabiliste, choix dune mesure.
### Déclaration des dépendances
Toute conclusion quantitative doit être indexée par les choix qui la rendent possible (mesure de référence, coût, noyau de transition, quotient). Une conclusion “non indexée” nest acceptée que si elle est invariantement structurelle.
### Protocoles de robustesse
Lorsquune notion est sensible à des choix (par exemple la dominance dun attracteur selon la mesure), la sensibilité nest pas un défaut : elle devient un objet détude, au moyen de protocoles explicites (familles de mesures, familles de noyaux, variations contrôlées, comparaison multi-granularité).
## Conclusion
Cette introduction fixe une ambition et une discipline : construire, à partir dun minimum de structures, une théorie de lémergence de contraintes stabilisées et transmissibles, puis montrer comment ces contraintes peuvent jouer le rôle que lon attribue ordinairement à la mémoire, à la sélection et à la connaissance, sans invoquer ni finalité, ni sémantique primitive, ni sujet. Le lecteur est ainsi invité à suivre une progression par couches, où chaque gain dexpressivité est payé par des hypothèses explicitement déclarées, et où chaque lecture “appliquée” demeure une instanciation optionnelle, jamais une conséquence implicite du noyau abstrait.