website/docs/storage_story.md
2025-09-29 08:24:59 +00:00

16 KiB
Raw Blame History

Comment 4NK s'incrit dans lhistoire et lavenir du stockage des données : vers une distribution et une ouverture sans captation 4NK : le web plus simple, moins cher, plus fiable et souverain.

Introduction Lhistoire du stockage des données est celle dun long mouvement dabstraction : à chaque rupture technique, la complexité sefface derrière une expérience plus simple et plus fluide. Les systèmes de fichiers ont rendu les données manipulables, les formats universels les ont rendues partageables, les bases relationnelles les ont rendues interrogeables, et le big data les a rendues exploitables à léchelle planétaire. Chaque étape a donc été à la fois invisible dans son infrastructure et révolutionnaire dans ses usages, consacrant de nouveaux géants capables dexploiter cette asymétrie.

Ainsi, si lon observe bien une tendance générale vers plus de distribution et plus douverture, elle est demeurée incomplète : louverture concernait surtout les formats et linteropérabilité, la distribution servait principalement à la scalabilité. Ni la sécurité intrinsèque des données, ni la souveraineté sur les métadonnées nont réellement accompagné cette progression.

Pourtant, cette histoire linéaire et triomphante dissimule aussi des zones dombre. Deux dimensions majeures sont longtemps restées les parents pauvres de lévolution du stockage :

La sécurité : si les données ont gagné en accessibilité et en rapidité, leur intégrité et leur protection nont pas suivi le même rythme. Les premiers systèmes de fichiers offraient des mécanismes rudimentaires de permissions, les bases relationnelles introduisaient le contrôle daccès, mais la sécurisation systématique — cryptographie native, auditabilité, résilience face aux attaques — est restée secondaire face à la priorité donnée à la performance et à la commodité. La protection contre la captation des métadonnées : plus encore que les données elles-mêmes, ce sont leurs traces — qui a accédé, quand, depuis où, dans quel contexte — qui ont été exploitées massivement par les plateformes. Or, ces métadonnées nont jamais bénéficié du même soin : invisibles pour lutilisateur, elles sont devenues une ressource stratégique pour la publicité, la surveillance et la concentration de pouvoir.

Cela s'explique par plusieurs raison :

Techniquement, les priorités étaient ailleurs (performance, scalabilité, simplicité dusage) ; et le chiffrement de la donnée stockée, vue comme une fin en soi ; Economiquement, les modèles daffaires des acteurs dominants reposaient justement sur la collecte et lexploitation des métadonnées ; Politiquement et sociétalement, ni les usagers ni les régulateurs nont exigé tôt une protection structurelle, laissant la captation devenir la norme; la militariation, l'espionnage et le contrôle aussi, par ce biais.

Mais les limites de ces manquements sont réelles et plus criantes encore aujourd'hui :

Limites techniques Sur le plan technique, la nécessité croissante de sécurisation devient paradoxalement un frein à lefficacité et à la concentration. La multiplication des protocoles de protection et des vérifications détourne une part importante des ressources humaines et computationnelles. Les attaques ciblant la supply chain démontrent que les vulnérabilités ne résident plus seulement dans les systèmes centraux mais dans lensemble de lécosystème interconnecté, rendant la protection exhaustive quasiment impossible. Les fuites répétées de données, quelles proviennent de négligences internes ou dexfiltrations organisées, accentuent la perte de confiance. À cela sajoute un phénomène récent deffacement ou dindisponibilité croissante des données sur le web, réduisant la capacité de vérification et daccumulation de connaissances. Limites économiques Sur le plan économique, lévolution actuelle se heurte à lexplosion des coûts énergétiques nécessaires au fonctionnement des infrastructures numériques à grande échelle. Le déploiement massif de centres de données, dIA et de réseaux engendre une consommation délectricité difficilement soutenable. Les coûts matériels suivent la même dynamique, avec une dépendance accrue à des composants critiques (semi-conducteurs, terres rares) dont lapprovisionnement reste limité et vulnérable. Enfin, les failles de sécurité ont un impact budgétaire considérable : vols, interruptions de service, rançongiciels et réparations se traduisent en pertes directes mais aussi en investissements croissants dans une sécurité toujours imparfaite. Limites politiques Sur le plan politique, la souveraineté numérique devient un enjeu central, mais la fragmentation mondiale complique lémergence de normes stables et partagées. Les infrastructures critiques et les données se trouvent ainsi soumises à des législations contradictoires et à des rivalités de puissance. Ce contexte nourrit des dérives dystopiques, allant de la surveillance de masse aux manipulations informationnelles, fragilisant la liberté et la confiance publiques. Parallèlement, labsence de mécanismes fiables de certification des preuves numériques rend incertain le fonctionnement des institutions, quil sagisse de justice, de régulation ou de gouvernance internationale. Larticulation entre innovation, protection des libertés et stabilité institutionnelle demeure ainsi profondément précaire.Le "Cloud" est une expression tout à fait manifeste de dépocession des supports physiques vers non pas des nuages mais des géant de l'industie numérique.

Cest ce déficit historique sur la sécurité et la protection de la captation des métadonnées qui rend aujourdhui nécessaire une approche nouvelle : replacer lidentité et la validation côté client au cœur du cycle de vie de la donnée, pour intégrer la sécurité et la souveraineté dès larchitecture et physiquement opérée hors cloud, hors éditeurs, pour par les utilisateurs, souverains entre eux, depuis leurs ressources inutilisées.

Voici donc une petite retrospective

1960-1980 Les systèmes de fichiers hiérarchiques qui ont permis à IBM, Microsoft et Apple de démocratiser linformatique Technique : introduction des systèmes FAT (1977), HFS (1985) et ext (1992). Organisation hiérarchique des fichiers et masquage de la gestion bas niveau.

Usage : les utilisateurs manipulent pour la première fois directement leurs fichiers et dossiers, avec une interface accessible.

Business : IBM reste dominant sur le mainframe, Microsoft étend son pouvoir via MS-DOS, Apple innove avec une ergonomie graphique.

Ouverture / distribution : cette étape reste très centralisée (chaque machine isole son système de fichiers), mais elle ouvre la voie à une standardisation minimale et à lidée que la donnée est manipulable par tous.

Sécurité : permissions rudimentaires par utilisateur, mais absence de chiffrement systématique ; les données restent exposées aux accès locaux non autorisés.

Captation des métadonnées : pratiquement inexistante, car les journaux dactivité sont limités et peu exploités ; lusage reste local.

Captation des supports physiques : forte dépendance aux disques et bandes magnétiques propriétaires, qui enferment lutilisateur dans un écosystème matériel.

1980-1995 Les formats propriétaires intégrés aux logiciels qui ont consolidé la domination de Microsoft avec Office Technique : formats binaires fermés, spécifiques à chaque logiciel.

Usage : expérience fluide pour lutilisateur mais enfermement dans des silos non interopérables.

Business : Microsoft triomphe avec Office, en sappuyant sur Windows comme environnement dominant.

Ouverture / distribution : régression forte. Louverture disparaît, la donnée est captive, et la distribution reste inexistante.

Sécurité : aucune garantie dintégrité ou de confidentialité ; les fichiers peuvent être copiés ou modifiés sans vérification.

Captation des métadonnées : invisibles pour lutilisateur, mais déjà exploitées par les logiciels via les en-têtes ou informations cachées (auteur, historique dédition).

Captation des supports physiques : standardisation autour du PC IBM et de Windows, qui enferme la donnée dans un couple matériel/logiciel dominant.

1990-2000 Les formats portables et universels qui ont rendu Adobe incontournable avec le PDF Technique : apparition de formats lisibles partout (JPEG, PDF, XML). Spécifications publiques et interopérabilité.

Usage : documents facilement partageables entre machines, indépendamment du logiciel dorigine.

Business : Adobe devient incontournable, Microsoft profite de louverture partielle de sa suite, et le Web sappuie sur ces formats pour croître.

Ouverture / distribution : progression majeure. Les formats universels permettent pour la première fois une circulation large des données entre systèmes hétérogènes.

Sécurité : premiers mécanismes de chiffrement intégrés (mot de passe dans PDF), mais contournables et rarement utilisés.

Captation des métadonnées : les fichiers embarquent des métadonnées invisibles (auteur, date, géolocalisation parfois), que les utilisateurs ignorent et que certains acteurs exploitent.

Captation des supports physiques : toujours concentrée sur les disques locaux et serveurs centralisés ; léchange reste dépendant du support (CD-ROM, disquette, réseau limité).

1970-2000 Les bases relationnelles qui ont fait émerger Oracle comme référence de la gestion de données Technique : invention du modèle relationnel (1970), naissance des SGBDR commerciaux (Oracle 1979, IBM DB2 1983, SQL Server 1989). Standardisation du langage SQL.

Usage : applications métiers fiables, requêtes rapides et cohérentes pour des millions denregistrements.

Business : Oracle, IBM et Microsoft bâtissent leur domination sur léconomie de linformation.

Ouverture / distribution : louverture progresse par la standardisation (SQL), mais la distribution reste limitée : les bases relationnelles sont centralisées dans des serveurs uniques.

Sécurité : contrôle daccès granulaire par utilisateur, mais peu de chiffrement natif des données stockées.

Captation des métadonnées : journaux de transactions et traces daccès détaillées, nécessaires pour laudit, mais susceptibles dêtre exploitées par les administrateurs.

Captation des supports physiques : dépendance forte aux infrastructures propriétaires (serveurs Unix, bases propriétaires), qui conditionnent lévolutivité.

2000-2010 HDFS et le traitement big data qui ont fait émerger Google avec une nouvelle recherche planétaire Technique : Google conçoit GFS (2003), MapReduce (2004), Bigtable (2006) ; Hadoop (2006) popularise le modèle. Les données sont découpées, répliquées et traitées en parallèle.

Usage : recherche instantanée, flux en temps réel, personnalisation de masse.

Business : Google prend une avance décisive ; Amazon et Facebook simposent aussi en exploitant le big data.

Ouverture / distribution : forte progression. Les données sont massivement distribuées entre serveurs, mais la gouvernance reste fermée et centralisée par quelques acteurs.

Sécurité : chiffrement partiel, souvent absent des premiers clusters ; priorité donnée à la vitesse plutôt quà la confidentialité.

Captation des métadonnées : cœur du modèle : logs, clics, temps de lecture, localisation et connexions deviennent une ressource stratégique.

Captation des supports physiques : les infrastructures reposent sur des data centers centralisés gigantesques, verrouillés par les géants du Web.

2010-2020 Les bases en graphe qui ont permis à Facebook et LinkedIn de dominer la mise en relation Technique : graphes orientés nœuds/arêtes, capables de représenter des milliards de relations.

Usage : suggestions damis, recommandations de produits, graphes de connaissances.

Business : Facebook, LinkedIn et Google consolident leur domination.

Ouverture / distribution : ouverture fonctionnelle (les relations sont mieux exposées et exploitables), mais centralisation accrue : les graphes appartiennent à des plateformes fermées.

Sécurité : centralisation des droits daccès et protection interne, mais pas de chiffrement natif des graphes.

Captation des métadonnées : poussée à lextrême : chaque interaction, relation ou clic devient une ressource pour les algorithmes de recommandation.

Captation des supports physiques : dépendance accrue aux fermes de serveurs dédiées aux graphes massifs, concentrées dans les data centers des plateformes.

2025-2040 Les formats sémantiques distribués de 4NK qui inaugurent une nouvelle souveraineté des données Technique : larchitecture de 4NK repose sur l'identité propre et portable de chacun et de ses droits, un stockage distribué, une messageries associées aux données, des contrats associés aux données vérifié par tous par cryptographie, fondé sur les ressources inutilisées des utilisateurs. Chaque nœud authentifie, vérifie, chiffre, ancre, relaie, et stocke la donnée. Les échanges se font par adressage cryptographique, garantissant lauthenticité sans dépendance à un serveur central, sans cloud, sans dépendance éditeur.

Usage : login en 1 scan , paiement en 1 scan, data off line, "tout véfifiable" lutilisateur dispose dun accès fluide et universel à ses données, vérifiées et protégées, tout en gardant le contrôle exclusif sur leur circulation. Loptimisation locale permet dexploiter lIA directement sur des données fiables, sans exposition ni fuite vers des clouds externes.

Business : ce modèle dépasse les limites actuelles des clouds centralisés, dont la valeur repose sur la captation des données et des métadonnées. 4NK ouvre la voie à une économie distribuée et souveraine : linfrastructure est partagée et auto-scalable 0 CAPEX, les coûts sont réduits par la mutualisation, et les utilisateurs deviennent co-acteurs de lécosystème pour démultiplier les coopérations à travers le monde, et Bitcoin est à la fois le réseau de preuves finales et de paiement.

Ouverture / distribution : progression décisive. Les formats sémantiques universels assurent compatibilité avec les standards présents et futurs ; la distribution se fait nativement entre pairs, sans concentration dans des data centers, ni la dépendance à leurs régulations.

Sécurité : chaque fragment est chiffré, signé et vérifiable par validation côté client. Lintégrité, la confidentialité et la provenance sont garanties dès la conception, sans dépendre dun tiers de confiance.

Captation des métadonnées : éliminée par conception. Les traces dusage ne sont pas centralisées ni monétisées, les relais sont anonymes et fongibles, depuis des adresses "masquées" échangeant sans interraction des secrets, et les usages restent sous le contrôle exclusif de lutilisateur, qui décide de leur partage.

Captation des supports physiques : neutralisée par la mutualisation. Linfrastructure ne repose pas sur quelques data centers vulnérables mais sur une multitude de terminaux distribués, résilients et diversifiés.

Conclusion Lhistoire du stockage met en lumière une constante : à chaque cycle, la complexité technique sefface derrière une promesse de simplicité, tandis que la gouvernance reste concentrée entre les mains de quelques acteurs dominants.

Si louverture des formats et la distribution des architectures ont élargi les usages, elles nont jamais résolu les angles morts fondamentaux que sont la sécurité intrinsèque et la protection des métadonnées.

Ces limites apparaissent désormais comme des verrous majeurs, tant sur le plan technique que sur les plans économique et politique.

La véritable rupture ne peut donc venir uniquement dun nouveau palier de performance, mais dune transformation organisationnelle et architecturale : replacer lidentité et la validation du côté des utilisateurs, intégrer la souveraineté et la sécurité au cœur des infrastructures, et mutualiser les ressources disponibles hors des logiques centralisées.

Ce nest quà cette condition quil sera possible de dépasser le cycle historique de concentration et de dépendance, pour ouvrir la voie à un stockage réellement distribué, fiable et souverain. C'est pour cela que 4NK existe.