Comment 4NK s'incrit dans l’histoire et l’avenir du stockage des données : vers une distribution et une ouverture sans captation 4NK : le web plus simple, moins cher, plus fiable et souverain. Introduction L’histoire du stockage des données est celle d’un long mouvement d’abstraction : à chaque rupture technique, la complexité s’efface derrière une expérience plus simple et plus fluide. Les systèmes de fichiers ont rendu les données manipulables, les formats universels les ont rendues partageables, les bases relationnelles les ont rendues interrogeables, et le big data les a rendues exploitables à l’échelle planétaire. Chaque étape a donc été à la fois invisible dans son infrastructure et révolutionnaire dans ses usages, consacrant de nouveaux géants capables d’exploiter cette asymétrie. Ainsi, si l’on observe bien une tendance générale vers plus de distribution et plus d’ouverture, elle est demeurée incomplète : l’ouverture concernait surtout les formats et l’interopérabilité, la distribution servait principalement à la scalabilité. Ni la sécurité intrinsèque des données, ni la souveraineté sur les métadonnées n’ont réellement accompagné cette progression. Pourtant, cette histoire linéaire et triomphante dissimule aussi des zones d’ombre. Deux dimensions majeures sont longtemps restées les parents pauvres de l’évolution du stockage : La sécurité : si les données ont gagné en accessibilité et en rapidité, leur intégrité et leur protection n’ont pas suivi le même rythme. Les premiers systèmes de fichiers offraient des mécanismes rudimentaires de permissions, les bases relationnelles introduisaient le contrôle d’accès, mais la sécurisation systématique — cryptographie native, auditabilité, résilience face aux attaques — est restée secondaire face à la priorité donnée à la performance et à la commodité. La protection contre la captation des métadonnées : plus encore que les données elles-mêmes, ce sont leurs traces — qui a accédé, quand, depuis où, dans quel contexte — qui ont été exploitées massivement par les plateformes. Or, ces métadonnées n’ont jamais bénéficié du même soin : invisibles pour l’utilisateur, elles sont devenues une ressource stratégique pour la publicité, la surveillance et la concentration de pouvoir. Cela s'explique par plusieurs raison : Techniquement, les priorités étaient ailleurs (performance, scalabilité, simplicité d’usage) ; et le chiffrement de la donnée stockée, vue comme une fin en soi ; Economiquement, les modèles d’affaires des acteurs dominants reposaient justement sur la collecte et l’exploitation des métadonnées ; Politiquement et sociétalement, ni les usagers ni les régulateurs n’ont exigé tôt une protection structurelle, laissant la captation devenir la norme; la militariation, l'espionnage et le contrôle aussi, par ce biais. Mais les limites de ces manquements sont réelles et plus criantes encore aujourd'hui : Limites techniques Sur le plan technique, la nécessité croissante de sécurisation devient paradoxalement un frein à l’efficacité et à la concentration. La multiplication des protocoles de protection et des vérifications détourne une part importante des ressources humaines et computationnelles. Les attaques ciblant la supply chain démontrent que les vulnérabilités ne résident plus seulement dans les systèmes centraux mais dans l’ensemble de l’écosystème interconnecté, rendant la protection exhaustive quasiment impossible. Les fuites répétées de données, qu’elles proviennent de négligences internes ou d’exfiltrations organisées, accentuent la perte de confiance. À cela s’ajoute un phénomène récent d’effacement ou d’indisponibilité croissante des données sur le web, réduisant la capacité de vérification et d’accumulation de connaissances. Limites économiques Sur le plan économique, l’évolution actuelle se heurte à l’explosion des coûts énergétiques nécessaires au fonctionnement des infrastructures numériques à grande échelle. Le déploiement massif de centres de données, d’IA et de réseaux engendre une consommation d’électricité difficilement soutenable. Les coûts matériels suivent la même dynamique, avec une dépendance accrue à des composants critiques (semi-conducteurs, terres rares) dont l’approvisionnement reste limité et vulnérable. Enfin, les failles de sécurité ont un impact budgétaire considérable : vols, interruptions de service, rançongiciels et réparations se traduisent en pertes directes mais aussi en investissements croissants dans une sécurité toujours imparfaite. Limites politiques Sur le plan politique, la souveraineté numérique devient un enjeu central, mais la fragmentation mondiale complique l’émergence de normes stables et partagées. Les infrastructures critiques et les données se trouvent ainsi soumises à des législations contradictoires et à des rivalités de puissance. Ce contexte nourrit des dérives dystopiques, allant de la surveillance de masse aux manipulations informationnelles, fragilisant la liberté et la confiance publiques. Parallèlement, l’absence de mécanismes fiables de certification des preuves numériques rend incertain le fonctionnement des institutions, qu’il s’agisse de justice, de régulation ou de gouvernance internationale. L’articulation entre innovation, protection des libertés et stabilité institutionnelle demeure ainsi profondément précaire.Le "Cloud" est une expression tout à fait manifeste de dépocession des supports physiques vers non pas des nuages mais des géant de l'industie numérique. C’est ce déficit historique sur la sécurité et la protection de la captation des métadonnées qui rend aujourd’hui nécessaire une approche nouvelle : replacer l’identité et la validation côté client au cœur du cycle de vie de la donnée, pour intégrer la sécurité et la souveraineté dès l’architecture et physiquement opérée hors cloud, hors éditeurs, pour par les utilisateurs, souverains entre eux, depuis leurs ressources inutilisées. Voici donc une petite retrospective 1960-1980 – Les systèmes de fichiers hiérarchiques qui ont permis à IBM, Microsoft et Apple de démocratiser l’informatique Technique : introduction des systèmes FAT (1977), HFS (1985) et ext (1992). Organisation hiérarchique des fichiers et masquage de la gestion bas niveau. Usage : les utilisateurs manipulent pour la première fois directement leurs fichiers et dossiers, avec une interface accessible. Business : IBM reste dominant sur le mainframe, Microsoft étend son pouvoir via MS-DOS, Apple innove avec une ergonomie graphique. Ouverture / distribution : cette étape reste très centralisée (chaque machine isole son système de fichiers), mais elle ouvre la voie à une standardisation minimale et à l’idée que la donnée est manipulable par tous. Sécurité : permissions rudimentaires par utilisateur, mais absence de chiffrement systématique ; les données restent exposées aux accès locaux non autorisés. Captation des métadonnées : pratiquement inexistante, car les journaux d’activité sont limités et peu exploités ; l’usage reste local. Captation des supports physiques : forte dépendance aux disques et bandes magnétiques propriétaires, qui enferment l’utilisateur dans un écosystème matériel. 1980-1995 – Les formats propriétaires intégrés aux logiciels qui ont consolidé la domination de Microsoft avec Office Technique : formats binaires fermés, spécifiques à chaque logiciel. Usage : expérience fluide pour l’utilisateur mais enfermement dans des silos non interopérables. Business : Microsoft triomphe avec Office, en s’appuyant sur Windows comme environnement dominant. Ouverture / distribution : régression forte. L’ouverture disparaît, la donnée est captive, et la distribution reste inexistante. Sécurité : aucune garantie d’intégrité ou de confidentialité ; les fichiers peuvent être copiés ou modifiés sans vérification. Captation des métadonnées : invisibles pour l’utilisateur, mais déjà exploitées par les logiciels via les en-têtes ou informations cachées (auteur, historique d’édition). Captation des supports physiques : standardisation autour du PC IBM et de Windows, qui enferme la donnée dans un couple matériel/logiciel dominant. 1990-2000 – Les formats portables et universels qui ont rendu Adobe incontournable avec le PDF Technique : apparition de formats lisibles partout (JPEG, PDF, XML). Spécifications publiques et interopérabilité. Usage : documents facilement partageables entre machines, indépendamment du logiciel d’origine. Business : Adobe devient incontournable, Microsoft profite de l’ouverture partielle de sa suite, et le Web s’appuie sur ces formats pour croître. Ouverture / distribution : progression majeure. Les formats universels permettent pour la première fois une circulation large des données entre systèmes hétérogènes. Sécurité : premiers mécanismes de chiffrement intégrés (mot de passe dans PDF), mais contournables et rarement utilisés. Captation des métadonnées : les fichiers embarquent des métadonnées invisibles (auteur, date, géolocalisation parfois), que les utilisateurs ignorent et que certains acteurs exploitent. Captation des supports physiques : toujours concentrée sur les disques locaux et serveurs centralisés ; l’échange reste dépendant du support (CD-ROM, disquette, réseau limité). 1970-2000 – Les bases relationnelles qui ont fait émerger Oracle comme référence de la gestion de données Technique : invention du modèle relationnel (1970), naissance des SGBDR commerciaux (Oracle 1979, IBM DB2 1983, SQL Server 1989). Standardisation du langage SQL. Usage : applications métiers fiables, requêtes rapides et cohérentes pour des millions d’enregistrements. Business : Oracle, IBM et Microsoft bâtissent leur domination sur l’économie de l’information. Ouverture / distribution : l’ouverture progresse par la standardisation (SQL), mais la distribution reste limitée : les bases relationnelles sont centralisées dans des serveurs uniques. Sécurité : contrôle d’accès granulaire par utilisateur, mais peu de chiffrement natif des données stockées. Captation des métadonnées : journaux de transactions et traces d’accès détaillées, nécessaires pour l’audit, mais susceptibles d’être exploitées par les administrateurs. Captation des supports physiques : dépendance forte aux infrastructures propriétaires (serveurs Unix, bases propriétaires), qui conditionnent l’évolutivité. 2000-2010 – HDFS et le traitement big data qui ont fait émerger Google avec une nouvelle recherche planétaire Technique : Google conçoit GFS (2003), MapReduce (2004), Bigtable (2006) ; Hadoop (2006) popularise le modèle. Les données sont découpées, répliquées et traitées en parallèle. Usage : recherche instantanée, flux en temps réel, personnalisation de masse. Business : Google prend une avance décisive ; Amazon et Facebook s’imposent aussi en exploitant le big data. Ouverture / distribution : forte progression. Les données sont massivement distribuées entre serveurs, mais la gouvernance reste fermée et centralisée par quelques acteurs. Sécurité : chiffrement partiel, souvent absent des premiers clusters ; priorité donnée à la vitesse plutôt qu’à la confidentialité. Captation des métadonnées : cœur du modèle : logs, clics, temps de lecture, localisation et connexions deviennent une ressource stratégique. Captation des supports physiques : les infrastructures reposent sur des data centers centralisés gigantesques, verrouillés par les géants du Web. 2010-2020 – Les bases en graphe qui ont permis à Facebook et LinkedIn de dominer la mise en relation Technique : graphes orientés nœuds/arêtes, capables de représenter des milliards de relations. Usage : suggestions d’amis, recommandations de produits, graphes de connaissances. Business : Facebook, LinkedIn et Google consolident leur domination. Ouverture / distribution : ouverture fonctionnelle (les relations sont mieux exposées et exploitables), mais centralisation accrue : les graphes appartiennent à des plateformes fermées. Sécurité : centralisation des droits d’accès et protection interne, mais pas de chiffrement natif des graphes. Captation des métadonnées : poussée à l’extrême : chaque interaction, relation ou clic devient une ressource pour les algorithmes de recommandation. Captation des supports physiques : dépendance accrue aux fermes de serveurs dédiées aux graphes massifs, concentrées dans les data centers des plateformes. 2025-2040 – Les formats sémantiques distribués de 4NK qui inaugurent une nouvelle souveraineté des données Technique : l’architecture de 4NK repose sur l'identité propre et portable de chacun et de ses droits, un stockage distribué, une messageries associées aux données, des contrats associés aux données vérifié par tous par cryptographie, fondé sur les ressources inutilisées des utilisateurs. Chaque nœud authentifie, vérifie, chiffre, ancre, relaie, et stocke la donnée. Les échanges se font par adressage cryptographique, garantissant l’authenticité sans dépendance à un serveur central, sans cloud, sans dépendance éditeur. Usage : login en 1 scan , paiement en 1 scan, data off line, "tout véfifiable" l’utilisateur dispose d’un accès fluide et universel à ses données, vérifiées et protégées, tout en gardant le contrôle exclusif sur leur circulation. L’optimisation locale permet d’exploiter l’IA directement sur des données fiables, sans exposition ni fuite vers des clouds externes. Business : ce modèle dépasse les limites actuelles des clouds centralisés, dont la valeur repose sur la captation des données et des métadonnées. 4NK ouvre la voie à une économie distribuée et souveraine : l’infrastructure est partagée et auto-scalable 0 CAPEX, les coûts sont réduits par la mutualisation, et les utilisateurs deviennent co-acteurs de l’écosystème pour démultiplier les coopérations à travers le monde, et Bitcoin est à la fois le réseau de preuves finales et de paiement. Ouverture / distribution : progression décisive. Les formats sémantiques universels assurent compatibilité avec les standards présents et futurs ; la distribution se fait nativement entre pairs, sans concentration dans des data centers, ni la dépendance à leurs régulations. Sécurité : chaque fragment est chiffré, signé et vérifiable par validation côté client. L’intégrité, la confidentialité et la provenance sont garanties dès la conception, sans dépendre d’un tiers de confiance. Captation des métadonnées : éliminée par conception. Les traces d’usage ne sont pas centralisées ni monétisées, les relais sont anonymes et fongibles, depuis des adresses "masquées" échangeant sans interraction des secrets, et les usages restent sous le contrôle exclusif de l’utilisateur, qui décide de leur partage. Captation des supports physiques : neutralisée par la mutualisation. L’infrastructure ne repose pas sur quelques data centers vulnérables mais sur une multitude de terminaux distribués, résilients et diversifiés. Conclusion L’histoire du stockage met en lumière une constante : à chaque cycle, la complexité technique s’efface derrière une promesse de simplicité, tandis que la gouvernance reste concentrée entre les mains de quelques acteurs dominants. Si l’ouverture des formats et la distribution des architectures ont élargi les usages, elles n’ont jamais résolu les angles morts fondamentaux que sont la sécurité intrinsèque et la protection des métadonnées. Ces limites apparaissent désormais comme des verrous majeurs, tant sur le plan technique que sur les plans économique et politique. La véritable rupture ne peut donc venir uniquement d’un nouveau palier de performance, mais d’une transformation organisationnelle et architecturale : replacer l’identité et la validation du côté des utilisateurs, intégrer la souveraineté et la sécurité au cœur des infrastructures, et mutualiser les ressources disponibles hors des logiques centralisées. Ce n’est qu’à cette condition qu’il sera possible de dépasser le cycle historique de concentration et de dépendance, pour ouvrir la voie à un stockage réellement distribué, fiable et souverain. C'est pour cela que 4NK existe.