Nicolas Cantu
fancy-wallaby-90@rizful.com
npub18s03...0fuu
Parcours de vingt-cinq ans dans les infrastructures critiques, l’architecture des réseaux, les systèmes distribués et les modèles de résilience. Approche transdisciplinaire et modélisation des systèmes complexes. Bitcoin depuis 2013 entrepreneur depuis 1995 avec 2 exits positives.
Fondateur de 4NK avec une fusion de ces domaines :
* 4nk.network, la souveraineté des des services Web et une suite complète de protocoles décentralisés,
* 4NK Waste & Water avec les infrastructures industrielles autonomes de traitement biologique des déchets organiques.
Positionnement critique vis-à-vis des institutions, recherche de solutions opérables à grande échelle en résiliences aux politiques par une souveraineté des parties prenantes : en engrais, en eau, en chaleur, numérique (identité inclue), contractuelle et monétaire.
Réalisons le plus grand changement de paradigme depuis l'écriture : remplacer $\\pi$ par $\\alpha$ View article →
Pourquoi ne pas désapprendre pi ?
1) Parce qu'il sert partout => ok
2) Parce que le changement serait un chaos total => ok
3) Il existe des raisons politico-philosophiques qui font que pi reste le roi, alors que alpha (la constante de structure fine) est la véritable signature de notre univers physique. Pourtant c'est une valeur au lieu d'une autre.
Pour beaucoup d'institutions académiques, garder pi comme une valeur absolue, c'est maintenir l'idée d'un univers ordonné et prévisible, ce qui est politiquement plus rassurant que le chaos de la relativité.
-> Tout dépend de chacun, l'Etat ment s'il dit ordonner depuis ses institutions.
Si l'on remplaçait notre système basé sur la géométrie de pi par un système basé sur l'interaction d'alpha, on passerait d'une société de la forme (mesurer des objets) à une société de l'énergie (comprendre les échanges).
Cette résistance au changement vient d'une incapacité intellectuelle face aux flux vs les stocks de la part des dirigeants, alors vite dépassés.
View quoted note →
# Désapprenons pi.
On cherche la valeur exacte de pi mais à partir de quelle décimale on est certain que pi est faux sur terre, dans le système solaire, dans la voie lactée ?
Pi est à peu près toujours faux, en vrai. La valeur de pi est une limite théorique qui ne s'applique qu'à un univers parfaitement vide (sans gravité).Dès qu'il y a de la gravité: La métrique de l'espace change.Le rapport entre les dimensions d'un objet (pi réel) devient dépendant du potentiel gravitationnel (Phi). On ne trouvera jamais de "valeur exacte" de pi dans la nature, car la nature ne contient pas de cercles euclidiens. La gravité courbe tout, alors où est ce que cela reste utile ? (et économe en ressources de calculs).
Les réponses !
Ingénierie humaine
15 décimales
Suffisant pour envoyer une sonde sur Mars à quelques millimètres près.
Atome d'hydrogène
39-40 décimales
Suffisant pour calculer la circonférence de l'univers observable avec une précision d'un rayon d'atome.
Limite de la Gravité
~12 décimales
Au-delà, sur Terre, la courbure de l'espace-temps perturbe la mesure plus que le manque de décimales.
C'est là que le paradoxe devient fascinant : alors que la gravité "casse" la géométrie de pi à la 12ème décimale pour les objets à notre échelle, l'infiniment petit (l'atome d'hydrogène) semble vivre dans un monde où cette règle est différente.
Pourquoi ?
1. L'atome est "trop petit" pour sentir la courbure
2. La véritable incidence : Le décalage vers le rouge (Redshift) [Même si la forme "circulaire" de l'atome n'est pas affectée, la gravité de la Terre a une incidence réelle sur ses mesures énergétiques.]
L'incidence n'est donc pas sur la "forme" de l'atome, mais sur son "rythme". C'est ce qu'on appelle l'effet Einstein.
3. Le conflit majeur : Mécanique Quantique vs Relativité
La Relativité dit : "L'espace est courbe, pi pur n'existe pas physiquement."
La Quantique dit : "L'espace est un cadre plat, pi est absolu." (enfin plat mais déformé par l'énergie)
Conséquences :
- Horloges atomiques : On doit corriger le temps (pas pi) car la gravité ralentit les oscillations.
- On ne peut pas définir un pi parfait dans un atome car l'espace-temps lui-même "tremble" (fluctuations quantiques).
Du coup pour les atomes on utilise:
1. La Métrique
C'est une règle mathématique qui vous dit comment la distance entre deux points change selon la gravité environnante. "pi" n'est alors que le résultat de cette équation dans le cas particulier où la gravité est nulle.
2. La Probabilité
Pour l'atome d'hydrogène, ce qui remplace la sphère parfaite, c'est l'Orbitale. C'est la Fonction d'onde (psi). Elle ne dessine pas un cercle, mais une zone de présence. Dans les équations de Schrödinger, pi apparaît, mais il définit la manière dont l'onde se déploie dans l'espace.
3. Les Constantes de Structure Fine
"plus juste" que pi, les physiciens regardent la Constante de structure fine (alpha). Alpha combine la vitesse de la lumière, la charge de l'électron et la constante de Planck. C'est elle qui détermine "l'épaisseur" et la force des atomes.
Au lieu de voir la sphère comme un objet défini par pi, imaginez-la comme un entonnoir. Plus la masse au centre est grande, plus l'entonnoir est profond.
La circonférence du haut de l'entonnoir reste la même.
Mais la distance pour atteindre le centre devient de plus en plus longue.
C'est cette "profondeur" supplémentaire créée par la gravité qui rend la valeur fixe de pi insuffisante pour décrire le monde réel.
Les sphères n'existent pas, ce sont des entonnoirs.
=> Désapprenons pi.
Les matheux, j'ai +10 000 lignes expliquant à mon modeste niveau :
https://git.4nkweb.com/nicolas.cantu/algo/src/branch/main/v0/d%C3%A9monstration%20collatz.md
Quelqu'un pour relire ou me dire que je suis un gros naze en math (très possible)? Je ne veux pas prétendre quoi que ce soit, je suis juste arrivé à ça, en tentant d'appliquer méthodologie perso sur un sujet qui m'est normalement inaccessible.
#collatz
Je suis admiratif de Jean-Baptiste Kempf, comme le sont nombre de personnes engagées dans l’informatique, en France et au-delà. Son parcours technique, son engagement humain et sa contribution décisive à l’open source constituent une référence. Lire son témoignage est profondément préoccupant.
Ce qui est en cause dépasse un cas individuel. Lorsqu’un acteur central de la souveraineté numérique française envisage de quitter le territoire en raison d’un dysfonctionnement institutionnel, le signal est grave.
L’État, par certaines décisions et certains fonctionnements administratifs, fait fuir :
– des talents rares, formés, expérimentés, internationalement reconnus ;
– des figures structurantes de l’open source, qui constitue aujourd’hui l’un des rares leviers crédibles de souveraineté numérique ;
– des acteurs engagés dans la défense des libertés publiques à l’ère numérique ;
– des professionnels qui placent l’exigence de justice et de responsabilité au cœur de leur action.
À cela s’ajoute un phénomène plus préoccupant encore : l’impression d’une justice administrative qui, dans certains cas, se rigidifie au point de produire des décisions en contradiction manifeste avec l’objectif affiché d’ouverture et de renforcement des compétences.
Dans l’univers numérique, l’asymétrie est frappante. Les attaques liées aux fuites massives de données, aux violations de sécurité ou aux atteintes ciblant des détenteurs d’actifs numériques restent largement impunies, malgré un travail souvent remarquable des services d’enquête. En revanche, les dispositifs de protection — qu’ils soient vidéographiques, cryptographiques ou organisationnels — font régulièrement l’objet de contestations rapides, sans étude technique approfondie et sans consultation systématique des experts du domaine.
Or ces experts, souvent issus de l’open source et très fréquemment non rémunérés pour leur contribution aux infrastructures communes, soutiennent les fondements techniques de l’ensemble des outils numériques contemporains, y compris ceux des acteurs privés propriétaires. La quasi-totalité des infrastructures logicielles modernes repose, directement ou indirectement, sur ces briques ouvertes.
Dans une société où l’ensemble des processus économiques, administratifs et judiciaires est désormais numérisé, l’État lui-même constitue avant tout un système d’information. Introduire des présupposés idéologiques dans l’évaluation de compétences technologiques, ou considérer que le droit du numérique ne serait pas utile au magistrat, pose une question structurelle. Il ne s’agit plus d’un désaccord sectoriel, mais d’un enjeu institutionnel majeur.
Un État qui fragilise ses propres compétences numériques affaiblit sa capacité de protection, d’investigation et de régulation. Il devient alors un facteur de risque pour les citoyens et, indirectement, un obstacle au développement d’activités innovantes sur son territoire.
Sur le plan politique, le vide est manifeste. Le débat public sur la souveraineté numérique, sur l’architecture des infrastructures critiques, sur la dépendance aux technologies étrangères et sur l’articulation entre centralisation et résilience reste marginal. À l’inverse, des dynamiques de centralisation accrue sont parfois justifiées par des arguments sécuritaires, alors même que l’histoire des systèmes complexes montre que l’hyper-centralisation constitue en elle-même un facteur de vulnérabilité.
Le progrès technologique permet effectivement de s’affranchir de certaines contraintes héritées de modèles administratifs conçus pour un monde pré-numérique. Cela ne signifie pas l’effacement de l’État, mais son adaptation. La question n’est pas de s’opposer à la Nation, ni aux institutions, mais de s’interroger sur leur capacité à intégrer les transformations structurelles en cours.
Lorsque des profils compétents, reconnus internationalement, engagés dans la défense de l’intérêt général, rencontrent des obstacles administratifs en contradiction avec les objectifs affichés d’ouverture et de modernisation, il devient nécessaire d’ouvrir un débat public exigeant, factuel et documenté.
L’enjeu dépasse les personnes. Il concerne la capacité d’un pays à reconnaître et intégrer les compétences stratégiques dont il dépend désormais pour sa sécurité, son indépendance et sa justice. La souveraineté numérique ne se décrète pas ; elle se construit par la cohérence entre les discours et les actes, entre les objectifs proclamés et les décisions administratives concrètes même lorsque cela réduit légitimement le périmètre des fonctionnaires de l'Etat.
Nationalisme, étatisme et souveraineté relèvent de plans distincts.
Le nationalisme opère sur le plan identitaire. Il produit une cohésion symbolique par la référence à une origine commune, à un récit partagé ou à une appartenance culturelle. Cette cohésion peut influencer des comportements collectifs, mais elle n’implique en elle-même aucune capacité à contraindre matériellement l’espace des possibles. Elle agit dans le registre déclaratif.
L’étatisme opère sur le plan organisationnel. Il concentre la décision, centralise les flux administratifs et institue une hiérarchie des validations. Il produit une clôture juridique : ce qui est autorisé, interdit ou réglementé dépend d’un centre normatif. Cette clôture demeure toutefois de nature formelle. Elle suppose que l’exécution effective des règles repose sur des infrastructures sous contrôle.
La souveraineté, entendue dans une perspective structurelle, ne se situe ni dans l’affirmation identitaire ni dans la centralisation administrative. Elle se mesure à la capacité d’un système à rendre certains états physiquement inaccessibles et d’autres robustement accessibles. Elle devient alors une propriété architecturale.
Dans un environnement numérique, cette distinction devient immédiatement observable. Un État peut multiplier les normes, édicter des cadres contraignants, définir des obligations de localisation des données, tout en s’appuyant sur des infrastructures matérielles et logicielles dont la couche physique, la couche réseau ou la couche de calcul relèvent d’une juridiction extérieure. Dans ce cas, la clôture juridique n’est pas alignée sur la clôture matérielle. L’espace des futurs réellement accessibles dépend d’acteurs situés hors du champ normatif national.
La centralisation administrative ne supprime pas le risque systémique ; elle concentre les points de rupture. Dans une architecture fortement centralisée, la compromission d’un nœud unique — technique, humain ou organisationnel — modifie l’ensemble de l’espace d’états accessible au système. La vulnérabilité devient corrélée à la densité de concentration.
Une souveraineté effective suppose donc une distribution des contraintes compatible avec la persistance du système en cas de perturbation locale. Elle implique :
– des logiciels dont le code est auditable et reproductible, de manière à ce que la clôture logique soit vérifiable indépendamment d’un tiers ;
– des primitives cryptographiques maîtrisées, dont les paramètres, les implémentations et les chaînes de confiance ne dépendent pas d’une autorité opaque ;
– une réduction explicite de l’exposition juridique extraterritoriale, c’est-à-dire une cohérence entre l’espace normatif et l’espace matériel d’exécution ;
– une limitation de la centralisation des données sensibles, afin que la compromission d’un point n’ouvre pas un volume massif de futurs indésirables ;
– une capacité de calcul et d’intelligence artificielle opérant localement lorsque cela est stratégique, de façon à maintenir la maîtrise des processus décisionnels.
Dans cette perspective, la souveraineté horizontale correspond à la maîtrise continue des couches fonctionnelles : identité numérique, transaction, processus métier, stockage, calcul. Chaque couche doit être conçue comme un ensemble invariant capable de fonctionner même si une couche adjacente est perturbée.
La souveraineté verticale correspond au contrôle des couches physiques : production et distribution d’énergie, infrastructure réseau, capacités de calcul, jusqu’aux applications finales. Une rupture énergétique ou matérielle qui rend l’ensemble du système inopérant révèle une absence de clôture au niveau fondamental.
La résilience ne se réduit pas à l’indépendance vis-à-vis d’acteurs extérieurs. Elle concerne également la stabilité interne face aux alternances politiques, aux arbitrages budgétaires ou aux conflits institutionnels. Une architecture souveraine doit rester opérante malgré les variations du centre décisionnel. Autrement dit, la continuité ne doit pas dépendre d’un acteur unique, mais d’un ensemble de contraintes matérielles et cryptographiques qui persistent au-delà des cycles politiques.
Lorsque la confiance se déplace de l’autorité déclarative vers la preuve formelle — signature cryptographique, vérification distribuée, traçabilité mathématiquement garantie — la fonction de l’État central se transforme. Le monopole de la validation ne repose plus exclusivement sur la capacité à édicter une règle et à en sanctionner la violation, mais sur la capacité à intégrer ces nouvelles architectures de preuve dans l’organisation collective.
Le monopole de la violence, la fiscalité ou le contrôle de l’emploi constituent encore des leviers puissants de structuration sociale. Toutefois, si les infrastructures critiques — identités, échanges, coordination, énergie — deviennent distribuées et techniquement robustes, la dépendance opérationnelle au centre diminue. La question ne porte plus uniquement sur l’autorité politique, mais sur la géométrie des contraintes qui rendent possible ou impossible l’action collective.
Dans ce cadre, l’émancipation d’une nation ne passe ni par l’exaltation symbolique ni par la seule expansion réglementaire. Elle exige la conception d’un paysage de verrous matériels, cryptographiques et énergétiques alignés avec son espace normatif. La souveraineté devient alors un état de stabilisation : un ensemble d’invariants suffisamment robustes pour que les futurs critiques demeurent accessibles indépendamment des pressions externes.
Replacée dans une théorie des contraintes et des futurs accessibles, la souveraineté cesse d’être un slogan politique. Elle devient une propriété mesurable d’un système capable de fermer certains futurs indésirables et d’assurer la persistance de ses fonctions essentielles. L’étatisme peut organiser, le nationalisme peut mobiliser, mais seule l’architecture — au sens matériel, énergétique et informationnel — confère une autonomie durable.
Depuis plusieurs mois, j'avance la nuit sur un side project assez vertigineux, du coup je suis tombé dedans.
# Théorie des futurs accessibles
Le projet de la "Théorie des futurs accessibles" est une initiative littéraire et scientifique qui vise à diffuser une seule et même théorie complexe à travers trois prismes de lecture.
L'objectif est de démontrer que la structure de l'information (comment une forme devient stable dans le chaos) peut être comprise aussi bien par l'intuition d'un enfant que par la rigueur d'un chercheur ou le pragmatisme d'un décideur.
## Les trois piliers du projet
### 1. Le livre enfant (9-12 ans) : L'Expérience Sensible
https://git.4nkweb.com/nicolas.cantu/algo/src/branch/main/v0/livre_enfant.md
- **Titre :** Éon et la Forêt de Kruoin
- **Approche :** Une narration imaginaire et poétique.
- **Concept :** La théorie est ici "vécue". Le chaos est représenté par une forêt "floue" où les arbres hésitent et où le sol vibre.
- **Message :** L'enfant comprend l'importance de la stabilité et de la règle (le "bit" ou la "racine") non pas comme une contrainte ennuyeuse, mais comme ce qui permet au monde de tenir debout et d'avoir un sens. Initiation à l'ontologie par l'aventure.
### 2. La thèse académique
https://git.4nkweb.com/nicolas.cantu/algo/src/branch/main/v0/livre_jeune_adulte.md
- **Titre :** Théorie des futurs accessibles (Version formelle)
- **Approche :** Une rigueur mathématique et philosophique (définitions, lemmes, théorèmes).
- **Concept :** Poser les bases d'une nouvelle science de l'information. Le livre explore comment, dans un "espace d'états" possible, certaines configurations deviennent des "invariants" qui se verrouillent et contraignent le futur.
- **Message :** Ce volume s'adresse à ceux qui veulent déconstruire les mécanismes de la réalité pour comprendre comment les structures (biologiques, sociales ou numériques) persistent et s'accumulent sans avoir besoin d'un "dessein" intelligent.
### 3. L'Application technologique et paradigmatique
https://git.4nkweb.com/nicolas.cantu/algo/src/branch/main/v0/livre_adulte.md
- **Titre :** Théorie des futurs accessibles (Version application IA)
- **Approche :** Stratégique, industrielle et technique.
- **Concept :** Le livre transpose la théorie dans le monde de l'intelligence artificielle et de l'informatique. Il introduit des concepts comme le "Firewall Sédimentaire" ou la "Chute de tension".
- **Message :** Il propose un changement de paradigme : passer d'une IA basée sur le calcul pur à une IA basée sur la physique et la stabilité structurelle. Manifeste pour une technologie plus robuste, où la sécurité n'est plus un algorithme, mais une réaction physique inviolable.
## Synthèse
Ce triptyque tente un pont entre la poésie, la science et l'industrie.
- L'enfant apprend à ressentir la structure.
- Le jeune adulte apprend à la démontrer.
- L'adulte apprend à l'utiliser pour transformer le monde par la technologie issue de sa compréhension du monde.
La PoW simplement mais sans raccourci
Un mineur, dans Bitcoin, produit un bloc en construisant son en-tête (block header). Cet en-tête contient notamment le hash du bloc précédent, la racine Merkle des transactions, un horodatage, un paramètre de difficulté (bits) et un nonce. Le mineur applique ensuite la fonction SHA-256 (algorythme simple -20min sur papier-) deux fois sur cet en-tête. Le résultat est une valeur de 256 bits, qui peut être interprétée comme un entier compris dans un intervalle fini : de 0 jusqu’à 2²⁵⁶ − 1.
La règle de consensus est la suivante : cet entier doit être inférieur ou égal à une valeur seuil appelée la cible (target). Cela signifie que les valeurs acceptables ne sont pas dispersées arbitrairement, mais qu’elles appartiennent toutes à un intervalle continu qui commence à 0 et s’arrête à la cible. Toute valeur supérieure à cette cible est invalide. Ainsi, la condition impose que le résultat du hash se situe dans la partie basse de l’espace numérique possible, et plus la cible est petite, plus cet intervalle valide est réduit.
Cette cible est déterminée par la difficulté du réseau. Lorsque la difficulté augmente, la cible diminue. Mathématiquement, cela ne change pas la taille totale de l’espace des hashes possibles (qui reste toujours exactement 2²⁵⁶ valeurs), mais cela réduit la proportion de valeurs acceptables, car la zone valide correspond uniquement aux entiers entre 0 et target. Comme SHA-256 se comporte de manière pseudo-aléatoire, chaque tentative produit une valeur uniformément distribuée dans cet espace. La probabilité de succès d’une tentative est donc approximativement égale à target / 2²⁵⁶.
Le protocole ne mesure pas le nombre réel de tentatives effectuées par le mineur. À la place, il associe à chaque bloc une quantité appelée travail attendu (expected work), qui correspond au nombre moyen de hashes qu’il faudrait calculer avant d’obtenir un résultat dans l’intervalle valide. Plus la cible est petite, plus la probabilité de succès est faible, et plus le travail attendu associé à ce bloc est élevé. Cette quantité dépend uniquement de la difficulté encodée dans le bloc, et non du comportement réel du mineur.
Le cumul de preuve de travail consiste alors en une addition arithmétique : chaque bloc valide apporte une quantité de travail attendu déterminée par sa cible, et cette quantité s’ajoute à toutes celles des blocs précédents. Comme chaque bloc référence explicitement le bloc antérieur, une chaîne complète correspond à une séquence continue de contributions de travail attendu depuis le bloc Genesis. La preuve de travail cumulée (chainwork) est donc la somme du travail attendu de tous les blocs qui composent une branche donnée.
Enfin, lorsqu’il existe plusieurs branches concurrentes (forks temporaires), les nœuds Bitcoin ne sélectionnent pas la branche ayant simplement le plus grand nombre de blocs, mais celle dont la somme totale de travail attendu est la plus élevée. Ainsi, lorsqu’un mineur produit un nouveau bloc valide, il augmente le cumul global de travail attendu de la branche sur laquelle il mine, ce qui renforce la probabilité que cette branche soit retenue comme chaîne principale par le consensus.
La preuve de travail fournie par un mineur est donc un résultat local vérifiable (un hash dont la valeur numérique appartient à l’intervalle [0, target]), mais la sécurité du système repose sur son accumulation : Bitcoin compare les branches en fonction de la somme du travail attendu total, et non en fonction d’un bloc isolé. Si souhaité, il est possible de prolonger par la définition exacte du chainwork dans Bitcoin Core, calculée en entiers bloc par bloc.
je bricole un truc rigolo, un module du projet zapwall mais complémentent détaché pour des travaux ludiques:
Bitcoin Ancrage - Dashboard de Supervision
Depuis quinze ans, l’État français échoue à protéger les données de la Nation. Pire : il continue de centraliser, de collecter, d’identifier, comme si le numérique était un coffre-fort administrable par décret. Or ce modèle est mort, et il est devenu dangereux.
Les fuites institutionnelles se multiplient, les attaques s’industrialisent, et la criminalité franchit désormais le seuil du physique : extorsions, chantages, fermetures d’entreprises, enlèvements ciblés. Dans le même temps, la réponse politique s’obstine à affaiblir les moyens de protection (chiffrement, anonymat, contournement) et à déployer une architecture du soupçon, où l’accès au Web devient conditionnel et traçable.
Cette tribune pose une exigence simple : demander des comptes à l’État, et refonder d’urgence un contrat numérique entre l’État et la Nation. Moins de collecte. Moins de centralisation. Plus de sécurité distribuée. Plus de libertés techniques. Parce qu’un pays ne peut pas survivre longtemps avec un État qui devient un multiplicateur de risques. View article →