Le chercheur Ethereum ladislaus.eth a publié la semaine dernière un guide expliquant comment Ethereum prévoit de passer de la ré-exécution de chaque transaction à la vérification zero-Le chercheur Ethereum ladislaus.eth a publié la semaine dernière un guide expliquant comment Ethereum prévoit de passer de la ré-exécution de chaque transaction à la vérification zero-

Ethereum veut que les validateurs domestiques vérifient les preuves mais une réalité de 12 GPU soulève une nouvelle menace

2026/02/10 21:20
Temps de lecture : 13 min

Le chercheur Ethereum ladislaus.eth a publié la semaine dernière un guide expliquant comment Ethereum prévoit de passer de la ré-exécution de chaque transaction à la vérification de Preuve à divulgation nulle de connaissance.

Le post le présente comme une "transformation silencieuse mais fondamentale", et cette formulation est exacte. Non pas parce que le travail est secret, mais parce que ses implications se répercutent sur l'ensemble de l'architecture d'Ethereum de manières qui ne seront pas évidentes tant que les pièces ne seront pas connectées.

Il ne s'agit pas pour Ethereum "d'ajouter ZK" comme fonctionnalité. Ethereum prototypage une voie de validation alternative dans laquelle certains validateurs peuvent attester des blocs en vérifiant des preuves d'exécution compactes plutôt qu'en ré-exécutant chaque transaction.

Si cela fonctionne, le rôle de la couche 1 d'Ethereum passe de "règlement et disponibilité des données pour les Roll up" vers "exécution à haut débit dont la vérification reste suffisamment peu coûteuse pour les validateurs domestiques."

Ce qui est réellement en cours de construction

L'EIP-8025, intitulé "Optional Execution Proofs", a été publié sous forme de projet et spécifie les mécanismes.
Les preuves d'exécution sont partagées sur le réseau pair-à-pair de la couche de consensus via un sujet dédié. Les validateurs peuvent fonctionner selon deux nouveaux modes : génération de preuves ou validation sans état.

La proposition stipule explicitement qu'elle "ne nécessite pas de Hard Fork" et reste rétrocompatible, tandis que les nœuds peuvent toujours ré-exécuter comme ils le font aujourd'hui.

L'équipe zkEVM de la Fondation Ethereum a publié le 26 janvier une feuille de route concrète pour 2026, décrivant six sous-thèmes : standardisation des témoins d'exécution et des programmes invités, standardisation de l'API zkVM-invité, intégration de la couche de consensus, infrastructure de prouveur, benchmarking et métriques, et sécurité avec vérification formelle.

Le premier appel de groupe de travail L1-zkEVM est prévu pour le 11 février à 15h00 UTC.

Le pipeline de bout en bout fonctionne comme suit : un client de couche d'exécution produit un ExecutionWitness, un package autonome contenant toutes les données nécessaires pour valider un bloc sans détenir l'état complet.

Un programme invité standardisé consomme ce témoin et valide la transition d'état. Une zkVM exécute ce programme, et un prouveur génère une preuve d'exécution correcte. Le client de la couche de consensus vérifie ensuite cette preuve au lieu d'appeler le client de la couche d'exécution pour ré-exécuter.

La dépendance clé est ePBS (Enshrined Proposer-Builder Separation), ciblé pour le prochain Hard Fork Glamsterdam. Sans ePBS, la fenêtre de preuve est d'environ une à deux secondes, ce qui est trop serré pour une preuve en temps réel. Avec ePBS fournissant un pipelining de blocs, la fenêtre s'étend à six à neuf secondes.

Proving breakdownLe graphique montre que l'ePBS étend la fenêtre de preuve d'Ethereum de 1-2 secondes à 6-9 secondes, rendant la génération de preuves en temps réel réalisable par rapport au temps de preuve moyen actuel de sept secondes nécessitant 12 GPU.

Le compromis de décentralisation

Si les preuves optionnelles et les formats de témoins arrivent à maturité, davantage de validateurs domestiques peuvent participer sans maintenir l'état complet de la couche d'exécution.

L'augmentation des limites de gas devient politiquement et économiquement plus facile car le coût de validation se dissocie de la complexité d'exécution. Le travail de vérification n'évolue plus linéairement avec l'activité on-chain.

Cependant, la preuve comporte son propre risque de centralisation. Un post d'Ethereum Research du 2 février rapporte que prouver un bloc Ethereum complet nécessite actuellement environ 12 GPU et prend en moyenne 7 secondes.

L'auteur signale des préoccupations concernant la centralisation et note que les limites restent difficiles à prévoir. Si la preuve reste gourmande en GPU et se concentre dans les réseaux de constructeurs ou de prouveurs, Ethereum pourrait échanger "tout le monde ré-exécute" contre "peu prouvent, beaucoup vérifient."

La conception vise à résoudre ce problème en introduisant la diversité des clients au niveau de la couche de preuve. L'hypothèse de travail de l'EIP-8025 est un seuil de trois sur cinq, ce qui signifie qu'un attesteur accepte l'exécution d'un bloc comme valide une fois qu'il a vérifié trois des cinq preuves indépendantes provenant de différentes implémentations de clients de couche d'exécution.

Cela préserve la diversité des clients au niveau du protocole mais ne résout pas le problème d'accès au matériel.

La formulation la plus honnête est qu'Ethereum déplace le champ de bataille de la décentralisation. La contrainte d'aujourd'hui est "pouvez-vous vous permettre d'exécuter un client de couche d'exécution ?" Celle de demain pourrait être "pouvez-vous accéder à des clusters GPU ou à des réseaux de prouveurs ?"

Le pari est que la vérification de preuve est plus facile à marchandiser que le stockage d'état et la ré-exécution, mais la question matérielle reste ouverte.

Déblocage de la scalabilité L1

La feuille de route d'Ethereum, dernièrement mise à jour le 5 février, liste "Statelessness" comme thème de mise à niveau majeur : vérifier les blocs sans stocker un état important.

Les preuves d'exécution optionnelles et les témoins sont le mécanisme concret qui rend la validation sans état pratique. Un nœud sans état ne nécessite qu'un client de consensus et vérifie les preuves lors du traitement de la charge utile.

La synchronisation se réduit au téléchargement de preuves pour les blocs récents depuis le dernier point de contrôle de finalisation.

Cela compte pour les limites de gas. Aujourd'hui, chaque augmentation de la limite de gas rend l'exécution d'un nœud plus difficile. Si les validateurs peuvent vérifier les preuves plutôt que de ré-exécuter, le coût de vérification n'évolue plus avec la limite de gas. La complexité d'exécution et le coût de validation se dissocient.

Le flux de travail de benchmarking et de réévaluation des prix dans la feuille de route 2026 cible explicitement les métriques qui mappent le gas consommé aux cycles de preuve et au temps de preuve.

Si ces métriques se stabilisent, Ethereum gagne un levier qu'il n'a jamais eu auparavant : la capacité d'augmenter le débit sans augmenter proportionnellement le coût d'exécution d'un validateur.

Ce que cela signifie pour les blockchains de couche 2

Un post récent de Vitalik Buterin soutient que les blockchains de couche 2 devraient se différencier au-delà du scaling et lie explicitement la valeur d'un "native rollup precompile" au besoin de preuves zkEVM enchâssées qu'Ethereum a déjà besoin pour mettre à l'échelle la couche 1.

La logique est simple : si tous les validateurs vérifient les preuves d'exécution, les mêmes preuves peuvent également être utilisées par un precompile EXECUTE pour les Roll up natifs. L'infrastructure de preuve de la couche 1 devient une infrastructure partagée.

Cela modifie la proposition de valeur de la couche 2. Si la couche 1 peut évoluer vers un débit élevé tout en maintenant les coûts de vérification bas, les Roll up ne peuvent pas se justifier sur la base de "Ethereum ne peut pas gérer la charge."

Les nouveaux axes de différenciation sont les machines virtuelles spécialisées, la latence ultra-faible, les préconfirmations et les modèles de composabilité comme les Roll up qui s'appuient sur des conceptions de preuve rapide.

Le scénario dans lequel les couches 2 restent pertinentes est celui dans lequel les rôles sont répartis entre spécialisation et interopérabilité.

La couche 1 devient la couche d'exécution et de règlement à haut débit et à faible coût de vérification. Les couches 2 deviennent des laboratoires de fonctionnalités, des optimiseurs de latence et des ponts de composabilité.

Cependant, cela nécessite que les équipes de couche 2 articulent de nouvelles propositions de valeur et qu'Ethereum tienne sa feuille de route de vérification de preuve.

Trois voies à suivre

Il existe trois scénarios potentiels pour l'avenir.

Le premier scénario consiste en ce que la validation basée sur les preuves devienne courante. Si les preuves optionnelles et les formats de témoins arrivent à maturité et que les implémentations de clients se stabilisent autour d'interfaces standardisées, davantage de validateurs domestiques peuvent participer sans exécuter l'état complet de la couche d'exécution.

Les limites de gas augmentent car le coût de validation ne s'aligne plus sur la complexité d'exécution. Cette voie dépend de la convergence du flux de travail de standardisation ExecutionWitness et du programme invité vers des formats portables.

Le scénario deux est celui où la centralisation des prouveurs devient le nouveau point d'étranglement. Si la preuve reste gourmande en GPU et concentrée dans les réseaux de constructeurs ou de prouveurs, alors Ethereum déplace le champ de bataille de la décentralisation du matériel des validateurs vers la structure du marché des prouveurs.

Le protocole fonctionne toujours, car un prouveur honnête n'importe où maintient la chaîne en vie, mais le modèle de sécurité change.

Le troisième scénario est que la vérification de preuve de la couche 1 devienne une infrastructure partagée. Si l'intégration de la couche de consensus se durcit et que l'ePBS offre la fenêtre de preuve étendue, alors la proposition de valeur des couches 2 s'oriente vers des VM spécialisées, une latence ultra-faible et de nouveaux modèles de composabilité plutôt que "mettre à l'échelle Ethereum" uniquement.

Cette voie nécessite que l'ePBS soit livré dans les délais pour Glamsterdam.

ScénarioCe qui doit être vrai (préconditions techniques)Ce qui casse / risque principalCe qui s'améliore (décentralisation, limites de gas, temps de synchronisation)Résultat du rôle L1 (débit d'exécution vs coût de vérification)Implication L2 (nouvel axe de différenciation)Signal "à surveiller"
La validation basée sur les preuves devient couranteLes normes Execution Witness + programme invité convergent ; l'API zkVM/invité se standardise ; le chemin de vérification de preuve CL est stable ; les preuves se propagent de manière fiable sur P2P ; sémantique de seuil multi-preuve acceptable (par ex. 3 sur 5)La disponibilité / latence de la preuve devient une nouvelle dépendance ; les bugs de vérification deviennent sensibles au consensus si/quand on s'y appuie ; inadéquation entre clients/prouveursLes validateurs domestiques peuvent attester sans état EL ; le temps de synchronisation diminue (preuves depuis le point de contrôle de finalisation) ; les augmentations de limite de gas deviennent plus faciles car le coût de vérification se dissocie de la complexité d'exécutionL1 évolue vers une exécution à débit plus élevé avec un coût de vérification quasi constant pour de nombreux validateursLes L2 doivent se justifier au-delà de "L1 ne peut pas évoluer" : VM spécialisées, exécution spécifique aux applications, modèles de frais personnalisés, confidentialité, etc.Durcissement des spécifications/vecteurs de test ; portabilité témoin/invité entre clients ; gossip de preuve stable + gestion des échecs ; courbes de benchmark (gas → cycles/temps de preuve)
La centralisation des prouveurs devient le point d'étranglementLa génération de preuves reste gourmande en GPU ; le marché de la preuve se consolide (constructeurs / réseaux de prouveurs) ; preuve "à l'échelle du garage" limitée ; la vivacité repose sur un petit ensemble de prouveurs sophistiqués"Peu prouvent, beaucoup vérifient" concentre le pouvoir ; la censure / les dynamiques MEV s'intensifient ; les pannes de prouveur créent un stress de vivacité/finalité ; risque de concentration géographique / réglementaireLes validateurs peuvent toujours vérifier à moindre coût, mais les déplacements décentralisés : attestation plus facile, preuve plus difficile ; une certaine marge de limite de gas, mais limitée par l'économie des prouveursL1 devient exécutable évolutif en théorie, mais pratiquement limité par la capacité du prouveur et la structure du marchéLes L2 peuvent s'appuyer sur des conceptions basées / pré-confirmées, des systèmes de preuve alternatifs ou des garanties de latence—augmentant potentiellement la dépendance à des acteurs privilégiésTendances des coûts de preuve (exigences matérielles, temps par bloc) ; métriques de diversité des prouveurs ; incitations pour la preuve distribuée ; exercices de mode d'échec (que se passe-t-il lorsque les preuves sont manquantes ?)
La vérification de preuve L1 devient une infrastructure partagéeL'intégration CL "se durcit" ; les preuves deviennent largement produites / consommées ; ePBS est livré et fournit une fenêtre de preuve exploitable ; les interfaces permettent la réutilisation (par ex. precompile de style EXECUTE / hooks de Roll up natifs)Risque de couplage interdomaine : si l'infrastructure de preuve L1 est stressée, les chemins de vérification de Roll up pourraient également en souffrir ; la complexité / surface d'attaque s'étendL'infrastructure partagée réduit les efforts de preuve dupliqués ; améliore l'interopérabilité ; coûts de vérification plus prévisibles ; chemin plus clair vers un débit L1 plus élevé sans exclure les validateurs par les prixL1 évolue en une couche d'exécution + règlement vérifiée par preuve qui peut également vérifier les Roll up nativementLes L2 pivotent vers la latence (preconfs), les environnements d'exécution spécialisés et les modèles composables (par ex. conceptions de preuve rapide / quasi-synchrones) plutôt que "uniquement l'échelle"Progrès ePBS / Glamsterdam ; démos de pipeline de bout en bout (témoin → preuve → vérification CL) ; benchmarks + possible réévaluation du gas ; déploiement de la sémantique minimale viable de distribution de preuves et surveillance

La vue d'ensemble

La maturité de l'intégration des spécifications de consensus indiquera si les "preuves optionnelles" passent de principalement des TODO à des vecteurs de test durcis.

La standardisation de l'ExecutionWitness et du programme invité est la pierre angulaire de la portabilité de validation sans état entre clients. Les benchmarks qui mappent le gas consommé aux cycles de preuve et au temps de preuve détermineront si la réévaluation du gas pour la convivialité ZK est faisable.

Les progrès de l'ePBS et de Glamsterdam indiqueront si la fenêtre de preuve de six à neuf secondes devient une réalité. Les résultats des appels de groupe de travail révéleront si les groupes de travail convergent sur les interfaces et la sémantique minimale viable de distribution de preuves.

Ethereum ne passe pas bientôt à la validation basée sur les preuves. L'EIP-8025 stipule explicitement qu'il "ne peut pas encore baser les mises à niveau dessus", et le cadrage optionnel est intentionnel. En conséquence, il s'agit d'une voie testable plutôt qu'une activation imminente.

Pourtant, le fait que la Fondation Ethereum ait publié une feuille de route de mise en œuvre pour 2026, programmé un appel de groupe de travail avec les propriétaires de projet et rédigé un EIP avec des mécaniques de gossip pair-à-pair concrètes signifie que ce travail est passé de la plausibilité de la recherche à un programme de livraison.

La transformation est silencieuse car elle n'implique pas de changements spectaculaires dans l'économie des tokens ou de fonctionnalités orientées utilisateur. Mais elle est fondamentale car elle réécrit la relation entre la complexité d'exécution et le coût de validation.

Si Ethereum peut dissocier les deux, la couche 1 ne sera plus le goulot d'étranglement qui force tout ce qui est intéressant sur la couche 2.

Et si la vérification de preuve de la couche 1 devient une infrastructure partagée, l'ensemble de l'écosystème de couche 2 doit répondre à une question plus difficile : que construisez-vous que la couche 1 ne peut pas faire ?

Le post Ethereum wants home validators to verify proofs but a 12 GPU reality raises a new threat est apparu en premier sur CryptoSlate.

Opportunité de marché
Logo de NodeAI
Cours NodeAI(GPU)
$0.02802
$0.02802$0.02802
+1.44%
USD
Graphique du prix de NodeAI (GPU) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter service@support.mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.