Maison > web3.0 > le corps du texte

Interprétation du nouvel article de Vitalik : Pourquoi Rollup, dont l'espace blob n'est pas utilisé efficacement, tombe-t-il dans des difficultés de développement ?

WBOY
Libérer: 2024-04-01 20:16:13
avant
532 Les gens l'ont consulté

解读 Vitalik 新文:为什么 Blob 空间未被高效使用的 Rollup 陷入了发展困境?

Comment comprendre les réflexions du nouvel article de @VitalikButerin sur l’expansion d’Ethereum ? Certaines personnes disent que la commande de Vitalik pour l’inscription de Blob est scandaleuse.

Alors, comment fonctionnent les paquets Blob ? Pourquoi l’espace blob n’est-il pas utilisé efficacement après la mise à niveau de Cancun ? Échantillonnage de la disponibilité des données DAS en vue du partitionnement ?

À mon avis, les performances de Cancun sont utilisables après la mise à niveau, et Vitalik s'inquiète du développement de Rollup. Pourquoi? Ensuite, permettez-moi de parler de ma compréhension :

Comme je l'ai expliqué à plusieurs reprises auparavant, Blob est un package de données temporaire qui est découplé des données d'appel EVM et peut être directement appelé par la couche de consensus. L'avantage direct est que lorsque l'EVM s'exécute. les données Blob d'une transaction ne sont pas accessibles, ce qui entraîne une surcharge de calcul de la couche d'exécution inférieure.

En équilibrant actuellement une série de facteurs, la taille d'un Blob est de 128 Ko et une transaction par lots vers le réseau principal peut transporter jusqu'à deux Blobs. Idéalement, l'objectif ultime d'un bloc de réseau principal est de transporter 16 Mo d'environ 128. Paquets de données Blob.

Par conséquent, l'équipe du projet Rollup doit équilibrer autant que possible des facteurs tels que le nombre de blocs Blob, la capacité de transaction TPS et les coûts de stockage des nœuds du réseau principal Blob, dans le but d'utiliser l'espace Blob avec des performances de coût optimales.

Prenons l'exemple de « Optimisme ». Actuellement, il y a environ 500 000 transactions par jour. En moyenne, une transaction est envoyée par lots sur le réseau principal toutes les 2 minutes, transportant 1 paquet de données Blob à la fois. Pourquoi en transporter un ? Parce qu'il n'y a qu'un nombre limité de TPS qui ne peuvent pas être utilisés. Bien sûr, vous pouvez également en transporter deux. La capacité de chaque blob ne sera pas pleine, mais cela augmentera le coût de stockage.

Que faire lorsque le volume de transactions hors chaîne de Rollup augmente, par exemple, 50 millions de transactions sont traitées chaque jour ? 1. Compresser compresse le volume de transactions de chaque lot et autorise autant de transactions que possible dans l'espace Blob ; 2. Augmente le nombre de Blobs ; 3. Raccourcit la fréquence des transactions par lots

2) Depuis la quantité de données transportées ; par le bloc de réseau principal est limitée la limite de gaz et l'impact des coûts de stockage. 128 blobs par bloc est l'état idéal. Actuellement, nous n'en utilisons pas beaucoup. Optimism n'en utilise que 1 toutes les 2 minutes, laissant le soin au projet layer2 de s'améliorer. TPS, élargissement des utilisateurs du marché et prospérité écologique Il reste encore beaucoup d'espace.

Par conséquent, pendant un certain temps après la mise à niveau de Cancun, le Rollup n'a pas « augmenté » en termes de nombre et de fréquence de Blobs utilisés, ainsi que d'utilisation des enchères d'espace Blob.

La raison pour laquelle Vitalik mentionne les inscriptions Blob est que ce type d'inscription peut augmenter temporairement le volume des transactions, ce qui entraînera une augmentation de la demande d'utilisation du Blob, augmentant ainsi le volume en utilisant les inscriptions comme exemple peut fournir une compréhension plus approfondie. du mécanisme de fonctionnement des Blobs, et ce que Vitalik veut réellement exprimer, cela n'a rien à voir avec l'inscription.

Parce qu'en théorie, s'il existe un projet de couche 2 qui effectue des transactions par lots à haute fréquence et de grande capacité sur le réseau principal et remplit le bloc Blob à chaque fois, tant qu'il est prêt à supporter le coût élevé de des lots de transactions falsifiés, cela affectera d'autres couches2. L'utilisation normale de Blob, mais dans la situation actuelle, c'est comme si quelqu'un achetait de la puissance de calcul pour mener une attaque hard fork à 51 % sur BTC. C'est théoriquement faisable, mais en pratique, cela manque de profit. motivation.

Par conséquent, le coût du gaz de la deuxième couche restera stable dans la fourchette « inférieure » pendant une longue période, ce qui donnera au marché de la couche 2 une fenêtre de développement en or à long terme pour « l'augmentation des troupes et des approvisionnements alimentaires ».

3) Alors, que se passerait-il si un jour le marché de la couche 2 prospérait dans une certaine mesure et que le nombre de transactions de Batch vers le réseau principal atteignait un montant énorme chaque jour et que les paquets de données Blob actuels ne suffisaient pas ? Ethereum a déjà fourni une solution : en utilisant la technologie d'échantillonnage de disponibilité des données (DAS) :

Une compréhension simple est que les données qui doivent initialement être stockées dans un nœud peuvent être distribuées sur plusieurs nœuds en même temps, par exemple, chacun. Le nœud stocke tous les Blobs. 1/8 des données, 8 nœuds forment un groupe pour répondre à la capacité DA, ce qui équivaut à augmenter la capacité de stockage actuelle des Blob de 8 fois. C'est en fait ce que Sharding fera à l'avenir.

Mais maintenant, Vitalik l'a réitéré à plusieurs reprises, avec beaucoup de charme, et semble avertir la majorité des parties au projet de couche 2 : ne vous plaignez pas toujours du fait que la capacité Ethereum DA est chère. Avec votre capacité TPS actuelle, vous n'avez pas développé la capacité. des paquets de données Blob à l'extrême. Dépêchez-vous d'augmenter la puissance de feu pour développer l'écosystème, augmenter le nombre d'utilisateurs et le volume de transactions, et ne pensez pas toujours à DA s'enfuir pour s'engager dans la création de chaînes en un clic.

Plus tard, Vitalik a ajouté que parmi les rollups de base actuels, seul Arbitum a atteint le stade 1. Bien que @DeGateDex, Fuel, etc. aient atteint le stade 2, ils ne sont pas encore familiers avec le groupe plus large. L'étape 2 est l'objectif ultime de la sécurité des Rollups. Très peu de Rollups ont atteint l'étape 1, et la plupart des rollups sont au stade 0. On voit que le développement de l'industrie des Rollups inquiète vraiment Vitalik.

4) En fait, en termes de problème de goulot d'étranglement d'expansion, il reste encore beaucoup de place pour que la solution Rollup layer2 améliore les performances.

1. Utilisez l'espace Blob plus efficacement grâce à la compression des données. OP-Rollup dispose actuellement d'un composant de compression dédié pour effectuer ce travail. La compression hors chaîne SNARK/STARK de ZK-Rollup prouve que la soumission au réseau principal est une « compression ». ;

2. Réduisez autant que possible la dépendance de la couche 2 vis-à-vis du réseau principal et utilisez uniquement la technologie de preuve optimiste pour garantir la sécurité L2 dans des circonstances particulières. Par exemple, la plupart des données de Plasma se trouvent sur la chaîne, mais les dépôts et les retraits ont lieu sur le réseau principal. . Le réseau principal peut donc promettre sa sécurité.

Cela signifie que la couche 2 ne doit considérer que les opérations importantes telles que les dépôts et les retraits comme étant fortement liées au réseau principal. Cela réduit non seulement la charge sur le réseau principal, mais améliore également les performances de traitement parallèle du séquenceur mentionnées précédemment. is Il existe des considérations similaires pour le filtrage, la classification et le prétraitement hors chaîne d'un grand nombre de transactions, ainsi que le rollup hybride promu par @MetisL2, les transactions normales passent par OP-Rollup, les demandes de retrait spéciales passent par ZK Route, etc.

Ce qui précède

Il faut dire que l’article de Vitalik réfléchissant au futur plan d’expansion d’Ethereum est très éclairant. En particulier, il n'était pas satisfait de l'état de développement actuel de la couche 2, optimiste quant à l'espace de performances des Blobs et attendait avec impatience la future technologie de sharding. Il a même souligné certaines directions pour la couche 2 qui méritaient d'être optimisées, etc.

En fait, la seule incertitude reste désormais à layer2 elle-même. Comment accélérer son développement ?

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:chaincatcher.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal