Un batcher de transactions Starknet
Abstrait
Cet article présente le batcher de transactions utilisé dans Metacube pour envoyer instantanément les NFT gagnés par les joueurs. Il explique l'architecture évolutive basée sur les acteurs du batcher et fournit une implémentation détaillée dans Go.
Tous les extraits de code sont disponibles dans le dépôt GitHub associé.
Architecture
The Batcher est composé de deux acteurs principaux :
- Le Builder reçoit les transactions, les regroupe en une seule transaction multiappel et l'envoie à l'acteur expéditeur.
- Le Expéditeur finalise la transaction avec les champs appropriés (nonce, frais maximum, etc.), la signe, l'envoie au réseau Starknet et surveille son statut.
Cette séparation des acteurs permet d'avoir un batcher évolutif et efficace. Le constructeur prépare les transactions pendant que l'expéditeur les envoie, permettant un flux de transactions continu et efficace.
Mise en œuvre
L'implémentation suivante est spécifique à Go, mais les concepts peuvent facilement être adaptés à d'autres langages, car les fonctionnalités restent les mêmes.
Par ailleurs, notez que cette implémentation est spécifique à l’envoi de NFT issus d’un même contrat. Cependant, une approche plus générique est mentionnée plus loin dans l'article.
Enfin, le code est basé sur la bibliothèque starknet.go développée par Nethermind.
Doseur
Commençons par le Batcher lui-même :
type Batcher struct { accnt *account.Account contractAddress *felt.Felt maxSize int inChan <-chan []string failChan chan<- []string }
Le compte (accnt) est celui qui détient les NFT, il servira à signer les transactions qui les transfèrent. Ces NFT font partie du même contrat, d'où le champ contractAddress. Le champ maxSize correspond à la taille maximale d'un lot et inChan est le canal par lequel les transactions sont envoyées au Batcher. Le failChan est utilisé pour renvoyer les transactions qui n'ont pas pu être envoyées.
Notez que, dans cette implémentation, les données de transaction appelées plus tard ([]string) sont un tableau de deux éléments : l'adresse du destinataire et l'identifiant NFT.
Le Batcher exécute simultanément les acteurs Builder et Sender :
type TxnDataPair struct { Txn rpc.BroadcastInvokev1Txn Data [][]string } func (b *Batcher) Run() { txnDataPairChan := make(chan TxnDataPair) go b.runBuildActor(txnDataPairChan) go b.runSendActor(txnDataPairChan) }
Le canal défini txnDataPairChan envoie les paires de données de transaction du Builder à l'expéditeur. Chaque paire de données de transaction comprend la transaction par lots et les données de chaque transaction y sont intégrées. Les données de chaque transaction sont envoyées avec la transaction par lots afin que les transactions ayant échoué puissent être renvoyées à l'entité qui instancie le Batcher.
Constructeur
Analysons l'acteur Build. A noter que le code est simplifié pour une meilleure lisibilité (code complet) :
type Batcher struct { accnt *account.Account contractAddress *felt.Felt maxSize int inChan <-chan []string failChan chan<- []string }
La fonction runBuildActor est la boucle d'événements de l'acteur Builder. Il attend que les transactions soient envoyées au Batcher et crée une transaction par lots lorsque le lot est plein ou qu'un délai d'attente est atteint. La transaction par lots est ensuite envoyée à l'acteur Expéditeur.
Expéditeur
Analysons maintenant l'acteur Sender. A noter que le code est simplifié pour une meilleure lisibilité (code complet) :
type TxnDataPair struct { Txn rpc.BroadcastInvokev1Txn Data [][]string } func (b *Batcher) Run() { txnDataPairChan := make(chan TxnDataPair) go b.runBuildActor(txnDataPairChan) go b.runSendActor(txnDataPairChan) }
La fonction runSendActor est la boucle d'événements de l'acteur expéditeur. Il attend que le constructeur envoie des transactions par lots, les signe, les envoie au réseau Starknet et surveille leur statut.
Une note sur l'estimation des frais : on peut estimer le coût des frais de la transaction par lots avant de l'envoyer. Le code suivant peut être ajouté après la signature de la transaction :
// This function builds a function call from the transaction data. func (b *Batcher) buildFunctionCall(data []string) (*rpc.FunctionCall, error) { // Parse the recipient address toAddressInFelt, err := utils.HexToFelt(data[0]) if err != nil { ... } // Parse the NFT ID nftID, err := strconv.Atoi(data[1]) if err != nil { ... } // The entry point is a standard ERC721 function // https://docs.openzeppelin.com/contracts-cairo/0.20.0/erc721 return &rpc.FunctionCall{ ContractAddress: b.contractAddress, EntryPointSelector: utils.GetSelectorFromNameFelt( "safe_transfer_from", ), Calldata: []*felt.Felt{ b.accnt.AccountAddress, // from toAddressInFelt, // to new(felt.Felt).SetUint64(uint64(nftID)), // NFT ID new(felt.Felt).SetUint64(0), // data -> None new(felt.Felt).SetUint64(0), // extra data -> None }, }, nil } // This function builds the batch transaction from the function calls. func (b *Batcher) buildBatchTransaction(functionCalls []rpc.FunctionCall) (rpc.BroadcastInvokev1Txn, error) { // Format the calldata (i.e., the function calls) calldata, err := b.accnt.FmtCalldata(functionCalls) if err != nil { ... } return rpc.BroadcastInvokev1Txn{ InvokeTxnV1: rpc.InvokeTxnV1{ MaxFee: new(felt.Felt).SetUint64(MAX_FEE), Version: rpc.TransactionV1, Nonce: new(felt.Felt).SetUint64(0), // Will be set by the send actor Type: rpc.TransactionType_Invoke, SenderAddress: b.accnt.AccountAddress, Calldata: calldata, }, }, nil } // Actual Build actor event loop func (b *Batcher) runBuildActor(txnDataPairChan chan<- TxnDataPair) { size := 0 functionCalls := make([]rpc.FunctionCall, 0, b.maxSize) currentData := make([][]string, 0, b.maxSize) for { // Boolean to trigger the batch building trigger := false select { // Receive new transaction data case data, ok := <-b.inChan: if !ok { ... } functionCall, err := b.buildFunctionCall(data) if err != nil { ... } functionCalls = append(functionCalls, *functionCall) size++ currentData = append(currentData, data) if size >= b.maxSize { // The batch is full, trigger the building trigger = true } // We don't want a smaller batch to wait indefinitely to be full, so we set a timeout to trigger the building even if the batch is not full case <-time.After(WAITING_TIME): if size > 0 { trigger = true } } if trigger { builtTxn, err := b.buildBatchTransaction(functionCalls) if err != nil { ... } else { // Send the batch transaction to the Sender txnDataPairChan <- TxnDataPair{ Txn: builtTxn, Data: currentData, } } // Reset variables size = 0 functionCalls = make([]rpc.FunctionCall, 0, b.maxSize) currentData = make([][]string, 0, b.maxSize) } } }
Cela peut être utile pour s'assurer que les frais ne sont pas trop élevés avant d'envoyer la transaction. Si les frais estimés sont plus élevés que prévu, il peut également être nécessaire de réajuster le champ des frais maximum de la transaction si les frais estimés sont plus élevés que prévu. Mais notez que lorsque toute modification est apportée à la transaction, celle-ci doit être à nouveau signée !
Cependant, notez que vous pourriez rencontrer des problèmes lors de l'estimation des frais si le débit des transactions est assez élevé. En effet, lorsqu'une transaction donnée vient d'être approuvée, la mise à jour du nom occasionnel du compte prend un peu de temps. Par conséquent, lors de l’estimation des frais pour la prochaine transaction, elle peut échouer, en pensant que le nonce est toujours le précédent. Donc, si vous souhaitez toujours estimer les frais, vous devrez peut-être prévoir un peu de sommeil entre chaque transaction pour éviter de tels problèmes.
Vers un batcher générique
Le batcher présenté est spécifique à l'envoi de NFT issus d'un même contrat. Cependant, l'architecture peut facilement être adaptée pour envoyer tout type de transaction.
Premièrement, les données de transaction envoyées au Batcher doivent être plus génériques et donc contenir plus d'informations. Ils doivent contenir l'adresse du contrat, le sélecteur de point d'entrée et les données d'appel. La fonction buildFunctionCall doit alors être adaptée pour analyser ces informations.
On pourrait également aller plus loin en rendant le compte expéditeur générique. Cela nécessiterait davantage de refactorisation, car les transactions doivent être regroupées par compte expéditeur. Cependant, cela est réalisable et permettrait un doseur plus polyvalent.
N'oubliez pas cependant qu'une optimisation prématurée est la racine de tous les maux. Par conséquent, si vous avez juste besoin d'envoyer des NFT ou un token spécifique tel que ETH ou STRK, le batcher présenté est largement suffisant.
Outil CLI
Le code du référentiel peut être utilisé comme outil CLI pour envoyer un tas de NFT par lot. L'outil est simple à utiliser et vous devriez pouvoir l'adapter à vos besoins après avoir lu cet article. Veuillez vous référer au fichier README pour plus d'informations.
Conclusion
J'espère que cet article vous a aidé à mieux comprendre comment Metacube envoie des NFT à ses joueurs. Le batcher est un composant clé de l’infrastructure et nous sommes heureux de le partager avec la communauté. Si vous avez des questions ou des commentaires, n'hésitez pas à commenter ou à me contacter. Merci d'avoir lu !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

OpenSSL, en tant que bibliothèque open source largement utilisée dans les communications sécurisées, fournit des algorithmes de chiffrement, des clés et des fonctions de gestion des certificats. Cependant, il existe des vulnérabilités de sécurité connues dans sa version historique, dont certaines sont extrêmement nocives. Cet article se concentrera sur les vulnérabilités et les mesures de réponse communes pour OpenSSL dans Debian Systems. DebianopenSSL CONNUTS Vulnérabilités: OpenSSL a connu plusieurs vulnérabilités graves, telles que: la vulnérabilité des saignements cardiaques (CVE-2014-0160): cette vulnérabilité affecte OpenSSL 1.0.1 à 1.0.1F et 1.0.2 à 1.0.2 Versions bêta. Un attaquant peut utiliser cette vulnérabilité à des informations sensibles en lecture non autorisées sur le serveur, y compris les clés de chiffrement, etc.

Dans le cadre du cadre de beegoorm, comment spécifier la base de données associée au modèle? De nombreux projets Beego nécessitent que plusieurs bases de données soient opérées simultanément. Lorsque vous utilisez Beego ...

Chemin d'apprentissage du backend: le parcours d'exploration du front-end à l'arrière-end en tant que débutant back-end qui se transforme du développement frontal, vous avez déjà la base de Nodejs, ...

Le problème de l'utilisation de Redessstream pour implémenter les files d'attente de messages dans le langage GO consiste à utiliser le langage GO et redis ...

Que dois-je faire si les étiquettes de structure personnalisées à Goland ne sont pas affichées? Lorsque vous utilisez Goland pour le développement du langage GO, de nombreux développeurs rencontreront des balises de structure personnalisées ...

La bibliothèque utilisée pour le fonctionnement du numéro de point flottante dans le langage go présente comment s'assurer que la précision est ...

Problème de threading de file d'attente dans Go Crawler Colly explore le problème de l'utilisation de la bibliothèque Crawler Crawler dans le langage Go, les développeurs rencontrent souvent des problèmes avec les threads et les files d'attente de demande. � ...

Cet article présente comment configurer MongoDB sur Debian System pour réaliser une expansion automatique. Les étapes principales incluent la configuration de l'ensemble de répliques MongoDB et de la surveillance de l'espace disque. 1. Installation de MongoDB Tout d'abord, assurez-vous que MongoDB est installé sur le système Debian. Installez à l'aide de la commande suivante: SudoaptupDaSudoaptInstall-myongoDB-Org 2. Configuration de la réplique MongoDB Ensemble de répliques MongoDB assure la haute disponibilité et la redondance des données, ce qui est la base de la réalisation d'une expansion de capacité automatique. Démarrer le service MongoDB: Sudosystemctlstartmongodsudosys
