Récemment, Starkware a lancé son largement attendu airdrop. Comme la plupart des airdrops, cela a entraîné beaucoup de controverse. Ce qui, d'une manière tragique, ne surprend plus vraiment personne.
Alors pourquoi est-il le cas que cela se reproduise encore et encore? On pourrait entendre quelques-unes de ces perspectives:
Aucune de ces opinions n'est fausse, mais aucune de ces perspectives n'est totalement vraie en soi. Décortiquons quelques points de vue pour nous assurer que nous comprenons pleinement le problème en question.
Il existe une tension fondamentale lorsqu'on fait un airdrop, on doit choisir entre trois facteurs:
Vous vous retrouvez souvent dans une situation où les airdrops fonctionnent bien dans une dimension, mais frappent rarement un bon équilibre entre même 2 ou les 3. La rétention, en particulier, est la dimension la plus difficile, avec des taux supérieurs à 15 % généralement inconnus.
Mettant de côté la rétention, examinons de plus près les deux premiers : l'efficacité en capital et la décentralisation.
Pour comprendre le premier point sur l'efficacité du capital, permettez-nous d'introduire un nouveau terme appelé le "coefficient de Sybil". Il calcule essentiellement combien vous bénéficiez de diviser un dollar de capital entre un certain nombre de comptes.
Là où vous vous situez sur ce spectre, c’est en fin de compte à quel point votre airdrop deviendra un gaspillage. Si vous avez un coefficient de sybil de 1, cela signifie techniquement que vous exécutez un système de minage de liquidité et que vous allez mettre en colère de nombreux utilisateurs.
Cependant, lorsque vous arrivez à quelque chose comme Celestia où le coefficient sybil atteint 143, vous allez obtenir un comportement extrêmement gaspilleur et une exploitation effrénée.
Cela nous amène à notre deuxième point autour de la décentralisation : vous voulez finalement aider "le petit gars" qui est un vrai utilisateur et qui prend le risque d'utiliser votre produit tôt — même s'il n'est pas riche. Si votre coefficient de Sybil atteint trop près de 1 alors vous allez donner presque rien au "petit gars" et la plupart à "aux gros poissons".
Maintenant, c'est là que le débat sur l'airdrop devient animé. Vous avez ici trois catégories d'utilisateurs qui existent :
3 est le pire, 1 est encore un peu acceptable et 2 est optimal. Comment différencions-nous entre les trois est le grand défi du problème d'Airdrop.
Alors, comment résolvez-vous ce problème? Même si je n'ai pas de solution concrète, j'ai une philosophie sur la façon de résoudre cela sur laquelle j'ai passé les dernières années à réfléchir et à observer de première main: la segmentation relative au projet.
Je vais vous expliquer ce que je veux dire. Prenez du recul et réfléchissez au méta-problème : vous avez tous vos utilisateurs et vous devez être capable de les diviser en groupes sur la base d’une sorte de jugement de valeur. La valeur ici est spécifique au contexte de l’observateur et varie donc d’un projet à l’autre. Essayer d’attribuer un « filtre de largage magique » ne sera jamais suffisant. En explorant les données, vous pouvez commencer à comprendre à quoi ressemblent vraiment vos utilisateurs et commencer à prendre des décisions basées sur la science des données sur la manière appropriée d’exécuter votre airdrop grâce à la segmentation.
Pourquoi personne ne le fait-il? C'est un autre article que j'écrirai à l'avenir, mais le très long TLDR est que c'est un problème de données difficile qui nécessite une expertise en données, du temps et de l'argent. Peu d'équipes sont prêtes ou capables de le faire.
La dernière dimension dont je veux parler est la rétention. Avant d'en parler, il est probablement préférable de définir ce que signifie la rétention en premier lieu. Je résumerais cela comme suit :
nombre de personnes auxquelles un airdrop est donné
nombre de personnes qui gardent l'airdrop
Ce que la plupart des airdrops font l'erreur classique est de faire de cela une équation ponctuelle.
Afin de démontrer cela, je pensais que quelques données pourraient aider ici ! Heureusement, Optimism a réellement effectué des airdrops multi-tours ! J'espérais trouver des tableaux de bord Dune faciles qui me donnaient les chiffres de rétention que je cherchais mais j'avais malheureusement tort. Ainsi, j'ai décidé de retrousser mes manches et d'obtenir les données moi-même.
Sans le compliquer, je voulais comprendre une chose simple : comment le pourcentage d'utilisateurs avec un solde OP non nul évolue-t-il au fil des airdrops successifs.
Je suis allé à: https://github.com/ethereum-optimism/op-analytics/tree/main/reference_data/address_listspour obtenir la liste de toutes les adresses qui avaient participé à l'airdrop Optimism. Ensuite, j'ai construit un petit grattoir qui obtiendrait manuellement le solde OP de chaque adresse dans la liste (brûlé quelques-uns de nos crédits RPC internes pour cela) et ai fait un peu de manipulation des données.
Avant de plonger, une chose à noter est que chaque largage OP est indépendant du largage précédent. Il n'y a pas de bonus ou de lien pour conserver les jetons du largage précédent. Je connais la raison, mais de toute façon, continuons.
Donné à 248 699 destinataires avec les critères disponibles ici : https://community.optimism.io/docs/governance/airdrop-1/#background. Le TLDR est que les utilisateurs ont reçu des jetons pour les actions suivantes :
Après avoir analysé tous ces utilisateurs et leur solde OP, j'ai obtenu la répartition suivante. Les soldes à 0 indiquent les utilisateurs qui ont vendu leurs jetons, car les jetons OP non réclamés ont été envoyés directement aux adresses éligibles à la fin de l'airdrop (comme prévuhttps://dune.com/optimismfnd/optimism-airdrop-1)
Quoi qu'il en soit, ce premier airdrop est étonnamment bon par rapport aux airdrops précédents que j'ai observés! La plupart ont un taux de chute de 90% ou plus. Le fait que seuls 40% n'aient aucun solde est étonnamment bon.
Je voulais ensuite comprendre comment chaque critère jouait un rôle dans la détermination de la probabilité que les utilisateurs conservent ou non les jetons. Le seul problème avec cette méthodologie est que les adresses peuvent être dans plusieurs catégories, ce qui fausse les données. Je ne prendrais pas ceci pour argent comptant, mais plutôt comme un indicateur approximatif :
Les utilisateurs OP occasionnels avaient le pourcentage le plus élevé d'utilisateurs avec un solde nul, suivis par les utilisateurs qui étaient exclus d'Etheruem en raison du prix. De toute évidence, il ne s'agissait pas des meilleurs segments pour distribuer les utilisateurs. Les signataires Multisig étaient les moins nombreux, ce qui, à mon avis, est un excellent indicateur, car il n'est pas évident pour les chasseurs de tokens airdrop de configurer un multi-sig pour signer des transactions afin de chasser un airdrop!
Cet airdrop a été distribué à 307 000 adresses mais était beaucoup moins réfléchi à mon avis. Les critères étaient définis comme suit (source: https://community.optimism.io/docs/governance/airdrop-2/#background):
Pour moi, cela m'a intuitivement semblé être un critère mauvais parce que le vote de gouvernance est quelque chose de facile à botter et assez prévisible. Comme nous le découvrirons ci-dessous, mon intuition n'était pas trop éloignée. J'ai été surpris de constater à quel point la rétention était en réalité basse !
Près de 90% des adresses détenaient un solde de 0 OP ! Ce sont vos statistiques habituelles de rétention d'airdrop que les gens ont l'habitude de voir. J'aimerais approfondir cela davantage, mais je suis impatient de passer aux airdrops restants.
Il s'agit de loin du meilleur largage aérien exécuté par l'équipe OP. Les critères sont plus sophistiqués qu'auparavant et comportent un élément de "linéarisation" qui a été mentionné dans des articles précédents. Cela a été distribué à environ 31 000 adresses, donc moins mais plus efficace. Les détails sont décrits ci-dessous (source :https://community.optimism.io/docs/governance/airdrop-3/#airdrop-3-allocations):
Un détail critique à noter ici est que les critères de vote sur chaîne interviennent APRÈS la période du dernier airdrop. Ainsi, les fermiers qui sont arrivés lors du premier tour ont pensé “ok, j'ai fini de cultiver, il est temps de passer à autre chose”. C'était brillant et cela aide à cette analyse car regardez ces statistiques de rétention !
Woah! Seulement 22% de ces destinataires d'airdrop ont un solde de jetons de 0! Pour moi, cela signifie que le gaspillage de cet airdrop était bien inférieur à celui des précédents. Cela confirme ma thèse selon laquelle la rétention est essentielle et que des données supplémentaires montrent que les airdrops à plusieurs tours ont plus d'utilité que ce que les gens ne le pensent.
Cet airdrop a été donné à un total de 23k adresses et avait des critères plus intéressants. Personnellement, j'ai pensé que la rétention de cela serait élevée, mais après y avoir réfléchi, j'ai une thèse pour laquelle elle était probablement inférieure à ce qui était attendu :
Vous penseriez sûrement que les personnes créant des contrats NFT seraient un bon indicateur? Malheureusement non. Les données suggèrent le contraire.
Bien que ce ne soit pas aussi mauvais que l'Airdrop #2, nous avons fait un pas en arrière assez important en termes de rétention par rapport à l'Airdrop #3.
Mon hypothèse est que si des filtres supplémentaires étaient appliqués aux contrats NFT marqués comme spam ou jugés comme ayant une certaine forme de “légitimité”, ces chiffres se seraient nettement améliorés. Ce critère était trop large. De plus, étant donné que les jetons ont été distribués gratuitement à ces adresses (plutôt que d'avoir à être réclamés), on se retrouve dans une situation où les créateurs d'arnaque NFT se disent “waouh, de l'argent gratuit. il est temps de vendre”.
En écrivant cet article et en me procurant les données moi-même, j’ai réussi à prouver/réfuter certaines hypothèses que j’avais et qui se sont avérées très précieuses. En particulier, que la qualité de votre airdrop est directement liée à la qualité de vos critères de filtrage. Les personnes qui tentent de créer un « score de parachutage » universel ou d’utiliser des modèles d’apprentissage automatique avancés échoueront en raison de données inexactes ou de nombreux faux positifs. L’apprentissage automatique est excellent jusqu’à ce que vous essayiez de comprendre comment il a obtenu la réponse qu’il a obtenue.
En écrivant les scripts et le code pour cet article, j'ai obtenu les chiffres de l'airdrop Starkware, ce qui est également un exercice intellectuel intéressant. J'en parlerai dans le prochain article. Les principales leçons que les équipes devraient tirer d'ici :
Si vous envisagez activement de faire un airdrop ou si vous voulez discuter de ce sujet, contactez-moi. Je passe toutes mes heures éveillées à réfléchir à ce problème et ce, depuis 3 ans. Ce que nous construisons est directement lié à tout ce qui précède, même si cela ne semble pas être le cas en surface.
Note latérale : J'ai été un peu déconnecté de la publication en raison de ma santé précaire et d'une charge de travail importante. Cela signifie généralement que la création de contenu finit par passer à la trappe. Je me sens lentement mieux et je développe l'équipe pour m'assurer que je peux revenir à une cadence régulière ici.
مشاركة
Récemment, Starkware a lancé son largement attendu airdrop. Comme la plupart des airdrops, cela a entraîné beaucoup de controverse. Ce qui, d'une manière tragique, ne surprend plus vraiment personne.
Alors pourquoi est-il le cas que cela se reproduise encore et encore? On pourrait entendre quelques-unes de ces perspectives:
Aucune de ces opinions n'est fausse, mais aucune de ces perspectives n'est totalement vraie en soi. Décortiquons quelques points de vue pour nous assurer que nous comprenons pleinement le problème en question.
Il existe une tension fondamentale lorsqu'on fait un airdrop, on doit choisir entre trois facteurs:
Vous vous retrouvez souvent dans une situation où les airdrops fonctionnent bien dans une dimension, mais frappent rarement un bon équilibre entre même 2 ou les 3. La rétention, en particulier, est la dimension la plus difficile, avec des taux supérieurs à 15 % généralement inconnus.
Mettant de côté la rétention, examinons de plus près les deux premiers : l'efficacité en capital et la décentralisation.
Pour comprendre le premier point sur l'efficacité du capital, permettez-nous d'introduire un nouveau terme appelé le "coefficient de Sybil". Il calcule essentiellement combien vous bénéficiez de diviser un dollar de capital entre un certain nombre de comptes.
Là où vous vous situez sur ce spectre, c’est en fin de compte à quel point votre airdrop deviendra un gaspillage. Si vous avez un coefficient de sybil de 1, cela signifie techniquement que vous exécutez un système de minage de liquidité et que vous allez mettre en colère de nombreux utilisateurs.
Cependant, lorsque vous arrivez à quelque chose comme Celestia où le coefficient sybil atteint 143, vous allez obtenir un comportement extrêmement gaspilleur et une exploitation effrénée.
Cela nous amène à notre deuxième point autour de la décentralisation : vous voulez finalement aider "le petit gars" qui est un vrai utilisateur et qui prend le risque d'utiliser votre produit tôt — même s'il n'est pas riche. Si votre coefficient de Sybil atteint trop près de 1 alors vous allez donner presque rien au "petit gars" et la plupart à "aux gros poissons".
Maintenant, c'est là que le débat sur l'airdrop devient animé. Vous avez ici trois catégories d'utilisateurs qui existent :
3 est le pire, 1 est encore un peu acceptable et 2 est optimal. Comment différencions-nous entre les trois est le grand défi du problème d'Airdrop.
Alors, comment résolvez-vous ce problème? Même si je n'ai pas de solution concrète, j'ai une philosophie sur la façon de résoudre cela sur laquelle j'ai passé les dernières années à réfléchir et à observer de première main: la segmentation relative au projet.
Je vais vous expliquer ce que je veux dire. Prenez du recul et réfléchissez au méta-problème : vous avez tous vos utilisateurs et vous devez être capable de les diviser en groupes sur la base d’une sorte de jugement de valeur. La valeur ici est spécifique au contexte de l’observateur et varie donc d’un projet à l’autre. Essayer d’attribuer un « filtre de largage magique » ne sera jamais suffisant. En explorant les données, vous pouvez commencer à comprendre à quoi ressemblent vraiment vos utilisateurs et commencer à prendre des décisions basées sur la science des données sur la manière appropriée d’exécuter votre airdrop grâce à la segmentation.
Pourquoi personne ne le fait-il? C'est un autre article que j'écrirai à l'avenir, mais le très long TLDR est que c'est un problème de données difficile qui nécessite une expertise en données, du temps et de l'argent. Peu d'équipes sont prêtes ou capables de le faire.
La dernière dimension dont je veux parler est la rétention. Avant d'en parler, il est probablement préférable de définir ce que signifie la rétention en premier lieu. Je résumerais cela comme suit :
nombre de personnes auxquelles un airdrop est donné
nombre de personnes qui gardent l'airdrop
Ce que la plupart des airdrops font l'erreur classique est de faire de cela une équation ponctuelle.
Afin de démontrer cela, je pensais que quelques données pourraient aider ici ! Heureusement, Optimism a réellement effectué des airdrops multi-tours ! J'espérais trouver des tableaux de bord Dune faciles qui me donnaient les chiffres de rétention que je cherchais mais j'avais malheureusement tort. Ainsi, j'ai décidé de retrousser mes manches et d'obtenir les données moi-même.
Sans le compliquer, je voulais comprendre une chose simple : comment le pourcentage d'utilisateurs avec un solde OP non nul évolue-t-il au fil des airdrops successifs.
Je suis allé à: https://github.com/ethereum-optimism/op-analytics/tree/main/reference_data/address_listspour obtenir la liste de toutes les adresses qui avaient participé à l'airdrop Optimism. Ensuite, j'ai construit un petit grattoir qui obtiendrait manuellement le solde OP de chaque adresse dans la liste (brûlé quelques-uns de nos crédits RPC internes pour cela) et ai fait un peu de manipulation des données.
Avant de plonger, une chose à noter est que chaque largage OP est indépendant du largage précédent. Il n'y a pas de bonus ou de lien pour conserver les jetons du largage précédent. Je connais la raison, mais de toute façon, continuons.
Donné à 248 699 destinataires avec les critères disponibles ici : https://community.optimism.io/docs/governance/airdrop-1/#background. Le TLDR est que les utilisateurs ont reçu des jetons pour les actions suivantes :
Après avoir analysé tous ces utilisateurs et leur solde OP, j'ai obtenu la répartition suivante. Les soldes à 0 indiquent les utilisateurs qui ont vendu leurs jetons, car les jetons OP non réclamés ont été envoyés directement aux adresses éligibles à la fin de l'airdrop (comme prévuhttps://dune.com/optimismfnd/optimism-airdrop-1)
Quoi qu'il en soit, ce premier airdrop est étonnamment bon par rapport aux airdrops précédents que j'ai observés! La plupart ont un taux de chute de 90% ou plus. Le fait que seuls 40% n'aient aucun solde est étonnamment bon.
Je voulais ensuite comprendre comment chaque critère jouait un rôle dans la détermination de la probabilité que les utilisateurs conservent ou non les jetons. Le seul problème avec cette méthodologie est que les adresses peuvent être dans plusieurs catégories, ce qui fausse les données. Je ne prendrais pas ceci pour argent comptant, mais plutôt comme un indicateur approximatif :
Les utilisateurs OP occasionnels avaient le pourcentage le plus élevé d'utilisateurs avec un solde nul, suivis par les utilisateurs qui étaient exclus d'Etheruem en raison du prix. De toute évidence, il ne s'agissait pas des meilleurs segments pour distribuer les utilisateurs. Les signataires Multisig étaient les moins nombreux, ce qui, à mon avis, est un excellent indicateur, car il n'est pas évident pour les chasseurs de tokens airdrop de configurer un multi-sig pour signer des transactions afin de chasser un airdrop!
Cet airdrop a été distribué à 307 000 adresses mais était beaucoup moins réfléchi à mon avis. Les critères étaient définis comme suit (source: https://community.optimism.io/docs/governance/airdrop-2/#background):
Pour moi, cela m'a intuitivement semblé être un critère mauvais parce que le vote de gouvernance est quelque chose de facile à botter et assez prévisible. Comme nous le découvrirons ci-dessous, mon intuition n'était pas trop éloignée. J'ai été surpris de constater à quel point la rétention était en réalité basse !
Près de 90% des adresses détenaient un solde de 0 OP ! Ce sont vos statistiques habituelles de rétention d'airdrop que les gens ont l'habitude de voir. J'aimerais approfondir cela davantage, mais je suis impatient de passer aux airdrops restants.
Il s'agit de loin du meilleur largage aérien exécuté par l'équipe OP. Les critères sont plus sophistiqués qu'auparavant et comportent un élément de "linéarisation" qui a été mentionné dans des articles précédents. Cela a été distribué à environ 31 000 adresses, donc moins mais plus efficace. Les détails sont décrits ci-dessous (source :https://community.optimism.io/docs/governance/airdrop-3/#airdrop-3-allocations):
Un détail critique à noter ici est que les critères de vote sur chaîne interviennent APRÈS la période du dernier airdrop. Ainsi, les fermiers qui sont arrivés lors du premier tour ont pensé “ok, j'ai fini de cultiver, il est temps de passer à autre chose”. C'était brillant et cela aide à cette analyse car regardez ces statistiques de rétention !
Woah! Seulement 22% de ces destinataires d'airdrop ont un solde de jetons de 0! Pour moi, cela signifie que le gaspillage de cet airdrop était bien inférieur à celui des précédents. Cela confirme ma thèse selon laquelle la rétention est essentielle et que des données supplémentaires montrent que les airdrops à plusieurs tours ont plus d'utilité que ce que les gens ne le pensent.
Cet airdrop a été donné à un total de 23k adresses et avait des critères plus intéressants. Personnellement, j'ai pensé que la rétention de cela serait élevée, mais après y avoir réfléchi, j'ai une thèse pour laquelle elle était probablement inférieure à ce qui était attendu :
Vous penseriez sûrement que les personnes créant des contrats NFT seraient un bon indicateur? Malheureusement non. Les données suggèrent le contraire.
Bien que ce ne soit pas aussi mauvais que l'Airdrop #2, nous avons fait un pas en arrière assez important en termes de rétention par rapport à l'Airdrop #3.
Mon hypothèse est que si des filtres supplémentaires étaient appliqués aux contrats NFT marqués comme spam ou jugés comme ayant une certaine forme de “légitimité”, ces chiffres se seraient nettement améliorés. Ce critère était trop large. De plus, étant donné que les jetons ont été distribués gratuitement à ces adresses (plutôt que d'avoir à être réclamés), on se retrouve dans une situation où les créateurs d'arnaque NFT se disent “waouh, de l'argent gratuit. il est temps de vendre”.
En écrivant cet article et en me procurant les données moi-même, j’ai réussi à prouver/réfuter certaines hypothèses que j’avais et qui se sont avérées très précieuses. En particulier, que la qualité de votre airdrop est directement liée à la qualité de vos critères de filtrage. Les personnes qui tentent de créer un « score de parachutage » universel ou d’utiliser des modèles d’apprentissage automatique avancés échoueront en raison de données inexactes ou de nombreux faux positifs. L’apprentissage automatique est excellent jusqu’à ce que vous essayiez de comprendre comment il a obtenu la réponse qu’il a obtenue.
En écrivant les scripts et le code pour cet article, j'ai obtenu les chiffres de l'airdrop Starkware, ce qui est également un exercice intellectuel intéressant. J'en parlerai dans le prochain article. Les principales leçons que les équipes devraient tirer d'ici :
Si vous envisagez activement de faire un airdrop ou si vous voulez discuter de ce sujet, contactez-moi. Je passe toutes mes heures éveillées à réfléchir à ce problème et ce, depuis 3 ans. Ce que nous construisons est directement lié à tout ce qui précède, même si cela ne semble pas être le cas en surface.
Note latérale : J'ai été un peu déconnecté de la publication en raison de ma santé précaire et d'une charge de travail importante. Cela signifie généralement que la création de contenu finit par passer à la trappe. Je me sens lentement mieux et je développe l'équipe pour m'assurer que je peux revenir à une cadence régulière ici.