ますます重要なことは、Bittensorとは具体的に何ですか?
Bittensor itself is not an AI product, nor does it produce or provide any AI products or services. Bittensor is an economic system that serves as an optimizer for the AI product market by providing a highly competitive incentive system for AI product producers. In the Bittensor ecosystem, high-quality producers receive more incentives, while less competitive producers are gradually eliminated.
では、Bittensorは具体的にどのようにして、効果的な競争を促進し、高品質なAI製品の有機的な生産を促進するインセンティブメカニズムを作成していますか?
Bittensor フライホイールモデル
Bittensorは、この目標をフライホイールモデルを通じて達成しています。バリデータは、エコシステム内のAI製品の品質を評価し、その品質に基づいてインセンティブを分配することで、高品質のプロデューサーがより多くのインセンティブを受け取ることを確認しています。これにより、高品質なアウトプットの持続的な増加が促進され、Bittensorネットワークの価値が向上し、TAOの評価が高まります。 TAOの評価の高まりは、高品質のプロデューサーをBittensorエコシステムに引き付けるだけでなく、品質評価結果を操作する操縦者による攻撃コストを増加させます。これにより、正直なバリデータのコンセンサスが強化され、評価結果の客観性と公平性が向上し、より効果的な競争とインセンティブメカニズムが実現されます。
評価結果の公正さと客観性を確保することは、フライホイールを回す上で重要なステップです。これは、Bittensorの中核技術でもあり、Yuma Consensusに基づく抽象的な検証システムです。
Yuma Consensusとは何ですか?そして、それはどのようにして合意後の品質評価結果が公平かつ客観的であることを保証していますか?
Yuma Consensusは、多くのバリデータが提供する多様な評価から最終的な評価結果を算出するために設計されたコンセンサスメカニズムです。ビザンチン障害耐性のコンセンサスメカニズムと同様に、ネットワーク内の大多数のバリデータが正直であれば、最終的に正しい決定ができます。正直なバリデータが客観的な評価を提供できると仮定すると、コンセンサス後の評価結果も公正かつ客観的になります。
例として、サブネットの品質評価を取ると、ルートネットワークのバリデータは各サブネットのアウトプットの品質を評価し、ランク付けします。64人のバリデータからの評価結果が集計され、最終的な評価結果はYumaコンセンサスアルゴリズムを通じて得られます。最終結果は、それぞれのサブネットに新たに鋳造されたTAOを割り当てるために使用されます。
現在、Yuma Consensusには改善の余地があります。
Bittensorは、これらの欠点に対処するためのアップグレードメカニズムも計画しています:
Yumaコンセンサスの主な利点の1つは強力な包括性です。Yumaコンセンサスは、各サブネットの排出量を決定するだけでなく、同じサブネット内の各マイナーとバリデータの割り当て比率を決定するためにも使用されます。さらに、マイナーのタスクに関係なく、計算能力、データ、人間の貢献、知性を含む寄与が抽象的に考慮されます。したがって、AI商品の生産のどの段階でも、Bittensorエコシステムにアクセスし、インセンティブを享受しながらBittensorネットワークの価値を高めることができます。
次に、いくつかの主要なサブネットを探検し、Bittensorがこれらのサブネットのアウトプットをインセンティブ化する方法を観察しましょう。
サブネット #3 マイシェル TTS
GitHub — myshell-ai/MyShell-TTS-Subnet
GitHubでアカウントを作成して、myshell-ai/MyShell-TTS-Subnetの開発に貢献してください。
発行量:3.46% (2024–04–09)
背景: Myshellは、MIT、オックスフォード大学、プリンストン大学などの名門機関出身の中心メンバーから成るMyshell TTS(テキスト読み上げ)チームです。Myshellは、プログラミングのバックグラウンドを持たない大学生が簡単に自分の希望するロボットを作成できるノーコードプラットフォームを作成することを目指しています。TTS分野、オーディオブック、仮想アシスタントを専門とするMyshellは、2023年3月に最初の音声チャットボットであるSamanthaを立ち上げました。製品マトリックスの継続的な拡大に伴い、現在までに100万人以上の登録ユーザーを集めています。このプラットフォームでは、言語学習、教育、ユーティリティに焦点を当てたさまざまなタイプのロボットを提供しています。
ポジショニング:Myshellは、このサブネットを立ち上げ、オープンソースコミュニティ全体の知恵を集め、最高のオープンソースTTSモデルを構築するために活用しています。言い換えれば、Myshell TTSはモデルを直接実行したりエンドユーザーのリクエストを処理したりするのではなく、TTSモデルをトレーニングするためのネットワークです。
マイシェル TSS アーキテクチャ
Myshell TTSによって実行されるプロセスは、上記の図で示されています。 マイナーはモデルのトレーニングとトレーニングされたモデルをモデルプールにアップロードする責任があります(モデルのメタデータもBittensorブロックチェーンネットワークに格納されています); バリデータは、テストケースを生成し、モデルのパフォーマンスを評価し、その結果に基づいてスコアリングを行うことによって、モデルを評価します; Bittensorブロックチェーンは、Yumaコンセンサスを使用して重みを集約し、各マイナーごとの最終的な重みと割り当て比率を決定します。
結論として、マイナーは報酬を維持するために継続的に高品質なモデルを提出しなければなりません。
現在、Myshellは、ユーザーがMyshell TTSのモデルを試すためのデモもプラットフォーム上で公開しています。
将来、Myshell TTSによって訓練されたモデルがより信頼性の高いものとなると、さらに多くのユースケースがオンラインで利用可能になるでしょう。さらに、オープンソースモデルとして、それらはMyshellに限定されることなく、他のプラットフォームにも拡張されることができます。分散型アプローチを通じてオープンソースモデルを訓練し、インセンティブを与えることは、まさに分散型AIで目指すことではありませんか?
サブネット#5オープンカイト
OpenKaito/openkaitoの開発に貢献するために、GitHubでアカウントを作成してください。
Emission:4.39% (2024–04–09)
背景: Kaito.ai は、Open Kaito のチームに支えられており、その中核メンバーは、以前にAWS、META、Citadelなどの一流企業で働いた幅広い経験を持つAI分野のエキスパートです。Bittensorサブネットに参加する前に、彼らはフラッグシップ製品であるKaito.aiを2023年第4四半期に立ち上げました。Kaito.ai は、AIアルゴリズムを活用して、データ収集、ランキングアルゴリズム、および検索アルゴリズムなどの検索エンジンのコアコンポーネントを最適化します。これにより、Kaito.ai は暗号コミュニティでの主要な情報収集ツールの1つとして認知されています。
Positioning: Open Kaitoは、インテリジェントな検索と分析をサポートするための分散型のインデックスレイヤーを確立することを目指しています。検索エンジンは単なるデータベースやランキングアルゴリズムではなく、複雑なシステムです。さらに、効果的な検索エンジンには低レイテンシーも必要であり、分散型バージョンを構築する際に追加の課題が生じます。幸いにも、Bittensorのインセンティブシステムにより、これらの課題に対処することが期待されています。
オープンカイトアーキテクチャ
上記の図には、オープンカイトの操作プロセスが説明されています。オープンカイトは単に検索エンジンの各コンポーネントを分散化するだけでなく、インデックス化の問題をマイナーバリデータの問題として定義します。つまり、マイナーはユーザーのインデックス化リクエストに応答する責任があり、バリデータはマイナーからの要求を配布し、応答を評価します。
Open Kaitoは、マイナーがインデックスタスクを完了する方法を制限しません。代わりに、マイナーが出力する最終結果に焦点を当て、革新的なソリューションを促進します。これにより、マイナーの間で健全な競争環境が育まれます。ユーザーのインデックス要件に直面すると、マイナーは実行計画を改善し、より少ないリソースで高品質の応答結果を達成しようと努力します。
サブネット#6 Nous Finetuning
GitHub — NousResearch/finetuning-subnet
発行量:6.26% (2024–04–09)
背景:Nous Finetuningのチームは、大規模言語モデル(LLM)アーキテクチャ、データ合成、およびデバイス内推論に焦点を当てた専門研究チームであるNous Researchのチームから来ています。共同創業者は以前、Eden Networkの主任エンジニアを務めていました。
ポジショニング:Nous Finetuningは、大規模言語モデルの微調整に特化したサブネットです。さらに、微調整に使用されるデータは、特にサブネット#18からBittensorエコシステムで提供されます。
Nous Finetuningの操作プロセスは、Myshell TSSと類似しています。マイナーはサブネット#18のデータを基にモデルをトレーニングし、定期的にHugging Faceにホストされるようにリリースします。バリデータはモデルを評価し、評価を提供します。同様に、BittensorブロックチェーンはYuma Consensusを使用して重みを集計し、各マイナーの最終的な重みとエミッションを決定します。
サブネット #18 コルテックス.t
GitHubでアカウントを作成して、corcel-api/cortex.tの開発に貢献してください。
発行量:7.74%(2024–04–09)
背景:Cortex.tのチームはCorcel.ioであり、Bittensorネットワークで2番目に大きなバリデータであるMogからサポートを受けています。Corcel.ioは、BittensorエコシステムからのAI製品を活用して、ユーザー向けにChatGPTに類似した体験を提供するアプリケーションを目指しています。
ポジショニング:Cortex.tは、結果をエンドユーザーに提供する直前の最終レイヤーと位置付けられています。これは、単一のプロンプトが複数のモデルを呼び出す場合に特に、様々なサブネットの出力を検出し最適化する責任があり、その結果が正確で信頼性があり、シームレスなユーザーエクスペリエンスを確保することを目指しています。Cortex.tは、空白または一貫性のない出力を防ぎ、シームレスなユーザーエクスペリエンスを確保することを目指しています。
Cortex.tのマイナーは、Bittensorエコシステム内の他のサブネットを利用してエンドユーザーからのリクエストを処理します。彼らはまた、GPT-3.5ターボまたはGPT-4を使用して出力結果を検証し、エンドユーザーに信頼性を保証します。バリデータは、マイナーの出力をOpenAIによって生成された結果と比較することで評価します。
サブネット #19 ビジョン
GitHubでアカウントを作成して、namoray/visionの開発に貢献してください。
Emission:9.47%(2024–04–09)
背景:Visionの開発チームはCorcel.ioからも派生しています。
ポジショニング:Visionは、最適化されたサブネット構築フレームワークDSIS(分散サブネット推論スケール)を活用して、Bittensorネットワークの出力容量を最大化することを目指しています。このフレームワークは、マイナーのバリデータへの迅速な応答を加速します。現在、Visionは画像生成のシナリオに焦点を当てています。
バリデータはCorcel.ioフロントエンドからの要求を受け取り、それをマイナーに配布します。マイナーは、要求を処理し応答を生成するために、自分の好みのテクノロジースタック(モデルに限定されない)を選択する自由があります。その後、バリデータはマイナーのパフォーマンスを評価します。DSISのおかげで、Visionは他のサブネットよりもこれらの要求により迅速かつ効率的に応答することができます。
上記の例から、Bittensorは非常に包括的であることが明らかです。マイナーによる生成とバリデータによる検証はオフチェーンで行われ、Bittensorネットワークは単にバリデータからの評価に基づいて各マイナーに報酬を割り当てるためにのみ役立ちます。マイナーバリデータアーキテクチャに適合するAI製品生成の任意の側面は、サブネットに変換することができます。
責任の免責事項:この記事で表現される意見や見解は、著者個人のものであり、投資アドバイスを構成するものではありません。
他の言語への記事の翻訳はGate Learnチームによって行われます。特に記載がない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。
理論上、サブネット間の競争は激しいはずです。サブネットが報酬を継続的に受け取るためには、一貫して高品質なアウトプットを生み出さなければなりません。そうでない場合、ルートネットワークのバリデーターによってサブネットのアウトプットが低価値と見なされると、その割り当てが減少し、最終的には新しいサブネットに置き換えられるかもしれません。
しかし、実際には、私たちはいくつかの問題を確認しています。
これらの問題は、サブネット間の競争が不十分であり、一部のバリデータが効果的な競争を促進する役割を果たしていないことを反映しています。
Open Tensor Foundation Validator (OTF)は、この状況を緩和するために一時的な措置を実施しました。ステーキングパワーの23%(委任を含む)を保有する最大のValidatorとして、OTFは、サブネットがより多くのステークされたTAOを競うためのチャンネルを提供します: サブネットの所有者は、OTFに対して毎週リクエストを提出して、サブネット内のStaked TAOの割合を調整することができます。 これらのリクエストは、「サブネットの目標とBittensorエコシステムへの貢献」、「サブネットの報酬メカニズム」、「通信プロトコルの設計」、「データソースとセキュリティ」、「計算要件」、「ロードマップ」などを含む10の側面をカバーする必要があります。OTFの最終決定を容易にするために。
しかしながら、この問題に根本的に取り組むためには、一方で、dTAO(の導入が緊急に必要です@0xai.dev/what-is-the-impact-of-dynamic-tao-on-bittensor-efcc8ebe4e27">Dynamic TAO)は、前述の不合理な問題を根本的に変えるよう設計されています。大量のステーキングTAOを保有する大規模なバリデーターにアピールし、Bittensorエコシステムの長期的な発展を「金融的なリターン」の観点だけでなく、むしろ「エコシステムの発展」の観点から考慮するよう促すこともできます。
In conclusion, relying on its strong inclusivity, fierce competitive environment, and effective incentive mechanism, we believe that the Bittensor ecosystem can organically produce high-quality AI products. Although not all outputs from existing Subnets may rival those of centralized products, let’s not forget that the current Bittensor architecture has just turned one year old (Subnet #1 was registered on April 13, 2023). For a platform with the potential to rival centralized AI giants, perhaps we should focus on proposing practical improvement plans rather than hastily criticizing its shortcomings. After all, we all do not want to see AI constantly controlled by a few giants.
Share
Content
ますます重要なことは、Bittensorとは具体的に何ですか?
Bittensor itself is not an AI product, nor does it produce or provide any AI products or services. Bittensor is an economic system that serves as an optimizer for the AI product market by providing a highly competitive incentive system for AI product producers. In the Bittensor ecosystem, high-quality producers receive more incentives, while less competitive producers are gradually eliminated.
では、Bittensorは具体的にどのようにして、効果的な競争を促進し、高品質なAI製品の有機的な生産を促進するインセンティブメカニズムを作成していますか?
Bittensor フライホイールモデル
Bittensorは、この目標をフライホイールモデルを通じて達成しています。バリデータは、エコシステム内のAI製品の品質を評価し、その品質に基づいてインセンティブを分配することで、高品質のプロデューサーがより多くのインセンティブを受け取ることを確認しています。これにより、高品質なアウトプットの持続的な増加が促進され、Bittensorネットワークの価値が向上し、TAOの評価が高まります。 TAOの評価の高まりは、高品質のプロデューサーをBittensorエコシステムに引き付けるだけでなく、品質評価結果を操作する操縦者による攻撃コストを増加させます。これにより、正直なバリデータのコンセンサスが強化され、評価結果の客観性と公平性が向上し、より効果的な競争とインセンティブメカニズムが実現されます。
評価結果の公正さと客観性を確保することは、フライホイールを回す上で重要なステップです。これは、Bittensorの中核技術でもあり、Yuma Consensusに基づく抽象的な検証システムです。
Yuma Consensusとは何ですか?そして、それはどのようにして合意後の品質評価結果が公平かつ客観的であることを保証していますか?
Yuma Consensusは、多くのバリデータが提供する多様な評価から最終的な評価結果を算出するために設計されたコンセンサスメカニズムです。ビザンチン障害耐性のコンセンサスメカニズムと同様に、ネットワーク内の大多数のバリデータが正直であれば、最終的に正しい決定ができます。正直なバリデータが客観的な評価を提供できると仮定すると、コンセンサス後の評価結果も公正かつ客観的になります。
例として、サブネットの品質評価を取ると、ルートネットワークのバリデータは各サブネットのアウトプットの品質を評価し、ランク付けします。64人のバリデータからの評価結果が集計され、最終的な評価結果はYumaコンセンサスアルゴリズムを通じて得られます。最終結果は、それぞれのサブネットに新たに鋳造されたTAOを割り当てるために使用されます。
現在、Yuma Consensusには改善の余地があります。
Bittensorは、これらの欠点に対処するためのアップグレードメカニズムも計画しています:
Yumaコンセンサスの主な利点の1つは強力な包括性です。Yumaコンセンサスは、各サブネットの排出量を決定するだけでなく、同じサブネット内の各マイナーとバリデータの割り当て比率を決定するためにも使用されます。さらに、マイナーのタスクに関係なく、計算能力、データ、人間の貢献、知性を含む寄与が抽象的に考慮されます。したがって、AI商品の生産のどの段階でも、Bittensorエコシステムにアクセスし、インセンティブを享受しながらBittensorネットワークの価値を高めることができます。
次に、いくつかの主要なサブネットを探検し、Bittensorがこれらのサブネットのアウトプットをインセンティブ化する方法を観察しましょう。
サブネット #3 マイシェル TTS
GitHub — myshell-ai/MyShell-TTS-Subnet
GitHubでアカウントを作成して、myshell-ai/MyShell-TTS-Subnetの開発に貢献してください。
発行量:3.46% (2024–04–09)
背景: Myshellは、MIT、オックスフォード大学、プリンストン大学などの名門機関出身の中心メンバーから成るMyshell TTS(テキスト読み上げ)チームです。Myshellは、プログラミングのバックグラウンドを持たない大学生が簡単に自分の希望するロボットを作成できるノーコードプラットフォームを作成することを目指しています。TTS分野、オーディオブック、仮想アシスタントを専門とするMyshellは、2023年3月に最初の音声チャットボットであるSamanthaを立ち上げました。製品マトリックスの継続的な拡大に伴い、現在までに100万人以上の登録ユーザーを集めています。このプラットフォームでは、言語学習、教育、ユーティリティに焦点を当てたさまざまなタイプのロボットを提供しています。
ポジショニング:Myshellは、このサブネットを立ち上げ、オープンソースコミュニティ全体の知恵を集め、最高のオープンソースTTSモデルを構築するために活用しています。言い換えれば、Myshell TTSはモデルを直接実行したりエンドユーザーのリクエストを処理したりするのではなく、TTSモデルをトレーニングするためのネットワークです。
マイシェル TSS アーキテクチャ
Myshell TTSによって実行されるプロセスは、上記の図で示されています。 マイナーはモデルのトレーニングとトレーニングされたモデルをモデルプールにアップロードする責任があります(モデルのメタデータもBittensorブロックチェーンネットワークに格納されています); バリデータは、テストケースを生成し、モデルのパフォーマンスを評価し、その結果に基づいてスコアリングを行うことによって、モデルを評価します; Bittensorブロックチェーンは、Yumaコンセンサスを使用して重みを集約し、各マイナーごとの最終的な重みと割り当て比率を決定します。
結論として、マイナーは報酬を維持するために継続的に高品質なモデルを提出しなければなりません。
現在、Myshellは、ユーザーがMyshell TTSのモデルを試すためのデモもプラットフォーム上で公開しています。
将来、Myshell TTSによって訓練されたモデルがより信頼性の高いものとなると、さらに多くのユースケースがオンラインで利用可能になるでしょう。さらに、オープンソースモデルとして、それらはMyshellに限定されることなく、他のプラットフォームにも拡張されることができます。分散型アプローチを通じてオープンソースモデルを訓練し、インセンティブを与えることは、まさに分散型AIで目指すことではありませんか?
サブネット#5オープンカイト
OpenKaito/openkaitoの開発に貢献するために、GitHubでアカウントを作成してください。
Emission:4.39% (2024–04–09)
背景: Kaito.ai は、Open Kaito のチームに支えられており、その中核メンバーは、以前にAWS、META、Citadelなどの一流企業で働いた幅広い経験を持つAI分野のエキスパートです。Bittensorサブネットに参加する前に、彼らはフラッグシップ製品であるKaito.aiを2023年第4四半期に立ち上げました。Kaito.ai は、AIアルゴリズムを活用して、データ収集、ランキングアルゴリズム、および検索アルゴリズムなどの検索エンジンのコアコンポーネントを最適化します。これにより、Kaito.ai は暗号コミュニティでの主要な情報収集ツールの1つとして認知されています。
Positioning: Open Kaitoは、インテリジェントな検索と分析をサポートするための分散型のインデックスレイヤーを確立することを目指しています。検索エンジンは単なるデータベースやランキングアルゴリズムではなく、複雑なシステムです。さらに、効果的な検索エンジンには低レイテンシーも必要であり、分散型バージョンを構築する際に追加の課題が生じます。幸いにも、Bittensorのインセンティブシステムにより、これらの課題に対処することが期待されています。
オープンカイトアーキテクチャ
上記の図には、オープンカイトの操作プロセスが説明されています。オープンカイトは単に検索エンジンの各コンポーネントを分散化するだけでなく、インデックス化の問題をマイナーバリデータの問題として定義します。つまり、マイナーはユーザーのインデックス化リクエストに応答する責任があり、バリデータはマイナーからの要求を配布し、応答を評価します。
Open Kaitoは、マイナーがインデックスタスクを完了する方法を制限しません。代わりに、マイナーが出力する最終結果に焦点を当て、革新的なソリューションを促進します。これにより、マイナーの間で健全な競争環境が育まれます。ユーザーのインデックス要件に直面すると、マイナーは実行計画を改善し、より少ないリソースで高品質の応答結果を達成しようと努力します。
サブネット#6 Nous Finetuning
GitHub — NousResearch/finetuning-subnet
発行量:6.26% (2024–04–09)
背景:Nous Finetuningのチームは、大規模言語モデル(LLM)アーキテクチャ、データ合成、およびデバイス内推論に焦点を当てた専門研究チームであるNous Researchのチームから来ています。共同創業者は以前、Eden Networkの主任エンジニアを務めていました。
ポジショニング:Nous Finetuningは、大規模言語モデルの微調整に特化したサブネットです。さらに、微調整に使用されるデータは、特にサブネット#18からBittensorエコシステムで提供されます。
Nous Finetuningの操作プロセスは、Myshell TSSと類似しています。マイナーはサブネット#18のデータを基にモデルをトレーニングし、定期的にHugging Faceにホストされるようにリリースします。バリデータはモデルを評価し、評価を提供します。同様に、BittensorブロックチェーンはYuma Consensusを使用して重みを集計し、各マイナーの最終的な重みとエミッションを決定します。
サブネット #18 コルテックス.t
GitHubでアカウントを作成して、corcel-api/cortex.tの開発に貢献してください。
発行量:7.74%(2024–04–09)
背景:Cortex.tのチームはCorcel.ioであり、Bittensorネットワークで2番目に大きなバリデータであるMogからサポートを受けています。Corcel.ioは、BittensorエコシステムからのAI製品を活用して、ユーザー向けにChatGPTに類似した体験を提供するアプリケーションを目指しています。
ポジショニング:Cortex.tは、結果をエンドユーザーに提供する直前の最終レイヤーと位置付けられています。これは、単一のプロンプトが複数のモデルを呼び出す場合に特に、様々なサブネットの出力を検出し最適化する責任があり、その結果が正確で信頼性があり、シームレスなユーザーエクスペリエンスを確保することを目指しています。Cortex.tは、空白または一貫性のない出力を防ぎ、シームレスなユーザーエクスペリエンスを確保することを目指しています。
Cortex.tのマイナーは、Bittensorエコシステム内の他のサブネットを利用してエンドユーザーからのリクエストを処理します。彼らはまた、GPT-3.5ターボまたはGPT-4を使用して出力結果を検証し、エンドユーザーに信頼性を保証します。バリデータは、マイナーの出力をOpenAIによって生成された結果と比較することで評価します。
サブネット #19 ビジョン
GitHubでアカウントを作成して、namoray/visionの開発に貢献してください。
Emission:9.47%(2024–04–09)
背景:Visionの開発チームはCorcel.ioからも派生しています。
ポジショニング:Visionは、最適化されたサブネット構築フレームワークDSIS(分散サブネット推論スケール)を活用して、Bittensorネットワークの出力容量を最大化することを目指しています。このフレームワークは、マイナーのバリデータへの迅速な応答を加速します。現在、Visionは画像生成のシナリオに焦点を当てています。
バリデータはCorcel.ioフロントエンドからの要求を受け取り、それをマイナーに配布します。マイナーは、要求を処理し応答を生成するために、自分の好みのテクノロジースタック(モデルに限定されない)を選択する自由があります。その後、バリデータはマイナーのパフォーマンスを評価します。DSISのおかげで、Visionは他のサブネットよりもこれらの要求により迅速かつ効率的に応答することができます。
上記の例から、Bittensorは非常に包括的であることが明らかです。マイナーによる生成とバリデータによる検証はオフチェーンで行われ、Bittensorネットワークは単にバリデータからの評価に基づいて各マイナーに報酬を割り当てるためにのみ役立ちます。マイナーバリデータアーキテクチャに適合するAI製品生成の任意の側面は、サブネットに変換することができます。
責任の免責事項:この記事で表現される意見や見解は、著者個人のものであり、投資アドバイスを構成するものではありません。
他の言語への記事の翻訳はGate Learnチームによって行われます。特に記載がない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。
理論上、サブネット間の競争は激しいはずです。サブネットが報酬を継続的に受け取るためには、一貫して高品質なアウトプットを生み出さなければなりません。そうでない場合、ルートネットワークのバリデーターによってサブネットのアウトプットが低価値と見なされると、その割り当てが減少し、最終的には新しいサブネットに置き換えられるかもしれません。
しかし、実際には、私たちはいくつかの問題を確認しています。
これらの問題は、サブネット間の競争が不十分であり、一部のバリデータが効果的な競争を促進する役割を果たしていないことを反映しています。
Open Tensor Foundation Validator (OTF)は、この状況を緩和するために一時的な措置を実施しました。ステーキングパワーの23%(委任を含む)を保有する最大のValidatorとして、OTFは、サブネットがより多くのステークされたTAOを競うためのチャンネルを提供します: サブネットの所有者は、OTFに対して毎週リクエストを提出して、サブネット内のStaked TAOの割合を調整することができます。 これらのリクエストは、「サブネットの目標とBittensorエコシステムへの貢献」、「サブネットの報酬メカニズム」、「通信プロトコルの設計」、「データソースとセキュリティ」、「計算要件」、「ロードマップ」などを含む10の側面をカバーする必要があります。OTFの最終決定を容易にするために。
しかしながら、この問題に根本的に取り組むためには、一方で、dTAO(の導入が緊急に必要です@0xai.dev/what-is-the-impact-of-dynamic-tao-on-bittensor-efcc8ebe4e27">Dynamic TAO)は、前述の不合理な問題を根本的に変えるよう設計されています。大量のステーキングTAOを保有する大規模なバリデーターにアピールし、Bittensorエコシステムの長期的な発展を「金融的なリターン」の観点だけでなく、むしろ「エコシステムの発展」の観点から考慮するよう促すこともできます。
In conclusion, relying on its strong inclusivity, fierce competitive environment, and effective incentive mechanism, we believe that the Bittensor ecosystem can organically produce high-quality AI products. Although not all outputs from existing Subnets may rival those of centralized products, let’s not forget that the current Bittensor architecture has just turned one year old (Subnet #1 was registered on April 13, 2023). For a platform with the potential to rival centralized AI giants, perhaps we should focus on proposing practical improvement plans rather than hastily criticizing its shortcomings. After all, we all do not want to see AI constantly controlled by a few giants.