なぜ私たちはBittensorに強気なのか?

中級4/16/2024, 7:28:08 AM
Bittensorエコシステムは強力な包括性、競争環境、および効果的なインセンティブメカニズムを持っています。この記事では、Bittensorの計画されたアップグレードメカニズムやサブネットワークの紹介について詳細に説明し、効果的な競争を促進して高品質な人工知能製品を推進しています。

ますます重要なことは、Bittensorとは具体的に何ですか?

Bittensor itself is not an AI product, nor does it produce or provide any AI products or services. Bittensor is an economic system that serves as an optimizer for the AI product market by providing a highly competitive incentive system for AI product producers. In the Bittensor ecosystem, high-quality producers receive more incentives, while less competitive producers are gradually eliminated.

では、Bittensorは具体的にどのようにして、効果的な競争を促進し、高品質なAI製品の有機的な生産を促進するインセンティブメカニズムを作成していますか?

Bittensor フライホイールモデル

Bittensorは、この目標をフライホイールモデルを通じて達成しています。バリデータは、エコシステム内のAI製品の品質を評価し、その品質に基づいてインセンティブを分配することで、高品質のプロデューサーがより多くのインセンティブを受け取ることを確認しています。これにより、高品質なアウトプットの持続的な増加が促進され、Bittensorネットワークの価値が向上し、TAOの評価が高まります。 TAOの評価の高まりは、高品質のプロデューサーをBittensorエコシステムに引き付けるだけでなく、品質評価結果を操作する操縦者による攻撃コストを増加させます。これにより、正直なバリデータのコンセンサスが強化され、評価結果の客観性と公平性が向上し、より効果的な競争とインセンティブメカニズムが実現されます。

評価結果の公正さと客観性を確保することは、フライホイールを回す上で重要なステップです。これは、Bittensorの中核技術でもあり、Yuma Consensusに基づく抽象的な検証システムです。

Yuma Consensusとは何ですか?そして、それはどのようにして合意後の品質評価結果が公平かつ客観的であることを保証していますか?

Yuma Consensusは、多くのバリデータが提供する多様な評価から最終的な評価結果を算出するために設計されたコンセンサスメカニズムです。ビザンチン障害耐性のコンセンサスメカニズムと同様に、ネットワーク内の大多数のバリデータが正直であれば、最終的に正しい決定ができます。正直なバリデータが客観的な評価を提供できると仮定すると、コンセンサス後の評価結果も公正かつ客観的になります。

例として、サブネットの品質評価を取ると、ルートネットワークのバリデータは各サブネットのアウトプットの品質を評価し、ランク付けします。64人のバリデータからの評価結果が集計され、最終的な評価結果はYumaコンセンサスアルゴリズムを通じて得られます。最終結果は、それぞれのサブネットに新たに鋳造されたTAOを割り当てるために使用されます。

現在、Yuma Consensusには改善の余地があります。

  1. Root Network ValidatorsはすべてのTAO保有者を完全に表すわけではなく、彼らが提供する評価結果が必ずしも幅広い視点を反映しているとは限りません。さらに、一部のトップバリデーターからの評価は必ずしも客観的とは限りません。偏見の事例が特定されたとしても、すぐに修正されるとは限りません。
  2. Root Network Validatorsの存在によって、Bittensorが収容できるサブネットの数が制限されます。中央集権的なAI巨人と競合するためには、32のサブネットだけでは不十分です。しかし、32のサブネットでも、Root Network Validatorsはすべてを効果的に監視するのに苦労するかもしれません。
  3. バリデータは、新しいサブネットに移行する強い意欲を持っていないかもしれません。短期間では、古いサブネットから新しいサブネットに移行する際に、より高い発行量の古いサブネットから一部の報酬を失う可能性があります。新しいサブネットの発行量が最終的に追いつくかどうかの不確実性と、追求中の報酬の確実な損失によって、移行する意欲が低下します。

Bittensorは、これらの欠点に対処するためのアップグレードメカニズムも計画しています:

  1. Dynamic TAOは、いくつかの検証者ではなく、すべてのTAO保有者に分配することにより、サブネットの品質を評価する権力を分散化します。TAO保有者は、ステーキングを通じて各サブネットの割り当て比率を間接的に決定できます。
  2. Root Network Validatorsの制限がないため、アクティブSubnetsの最大数が1024に増加されます。これにより、新しいチームがBittensorエコシステムに参加する際の障壁が大幅に低下し、Subnets間の競争が激化することになります。
  3. 新しいサブネットに早く移行する検証者は、おそらくより高い報酬を受け取る可能性があります。新しいサブネットへの早期移行は、そのサブネットのdTAOをより低い価格で購入することを意味し、将来的により多くのTAOを受け取る可能性を高めます。

Yumaコンセンサスの主な利点の1つは強力な包括性です。Yumaコンセンサスは、各サブネットの排出量を決定するだけでなく、同じサブネット内の各マイナーとバリデータの割り当て比率を決定するためにも使用されます。さらに、マイナーのタスクに関係なく、計算能力、データ、人間の貢献、知性を含む寄与が抽象的に考慮されます。したがって、AI商品の生産のどの段階でも、Bittensorエコシステムにアクセスし、インセンティブを享受しながらBittensorネットワークの価値を高めることができます。

次に、いくつかの主要なサブネットを探検し、Bittensorがこれらのサブネットのアウトプットをインセンティブ化する方法を観察しましょう。

サブネット #3 マイシェル TTS

GitHub — myshell-ai/MyShell-TTS-Subnet

GitHubでアカウントを作成して、myshell-ai/MyShell-TTS-Subnetの開発に貢献してください。

github.com

発行量:3.46% (2024–04–09)

背景: Myshellは、MIT、オックスフォード大学、プリンストン大学などの名門機関出身の中心メンバーから成るMyshell TTS(テキスト読み上げ)チームです。Myshellは、プログラミングのバックグラウンドを持たない大学生が簡単に自分の希望するロボットを作成できるノーコードプラットフォームを作成することを目指しています。TTS分野、オーディオブック、仮想アシスタントを専門とするMyshellは、2023年3月に最初の音声チャットボットであるSamanthaを立ち上げました。製品マトリックスの継続的な拡大に伴い、現在までに100万人以上の登録ユーザーを集めています。このプラットフォームでは、言語学習、教育、ユーティリティに焦点を当てたさまざまなタイプのロボットを提供しています。

ポジショニング:Myshellは、このサブネットを立ち上げ、オープンソースコミュニティ全体の知恵を集め、最高のオープンソースTTSモデルを構築するために活用しています。言い換えれば、Myshell TTSはモデルを直接実行したりエンドユーザーのリクエストを処理したりするのではなく、TTSモデルをトレーニングするためのネットワークです。

マイシェル TSS アーキテクチャ

Myshell TTSによって実行されるプロセスは、上記の図で示されています。 マイナーはモデルのトレーニングとトレーニングされたモデルをモデルプールにアップロードする責任があります(モデルのメタデータもBittensorブロックチェーンネットワークに格納されています); バリデータは、テストケースを生成し、モデルのパフォーマンスを評価し、その結果に基づいてスコアリングを行うことによって、モデルを評価します; Bittensorブロックチェーンは、Yumaコンセンサスを使用して重みを集約し、各マイナーごとの最終的な重みと割り当て比率を決定します。

結論として、マイナーは報酬を維持するために継続的に高品質なモデルを提出しなければなりません。

現在、Myshellは、ユーザーがMyshell TTSのモデルを試すためのデモもプラットフォーム上で公開しています。

将来、Myshell TTSによって訓練されたモデルがより信頼性の高いものとなると、さらに多くのユースケースがオンラインで利用可能になるでしょう。さらに、オープンソースモデルとして、それらはMyshellに限定されることなく、他のプラットフォームにも拡張されることができます。分散型アプローチを通じてオープンソースモデルを訓練し、インセンティブを与えることは、まさに分散型AIで目指すことではありませんか?

サブネット#5オープンカイト

GitHub — OpenKaito/openkaito

OpenKaito/openkaitoの開発に貢献するために、GitHubでアカウントを作成してください。

github.com

Emission:4.39% (2024–04–09)

背景: Kaito.ai は、Open Kaito のチームに支えられており、その中核メンバーは、以前にAWS、META、Citadelなどの一流企業で働いた幅広い経験を持つAI分野のエキスパートです。Bittensorサブネットに参加する前に、彼らはフラッグシップ製品であるKaito.aiを2023年第4四半期に立ち上げました。Kaito.ai は、AIアルゴリズムを活用して、データ収集、ランキングアルゴリズム、および検索アルゴリズムなどの検索エンジンのコアコンポーネントを最適化します。これにより、Kaito.ai は暗号コミュニティでの主要な情報収集ツールの1つとして認知されています。

Positioning: Open Kaitoは、インテリジェントな検索と分析をサポートするための分散型のインデックスレイヤーを確立することを目指しています。検索エンジンは単なるデータベースやランキングアルゴリズムではなく、複雑なシステムです。さらに、効果的な検索エンジンには低レイテンシーも必要であり、分散型バージョンを構築する際に追加の課題が生じます。幸いにも、Bittensorのインセンティブシステムにより、これらの課題に対処することが期待されています。

オープンカイトアーキテクチャ

上記の図には、オープンカイトの操作プロセスが説明されています。オープンカイトは単に検索エンジンの各コンポーネントを分散化するだけでなく、インデックス化の問題をマイナーバリデータの問題として定義します。つまり、マイナーはユーザーのインデックス化リクエストに応答する責任があり、バリデータはマイナーからの要求を配布し、応答を評価します。

Open Kaitoは、マイナーがインデックスタスクを完了する方法を制限しません。代わりに、マイナーが出力する最終結果に焦点を当て、革新的なソリューションを促進します。これにより、マイナーの間で健全な競争環境が育まれます。ユーザーのインデックス要件に直面すると、マイナーは実行計画を改善し、より少ないリソースで高品質の応答結果を達成しようと努力します。

サブネット#6 Nous Finetuning

GitHub — NousResearch/finetuning-subnet

GitHubでアカウントを作成してNousResearch/finetuning-subnetの開発に貢献する。

github.com

発行量:6.26% (2024–04–09)

背景:Nous Finetuningのチームは、大規模言語モデル(LLM)アーキテクチャ、データ合成、およびデバイス内推論に焦点を当てた専門研究チームであるNous Researchのチームから来ています。共同創業者は以前、Eden Networkの主任エンジニアを務めていました。

ポジショニング:Nous Finetuningは、大規模言語モデルの微調整に特化したサブネットです。さらに、微調整に使用されるデータは、特にサブネット#18からBittensorエコシステムで提供されます。

Nous Finetuningの操作プロセスは、Myshell TSSと類似しています。マイナーはサブネット#18のデータを基にモデルをトレーニングし、定期的にHugging Faceにホストされるようにリリースします。バリデータはモデルを評価し、評価を提供します。同様に、BittensorブロックチェーンはYuma Consensusを使用して重みを集計し、各マイナーの最終的な重みとエミッションを決定します。

サブネット #18 コルテックス.t

GitHub — corcel-api/cortex.t

GitHubでアカウントを作成して、corcel-api/cortex.tの開発に貢献してください。

github.com

発行量:7.74%(2024–04–09)

背景:Cortex.tのチームはCorcel.ioであり、Bittensorネットワークで2番目に大きなバリデータであるMogからサポートを受けています。Corcel.ioは、BittensorエコシステムからのAI製品を活用して、ユーザー向けにChatGPTに類似した体験を提供するアプリケーションを目指しています。

ポジショニング:Cortex.tは、結果をエンドユーザーに提供する直前の最終レイヤーと位置付けられています。これは、単一のプロンプトが複数のモデルを呼び出す場合に特に、様々なサブネットの出力を検出し最適化する責任があり、その結果が正確で信頼性があり、シームレスなユーザーエクスペリエンスを確保することを目指しています。Cortex.tは、空白または一貫性のない出力を防ぎ、シームレスなユーザーエクスペリエンスを確保することを目指しています。

Cortex.tのマイナーは、Bittensorエコシステム内の他のサブネットを利用してエンドユーザーからのリクエストを処理します。彼らはまた、GPT-3.5ターボまたはGPT-4を使用して出力結果を検証し、エンドユーザーに信頼性を保証します。バリデータは、マイナーの出力をOpenAIによって生成された結果と比較することで評価します。

サブネット #19 ビジョン

GitHub — namoray/vision

GitHubでアカウントを作成して、namoray/visionの開発に貢献してください。

github.com

Emission:9.47%(2024–04–09)

背景:Visionの開発チームはCorcel.ioからも派生しています。

ポジショニング:Visionは、最適化されたサブネット構築フレームワークDSIS(分散サブネット推論スケール)を活用して、Bittensorネットワークの出力容量を最大化することを目指しています。このフレームワークは、マイナーのバリデータへの迅速な応答を加速します。現在、Visionは画像生成のシナリオに焦点を当てています。

バリデータはCorcel.ioフロントエンドからの要求を受け取り、それをマイナーに配布します。マイナーは、要求を処理し応答を生成するために、自分の好みのテクノロジースタック(モデルに限定されない)を選択する自由があります。その後、バリデータはマイナーのパフォーマンスを評価します。DSISのおかげで、Visionは他のサブネットよりもこれらの要求により迅速かつ効率的に応答することができます。

概要

上記の例から、Bittensorは非常に包括的であることが明らかです。マイナーによる生成とバリデータによる検証はオフチェーンで行われ、Bittensorネットワークは単にバリデータからの評価に基づいて各マイナーに報酬を割り当てるためにのみ役立ちます。マイナーバリデータアーキテクチャに適合するAI製品生成の任意の側面は、サブネットに変換することができます。

責任の免責事項:この記事で表現される意見や見解は、著者個人のものであり、投資アドバイスを構成するものではありません。

他の言語への記事の翻訳はGate Learnチームによって行われます。特に記載がない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。

理論上、サブネット間の競争は激しいはずです。サブネットが報酬を継続的に受け取るためには、一貫して高品質なアウトプットを生み出さなければなりません。そうでない場合、ルートネットワークのバリデーターによってサブネットのアウトプットが低価値と見なされると、その割り当てが減少し、最終的には新しいサブネットに置き換えられるかもしれません。

しかし、実際には、私たちはいくつかの問題を確認しています。

  1. 似たような位置づけのサブネットによるリソースの冗長性と重複。既存の32のサブネットの中には、テキストから画像、テキストプロンプト、価格予測など人気のある方向に焦点を当てた複数のサブネットがあります。
  2. 実用例のないサブネットの存在。価格予測サブネットは理論的な価値を持つかもしれませんが、現在の予測データのパフォーマンスはエンドユーザーによって使用可能なレベルには遠いです。
  3. 「悪いお金が良いお金を追い出す」という事例。一部のトップバリデータは、一部の新しいサブネットが著しく高い品質を示しても、新しいサブネットに移行する強い傾向を持っていないかもしれません。しかし、資本支援が不足しているため、彼らは短期間に十分なエミッションを受け取ることができないかもしれません。新しいサブネットは立ち上げ後わずか7日間の保護期間しか持っていないため、適切な量のエミッションを迅速に蓄積できない場合、フェーズアウトされオフラインになるリスクに直面するかもしれません。

これらの問題は、サブネット間の競争が不十分であり、一部のバリデータが効果的な競争を促進する役割を果たしていないことを反映しています。

Open Tensor Foundation Validator (OTF)は、この状況を緩和するために一時的な措置を実施しました。ステーキングパワーの23%(委任を含む)を保有する最大のValidatorとして、OTFは、サブネットがより多くのステークされたTAOを競うためのチャンネルを提供します: サブネットの所有者は、OTFに対して毎週リクエストを提出して、サブネット内のStaked TAOの割合を調整することができます。 これらのリクエストは、「サブネットの目標とBittensorエコシステムへの貢献」、「サブネットの報酬メカニズム」、「通信プロトコルの設計」、「データソースとセキュリティ」、「計算要件」、「ロードマップ」などを含む10の側面をカバーする必要があります。OTFの最終決定を容易にするために。

しかしながら、この問題に根本的に取り組むためには、一方で、dTAO(の導入が緊急に必要です@0xai.dev/what-is-the-impact-of-dynamic-tao-on-bittensor-efcc8ebe4e27">Dynamic TAO)は、前述の不合理な問題を根本的に変えるよう設計されています。大量のステーキングTAOを保有する大規模なバリデーターにアピールし、Bittensorエコシステムの長期的な発展を「金融的なリターン」の観点だけでなく、むしろ「エコシステムの発展」の観点から考慮するよう促すこともできます。

In conclusion, relying on its strong inclusivity, fierce competitive environment, and effective incentive mechanism, we believe that the Bittensor ecosystem can organically produce high-quality AI products. Although not all outputs from existing Subnets may rival those of centralized products, let’s not forget that the current Bittensor architecture has just turned one year old (Subnet #1 was registered on April 13, 2023). For a platform with the potential to rival centralized AI giants, perhaps we should focus on proposing practical improvement plans rather than hastily criticizing its shortcomings. After all, we all do not want to see AI constantly controlled by a few giants.

免責事項:

  1. この記事は[Medium]から転載されました。すべての著作権は元の著者に帰属します[0xai]. If there are objections to this reprint, please contact the Gate Learnチームはすぐに対処します。
  2. 責任の免責事項:この記事に表現されている意見は、著者個人のものであり、投資アドバイスを構成するものではありません。
  3. 他の言語への記事の翻訳は、Gate Learnチームによって行われています。特に言及されていない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。

Share

Content

なぜ私たちはBittensorに強気なのか?

中級4/16/2024, 7:28:08 AM
Bittensorエコシステムは強力な包括性、競争環境、および効果的なインセンティブメカニズムを持っています。この記事では、Bittensorの計画されたアップグレードメカニズムやサブネットワークの紹介について詳細に説明し、効果的な競争を促進して高品質な人工知能製品を推進しています。

ますます重要なことは、Bittensorとは具体的に何ですか?

Bittensor itself is not an AI product, nor does it produce or provide any AI products or services. Bittensor is an economic system that serves as an optimizer for the AI product market by providing a highly competitive incentive system for AI product producers. In the Bittensor ecosystem, high-quality producers receive more incentives, while less competitive producers are gradually eliminated.

では、Bittensorは具体的にどのようにして、効果的な競争を促進し、高品質なAI製品の有機的な生産を促進するインセンティブメカニズムを作成していますか?

Bittensor フライホイールモデル

Bittensorは、この目標をフライホイールモデルを通じて達成しています。バリデータは、エコシステム内のAI製品の品質を評価し、その品質に基づいてインセンティブを分配することで、高品質のプロデューサーがより多くのインセンティブを受け取ることを確認しています。これにより、高品質なアウトプットの持続的な増加が促進され、Bittensorネットワークの価値が向上し、TAOの評価が高まります。 TAOの評価の高まりは、高品質のプロデューサーをBittensorエコシステムに引き付けるだけでなく、品質評価結果を操作する操縦者による攻撃コストを増加させます。これにより、正直なバリデータのコンセンサスが強化され、評価結果の客観性と公平性が向上し、より効果的な競争とインセンティブメカニズムが実現されます。

評価結果の公正さと客観性を確保することは、フライホイールを回す上で重要なステップです。これは、Bittensorの中核技術でもあり、Yuma Consensusに基づく抽象的な検証システムです。

Yuma Consensusとは何ですか?そして、それはどのようにして合意後の品質評価結果が公平かつ客観的であることを保証していますか?

Yuma Consensusは、多くのバリデータが提供する多様な評価から最終的な評価結果を算出するために設計されたコンセンサスメカニズムです。ビザンチン障害耐性のコンセンサスメカニズムと同様に、ネットワーク内の大多数のバリデータが正直であれば、最終的に正しい決定ができます。正直なバリデータが客観的な評価を提供できると仮定すると、コンセンサス後の評価結果も公正かつ客観的になります。

例として、サブネットの品質評価を取ると、ルートネットワークのバリデータは各サブネットのアウトプットの品質を評価し、ランク付けします。64人のバリデータからの評価結果が集計され、最終的な評価結果はYumaコンセンサスアルゴリズムを通じて得られます。最終結果は、それぞれのサブネットに新たに鋳造されたTAOを割り当てるために使用されます。

現在、Yuma Consensusには改善の余地があります。

  1. Root Network ValidatorsはすべてのTAO保有者を完全に表すわけではなく、彼らが提供する評価結果が必ずしも幅広い視点を反映しているとは限りません。さらに、一部のトップバリデーターからの評価は必ずしも客観的とは限りません。偏見の事例が特定されたとしても、すぐに修正されるとは限りません。
  2. Root Network Validatorsの存在によって、Bittensorが収容できるサブネットの数が制限されます。中央集権的なAI巨人と競合するためには、32のサブネットだけでは不十分です。しかし、32のサブネットでも、Root Network Validatorsはすべてを効果的に監視するのに苦労するかもしれません。
  3. バリデータは、新しいサブネットに移行する強い意欲を持っていないかもしれません。短期間では、古いサブネットから新しいサブネットに移行する際に、より高い発行量の古いサブネットから一部の報酬を失う可能性があります。新しいサブネットの発行量が最終的に追いつくかどうかの不確実性と、追求中の報酬の確実な損失によって、移行する意欲が低下します。

Bittensorは、これらの欠点に対処するためのアップグレードメカニズムも計画しています:

  1. Dynamic TAOは、いくつかの検証者ではなく、すべてのTAO保有者に分配することにより、サブネットの品質を評価する権力を分散化します。TAO保有者は、ステーキングを通じて各サブネットの割り当て比率を間接的に決定できます。
  2. Root Network Validatorsの制限がないため、アクティブSubnetsの最大数が1024に増加されます。これにより、新しいチームがBittensorエコシステムに参加する際の障壁が大幅に低下し、Subnets間の競争が激化することになります。
  3. 新しいサブネットに早く移行する検証者は、おそらくより高い報酬を受け取る可能性があります。新しいサブネットへの早期移行は、そのサブネットのdTAOをより低い価格で購入することを意味し、将来的により多くのTAOを受け取る可能性を高めます。

Yumaコンセンサスの主な利点の1つは強力な包括性です。Yumaコンセンサスは、各サブネットの排出量を決定するだけでなく、同じサブネット内の各マイナーとバリデータの割り当て比率を決定するためにも使用されます。さらに、マイナーのタスクに関係なく、計算能力、データ、人間の貢献、知性を含む寄与が抽象的に考慮されます。したがって、AI商品の生産のどの段階でも、Bittensorエコシステムにアクセスし、インセンティブを享受しながらBittensorネットワークの価値を高めることができます。

次に、いくつかの主要なサブネットを探検し、Bittensorがこれらのサブネットのアウトプットをインセンティブ化する方法を観察しましょう。

サブネット #3 マイシェル TTS

GitHub — myshell-ai/MyShell-TTS-Subnet

GitHubでアカウントを作成して、myshell-ai/MyShell-TTS-Subnetの開発に貢献してください。

github.com

発行量:3.46% (2024–04–09)

背景: Myshellは、MIT、オックスフォード大学、プリンストン大学などの名門機関出身の中心メンバーから成るMyshell TTS(テキスト読み上げ)チームです。Myshellは、プログラミングのバックグラウンドを持たない大学生が簡単に自分の希望するロボットを作成できるノーコードプラットフォームを作成することを目指しています。TTS分野、オーディオブック、仮想アシスタントを専門とするMyshellは、2023年3月に最初の音声チャットボットであるSamanthaを立ち上げました。製品マトリックスの継続的な拡大に伴い、現在までに100万人以上の登録ユーザーを集めています。このプラットフォームでは、言語学習、教育、ユーティリティに焦点を当てたさまざまなタイプのロボットを提供しています。

ポジショニング:Myshellは、このサブネットを立ち上げ、オープンソースコミュニティ全体の知恵を集め、最高のオープンソースTTSモデルを構築するために活用しています。言い換えれば、Myshell TTSはモデルを直接実行したりエンドユーザーのリクエストを処理したりするのではなく、TTSモデルをトレーニングするためのネットワークです。

マイシェル TSS アーキテクチャ

Myshell TTSによって実行されるプロセスは、上記の図で示されています。 マイナーはモデルのトレーニングとトレーニングされたモデルをモデルプールにアップロードする責任があります(モデルのメタデータもBittensorブロックチェーンネットワークに格納されています); バリデータは、テストケースを生成し、モデルのパフォーマンスを評価し、その結果に基づいてスコアリングを行うことによって、モデルを評価します; Bittensorブロックチェーンは、Yumaコンセンサスを使用して重みを集約し、各マイナーごとの最終的な重みと割り当て比率を決定します。

結論として、マイナーは報酬を維持するために継続的に高品質なモデルを提出しなければなりません。

現在、Myshellは、ユーザーがMyshell TTSのモデルを試すためのデモもプラットフォーム上で公開しています。

将来、Myshell TTSによって訓練されたモデルがより信頼性の高いものとなると、さらに多くのユースケースがオンラインで利用可能になるでしょう。さらに、オープンソースモデルとして、それらはMyshellに限定されることなく、他のプラットフォームにも拡張されることができます。分散型アプローチを通じてオープンソースモデルを訓練し、インセンティブを与えることは、まさに分散型AIで目指すことではありませんか?

サブネット#5オープンカイト

GitHub — OpenKaito/openkaito

OpenKaito/openkaitoの開発に貢献するために、GitHubでアカウントを作成してください。

github.com

Emission:4.39% (2024–04–09)

背景: Kaito.ai は、Open Kaito のチームに支えられており、その中核メンバーは、以前にAWS、META、Citadelなどの一流企業で働いた幅広い経験を持つAI分野のエキスパートです。Bittensorサブネットに参加する前に、彼らはフラッグシップ製品であるKaito.aiを2023年第4四半期に立ち上げました。Kaito.ai は、AIアルゴリズムを活用して、データ収集、ランキングアルゴリズム、および検索アルゴリズムなどの検索エンジンのコアコンポーネントを最適化します。これにより、Kaito.ai は暗号コミュニティでの主要な情報収集ツールの1つとして認知されています。

Positioning: Open Kaitoは、インテリジェントな検索と分析をサポートするための分散型のインデックスレイヤーを確立することを目指しています。検索エンジンは単なるデータベースやランキングアルゴリズムではなく、複雑なシステムです。さらに、効果的な検索エンジンには低レイテンシーも必要であり、分散型バージョンを構築する際に追加の課題が生じます。幸いにも、Bittensorのインセンティブシステムにより、これらの課題に対処することが期待されています。

オープンカイトアーキテクチャ

上記の図には、オープンカイトの操作プロセスが説明されています。オープンカイトは単に検索エンジンの各コンポーネントを分散化するだけでなく、インデックス化の問題をマイナーバリデータの問題として定義します。つまり、マイナーはユーザーのインデックス化リクエストに応答する責任があり、バリデータはマイナーからの要求を配布し、応答を評価します。

Open Kaitoは、マイナーがインデックスタスクを完了する方法を制限しません。代わりに、マイナーが出力する最終結果に焦点を当て、革新的なソリューションを促進します。これにより、マイナーの間で健全な競争環境が育まれます。ユーザーのインデックス要件に直面すると、マイナーは実行計画を改善し、より少ないリソースで高品質の応答結果を達成しようと努力します。

サブネット#6 Nous Finetuning

GitHub — NousResearch/finetuning-subnet

GitHubでアカウントを作成してNousResearch/finetuning-subnetの開発に貢献する。

github.com

発行量:6.26% (2024–04–09)

背景:Nous Finetuningのチームは、大規模言語モデル(LLM)アーキテクチャ、データ合成、およびデバイス内推論に焦点を当てた専門研究チームであるNous Researchのチームから来ています。共同創業者は以前、Eden Networkの主任エンジニアを務めていました。

ポジショニング:Nous Finetuningは、大規模言語モデルの微調整に特化したサブネットです。さらに、微調整に使用されるデータは、特にサブネット#18からBittensorエコシステムで提供されます。

Nous Finetuningの操作プロセスは、Myshell TSSと類似しています。マイナーはサブネット#18のデータを基にモデルをトレーニングし、定期的にHugging Faceにホストされるようにリリースします。バリデータはモデルを評価し、評価を提供します。同様に、BittensorブロックチェーンはYuma Consensusを使用して重みを集計し、各マイナーの最終的な重みとエミッションを決定します。

サブネット #18 コルテックス.t

GitHub — corcel-api/cortex.t

GitHubでアカウントを作成して、corcel-api/cortex.tの開発に貢献してください。

github.com

発行量:7.74%(2024–04–09)

背景:Cortex.tのチームはCorcel.ioであり、Bittensorネットワークで2番目に大きなバリデータであるMogからサポートを受けています。Corcel.ioは、BittensorエコシステムからのAI製品を活用して、ユーザー向けにChatGPTに類似した体験を提供するアプリケーションを目指しています。

ポジショニング:Cortex.tは、結果をエンドユーザーに提供する直前の最終レイヤーと位置付けられています。これは、単一のプロンプトが複数のモデルを呼び出す場合に特に、様々なサブネットの出力を検出し最適化する責任があり、その結果が正確で信頼性があり、シームレスなユーザーエクスペリエンスを確保することを目指しています。Cortex.tは、空白または一貫性のない出力を防ぎ、シームレスなユーザーエクスペリエンスを確保することを目指しています。

Cortex.tのマイナーは、Bittensorエコシステム内の他のサブネットを利用してエンドユーザーからのリクエストを処理します。彼らはまた、GPT-3.5ターボまたはGPT-4を使用して出力結果を検証し、エンドユーザーに信頼性を保証します。バリデータは、マイナーの出力をOpenAIによって生成された結果と比較することで評価します。

サブネット #19 ビジョン

GitHub — namoray/vision

GitHubでアカウントを作成して、namoray/visionの開発に貢献してください。

github.com

Emission:9.47%(2024–04–09)

背景:Visionの開発チームはCorcel.ioからも派生しています。

ポジショニング:Visionは、最適化されたサブネット構築フレームワークDSIS(分散サブネット推論スケール)を活用して、Bittensorネットワークの出力容量を最大化することを目指しています。このフレームワークは、マイナーのバリデータへの迅速な応答を加速します。現在、Visionは画像生成のシナリオに焦点を当てています。

バリデータはCorcel.ioフロントエンドからの要求を受け取り、それをマイナーに配布します。マイナーは、要求を処理し応答を生成するために、自分の好みのテクノロジースタック(モデルに限定されない)を選択する自由があります。その後、バリデータはマイナーのパフォーマンスを評価します。DSISのおかげで、Visionは他のサブネットよりもこれらの要求により迅速かつ効率的に応答することができます。

概要

上記の例から、Bittensorは非常に包括的であることが明らかです。マイナーによる生成とバリデータによる検証はオフチェーンで行われ、Bittensorネットワークは単にバリデータからの評価に基づいて各マイナーに報酬を割り当てるためにのみ役立ちます。マイナーバリデータアーキテクチャに適合するAI製品生成の任意の側面は、サブネットに変換することができます。

責任の免責事項:この記事で表現される意見や見解は、著者個人のものであり、投資アドバイスを構成するものではありません。

他の言語への記事の翻訳はGate Learnチームによって行われます。特に記載がない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。

理論上、サブネット間の競争は激しいはずです。サブネットが報酬を継続的に受け取るためには、一貫して高品質なアウトプットを生み出さなければなりません。そうでない場合、ルートネットワークのバリデーターによってサブネットのアウトプットが低価値と見なされると、その割り当てが減少し、最終的には新しいサブネットに置き換えられるかもしれません。

しかし、実際には、私たちはいくつかの問題を確認しています。

  1. 似たような位置づけのサブネットによるリソースの冗長性と重複。既存の32のサブネットの中には、テキストから画像、テキストプロンプト、価格予測など人気のある方向に焦点を当てた複数のサブネットがあります。
  2. 実用例のないサブネットの存在。価格予測サブネットは理論的な価値を持つかもしれませんが、現在の予測データのパフォーマンスはエンドユーザーによって使用可能なレベルには遠いです。
  3. 「悪いお金が良いお金を追い出す」という事例。一部のトップバリデータは、一部の新しいサブネットが著しく高い品質を示しても、新しいサブネットに移行する強い傾向を持っていないかもしれません。しかし、資本支援が不足しているため、彼らは短期間に十分なエミッションを受け取ることができないかもしれません。新しいサブネットは立ち上げ後わずか7日間の保護期間しか持っていないため、適切な量のエミッションを迅速に蓄積できない場合、フェーズアウトされオフラインになるリスクに直面するかもしれません。

これらの問題は、サブネット間の競争が不十分であり、一部のバリデータが効果的な競争を促進する役割を果たしていないことを反映しています。

Open Tensor Foundation Validator (OTF)は、この状況を緩和するために一時的な措置を実施しました。ステーキングパワーの23%(委任を含む)を保有する最大のValidatorとして、OTFは、サブネットがより多くのステークされたTAOを競うためのチャンネルを提供します: サブネットの所有者は、OTFに対して毎週リクエストを提出して、サブネット内のStaked TAOの割合を調整することができます。 これらのリクエストは、「サブネットの目標とBittensorエコシステムへの貢献」、「サブネットの報酬メカニズム」、「通信プロトコルの設計」、「データソースとセキュリティ」、「計算要件」、「ロードマップ」などを含む10の側面をカバーする必要があります。OTFの最終決定を容易にするために。

しかしながら、この問題に根本的に取り組むためには、一方で、dTAO(の導入が緊急に必要です@0xai.dev/what-is-the-impact-of-dynamic-tao-on-bittensor-efcc8ebe4e27">Dynamic TAO)は、前述の不合理な問題を根本的に変えるよう設計されています。大量のステーキングTAOを保有する大規模なバリデーターにアピールし、Bittensorエコシステムの長期的な発展を「金融的なリターン」の観点だけでなく、むしろ「エコシステムの発展」の観点から考慮するよう促すこともできます。

In conclusion, relying on its strong inclusivity, fierce competitive environment, and effective incentive mechanism, we believe that the Bittensor ecosystem can organically produce high-quality AI products. Although not all outputs from existing Subnets may rival those of centralized products, let’s not forget that the current Bittensor architecture has just turned one year old (Subnet #1 was registered on April 13, 2023). For a platform with the potential to rival centralized AI giants, perhaps we should focus on proposing practical improvement plans rather than hastily criticizing its shortcomings. After all, we all do not want to see AI constantly controlled by a few giants.

免責事項:

  1. この記事は[Medium]から転載されました。すべての著作権は元の著者に帰属します[0xai]. If there are objections to this reprint, please contact the Gate Learnチームはすぐに対処します。
  2. 責任の免責事項:この記事に表現されている意見は、著者個人のものであり、投資アドバイスを構成するものではありません。
  3. 他の言語への記事の翻訳は、Gate Learnチームによって行われています。特に言及されていない限り、翻訳された記事のコピー、配布、または盗用は禁止されています。
Start Now
Sign up and get a
$100
Voucher!