Понимание пересечения Крипто и ИИ

Продвинутый2/22/2024, 5:28:26 AM
Эксперименты в пересечении криптовалют и искусственного интеллекта стимулируются теми же силами, которые лежат в основе наиболее перспективных случаев использования криптовалют - доступ к слоям координации без разрешения и доверия, способствующим более эффективному передаче ценности.

Введение

Появление публичных блокчейнов - одно из наиболее глубоких достижений в истории информатики. Но развитие искусственного интеллекта будет и уже оказывает глубокое влияние на наш мир. Если технология блокчейна предоставляет новый шаблон для завершения транзакций, хранения данных и проектирования систем, искусственный интеллект - это революция в вычислениях, анализе и доставке контента. Инновации в этих двух отраслях открывают новые сценарии использования, которые могут ускорить принятие обоих в следующие годы. В этом отчете исследуются текущие интеграции крипто и ИИ с акцентом на новые сценарии использования, которые пытаются сократить разрыв между ними, используя силу обоих. Конкретно этот отчет исследует проекты, разрабатывающие децентрализованные протоколы вычислений, инфраструктуру нулевого знания для машинного обучения (zkML) и агентов ИИ.

Крипто предоставляет искусственному интеллекту разрешение, бездоверие и композиционный уровень расчетов. Это открывает такие возможности, как сделать аппаратное обеспечение более доступным благодаря децентрализованным вычислительным системам, создание искусственного интеллекта, способного выполнять сложные задачи, требующие обмена ценностями, и разработку решений для борьбы с атаками Сибила и глубокими подделками. Искусственный интеллект приносит в крипто многие из тех же преимуществ, которые мы видим в Веб-2. Это включает улучшенный пользовательский опыт (UX) как для пользователей, так и для разработчиков благодаря большим языковым моделям (т.е. специально обученным версиям ChatGPT и Copilot), а также потенциал значительного улучшения функциональности и автоматизации смарт-контрактов. Блокчейны - это прозрачные, богатые данными среды, которые нужны искусственному интеллекту. Но у блокчейнов также ограниченные вычислительные возможности, что является основным препятствием для прямой интеграции моделей искусственного интеллекта.

Двигателем продолжающихся экспериментов и последующего принятия на пересечении крипто и ИИ является то же, что и движет большую часть наиболее перспективных случаев использования крипто - доступ к координационному уровню без разрешения и доверия, который лучше облегчает передачу ценности. Учитывая огромный потенциал, участники в этой области должны понимать основные способы, которыми пересекаются две технологии.

Основные моменты:

  • Интеграция крипто и искусственного интеллекта в ближайшем будущем (от 6 месяцев до 1 года) будет доминировать приложениями искусственного интеллекта, которые повышают эффективность разработчика, аудиторию и безопасность смарт-контрактов, а также доступность для пользователя. Эти интеграции не являются специфичными для крипто, но улучшают опыт разработчика и пользователя на цепочке.
  • Предлагаемые децентрализованные вычислительные решения внедряют специально разработанные для ИИ графические процессоры в то время, как наблюдается значительный дефицит высокопроизводительных GPU, что способствует распространению.
  • Пользовательский опыт и регулирование остаются препятствиями для привлечения клиентов децентрализованных вычислений.Недавние события в OpenAIа такжепродолжающиеся регуляторные обзорыв Соединенных Штатах, однако, выделяют ценностное предложение бесразрешительных, устойчивых к цензуре, децентрализованных сетей искусственного интеллекта.
  • Интеграции искусственного интеллекта на цепи, особенно для смарт-контрактов, способных использовать модели искусственного интеллекта, требуют улучшений в технологии zkML и других вычислительных методах, которые подтверждают вычисления вне цепи на цепи. Недостаток комплексных инструментов и специалистов-разработчиков, а также высокие затраты являются препятствиями для принятия.
  • Искусственные интеллектуальные агенты отлично подходят для крипто, где пользователи (или сами агенты) могут создавать кошельки для совершения транзакций с другими услугами, агентами или людьми. Это в настоящее время невозможно с использованием традиционных финансовых рельсов. Дополнительная интеграция с не-крипто продуктами необходима для более широкого принятия.

Терминология

Искусственный интеллект - это использование вычислений и машин для имитации рассуждений и способностей человека к решению проблем.

Нейронные сети - один из методов обучения для искусственного интеллекта. Они пропускают входные данные через дискретные слои алгоритмов, улучшая их до получения желаемого результата. Нейронные сети состоят из уравнений с весами, которые можно модифицировать, чтобы изменить результат. Для обучения им может потребоваться огромное количество данных и вычислений, чтобы их результаты были точными. Это один из наиболее распространенных способов разработки моделей искусственного интеллекта (ChatGPT использует процесс нейронной сети, зависящий оттрансформеры).

Обучение - это процесс, при котором разрабатываются нейронные сети и другие модели искусственного интеллекта. Для обучения моделей требуется большое количество данных, чтобы правильно интерпретировать входные данные и производить точные выходные данные. Во время процесса обучения веса уравнения модели непрерывно модифицируются до тех пор, пока не будет получен удовлетворительный результат. Обучение может быть очень дорогим. Например, ChatGPT используетдесятки тысяч собственных графических процессоров для обработки своих данных. Команды с меньшими ресурсами часто полагаются на специализированных поставщиков вычислительных мощностей, таких как Amazon Web Services, Azure и поставщики облачных вычислений Google.

Вывод - это фактическое использование модели искусственного интеллекта для получения вывода или результата (например, использование ChatGPT для создания конспекта статьи о пересечении крипто и искусственного интеллекта). Выводы используются на протяжении всего процесса обучения и в конечном продукте. Они могут быть дорогими в эксплуатации, даже после завершения обучения, из-за вычислительных затрат, но требуют меньше вычислительных ресурсов, чем обучение.

Доказательства нулевого знания (ZKP) позволяют проверять утверждение, не раскрывая базовой информации. Это полезно в криптографии по двум основным причинам: 1) конфиденциальность и 2) масштабирование. Для конфиденциальности пользователи могут проводить транзакции, не раскрывая чувствительную информацию, например, сколько ETH находится в их кошельке. Для масштабирования это позволяет доказывать внеблочные вычисления на блокчейне быстрее, чем повторное выполнение вычислений. Это позволяет блокчейнам и приложениям выполнять дешевые внеблочные вычисления, а затем проверять их на блокчейне. Для получения дополнительной информации о доказательствах нулевого знания и их роли в виртуальной машине Ethereum обратитесь к отчету Кристин КимzkEVMs: Будущее масштабируемости Ethereum.

Карта рынка искусственного интеллекта/криптовалют

Проекты на пересечении искусственного интеллекта и крипто по-прежнему создают основную инфраструктуру, необходимую для поддержки масштабных взаимодействий с искусственным интеллектом на цепочке.

Децентрализованные рынки вычислений начинают поставлять большие объемы физического оборудования, в основном в виде графических процессоров (GPU), необходимых для обучения и вывода моделей искусственного интеллекта. Эти двухсторонние рынки соединяют тех, кто сдает в аренду и ищет аренду вычислений, облегчая передачу ценности и верификацию вычислений. В рамках децентрализованных вычислений появляются несколько подкатегорий, предоставляющих дополнительные функциональные возможности. Помимо двухсторонних рынков, в этом отчете будет рассмотрено предоставление услуг по обучению машинного обучения, специализирующихся на обслуживании верифицируемых выходов обучения и настройки, а также проекты, работающие над соединением вычислений и созданием моделей для достижения искусственного общего интеллекта, также часто называемого сетями стимулирования интеллекта.

zkML - это развивающаяся область внимания для проектов, которые хотят предоставить проверяемые выходные данные модели on-chain эффективным и своевременным способом. Эти проекты в основном позволяют приложениям обрабатывать тяжелые вычислительные запросы вне цепи, а затем публиковать на цепи проверяемый вывод, доказывающий, что работа вне цепи завершена и точна. zkML дорог и занимает много времени в своей текущей реализации, но все чаще используется в качестве решения. Это видно по растущему количеству интеграций между поставщиками zkML и приложениями DeFi/Gaming, которые хотят использовать модели искусственного интеллекта.

Обилие вычислительной мощности и возможность проверки этой мощности on-chain открывают дверь для on-chain искусственного интеллекта. Агенты - это обученные модели, способные выполнять запросы от имени пользователя. Агенты предлагают возможность значительно улучшить on-chain опыт, позволяя пользователям выполнять сложные транзакции, просто общаясь с чат-ботом. Однако на сегодняшний день проекты Агентов все еще сосредоточены на развитии инфраструктуры и инструментов для легкого и быстрого развертывания.

Децентрализованные вычисления

Обзор

ИИ требует больших объемов вычислений как для обучения моделей, так и для выполнения выводов. За последнее десятилетие, по мере того как модели становились более сложными, требования к вычислениям выросли в геометрической прогрессии. Например, OpenAI,найденчто с 2012 по 2018 год требования к вычислениям для его моделей выросли с удвоением каждые два года до удвоения каждые три с половиной месяца. Это привело к взрывному росту спроса на графические процессоры, даже у некоторых криптомайнеровпереориентация своих графических процессоровдля предоставления услуг облачных вычислений (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">read more about this in our annual Bitcoin mining report). Поскольку растет конкуренция за доступ к вычислениям и увеличиваются затраты, несколько проектов используют криптовалюту для предоставления децентрализованных вычислительных решений. Они предлагают вычисления по запросу по конкурентоспособным ценам, чтобы команды могли позволить себе обучать и запускать модели. В некоторых случаях компромиссом может быть производительность и безопасность.

Современные графические процессоры, такие как те произведенныеот Nvidia пользуются большим спросом. В сентябре Tether приобрел доля в Northern Data, немецком майнере биткоинов, который, как сообщается, заплатил 420 миллионов долларов за приобретение 10 000 графических процессоров H100 (один из самых передовых графических процессоров для обучения ИИ). ПодождитеВремя поставки лучшего аппаратного обеспечения может составлять как минимум шесть месяцев, а во многих случаях и дольше. Что делает ситуацию еще хуже, компании часто обязаны заключать долгосрочные контракты на объемы вычислительных мощностей, которые они даже не смогут использовать. Это может привести к ситуациям, когда вычислительные мощности доступны, но их нет на рынке. Децентрализованные вычислительные системы помогают решить эти рыночные неэффективности, создавая вторичный рынок, где владельцы вычислительных мощностей могут сдавать в субаренду свои избыточные мощности в любой момент, открывая новые возможности для предложения.

Помимо конкурентоспособной цены и доступности ключевым преимуществом децентрализованных вычислений является устойчивость к цензуре. Развитие передовых технологий искусственного интеллекта все более контролируется крупными технологическими фирмами с беспрецедентным доступом к вычислениям и данным. Первая ключевая тема, выделенная в Отчет по индексу AI Годовой отчет 2023 года говорит о том, что отрасль все больше опережает академию в разработке моделей искусственного интеллекта, централизуя контроль в руках нескольких технологических лидеров. Это вызвало опасения относительно их способности оказывать значительное влияние на установление норм и ценностей, лежащих в основе моделей искусственного интеллекта, особенно в свете регулирования толкаетэтими же технологическими компаниями для ограничения развития искусственного интеллекта вне их контроля.

Децентрализованные вертикали вычислений

В последние годы появилось несколько моделей для децентрализованных вычислений, каждая со своим собственным фокусом и компромиссами.

Обобщенные вычисления

Проекты вроде Akash, io.net, iExec, Cudos и многие другие являются децентрализованными вычислительными приложениями, которые предлагают доступ к специализированным вычислениям для обучения и выводов ИИ, а также к данным и обобщенным вычислительным решениям или вскоре предложат доступ к ним.

Akash в настоящее время является единственной полностью открытой платформой "супероблака". Это сеть доказательства доли, использующая Cosmos SDK. AKT, собственный токен Akash, используется для обеспечения безопасности сети, в качестве формы оплаты и для стимулирования участия. Akash запустил свою первую основную сеть в 2020 году, сфокусировавшись на создании разрешенного рынка облачных вычислений, начально представляющего услуги аренды хранения и ЦП. В июне 2023 года, Akash запущенновая тестовая сеть, ориентированная на графические процессоры и в сентябрезапущенего основная сеть GPU позволяет пользователям арендовать графические процессоры для обучения и выводов искусственного интеллекта.

В экосистеме Akash есть два основных участника - Арендаторы и Поставщики. Арендаторы - это пользователи сети Akash, которые хотят купить вычислительные ресурсы. Поставщики - это поставщики вычислительных ресурсов. Для сопоставления арендаторов и поставщиков Akash полагается на процесс обратного аукциона. Арендаторы представляют свои требования к вычислениям, в рамках которых они могут указать определенные условия, такие как местоположение серверов или тип оборудования для проведения вычислений, и сумму, которую они готовы заплатить. Поставщики затем представляют свою цену, причем наименьшая ставка получает задание.

Валидаторы Akash поддерживают целостность сети. Набор валидаторов в настоящее время ограничен 100 и со временем планируется постепенно увеличиваться. Любой желающий может стать валидатором, разместив в стейкинге больше AKT, чем текущий валидатор с наименьшим количеством AKT в стейкинге. Держатели AKT также могут делегировать свои AKT валидаторам. Комиссии за транзакции и вознаграждения за блок для сети распределяются в AKT. Кроме того, за каждую аренду сеть Akash получает «плату за взятие» по ставке, определяемой сообществом, которая распределяется между держателями AKT.

Вторичные рынки

Децентрализованные рынки вычислений нацелены на устранение неэффективностей существующего рынка вычислений. Ограничения поставок заставляют компании запасаться вычислительными мощностями сверх того, что им может понадобиться, и предложение дополнительно ограничено из-за структуры контрактов с облачными провайдерами, которые закрепляют клиентов в долгосрочных контрактах, даже если продолжительный доступ может быть необходим. Децентрализованные платформы вычислений открывают новые возможности предложения, позволяя любому человеку в мире с требуемыми вычислениями стать поставщиком.

Пока неясно, приведет ли растущий спрос на графические процессоры для обучения ИИ к долгосрочному использованию сети на Akash. Например, Akash уже давно предоставляет рынок для процессоров, предлагая аналогичные услуги в качестве централизованных альтернатив на 70-80%Скидка. Однако снижение цен не привело к значительному увеличению. Активные аренды в сети стабилизировались и в среднем составляют всего 33% вычислений, 16% памяти и 13% хранилища к концу 2023 года. Хотя эти показатели внушительны для принятия on-chain (для справки, ведущий поставщик хранилищ Filecoin имел12.6% использования хранилищав третьем квартале 2023 года), это демонстрирует, что предложение продолжает опережать спрос на эти продукты.

Прошло чуть более полугода с тех пор, как Akash запустила свою сеть графических процессоров, и еще слишком рано точно оценивать долгосрочное внедрение. Признаком спроса является то, что средняя загрузка графических процессоров на сегодняшний день составляет 44% и выше, чем процессоров, памяти и хранилища. В первую очередь это обусловлено спросом на графические процессоры высочайшего качества (например, A100) с более чем 90%сдан в аренду.

Ежедневные расходы на Akash также выросли, почти удвоившись по сравнению с пред-GPUs. Это можно частично объяснить ростом использования других услуг, особенно ЦПУ, но в основном это результат нового использования ГПУ.

Цены соответствуют (или в некоторых случаях даже немного дороже), чем у их централизованных конкурентов, таких как Lambda Cloud и Vast.ai. Невероятный спрос на самые продвинутые видеокарты (такие как H100 и A100) означает, что большинство владельцев этого оборудования мало заинтересованы в размещении на маркетплейсах, где действуют конкурентоспособные цены.

Несмотря на то, что первоначальный интерес является многообещающим, остаются препятствия для внедрения (см. ниже). Децентрализованным вычислительным сетям потребуется больше усилий для создания как спроса, так и предложения, и команды экспериментируют с тем, как лучше всего привлечь новых пользователей. В начале 2024 года, например, Акаш прошел Предложение 240увеличить эмиссию AKT для поставщиков GPU и стимулировать больше предложений, особенно нацеленных на более дорогие GPU. Команды также работают над внедрением моделей концепции, чтобы продемонстрировать потенциальным пользователям реальные возможности своих сетей. Акаш обучение свою собственную основополагающую модель и уже запустили Чат-ботигенерация изображенияпредложения, создающие выходы с использованием графических процессоров Akash. Точно так же, io.net имеет разработанныйстабильная модель диффузии и внедряетНовые сетевые функциикоторый лучше имитирует производительность и масштаб традиционных центров обработки данных с использованием GPU.

Децентрализованное обучение машинного обучения

Помимо обобщенных платформ вычислений, способных удовлетворить потребности в искусственном интеллекте, также начинают появляться специализированные поставщики GPU для ИИ, ориентированные на обучение моделей машинного обучения. Например, Gensyn, «согласованиеэлектричество и оборудование для создания коллективного интеллекта” с тем, что, “Если кто-то хочет что-то обучить, и кто-то готов это обучить, то это обучение должно быть разрешено.”

Протокол имеет четыре основных участника: подающие, решатели, верификаторы и информаторы. Податели подают задачи в сеть с запросами на обучение. Эти задачи включают в себя цель обучения, модель, которую необходимо обучить, и обучающие данные. В рамках процесса подачи подающие предварительно оплачивают комиссию за оцененные вычисления, требуемые от решателя.

После отправки задачи назначаются решателям, которые проводят фактическое обучение моделей. Затем решатели отправляют выполненные задачи верификаторам, которые отвечают за проверку обучения, чтобы убедиться, что оно было выполнено правильно. Осведомители несут ответственность за то, чтобы проверяющие вели себя честно. Чтобы стимулировать разоблачителей к участию в сети, Gensyn планирует периодически предоставлять заведомо неверные доказательства, которые вознаграждают разоблачителей за их поимку.

Помимо предоставления вычислительных ресурсов для рабочих нагрузок, связанных с искусственным интеллектом, ключевым ценностным предложением Gensyn является система верификации, которая все еще находится в разработке. Верификация необходима для того, чтобы убедиться, что внешние вычисления поставщиков GPU выполняются правильно (т. е. чтобы убедиться, что модель пользователя обучена так, как они хотят). Gensyn решает эту проблему с помощью уникального подхода, используя новые методы верификации под названием «вероятностное доказательство обучения, протокол на основе графов и стимулирующие игры в стиле Truebit». Это оптимистичный режим решения, который позволяет верификатору подтвердить, что решатель правильно запустил модель без необходимости полностью перезапускать ее самостоятельно, что является дорогостоящим и неэффективным процессом.

Помимо инновационного метода верификации, Gensyn также претензии быть экономически эффективным по сравнению с централизованными альтернативами и криптовалютными конкурентами, предоставляя обучение машинному обучению до 80 % дешевле, чем AWS, и превосходя аналогичные проекты, такие как Truebit, в тестировании.

Смогут ли эти первоначальные результаты быть воспроизведены в масштабе децентрализованной сети, еще предстоит выяснить. Gensyn хочет использовать избыточные вычислительные ресурсы таких провайдеров, как небольшие центры обработки данных, розничные пользователи, а в будущем и даже небольшие мобильные устройства, такие как сотовые телефоны. Однако, как и сама команда Gensyn признанный, полагаясь на разнородных поставщиков вычислительных ресурсов, возникает несколько новых проблем.

Для централизованных поставщиков, таких как Google Cloud Providers и Coreweave, вычисления являются дорогими, в то время как связь между этими вычислениями (пропускная способность и задержка) дешевая. Эти системы разработаны для обеспечения связи между оборудованием как можно быстрее. Gensyn переворачивает эту концепцию, снижая стоимость вычислений за счет возможности предоставления видеокарт любым человеком в мире, но увеличивая стоимость связи, поскольку сеть теперь должна координировать вычислительные задачи на разнородном оборудовании, находящемся далеко друг от друга. Gensyn пока еще не запущен, но это доказывает, что возможно создание децентрализованных протоколов обучения машинного обучения.

Децентрализованный Обобщенный Интеллект

Децентрализованные вычислительные платформы также открывают возможности для разработки методов создания искусственного интеллекта. Bittensor — это децентрализованный вычислительный протокол, построенный на Substrate, который пытаясь ответитьвопрос: "как мы можем превратить ИИ в совместный подход?" Bittensor нацелен на децентрализацию и коммодификацию генерации искусственного интеллекта. Запущенный в 2021 году, протокол хочет использовать силу совместных моделей машинного обучения для непрерывной итерации и создания более качественного искусственного интеллекта.

Bittensor черпает вдохновение из Bitcoin, имея двадцать один миллион предложения своей собственной валюты TAO и четырехлетний цикл деления пополам (первое деление состоится в 2025 году). Вместо использования Proof of Work для создания правильного номера и заработка вознаграждения за блок, Bittensor полагается на 'Proof of Intelligence', требуя от майнеров запускать модели, которые производят выходные данные в ответ на запросы вывода.

Создание стимулов для интеллекта

Bittensor изначально полагался на модель Mixture of Experts (MoE) для генерации выходных данных. Когда поступают запросы на вывод, вместо того чтобы полагаться на одну обобщенную модель, модели MoE передают запрос на вывод наиболее точным моделям для данного типа ввода. Представьте, что строите дом, где вы нанимаете различных специалистов для различных аспектов строительного процесса (например, архитекторов, инженеров, художников, строителей и т. д.). MoE применяет это к моделям машинного обучения, пытаясь использовать выходные данные различных моделей в зависимости от ввода. Как основатель Bittensor Ала Шаабанаобъяснил, это похоже на «разговор с комнатой умных людей и получение лучшего ответа, чем разговор с одним человеком». Из-за вызовыс обеспечением правильной маршрутизации, синхронизации сообщений с правильной моделью и стимулирования, этот подход был отложен до более развитого проекта.

В сети Bittensor два основных участника: валидаторы и майнеры. Валидаторы отвечают за отправку запросов на вывод на майнеры, проверку их результатов и ранжирование их на основе качества их ответов. Чтобы обеспечить надежность своих рейтингов, валидаторам присваиваются оценки "vtrust" на основе того, насколько их рейтинги соответствуют рейтингам других валидаторов. Чем выше оценка vtrust у валидатора, тем больше TAO эмиссий он зарабатывает. Это сделано для стимулирования валидаторов достигать согласия по рейтингам моделей со временем, поскольку чем больше валидаторов достигнут согласия по рейтингам, тем выше их индивидуальные оценки vtrust.

Майнеры, также называемые серверами, являются участниками сети, которые запускают фактические модели машинного обучения. Майнеры соревнуются друг с другом, чтобы предоставить валидаторам наиболее точные выводы для заданного запроса, зарабатывая больше эмиссий TAO, чем точнее их вывод. Майнеры могут генерировать эти выводы так, как им угодно. Например, в будущем сценарии вполне возможно, что майнер Bittensor мог бы ранее обучить модели на Gensyn, которые он использует для заработка эмиссий TAO.

Сегодня большинство взаимодействий происходит непосредственно между валидаторами и майнерами. Валидаторы отправляют входные данные майнерам и запрашивают выходные данные (т. е. обучают модель). Как только валидатор запросил майнеров в сети и получил их ответы, они оценивают майнеров и отправляют свои оценки в сеть.

Это взаимодействие между валидаторами (которые полагаются на PoS) и майнерами (которые полагаются на Proof of Model, форму PoW) называется Yuma Consensus. Оно стремится мотивировать майнеров производить лучшие результаты, чтобы заработать эмиссии TAO, а также валидаторов точно оценивать результаты майнеров, чтобы заработать более высокий балл vtrust и увеличить свои награды TAO, формируя консенсусный механизм сети.

Подсети и Приложения

Взаимодействия на Bittensor в основном состоят из валидаторов, отправляющих запросы майнерам и оценивающих их результаты. Однако по мере увеличения качества вкладывающих майнеров и роста общего интеллекта сети Bittensor создаст слой приложений поверх своего существующего стека, чтобы разработчики могли создавать приложения, обращающиеся к сети Bittensor.

В октябре 2023 года Bittensor завершил важный шаг к достижению этого с введениеподсетей благодаря своему обновлению Revolution. Подсети - это отдельные сети на Bittensor, которые стимулируют определенное поведение. Революция открывает сеть для всех, кто заинтересован в создании подсети. За месяцы с момента ее выпуска было создано более 32 подсетибыли запущены, включая те, которые предназначены для подсказки текста, сбора данных, генерации изображений и хранения. По мере зрелости подсетей и их готовности к использованию в продукции, создатели подсетей также будут создавать приложения для интеграции, позволяя командам создавать приложения, запрашивающие определенную подсеть. Некоторые приложения (чат-бот, генератор изображений, бот для ответов в твиттере, рыночный прогноз) существуют сегодня, но нет формальных стимулов для валидаторов принимать и передавать эти запросы за пределами грантов от фонда Bittensor.

Для более ясного иллюстрации вот пример того, как Bittensor может работать, когда приложения интегрируются в сеть.

Подсети зарабатывают TAO на основе своей производительности, оцениваемой по корневая сетьКорневая сеть находится наверху всех подсетей, в сущности действуя как особый вид подсети, и управляется 64 крупнейшими валидаторами подсетей по стейку. Валидаторы корневой сети ранжируют подсети на основе их производительности и периодически распределяют эмиссии TAO по подсетям. Таким образом, отдельные подсети действуют как майнеры для корневой сети.

Bittensor Outlook

Bittensor по-прежнему испытывает ростовые боли, поскольку расширяет функциональность протокола для стимулирования генерации интеллекта по всем подсетям. Майнеры продолжают разрабатывать новые способы атаки сети для заработка большего количества наград TAO, например, слегка изменениерезультат высоко оцененного вывода, сделанного их моделью, а затем отправка нескольких вариантов. Предложения управления, влияющие на всю сеть, могут быть представлены и реализованы только Триумвират, который состоит исключительно из заинтересованных сторон Открытого фонда тензоров (важно отметить, что принятие предложений требует одобрения со стороны Bittensor Сенатсостоит из валидаторов Bittensor до реализации). Токеномика проекта находится в процессе модернизации для улучшения стимулов к использованию TAO в различных подсетях. Проект также быстро становится известным благодаря своему уникальному подходу, с генеральным директором одного из самых популярных веб-сайтов по искусственному интеллектуHuggingFaceуказывая, что Bittensor должен добавить свои ресурсы на веб-сайт.

В недавно опубликованной кусокРазработанный ядром, названным «Bittensor Paradigm», команда излагает свое видение Bittensor, чтобы в конечном итоге стать «агностическим по отношению к тому, что измеряется». В теории это может позволить Bittensor развивать подсети, стимулирующие любой тип поведения, все это силой TAO. Существуют значительные практические ограничения - в основном демонстрация того, что эти сети способны масштабироваться для обработки разнообразного набора процессов и что базовые стимулы обеспечивают прогресс, превосходящий централизованные предложения.

Построение децентрализованного вычислительного стека для моделей искусственного интеллекта

Вышеупомянутые разделы предоставляют общий обзор различных типов децентрализованных протоколов искусственного интеллекта, разрабатываемых. Несмотря на то, что они находятся на ранней стадии развития и принятия, они обеспечивают основу экосистемы, которая в конечном итоге может облегчить создание «строительных блоков ИИ», подобно концепции «Денежных Лего» DeFi. Композиционность непозволительных блокчейнов открывает возможность для каждого протокола строить на основе другого для обеспечения более полной децентрализованной экосистемы искусственного интеллекта.

Например, вот один из способов, которым Akash, Gensyn и Bittensor могут взаимодействовать для ответа на запрос на вывод.

Чтобы быть ясным, это просто пример того, что может быть возможно в будущем, а не представление текущей экосистемы, существующих партнёрств или вероятных результатов. Ограничения на совместимость, а также другие рассмотренные ниже обстоятельства значительно ограничивают возможности интеграции сегодня. Кроме того, фрагментация ликвидности и необходимость использования нескольких токенов могут нанести вред пользовательскому опыту, что было указалоснованными основателями как Akash, так и Bittensor.

Другие децентрализованные предложения

Помимо вычислений, ряд других децентрализованных инфраструктурных сервисов внедряются для поддержки развивающейся экосистемы искусственного интеллекта в области криптовалют. Не все они перечислены в этом отчете, но несколько интересных и наглядных примеров включают:

  • Океан: Децентрализованный рынок данных. Пользователи могут создавать данные NFT, представляющие их данные, которые можно приобрести, используя токены данных. Пользователи могут монетизировать свои данные и иметь большую суверенитет над ними, предоставляя командам, работающим над ИИ, доступ к данным, необходимым для разработки и обучения моделей.
  • Трава: Децентрализованный рынок полосы пропускания. Пользователи могут продавать свой избыточный объем полосы пропускания компаниям по искусственному интеллекту, которые используют его для сбора данных из Интернета. Построен на Сеть Wynd, это не только позволяет частным лицам монетизировать свою пропускную способность, но также предоставляет покупателям пропускной способности более разнообразный набор точек зрения на то, что видят в Интернете отдельные пользователи (поскольку доступ к Интернету отдельного лица обычно настраивается специально для их IP-адреса).
  • HiveMapper: Создание децентрализованного сервиса карт, состоящего из информации, собранной от водителей автомобилей ежедневно. HiveMapper полагается на искусственный интеллект для интерпретации изображений, собранных с видеорегистраторов пользователей, и вознаграждает пользователей токенами за помощь в настройке модели искусственного интеллекта через обратную связь усиленного человеческого обучения (RHLF).

В целом все это указывает на бесконечные возможности исследования моделей децентрализованных рыночных моделей, которые поддерживают модели искусственного интеллекта или окружающую инфраструктуру, необходимую для их разработки. На данный момент эти проекты в основном находятся в стадии доказательства концепции, и для демонстрации их способности работать в масштабах, необходимых для предоставления комплексных услуг по искусственному интеллекту требуется гораздо больше исследований и разработок.

Перспектива

Децентрализованные вычислительные предложения все еще находятся на ранних стадиях развития. Они только начинают предоставлять доступ к передовым вычислениям, способным обучать самые мощные модели искусственного интеллекта в производстве. Для того чтобы они получили значительную долю рынка, им нужно продемонстрировать практические преимущества по сравнению с централизованными альтернативами. Потенциальные триггеры для более широкого принятия включают:

  • Поставка/спрос на графические процессоры. Дефицит графических процессоров в сочетании с быстро растущим спросом на вычисления приводит к гонке вооружений графических процессоров. OpenAI уже один раз ограниченный доступ к своей платформе из-за ограничений графического процессора. Такие платформы, как Akash и Gensyn, могут предоставить конкурентоспособные по цене альтернативы для команд, нуждающихся в высокопроизводительных вычислениях. Следующие 6-12 месяцев - это особенно уникальная возможность для поставщиков децентрализованных вычислений привлечь новых пользователей, которые вынуждены рассматривать децентрализованные предложения из-за отсутствия доступа к более широкому рынку. В сочетании со все более производительными моделями с открытым исходным кодом, такими как LLaMA 2 от Meta, пользователи больше не сталкиваются с теми же препятствиями при развертывании эффективных тонко настроенных моделей, что делает вычислительные ресурсы основным узким местом. Однако существование самих платформ не обеспечивает адекватного предложения вычислительных ресурсов и соответствующего спроса со стороны потребителей. Поиск высокопроизводительных графических процессоров остается сложной задачей, и стоимость не всегда является основной мотивацией со стороны спроса. Перед этими платформами будет стоять задача продемонстрировать практическую выгоду от использования децентрализованного вычислительного варианта — будь то из-за стоимости, устойчивости к цензуре, времени безотказной работы и отказоустойчивости или доступности — для накопления нестабильных пользователей. Им придется двигаться быстро. Инфраструктура графического процессора инвестиции и развитиепроисходит внеобычно быстрыми темпами.
  • Регулирование. Регулирование продолжает быть тормозом для движения к децентрализованным вычислениям. В ближайшее время отсутствие четкого регулирования означает, что как поставщики, так и пользователи сталкиваются с потенциальными рисками при использовании этих услуг. Что если поставщик предоставляет вычисления или покупатель покупает вычисления у санкционированной организации непреднамеренно? Пользователи могут быть неохотны использовать децентрализованную платформу, лишенную контроля и надзора централизованной организации. Протоколы пытались смягчить эти опасения, включив контроли в свои платформы или добавив фильтры для доступа только к известным поставщикам вычислений (т. е. предоставляли информацию о знании клиента), но для принятия понадобятся более надежные методы, которые защищают конфиденциальность, обеспечивая соблюдение правил. В ближайшее время мы, вероятно, увидим появление платформ с проверкой клиента (KYC) и соответствующих регулированиям, ограничивающих доступ к своим протоколам для решения этих проблем. Кроме того, обсуждения возможных новых рамочных законов США, наилучшим образом иллюстрируемые выпуском Указ о безопасной, надежной и доверительной разработке и использовании искусственного интеллекта, подчеркивается потенциал регулирования, которое еще больше сужает доступ к видеокартам.
  • Цензура. Регулирование работает в обе стороны, и децентрализованные вычислительные предложения могут выиграть от действий, направленных на ограничение доступа к искусственному интеллекту. Помимо указа Президента, основатель OpenAI Сэм Альтман протестированныйв Конгрессе о необходимости регулирующих органов, выдающих лицензии на разработку искусственного интеллекта. Обсуждение вопросов регулирования искусственного интеллекта только начинается, но любые попытки ограничить доступ или цензурировать то, что можно делать с помощью искусственного интеллекта, могут ускорить принятие децентрализованных платформ, не имеющих таких барьеров. Ноябрьские перестановки в руководстве OpenAI(или их отсутствие) дополнительно демонстрирует риски делегирования принятия решений наиболее мощной существующей модели искусственного интеллекта только нескольким. Более того, все модели искусственного интеллекта обязательно отражают предвзятости тех, кто их создал, намеренно или нет. Один из способов устранения этих предвзятостей - сделать модели как можно более открытыми для настройки и обучения, обеспечивая доступность моделей всех видов и предвзятостей для любого человека в любом месте.
  • Конфиденциальность данных. При интеграции с внешними решениями по данным и конфиденциальности, обеспечивающими пользователям автономию над своими данными, децентрализованные вычисления могут стать более привлекательными, чем централизованные альтернативы. Samsung стал жертвойк этому, когда они поняли, что инженеры использовали ChatGPT для помощи в проектировании микросхем и утечки чувствительной информации в ChatGPT. Phala Network и iExec утверждают, что предлагают пользователям защищенные области SGX для защиты пользовательских данных, а текущие исследования в области полностью гомоморфного шифрования могут дополнительно расширить возможности обеспечения конфиденциальности децентрализованных вычислений. Поскольку искусственный интеллект становится все более интегрированным в нашу жизнь, пользователи будут ставить все больший акцент на возможность запускать модели на приложениях, в которые встроена конфиденциальность. Пользователи также будут требовать услуг, позволяющих комбинировать данные, чтобы без проблем переносить свои данные из одной модели в другую.
  • Пользовательский опыт (UX). UX по-прежнему является значительным барьером для более широкого принятия всех видов криптоприложений и инфраструктуры. Это не отличается для децентрализованных вычислительных предложений, и в некоторых случаях обостряется необходимостью понимания разработчиков как крипто, так и ИИ. Улучшения необходимы начиная с таких основ как вступление в систему и абстрагирование от взаимодействия с блокчейном до предоставления того жевысококачественные выходные данныев качестве текущих лидеров рынка. Это явно видно по тому факту, что многие операционные децентрализованные вычислительные протоколы, предлагающие более дешевые услуги, испытывают трудности в получении регулярного использования.

Умные контракты & zkML

Смарт-контракты являются основным строительным блоком любой блокчейн-экосистемы. При определенном наборе условий они выполняются автоматически и уменьшают или устраняют необходимость в доверенной третьей стороне, обеспечивая создание сложных децентрализованных приложений, подобных тем, которые видны в DeFi. Однако на сегодняшний день смарт-контракты ограничены в своей функциональности, поскольку они выполняются на основе заранее установленных параметров, которые должны быть обновлены.

Например, смарт-контракт протокола займа/заема развертывается с учетом спецификаций по тому, когда ликвидировать позицию на основе определенных коэффициентов займа к стоимости. Хотя это полезно в статической среде, в динамической ситуации, где риск постоянно изменяется, эти смарт-контракты должны постоянно обновляться, чтобы учитывать изменения в уровне риска, что создает проблемы для контрактов, которые не управляются через централизованные процессы. Например, DAO, которые полагаются на децентрализованные процессы управления, могут не суметь быстро реагировать на системные риски.

Смарт-контракты, интегрирующие искусственный интеллект (т. Е. Модели машинного обучения), являются одним из возможных способов улучшения функциональности, безопасности и эффективности, а также повышения общего опыта пользователя. Однако эти интеграции также вносят дополнительные риски, поскольку невозможно гарантировать, что модели, лежащие в основе этих смарт-контрактов, не могут быть использованы или учитывают долгосрочные ситуации (которые известны своей сложностью для обучения моделей, учитывая дефицит входных данных для них).

Машинное обучение с нулевым разглашением информации (zkML)

Машинное обучение требует больших объемов вычислений для запуска сложных моделей, что мешает прямому запуску моделей ИИ внутри смарт-контрактов из-за высоких затрат. Протокол DeFi, предоставляющий пользователям доступ к модели оптимизации доходности, например, столкнется с проблемой запуска этой модели on-chain без необходимости платить чрезмерно высокие газовые сборы. Одним из решений является увеличение вычислительной мощности базового блокчейна. Однако это также увеличивает требования к набору валидаторов цепочки, потенциально подрывая децентрализованные свойства. Вместо этого некоторые проекты исследуют использование zkML для проверки результатов в доверительном режиме без необходимости интенсивных вычислений on-chain.

Один обычноРазделяемый пример, иллюстрирующий полезность zkML, возникает, когда пользователю нужно, чтобы кто-то другой запустил данные через модель и также проверил, что их контрагент действительно запустил правильную модель. Возможно, разработчик использует децентрализованного поставщика вычислительных мощностей для обучения своих моделей и беспокоится, что поставщик пытается сэкономить, используя более дешевую модель с незаметным различием в выводе. zkML позволяет поставщику вычислительных мощностей запускать данные через свои модели и затем генерировать доказательство, которое можно проверить в сети, чтобы доказать правильность вывода модели для заданного ввода. В этом случае поставщик моделей смог бы получить дополнительное преимущество, предлагая свои модели, не раскрывая при этом базовые веса, которые производят вывод.

Также можно сделать и обратное. Если пользователь хочет запустить модель, используя свои данные, но не хочет, чтобы проект, предоставляющий модель, имел доступ к его данным из-за проблем с конфиденциальностью (т. е. в случае медицинского обследования или конфиденциальной деловой информации), то пользователь может запустить модель на своих данных, не раскрывая их, а затем проверить, что он запустил правильную модель с помощью доказательства. Эти возможности значительно расширяют пространство проектирования интеграции искусственного интеллекта и функциональности смарт-контрактов, преодолевая запретные ограничения вычислений.

Инфраструктура и инструменты

Учитывая раннее состояние пространства zkML, развитие в основном сосредоточено на создании инфраструктуры и инструментов, необходимых для того, чтобы команды могли преобразовывать свои модели и результаты в доказательства, которые могут быть проверены в цепочке. Эти продукты абстрагируются от нулевого аспекта знаний в разработке насколько это возможно.

EZKL и Гизаесть два проекта, строящих этот инструментарий, предоставляя верифицируемые доказательства выполнения модели машинного обучения. Оба помогают командам создавать модели машинного обучения, чтобы гарантировать, что эти модели затем могут быть выполнены таким образом, что результаты могут быть проверены на цепочке без доверия. Оба проекта используют открытый обмен нейронными сетями (ONNX), чтобы преобразовать модели машинного обучения, написанные на обычных языках, таких как TensorFlow и Pytorch, в стандартный формат. Затем они выводят версии этих моделей, которые также производят zk-доказательства при выполнении. EZKL является открытым исходным кодом и производит zk-SNARKS, в то время как Giza является закрытым исходным кодом и производит zk-STARKS. Оба проекта в настоящее время совместимы только с EVM.

EZKL продемонстрировал значительный прогресс за последние несколько месяцев в улучшении своего решения zkML, в основном сосредоточенного наснижение затрат, улучшение безопасности, и ускорение генерации доказательств. Например, в ноябре 2023 года EZKL интегрировала новую библиотеку открытого исходного кода для GPU, которая сокращает общее время доказательства на 35%, а в январе EZKL объявленоЛилит, программное решение для интеграции высокопроизводительных вычислительных кластеров и оркестрации параллельных задач при использовании системы доказательства EZKL. Гиза уникальна тем, что, помимо предоставления инструментов для создания проверяемых моделей машинного обучения, они также планируют реализовать веб3-эквивалент.Объятие Лица, открыв пользовательскую торговую площадку для сотрудничества и обмена моделями zkML, а также в конечном итоге интегрируя предложения по децентрализованным вычислениям. В январе EZKL выпустил,оценка показателейсравнение производительности EZKL, Giza и RiscZero (обсуждаются ниже). EZKL продемонстрировал более быстрые времена доказательств и использование памяти.


Модульные лабораториитакже разрабатывает новую технику доказательства zk, специально разработанную для моделей искусственного интеллекта. Компания Modulus опубликовала статью под названиемСтоимость интеллекта(намекая на чрезвычайно высокие затраты на запуск моделей ИИ на цепи), которые позволили сравнить существующие системы zk-proof на тот момент для выявления возможностей и узких мест для улучшения zk-доказательств моделей ИИ. Опубликованный в январе 2023 года документ демонстрирует, что существующие предложения просто слишком дороги и неэффективны для обеспечения масштабных приложений ИИ. На основе своих первоначальных исследований в ноябре Modulus @ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">представил Remainder, специализированный доказатель нуля знаний, разработанный специально для снижения затрат и времени доказательства для моделей искусственного интеллекта с целью сделать его экономически целесообразным для проектов интегрировать модели в свои смарт-контракты на масштабе. Их работа является закрытой и поэтому не может быть сравнена с вышеуказанными решениями, но недавно была упомянута в Vitalik’sстатья в блогепо крипто и искусственному интеллекту.

Разработка инструментов и инфраструктуры критична для будущего роста пространства zkML, поскольку значительно снижает трение для команд, которым необходимо развертывать zk цепи, необходимые для запуска проверяемых вычислений вне цепи. Создание безопасных интерфейсов, позволяющих не крипто-привычным строителям, работающим в области машинного обучения, перенести свои модели в цепочку, позволит провести более глубокие эксперименты с приложениями с по-настоящему новыми сценариями использования. Инструменты также решают основное препятствие для более широкого принятия zkML - отсутствие разработчиков, знающих и заинтересованных в работе на пересечении нулевого знания, машинного обучения и криптографии.

Копроцессоры

К дополнительным разрабатываемым решениям, называемым «сопроцессорами», относятся RiscZero,Аксиома, и ОбрядТермин сопроцессор в основном семантика - эти сети выполняют множество различных функций, включая проверку вычислений вне цепи в цепи. Как и в случае с EZKL, Giza и Modulus, они стремятся полностью абстрагировать процесс генерации доказательства знания нуля, создавая, по сути, виртуальные машины с нулевым знанием, способные выполнять программы вне цепи и генерировать доказательства для верификации в цепи. RiscZero и Axiom могут сервиспростые модели искусственного интеллекта, поскольку они должны быть более универсальными сопроцессорами, в то время как Ritual предназначен для использования с моделями искусственного интеллекта.

ИнфернетЭто первая реализацияRitual и включает в себя SDK Infernet, который позволяет разработчикам отправлять запросы на вывод в сеть и получать вывод и доказательство (по желанию) взамен. Узел Infernet получает эти запросы и обрабатывает вычисления за пределами цепи, прежде чем вернуть вывод. Например, DAO может создать процесс для обеспечения выполнения всех новых предложений управления определенными предварительными условиями перед их подачей. Каждый раз, когда подается новое предложение, контракт управления запускает запрос на вывод через Infernet, вызывая модель ИИ, обученную для конкретного DAO управления. Модель проверяет предложение, чтобы убедиться, что были представлены все необходимые критерии, и возвращает вывод и доказательство, либо одобряя, либо отклоняя представление предложения.

В течение грядущего года команда Ritual планирует выпустить дополнительные функции, которые составляют базовый инфраструктурный слой, называемый Ritual Superchain. Многие из ранее обсуждавшихся проектов могут подключаться к Ritual в качестве провайдеров услуг. Команда Ritual уже интегрировалась с EZKL для генерации доказательств и, скорее всего, вскоре добавит функционал от других ведущих провайдеров. Узлы Infernet на Ritual также могут использовать графические процессоры Akash или io.net и запрашивать модели, обученные на подсетях Bittensor. Их конечная цель - стать основным провайдером открытой инфраструктуры искусственного интеллекта, способным обслуживать задачи машинного обучения и другие задачи, связанные с искусственным интеллектом, из любой сети по любой нагрузке.

Приложения

zkML помогаетсверятьпротиворечие между блокчейнами и ИИ, где первые по своей сути ограничены ресурсами, а последние требуют больших объемов вычислительных мощностей и данных. Как один из основателей Giza положи его, «Вариантов использования настолько много ... это как спрашивать в ранние дни Ethereum, каковы варианты использования смарт-контрактов ... то, что мы делаем, - это просто расширение вариантов использования смарт-контрактов». Как подчеркнуто выше, развитие в настоящее время в основном происходит на уровне инструментов и инфраструктуры. Приложения все еще находятся в фазе исследований, и командам предстоит продемонстрировать, что ценность, создаваемая при реализации моделей с использованием zkML, превышает сложность и затраты на это.

Некоторые приложения сегодня включают:

  • Децентрализованные финансы. zkML улучшает пространство дизайна для DeFi, улучшая возможности смарт-контрактов. DeFi-протоколы предоставляют моделям машинного обучения большие объемы верифицируемых и неизменяемых данных, которые могут быть использованы для создания стратегий генерации дохода или торговли, анализа рисков, UX и многого другого. Например, Giza, партнерствосотрудничает с Yearn Finance для создания движка автоматической оценки рисков для новых хранилищ v3 Yearn в рамках концепции. У Modulus Labs @ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36">worked with Lyra Finance on incorporating machine learning into their AMMs, is сотрудничалс протоколом Ion для реализации модели анализа риска валидаторов и помогаетИтогпроверить свои ценовые ленты искусственного интеллекта для NFT. Протоколы, такие как NOYA (который использует EZKL) и Мозаикапредоставляют доступ к собственным внебиржевым моделям, которые дают пользователям возможность автоматизированного сбора доходов, позволяя им проверять вводимые данные и доказательства на цепи.Спектральное финансированиестроит движки кредитного скоринга на цепочке, чтобы предсказать вероятность того, что заёмщики Compound или Aave не смогут вернуть кредиты. Эти так называемые продукты "De-Ai-Fi" вряд ли станут намного более распространенными в годах вперед, благодаря zkML.
  • Игровая индустрия. Игровая индустрия давно считается перспективной для изменений и улучшений общедоступными блокчейнами (для получения дополнительной информации о крипте и играх обратитесь к этому отчету Galaxy Digital - История игр и ее будущее в Web3. zkML делает возможным игры с искусственным интеллектом на цепи.Модульные лаборатории уже реализовал Proof of Concepts для простых ончейн-игр. Лила против мираэто игра в шахматы с игровой теорией, в которой пользователи сражаются с моделью искусственного интеллекта, а zkML проверяет, что каждый ход Лилы основан на модели, которую игра, по словам, запущена. Аналогично, команды использовали фреймворки EZKL для создания простыхпесенные конкурсы и он-чейн крестики-нолики. Картридж использует Giza для возможности команд развертывать полностью on-chain игры, в последнее время выделение простая гоночная игра с искусственным интеллектом, в которой пользователи соревнуются в создании лучших моделей для автомобиля, стараясь избегать препятствий. Несмотря на свою простоту, это доказательство концепции указывает на будущие реализации, позволяющие проводить более сложные проверки в сети, такие как изощренные NPC, способные взаимодействовать с внутриигровой экономикой, как показано в @ModulusLabs/Глава-5-стоимость-интеллекта-da26dbf93307">AI Arena, игра вроде супер братьев по оружию, где игроки тренируют своих бойцов, которые затем развертываются в качестве моделей ИИ для боя.
  • Идентичность, Происхождение и Конфиденциальность. Крипто уже используется использованныйв качестве средства проверки подлинности и борьбы с растущим количеством созданного/подделанного искусственного интеллекта и глубоких фейков. zkML может продвинуть эти усилия. WorldCoin - это решение для подтверждения личности, которое требует, чтобы пользователи сканировали свои радужки для генерации уникального идентификатора. В будущем биометрические идентификаторы могут бытьсамостоятельное управлениена персональных устройствах с использованием зашифрованного хранения с моделями, необходимыми для проверки этих биометрических данных, выполняемыми локально. Пользователи могут предоставить доказательства своих биометрических данных, не раскрывая своей личности, борясь с атаками сибиллов, обеспечивая при этом конфиденциальность. Это также может быть применено к другим выводам, требующим конфиденциальности, таким какиспользование моделейанализировать медицинские данные/изображения для выявления заболеваний, проверки личности и разработки алгоритмов подбора в приложениях для знакомств, или для страховых и кредитных агентств, которым необходимо подтверждение финансовой информации.

Перспектива

zkML все еще находится на экспериментальном этапе, большинство проектов сосредоточены на развитии инфраструктуры и концепций доказательств. Сегодняшние вызовы включают вычислительные затраты, ограничения памяти, сложность модели, ограниченные инструменты и инфраструктуру, а также талант разработчика. Проще говоря, перед тем как zkML можно будет реализовать в масштабах, необходимых для потребительских продуктов, требуется выполнить гораздо больше работы.

По мере зрелости сферы и устранения этих ограничений zkML станет критическим компонентом интеграции ИИ и крипто. По своей сути zkML обещает возможность переноса вычислений любого размера с офчейна на чейн, сохраняя те же или близкие к тем же гарантии безопасности, что и если бы вычисления проводились на чейне. Однако до тех пор, пока эта видимая цель не будет достигнута, ранние пользователи технологии будут продолжать балансировать компромисс между конфиденциальностью и безопасностью zkML и эффективностью альтернатив.

Искусственные интеллектуальные агенты

Одно из наиболее захватывающих слияний искусственного интеллекта и криптовалюты - это продолжающийся эксперимент с искусственными агентами. Агенты - это автономные боты, способные принимать, интерпретировать и выполнять задачи с использованием модели искусственного интеллекта. Это может быть что угодно, начиная от наличия всегда доступного персонального ассистента, настроенного под ваши предпочтения, до найма финансового агента, который управляет и корректирует ваш портфель в соответствии с вашими предпочтениями по риску.

Агенты и крипто хорошо сочетаются вместе из-за инфраструктуры платежей без разрешения и доверия, которую предоставляет крипто. После обучения агентам можно выдать кошелек, чтобы они могли проводить транзакции с умными контрактами самостоятельно. Простые агенты сегодня, например, могут сканировать интернет для получения информации, а затем совершать сделки на рынках прогнозирования на основе модели.

Поставщики агентов

Морфеусэто один из самых новых проектов с открытым исходным кодом, который появится на рынке Ethereum и Arbitrum в 2024 году. Его белая книга была опубликована анонимно в сентябре 2023 года, обеспечивая основу для формирования сообщества и его развития вокруг (включая известных фигур, таких как Erik Vorhees). Белая книга включает загружаемый Протокол умного агента, которое является открытым исходным кодом LLM, который может быть запущен локально, управляемый кошельком пользователя и взаимодействовать с умными контрактами. Он использует Ранг смарт-контрактачтобы помочь агенту определить, с какими смарт-контрактами безопасно взаимодействовать на основе критериев, таких как количество обработанных транзакций.

Белая книга также предоставляет каркас для развития сети Morpheus, такой как структуры стимулов и инфраструктура, необходимая для работы протокола Smart Agent. Это включает в себя стимулирование участников для разработки интерфейсов взаимодействия с агентами, API для разработчиков, чтобы создавать приложения, которые могут подключаться к агентам, чтобы они могли взаимодействовать друг с другом, и облачные решения для обеспечения пользователей доступом к вычислениям и хранению, необходимым для запуска агента на устройстве краевого вычисления. Начальное финансирование проекта началось в начале февраля, а полный протокол должен быть запущен в 2 квартале 24 года.

Децентрализованная автономная инфраструктурная сеть (DAIN)это новый протокол инфраструктуры агента, разрабатывающий экономику от агента к агенту на Solana. DAIN стремится сделать так, чтобы агенты из различных компаний могли без проблем взаимодействовать друг с другом через универсальный API, значительно расширяя область дизайна для агентов ИИ с акцентом на реализацию агентов, способных взаимодействовать как с продуктами web2, так и с продуктами web3. В январе DAIN объявили о своем первом партнерствос Asset Shield, позволяющий пользователям добавлять в свои мультисиги «агентских подписантов», способных интерпретировать транзакции и утверждать/отклонять их в соответствии с установленными правилами пользователя.

Fetch.AIбыл одним из первых протоколов искусственного интеллекта, развернутых и разработанных экосистему для создания, развертывания и использования агентов on-chain с использованием своего токена FET и Fetch.AI кошелек. Протокол предоставляет комплексный набор инструментов и приложений для использования Агентов, включая функциональность в кошельке для взаимодействия и заказа агентов.

Autonolas, чьи основатели включают предыдущего участника команды Fetch, является открытым рынком для создания и использования децентрализованных искусственных интеллектуальных агентов. Autonolas также предоставляет набор инструментов для разработчиков, позволяющих создавать искусственных интеллектуальных агентов, которые размещаются вне цепочки и могут подключаться к нескольким блокчейнам, включая Polygon, Ethereum, Gnosis Chain и Solana. В настоящее время у них есть несколько активных агентов-доказательств концепции продуктывключая использование в рынках прогнозов и управлении DAO.

SingularityNetстроит децентрализованную площадку для искусственного интеллекта, где люди могут развертывать узко специализированные агенты искусственного интеллекта, которых можно нанять другими людьми или агентами для выполнения сложных задач. Другие, как ИзмененныйStateMachine, строят интеграции ИИ-агентов с NFT. Пользователи чеканят NFT с случайными характеристиками, которые дают им силы и слабости для различных задач. Эти агенты затем могут быть обучены усилить определенные характеристики для использования в играх, DeFi или в качестве виртуального помощника и обмениваться ими с другими пользователями.

Вместе эти проекты предвидят будущую экосистему агентов, способных работать вместе не только для выполнения задач, но и для помощи в построении искусственного общего интеллекта. Действительно сложные агенты смогут выполнять любую задачу пользователей автономно. Например, вместо того чтобы гарантировать, что агент уже интегрирован с внешним API (например, веб-сайтом бронирования путешествий) перед использованием, полностью автономные агенты будут иметь возможность выяснить, как нанять другого агента для интеграции API, а затем выполнить задачу. С точки зрения пользователя не будет необходимости проверять, может ли агент выполнить задачу, потому что агент может определить это самостоятельно.

Биткойн и искусственный интеллект

В июле 2023 года, Компания Lightning Labsвыпустил доказательство концепции реализации использования агентов в Lightning Network под названием LangChain Bitcoin Suite. Продукт особенно интересен, поскольку его целью является решение растущей проблемы в мире веб-2 –закрытый и дорогойAPI ключи для веб-приложений.

LangChain решает эту проблему, предоставляя разработчикам набор инструментов, позволяющих агентам покупать, продавать и удерживать биткоины, а также запрашивать ключи API и отправлять микроплатежи. В то время как на традиционных платежных путях небольшие микроплатежи невыгодны из-за комиссий, на сети Lightning агенты могут ежедневно отправлять неограниченное количество микроплатежей с минимальными комиссиями. Вместе с L402 платежной счетчиковой API-структурой LangChain это может позволить компаниям корректировать доступные сборы к своему API по мере увеличения или уменьшения использования, а не устанавливать единый стандарт, невыгодный с точки зрения затрат.

В будущем, когда в ончейн-активности будут доминировать агенты, взаимодействующие с агентами, что-то подобное будет необходимо, чтобы гарантировать, что агенты могут взаимодействовать друг с другом таким образом, чтобы это не было непомерно дорого. Это один из первых примеров того, как использование агентов на неразрешительных и экономически эффективных платежных путях открывает возможности для новых рынков и экономических взаимодействий.

Прогноз

Пространство агентов все еще находится в зачаточном состоянии. Проекты только начинают выпускать функционирующих агентов, которые могут обрабатывать простые задачи с использованием своей инфраструктуры, которая часто доступна только опытным разработчикам и пользователям. Однако со временем одним из самых больших влияний ИИ-агентов на криптовалюту будут улучшения в пользовательском опыте во всех вертикалях. Совершение транзакций начнет переходить от нажатия на кнопку к работе с текстом, при этом пользователи смогут взаимодействовать с агентами на цепочке через LLM. Уже команды, подобные Кошелек Dawnмы представляем чат-бот кошельки для взаимодействия пользователей по цепочке.

Кроме того, неясно, как агенты могут работать в веб-2, где финансовые рельсы зависят от регулируемых банковских учреждений, которые не работают круглосуточно и не могут проводить безпрепятственные международные транзакции. Lyn Alden Он подчеркнул, что криптовалютные рельсы особенно привлекательны по сравнению с кредитными картами из-за отсутствия возвратных платежей и возможности обрабатывать микротранзакции. Однако, если агенты станут более распространенным средством совершения транзакций, вполне вероятно, что существующие поставщики платежных услуг и приложения быстро внедрят инфраструктуру, необходимую для работы на существующих финансовых рельсах, что сведет на нет некоторые преимущества использования криптовалюты.

В настоящее время агенты, скорее всего, будут ограничены детерминированными крипто-крипто-транзакциями, где заданный вывод гарантирован для заданного ввода. Оба модели, которые определяют способность этих агентов разбираться, как выполнить сложные задачи, и инструменты, которые расширяют область того, что они могут достичь, требуют дальнейшего развития. Для того чтобы крипто-агенты стали полезными за пределами новаторских крипто-применений на цепочке, потребуется более широкая интеграция и принятие крипто в качестве формы оплаты, а также юридическая ясность. Однако, по мере развития этих компонентов, агенты готовы стать одними из крупнейших потребителей децентрализованных вычислений и обсуждаемых выше решений zkML, действуя автономно недетерминированным образом для получения и решения любой задачи.

Заключение

ИИ внедряет в крипто те же инновации, которые мы уже видим в веб2, улучшая все, начиная от развития инфраструктуры и опыта пользователя, и заканчивая доступностью. Однако проекты все еще находятся на ранней стадии развития, и в ближайшей перспективе интеграция крипто и ИИ будет в основном доминироваться офчейн-интеграциями.

Продукты типа Второй пилотбудет“10x”эффективность разработчика, суровни 1иDeFiприложения уже запустились на развивающихся платформах с искусственным интеллектом в партнерстве с крупными корпорациями, такими как Microsoft. Компании типа Cub3.aiиТестовая машинаразрабатывают интеграции искусственного интеллекта для аудита смарт-контрактов и мониторинга угроз в реальном времени для повышения безопасности on-chain. А чат-боты LLM обучаются с использованием данных on-chain, документов протокола и приложений для обеспечения пользователям улучшенной доступности и UX.

Для более сложных интеграций, которые действительно используют основные технологии крипто, остается вызов продемонстрировать, что реализация решений искусственного интеллекта на цепочке технически возможна и экономически целесообразна в масштабе. Развитие децентрализованных вычислений, zkML и искусственных интеллектуальных агентов указывает на перспективные вертикали, которые заложили основу для будущего, где крипто и искусственный интеллект глубоко взаимосвязаны.

Отказ от ответственности:

  1. Эта статья передана из [галактика]. Все авторские права принадлежат оригинальному автору [Лукас Чеян]. Если есть возражения к этому перепечатыванию, пожалуйста, свяжитесь с Gate Learnкоманда и они оперативно справятся с этим.
  2. Отказ от ответственности: Взгляды и мнения, выраженные в этой статье, являются исключительно мнениями автора и не являются инвестиционными советами.
  3. Переводы статьи на другие языки выполняются командой Gate Learn. Если не указано иное, копирование, распространение или плагиат переведенных статей запрещены.

Понимание пересечения Крипто и ИИ

Продвинутый2/22/2024, 5:28:26 AM
Эксперименты в пересечении криптовалют и искусственного интеллекта стимулируются теми же силами, которые лежат в основе наиболее перспективных случаев использования криптовалют - доступ к слоям координации без разрешения и доверия, способствующим более эффективному передаче ценности.

Введение

Появление публичных блокчейнов - одно из наиболее глубоких достижений в истории информатики. Но развитие искусственного интеллекта будет и уже оказывает глубокое влияние на наш мир. Если технология блокчейна предоставляет новый шаблон для завершения транзакций, хранения данных и проектирования систем, искусственный интеллект - это революция в вычислениях, анализе и доставке контента. Инновации в этих двух отраслях открывают новые сценарии использования, которые могут ускорить принятие обоих в следующие годы. В этом отчете исследуются текущие интеграции крипто и ИИ с акцентом на новые сценарии использования, которые пытаются сократить разрыв между ними, используя силу обоих. Конкретно этот отчет исследует проекты, разрабатывающие децентрализованные протоколы вычислений, инфраструктуру нулевого знания для машинного обучения (zkML) и агентов ИИ.

Крипто предоставляет искусственному интеллекту разрешение, бездоверие и композиционный уровень расчетов. Это открывает такие возможности, как сделать аппаратное обеспечение более доступным благодаря децентрализованным вычислительным системам, создание искусственного интеллекта, способного выполнять сложные задачи, требующие обмена ценностями, и разработку решений для борьбы с атаками Сибила и глубокими подделками. Искусственный интеллект приносит в крипто многие из тех же преимуществ, которые мы видим в Веб-2. Это включает улучшенный пользовательский опыт (UX) как для пользователей, так и для разработчиков благодаря большим языковым моделям (т.е. специально обученным версиям ChatGPT и Copilot), а также потенциал значительного улучшения функциональности и автоматизации смарт-контрактов. Блокчейны - это прозрачные, богатые данными среды, которые нужны искусственному интеллекту. Но у блокчейнов также ограниченные вычислительные возможности, что является основным препятствием для прямой интеграции моделей искусственного интеллекта.

Двигателем продолжающихся экспериментов и последующего принятия на пересечении крипто и ИИ является то же, что и движет большую часть наиболее перспективных случаев использования крипто - доступ к координационному уровню без разрешения и доверия, который лучше облегчает передачу ценности. Учитывая огромный потенциал, участники в этой области должны понимать основные способы, которыми пересекаются две технологии.

Основные моменты:

  • Интеграция крипто и искусственного интеллекта в ближайшем будущем (от 6 месяцев до 1 года) будет доминировать приложениями искусственного интеллекта, которые повышают эффективность разработчика, аудиторию и безопасность смарт-контрактов, а также доступность для пользователя. Эти интеграции не являются специфичными для крипто, но улучшают опыт разработчика и пользователя на цепочке.
  • Предлагаемые децентрализованные вычислительные решения внедряют специально разработанные для ИИ графические процессоры в то время, как наблюдается значительный дефицит высокопроизводительных GPU, что способствует распространению.
  • Пользовательский опыт и регулирование остаются препятствиями для привлечения клиентов децентрализованных вычислений.Недавние события в OpenAIа такжепродолжающиеся регуляторные обзорыв Соединенных Штатах, однако, выделяют ценностное предложение бесразрешительных, устойчивых к цензуре, децентрализованных сетей искусственного интеллекта.
  • Интеграции искусственного интеллекта на цепи, особенно для смарт-контрактов, способных использовать модели искусственного интеллекта, требуют улучшений в технологии zkML и других вычислительных методах, которые подтверждают вычисления вне цепи на цепи. Недостаток комплексных инструментов и специалистов-разработчиков, а также высокие затраты являются препятствиями для принятия.
  • Искусственные интеллектуальные агенты отлично подходят для крипто, где пользователи (или сами агенты) могут создавать кошельки для совершения транзакций с другими услугами, агентами или людьми. Это в настоящее время невозможно с использованием традиционных финансовых рельсов. Дополнительная интеграция с не-крипто продуктами необходима для более широкого принятия.

Терминология

Искусственный интеллект - это использование вычислений и машин для имитации рассуждений и способностей человека к решению проблем.

Нейронные сети - один из методов обучения для искусственного интеллекта. Они пропускают входные данные через дискретные слои алгоритмов, улучшая их до получения желаемого результата. Нейронные сети состоят из уравнений с весами, которые можно модифицировать, чтобы изменить результат. Для обучения им может потребоваться огромное количество данных и вычислений, чтобы их результаты были точными. Это один из наиболее распространенных способов разработки моделей искусственного интеллекта (ChatGPT использует процесс нейронной сети, зависящий оттрансформеры).

Обучение - это процесс, при котором разрабатываются нейронные сети и другие модели искусственного интеллекта. Для обучения моделей требуется большое количество данных, чтобы правильно интерпретировать входные данные и производить точные выходные данные. Во время процесса обучения веса уравнения модели непрерывно модифицируются до тех пор, пока не будет получен удовлетворительный результат. Обучение может быть очень дорогим. Например, ChatGPT используетдесятки тысяч собственных графических процессоров для обработки своих данных. Команды с меньшими ресурсами часто полагаются на специализированных поставщиков вычислительных мощностей, таких как Amazon Web Services, Azure и поставщики облачных вычислений Google.

Вывод - это фактическое использование модели искусственного интеллекта для получения вывода или результата (например, использование ChatGPT для создания конспекта статьи о пересечении крипто и искусственного интеллекта). Выводы используются на протяжении всего процесса обучения и в конечном продукте. Они могут быть дорогими в эксплуатации, даже после завершения обучения, из-за вычислительных затрат, но требуют меньше вычислительных ресурсов, чем обучение.

Доказательства нулевого знания (ZKP) позволяют проверять утверждение, не раскрывая базовой информации. Это полезно в криптографии по двум основным причинам: 1) конфиденциальность и 2) масштабирование. Для конфиденциальности пользователи могут проводить транзакции, не раскрывая чувствительную информацию, например, сколько ETH находится в их кошельке. Для масштабирования это позволяет доказывать внеблочные вычисления на блокчейне быстрее, чем повторное выполнение вычислений. Это позволяет блокчейнам и приложениям выполнять дешевые внеблочные вычисления, а затем проверять их на блокчейне. Для получения дополнительной информации о доказательствах нулевого знания и их роли в виртуальной машине Ethereum обратитесь к отчету Кристин КимzkEVMs: Будущее масштабируемости Ethereum.

Карта рынка искусственного интеллекта/криптовалют

Проекты на пересечении искусственного интеллекта и крипто по-прежнему создают основную инфраструктуру, необходимую для поддержки масштабных взаимодействий с искусственным интеллектом на цепочке.

Децентрализованные рынки вычислений начинают поставлять большие объемы физического оборудования, в основном в виде графических процессоров (GPU), необходимых для обучения и вывода моделей искусственного интеллекта. Эти двухсторонние рынки соединяют тех, кто сдает в аренду и ищет аренду вычислений, облегчая передачу ценности и верификацию вычислений. В рамках децентрализованных вычислений появляются несколько подкатегорий, предоставляющих дополнительные функциональные возможности. Помимо двухсторонних рынков, в этом отчете будет рассмотрено предоставление услуг по обучению машинного обучения, специализирующихся на обслуживании верифицируемых выходов обучения и настройки, а также проекты, работающие над соединением вычислений и созданием моделей для достижения искусственного общего интеллекта, также часто называемого сетями стимулирования интеллекта.

zkML - это развивающаяся область внимания для проектов, которые хотят предоставить проверяемые выходные данные модели on-chain эффективным и своевременным способом. Эти проекты в основном позволяют приложениям обрабатывать тяжелые вычислительные запросы вне цепи, а затем публиковать на цепи проверяемый вывод, доказывающий, что работа вне цепи завершена и точна. zkML дорог и занимает много времени в своей текущей реализации, но все чаще используется в качестве решения. Это видно по растущему количеству интеграций между поставщиками zkML и приложениями DeFi/Gaming, которые хотят использовать модели искусственного интеллекта.

Обилие вычислительной мощности и возможность проверки этой мощности on-chain открывают дверь для on-chain искусственного интеллекта. Агенты - это обученные модели, способные выполнять запросы от имени пользователя. Агенты предлагают возможность значительно улучшить on-chain опыт, позволяя пользователям выполнять сложные транзакции, просто общаясь с чат-ботом. Однако на сегодняшний день проекты Агентов все еще сосредоточены на развитии инфраструктуры и инструментов для легкого и быстрого развертывания.

Децентрализованные вычисления

Обзор

ИИ требует больших объемов вычислений как для обучения моделей, так и для выполнения выводов. За последнее десятилетие, по мере того как модели становились более сложными, требования к вычислениям выросли в геометрической прогрессии. Например, OpenAI,найденчто с 2012 по 2018 год требования к вычислениям для его моделей выросли с удвоением каждые два года до удвоения каждые три с половиной месяца. Это привело к взрывному росту спроса на графические процессоры, даже у некоторых криптомайнеровпереориентация своих графических процессоровдля предоставления услуг облачных вычислений (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">read more about this in our annual Bitcoin mining report). Поскольку растет конкуренция за доступ к вычислениям и увеличиваются затраты, несколько проектов используют криптовалюту для предоставления децентрализованных вычислительных решений. Они предлагают вычисления по запросу по конкурентоспособным ценам, чтобы команды могли позволить себе обучать и запускать модели. В некоторых случаях компромиссом может быть производительность и безопасность.

Современные графические процессоры, такие как те произведенныеот Nvidia пользуются большим спросом. В сентябре Tether приобрел доля в Northern Data, немецком майнере биткоинов, который, как сообщается, заплатил 420 миллионов долларов за приобретение 10 000 графических процессоров H100 (один из самых передовых графических процессоров для обучения ИИ). ПодождитеВремя поставки лучшего аппаратного обеспечения может составлять как минимум шесть месяцев, а во многих случаях и дольше. Что делает ситуацию еще хуже, компании часто обязаны заключать долгосрочные контракты на объемы вычислительных мощностей, которые они даже не смогут использовать. Это может привести к ситуациям, когда вычислительные мощности доступны, но их нет на рынке. Децентрализованные вычислительные системы помогают решить эти рыночные неэффективности, создавая вторичный рынок, где владельцы вычислительных мощностей могут сдавать в субаренду свои избыточные мощности в любой момент, открывая новые возможности для предложения.

Помимо конкурентоспособной цены и доступности ключевым преимуществом децентрализованных вычислений является устойчивость к цензуре. Развитие передовых технологий искусственного интеллекта все более контролируется крупными технологическими фирмами с беспрецедентным доступом к вычислениям и данным. Первая ключевая тема, выделенная в Отчет по индексу AI Годовой отчет 2023 года говорит о том, что отрасль все больше опережает академию в разработке моделей искусственного интеллекта, централизуя контроль в руках нескольких технологических лидеров. Это вызвало опасения относительно их способности оказывать значительное влияние на установление норм и ценностей, лежащих в основе моделей искусственного интеллекта, особенно в свете регулирования толкаетэтими же технологическими компаниями для ограничения развития искусственного интеллекта вне их контроля.

Децентрализованные вертикали вычислений

В последние годы появилось несколько моделей для децентрализованных вычислений, каждая со своим собственным фокусом и компромиссами.

Обобщенные вычисления

Проекты вроде Akash, io.net, iExec, Cudos и многие другие являются децентрализованными вычислительными приложениями, которые предлагают доступ к специализированным вычислениям для обучения и выводов ИИ, а также к данным и обобщенным вычислительным решениям или вскоре предложат доступ к ним.

Akash в настоящее время является единственной полностью открытой платформой "супероблака". Это сеть доказательства доли, использующая Cosmos SDK. AKT, собственный токен Akash, используется для обеспечения безопасности сети, в качестве формы оплаты и для стимулирования участия. Akash запустил свою первую основную сеть в 2020 году, сфокусировавшись на создании разрешенного рынка облачных вычислений, начально представляющего услуги аренды хранения и ЦП. В июне 2023 года, Akash запущенновая тестовая сеть, ориентированная на графические процессоры и в сентябрезапущенего основная сеть GPU позволяет пользователям арендовать графические процессоры для обучения и выводов искусственного интеллекта.

В экосистеме Akash есть два основных участника - Арендаторы и Поставщики. Арендаторы - это пользователи сети Akash, которые хотят купить вычислительные ресурсы. Поставщики - это поставщики вычислительных ресурсов. Для сопоставления арендаторов и поставщиков Akash полагается на процесс обратного аукциона. Арендаторы представляют свои требования к вычислениям, в рамках которых они могут указать определенные условия, такие как местоположение серверов или тип оборудования для проведения вычислений, и сумму, которую они готовы заплатить. Поставщики затем представляют свою цену, причем наименьшая ставка получает задание.

Валидаторы Akash поддерживают целостность сети. Набор валидаторов в настоящее время ограничен 100 и со временем планируется постепенно увеличиваться. Любой желающий может стать валидатором, разместив в стейкинге больше AKT, чем текущий валидатор с наименьшим количеством AKT в стейкинге. Держатели AKT также могут делегировать свои AKT валидаторам. Комиссии за транзакции и вознаграждения за блок для сети распределяются в AKT. Кроме того, за каждую аренду сеть Akash получает «плату за взятие» по ставке, определяемой сообществом, которая распределяется между держателями AKT.

Вторичные рынки

Децентрализованные рынки вычислений нацелены на устранение неэффективностей существующего рынка вычислений. Ограничения поставок заставляют компании запасаться вычислительными мощностями сверх того, что им может понадобиться, и предложение дополнительно ограничено из-за структуры контрактов с облачными провайдерами, которые закрепляют клиентов в долгосрочных контрактах, даже если продолжительный доступ может быть необходим. Децентрализованные платформы вычислений открывают новые возможности предложения, позволяя любому человеку в мире с требуемыми вычислениями стать поставщиком.

Пока неясно, приведет ли растущий спрос на графические процессоры для обучения ИИ к долгосрочному использованию сети на Akash. Например, Akash уже давно предоставляет рынок для процессоров, предлагая аналогичные услуги в качестве централизованных альтернатив на 70-80%Скидка. Однако снижение цен не привело к значительному увеличению. Активные аренды в сети стабилизировались и в среднем составляют всего 33% вычислений, 16% памяти и 13% хранилища к концу 2023 года. Хотя эти показатели внушительны для принятия on-chain (для справки, ведущий поставщик хранилищ Filecoin имел12.6% использования хранилищав третьем квартале 2023 года), это демонстрирует, что предложение продолжает опережать спрос на эти продукты.

Прошло чуть более полугода с тех пор, как Akash запустила свою сеть графических процессоров, и еще слишком рано точно оценивать долгосрочное внедрение. Признаком спроса является то, что средняя загрузка графических процессоров на сегодняшний день составляет 44% и выше, чем процессоров, памяти и хранилища. В первую очередь это обусловлено спросом на графические процессоры высочайшего качества (например, A100) с более чем 90%сдан в аренду.

Ежедневные расходы на Akash также выросли, почти удвоившись по сравнению с пред-GPUs. Это можно частично объяснить ростом использования других услуг, особенно ЦПУ, но в основном это результат нового использования ГПУ.

Цены соответствуют (или в некоторых случаях даже немного дороже), чем у их централизованных конкурентов, таких как Lambda Cloud и Vast.ai. Невероятный спрос на самые продвинутые видеокарты (такие как H100 и A100) означает, что большинство владельцев этого оборудования мало заинтересованы в размещении на маркетплейсах, где действуют конкурентоспособные цены.

Несмотря на то, что первоначальный интерес является многообещающим, остаются препятствия для внедрения (см. ниже). Децентрализованным вычислительным сетям потребуется больше усилий для создания как спроса, так и предложения, и команды экспериментируют с тем, как лучше всего привлечь новых пользователей. В начале 2024 года, например, Акаш прошел Предложение 240увеличить эмиссию AKT для поставщиков GPU и стимулировать больше предложений, особенно нацеленных на более дорогие GPU. Команды также работают над внедрением моделей концепции, чтобы продемонстрировать потенциальным пользователям реальные возможности своих сетей. Акаш обучение свою собственную основополагающую модель и уже запустили Чат-ботигенерация изображенияпредложения, создающие выходы с использованием графических процессоров Akash. Точно так же, io.net имеет разработанныйстабильная модель диффузии и внедряетНовые сетевые функциикоторый лучше имитирует производительность и масштаб традиционных центров обработки данных с использованием GPU.

Децентрализованное обучение машинного обучения

Помимо обобщенных платформ вычислений, способных удовлетворить потребности в искусственном интеллекте, также начинают появляться специализированные поставщики GPU для ИИ, ориентированные на обучение моделей машинного обучения. Например, Gensyn, «согласованиеэлектричество и оборудование для создания коллективного интеллекта” с тем, что, “Если кто-то хочет что-то обучить, и кто-то готов это обучить, то это обучение должно быть разрешено.”

Протокол имеет четыре основных участника: подающие, решатели, верификаторы и информаторы. Податели подают задачи в сеть с запросами на обучение. Эти задачи включают в себя цель обучения, модель, которую необходимо обучить, и обучающие данные. В рамках процесса подачи подающие предварительно оплачивают комиссию за оцененные вычисления, требуемые от решателя.

После отправки задачи назначаются решателям, которые проводят фактическое обучение моделей. Затем решатели отправляют выполненные задачи верификаторам, которые отвечают за проверку обучения, чтобы убедиться, что оно было выполнено правильно. Осведомители несут ответственность за то, чтобы проверяющие вели себя честно. Чтобы стимулировать разоблачителей к участию в сети, Gensyn планирует периодически предоставлять заведомо неверные доказательства, которые вознаграждают разоблачителей за их поимку.

Помимо предоставления вычислительных ресурсов для рабочих нагрузок, связанных с искусственным интеллектом, ключевым ценностным предложением Gensyn является система верификации, которая все еще находится в разработке. Верификация необходима для того, чтобы убедиться, что внешние вычисления поставщиков GPU выполняются правильно (т. е. чтобы убедиться, что модель пользователя обучена так, как они хотят). Gensyn решает эту проблему с помощью уникального подхода, используя новые методы верификации под названием «вероятностное доказательство обучения, протокол на основе графов и стимулирующие игры в стиле Truebit». Это оптимистичный режим решения, который позволяет верификатору подтвердить, что решатель правильно запустил модель без необходимости полностью перезапускать ее самостоятельно, что является дорогостоящим и неэффективным процессом.

Помимо инновационного метода верификации, Gensyn также претензии быть экономически эффективным по сравнению с централизованными альтернативами и криптовалютными конкурентами, предоставляя обучение машинному обучению до 80 % дешевле, чем AWS, и превосходя аналогичные проекты, такие как Truebit, в тестировании.

Смогут ли эти первоначальные результаты быть воспроизведены в масштабе децентрализованной сети, еще предстоит выяснить. Gensyn хочет использовать избыточные вычислительные ресурсы таких провайдеров, как небольшие центры обработки данных, розничные пользователи, а в будущем и даже небольшие мобильные устройства, такие как сотовые телефоны. Однако, как и сама команда Gensyn признанный, полагаясь на разнородных поставщиков вычислительных ресурсов, возникает несколько новых проблем.

Для централизованных поставщиков, таких как Google Cloud Providers и Coreweave, вычисления являются дорогими, в то время как связь между этими вычислениями (пропускная способность и задержка) дешевая. Эти системы разработаны для обеспечения связи между оборудованием как можно быстрее. Gensyn переворачивает эту концепцию, снижая стоимость вычислений за счет возможности предоставления видеокарт любым человеком в мире, но увеличивая стоимость связи, поскольку сеть теперь должна координировать вычислительные задачи на разнородном оборудовании, находящемся далеко друг от друга. Gensyn пока еще не запущен, но это доказывает, что возможно создание децентрализованных протоколов обучения машинного обучения.

Децентрализованный Обобщенный Интеллект

Децентрализованные вычислительные платформы также открывают возможности для разработки методов создания искусственного интеллекта. Bittensor — это децентрализованный вычислительный протокол, построенный на Substrate, который пытаясь ответитьвопрос: "как мы можем превратить ИИ в совместный подход?" Bittensor нацелен на децентрализацию и коммодификацию генерации искусственного интеллекта. Запущенный в 2021 году, протокол хочет использовать силу совместных моделей машинного обучения для непрерывной итерации и создания более качественного искусственного интеллекта.

Bittensor черпает вдохновение из Bitcoin, имея двадцать один миллион предложения своей собственной валюты TAO и четырехлетний цикл деления пополам (первое деление состоится в 2025 году). Вместо использования Proof of Work для создания правильного номера и заработка вознаграждения за блок, Bittensor полагается на 'Proof of Intelligence', требуя от майнеров запускать модели, которые производят выходные данные в ответ на запросы вывода.

Создание стимулов для интеллекта

Bittensor изначально полагался на модель Mixture of Experts (MoE) для генерации выходных данных. Когда поступают запросы на вывод, вместо того чтобы полагаться на одну обобщенную модель, модели MoE передают запрос на вывод наиболее точным моделям для данного типа ввода. Представьте, что строите дом, где вы нанимаете различных специалистов для различных аспектов строительного процесса (например, архитекторов, инженеров, художников, строителей и т. д.). MoE применяет это к моделям машинного обучения, пытаясь использовать выходные данные различных моделей в зависимости от ввода. Как основатель Bittensor Ала Шаабанаобъяснил, это похоже на «разговор с комнатой умных людей и получение лучшего ответа, чем разговор с одним человеком». Из-за вызовыс обеспечением правильной маршрутизации, синхронизации сообщений с правильной моделью и стимулирования, этот подход был отложен до более развитого проекта.

В сети Bittensor два основных участника: валидаторы и майнеры. Валидаторы отвечают за отправку запросов на вывод на майнеры, проверку их результатов и ранжирование их на основе качества их ответов. Чтобы обеспечить надежность своих рейтингов, валидаторам присваиваются оценки "vtrust" на основе того, насколько их рейтинги соответствуют рейтингам других валидаторов. Чем выше оценка vtrust у валидатора, тем больше TAO эмиссий он зарабатывает. Это сделано для стимулирования валидаторов достигать согласия по рейтингам моделей со временем, поскольку чем больше валидаторов достигнут согласия по рейтингам, тем выше их индивидуальные оценки vtrust.

Майнеры, также называемые серверами, являются участниками сети, которые запускают фактические модели машинного обучения. Майнеры соревнуются друг с другом, чтобы предоставить валидаторам наиболее точные выводы для заданного запроса, зарабатывая больше эмиссий TAO, чем точнее их вывод. Майнеры могут генерировать эти выводы так, как им угодно. Например, в будущем сценарии вполне возможно, что майнер Bittensor мог бы ранее обучить модели на Gensyn, которые он использует для заработка эмиссий TAO.

Сегодня большинство взаимодействий происходит непосредственно между валидаторами и майнерами. Валидаторы отправляют входные данные майнерам и запрашивают выходные данные (т. е. обучают модель). Как только валидатор запросил майнеров в сети и получил их ответы, они оценивают майнеров и отправляют свои оценки в сеть.

Это взаимодействие между валидаторами (которые полагаются на PoS) и майнерами (которые полагаются на Proof of Model, форму PoW) называется Yuma Consensus. Оно стремится мотивировать майнеров производить лучшие результаты, чтобы заработать эмиссии TAO, а также валидаторов точно оценивать результаты майнеров, чтобы заработать более высокий балл vtrust и увеличить свои награды TAO, формируя консенсусный механизм сети.

Подсети и Приложения

Взаимодействия на Bittensor в основном состоят из валидаторов, отправляющих запросы майнерам и оценивающих их результаты. Однако по мере увеличения качества вкладывающих майнеров и роста общего интеллекта сети Bittensor создаст слой приложений поверх своего существующего стека, чтобы разработчики могли создавать приложения, обращающиеся к сети Bittensor.

В октябре 2023 года Bittensor завершил важный шаг к достижению этого с введениеподсетей благодаря своему обновлению Revolution. Подсети - это отдельные сети на Bittensor, которые стимулируют определенное поведение. Революция открывает сеть для всех, кто заинтересован в создании подсети. За месяцы с момента ее выпуска было создано более 32 подсетибыли запущены, включая те, которые предназначены для подсказки текста, сбора данных, генерации изображений и хранения. По мере зрелости подсетей и их готовности к использованию в продукции, создатели подсетей также будут создавать приложения для интеграции, позволяя командам создавать приложения, запрашивающие определенную подсеть. Некоторые приложения (чат-бот, генератор изображений, бот для ответов в твиттере, рыночный прогноз) существуют сегодня, но нет формальных стимулов для валидаторов принимать и передавать эти запросы за пределами грантов от фонда Bittensor.

Для более ясного иллюстрации вот пример того, как Bittensor может работать, когда приложения интегрируются в сеть.

Подсети зарабатывают TAO на основе своей производительности, оцениваемой по корневая сетьКорневая сеть находится наверху всех подсетей, в сущности действуя как особый вид подсети, и управляется 64 крупнейшими валидаторами подсетей по стейку. Валидаторы корневой сети ранжируют подсети на основе их производительности и периодически распределяют эмиссии TAO по подсетям. Таким образом, отдельные подсети действуют как майнеры для корневой сети.

Bittensor Outlook

Bittensor по-прежнему испытывает ростовые боли, поскольку расширяет функциональность протокола для стимулирования генерации интеллекта по всем подсетям. Майнеры продолжают разрабатывать новые способы атаки сети для заработка большего количества наград TAO, например, слегка изменениерезультат высоко оцененного вывода, сделанного их моделью, а затем отправка нескольких вариантов. Предложения управления, влияющие на всю сеть, могут быть представлены и реализованы только Триумвират, который состоит исключительно из заинтересованных сторон Открытого фонда тензоров (важно отметить, что принятие предложений требует одобрения со стороны Bittensor Сенатсостоит из валидаторов Bittensor до реализации). Токеномика проекта находится в процессе модернизации для улучшения стимулов к использованию TAO в различных подсетях. Проект также быстро становится известным благодаря своему уникальному подходу, с генеральным директором одного из самых популярных веб-сайтов по искусственному интеллектуHuggingFaceуказывая, что Bittensor должен добавить свои ресурсы на веб-сайт.

В недавно опубликованной кусокРазработанный ядром, названным «Bittensor Paradigm», команда излагает свое видение Bittensor, чтобы в конечном итоге стать «агностическим по отношению к тому, что измеряется». В теории это может позволить Bittensor развивать подсети, стимулирующие любой тип поведения, все это силой TAO. Существуют значительные практические ограничения - в основном демонстрация того, что эти сети способны масштабироваться для обработки разнообразного набора процессов и что базовые стимулы обеспечивают прогресс, превосходящий централизованные предложения.

Построение децентрализованного вычислительного стека для моделей искусственного интеллекта

Вышеупомянутые разделы предоставляют общий обзор различных типов децентрализованных протоколов искусственного интеллекта, разрабатываемых. Несмотря на то, что они находятся на ранней стадии развития и принятия, они обеспечивают основу экосистемы, которая в конечном итоге может облегчить создание «строительных блоков ИИ», подобно концепции «Денежных Лего» DeFi. Композиционность непозволительных блокчейнов открывает возможность для каждого протокола строить на основе другого для обеспечения более полной децентрализованной экосистемы искусственного интеллекта.

Например, вот один из способов, которым Akash, Gensyn и Bittensor могут взаимодействовать для ответа на запрос на вывод.

Чтобы быть ясным, это просто пример того, что может быть возможно в будущем, а не представление текущей экосистемы, существующих партнёрств или вероятных результатов. Ограничения на совместимость, а также другие рассмотренные ниже обстоятельства значительно ограничивают возможности интеграции сегодня. Кроме того, фрагментация ликвидности и необходимость использования нескольких токенов могут нанести вред пользовательскому опыту, что было указалоснованными основателями как Akash, так и Bittensor.

Другие децентрализованные предложения

Помимо вычислений, ряд других децентрализованных инфраструктурных сервисов внедряются для поддержки развивающейся экосистемы искусственного интеллекта в области криптовалют. Не все они перечислены в этом отчете, но несколько интересных и наглядных примеров включают:

  • Океан: Децентрализованный рынок данных. Пользователи могут создавать данные NFT, представляющие их данные, которые можно приобрести, используя токены данных. Пользователи могут монетизировать свои данные и иметь большую суверенитет над ними, предоставляя командам, работающим над ИИ, доступ к данным, необходимым для разработки и обучения моделей.
  • Трава: Децентрализованный рынок полосы пропускания. Пользователи могут продавать свой избыточный объем полосы пропускания компаниям по искусственному интеллекту, которые используют его для сбора данных из Интернета. Построен на Сеть Wynd, это не только позволяет частным лицам монетизировать свою пропускную способность, но также предоставляет покупателям пропускной способности более разнообразный набор точек зрения на то, что видят в Интернете отдельные пользователи (поскольку доступ к Интернету отдельного лица обычно настраивается специально для их IP-адреса).
  • HiveMapper: Создание децентрализованного сервиса карт, состоящего из информации, собранной от водителей автомобилей ежедневно. HiveMapper полагается на искусственный интеллект для интерпретации изображений, собранных с видеорегистраторов пользователей, и вознаграждает пользователей токенами за помощь в настройке модели искусственного интеллекта через обратную связь усиленного человеческого обучения (RHLF).

В целом все это указывает на бесконечные возможности исследования моделей децентрализованных рыночных моделей, которые поддерживают модели искусственного интеллекта или окружающую инфраструктуру, необходимую для их разработки. На данный момент эти проекты в основном находятся в стадии доказательства концепции, и для демонстрации их способности работать в масштабах, необходимых для предоставления комплексных услуг по искусственному интеллекту требуется гораздо больше исследований и разработок.

Перспектива

Децентрализованные вычислительные предложения все еще находятся на ранних стадиях развития. Они только начинают предоставлять доступ к передовым вычислениям, способным обучать самые мощные модели искусственного интеллекта в производстве. Для того чтобы они получили значительную долю рынка, им нужно продемонстрировать практические преимущества по сравнению с централизованными альтернативами. Потенциальные триггеры для более широкого принятия включают:

  • Поставка/спрос на графические процессоры. Дефицит графических процессоров в сочетании с быстро растущим спросом на вычисления приводит к гонке вооружений графических процессоров. OpenAI уже один раз ограниченный доступ к своей платформе из-за ограничений графического процессора. Такие платформы, как Akash и Gensyn, могут предоставить конкурентоспособные по цене альтернативы для команд, нуждающихся в высокопроизводительных вычислениях. Следующие 6-12 месяцев - это особенно уникальная возможность для поставщиков децентрализованных вычислений привлечь новых пользователей, которые вынуждены рассматривать децентрализованные предложения из-за отсутствия доступа к более широкому рынку. В сочетании со все более производительными моделями с открытым исходным кодом, такими как LLaMA 2 от Meta, пользователи больше не сталкиваются с теми же препятствиями при развертывании эффективных тонко настроенных моделей, что делает вычислительные ресурсы основным узким местом. Однако существование самих платформ не обеспечивает адекватного предложения вычислительных ресурсов и соответствующего спроса со стороны потребителей. Поиск высокопроизводительных графических процессоров остается сложной задачей, и стоимость не всегда является основной мотивацией со стороны спроса. Перед этими платформами будет стоять задача продемонстрировать практическую выгоду от использования децентрализованного вычислительного варианта — будь то из-за стоимости, устойчивости к цензуре, времени безотказной работы и отказоустойчивости или доступности — для накопления нестабильных пользователей. Им придется двигаться быстро. Инфраструктура графического процессора инвестиции и развитиепроисходит внеобычно быстрыми темпами.
  • Регулирование. Регулирование продолжает быть тормозом для движения к децентрализованным вычислениям. В ближайшее время отсутствие четкого регулирования означает, что как поставщики, так и пользователи сталкиваются с потенциальными рисками при использовании этих услуг. Что если поставщик предоставляет вычисления или покупатель покупает вычисления у санкционированной организации непреднамеренно? Пользователи могут быть неохотны использовать децентрализованную платформу, лишенную контроля и надзора централизованной организации. Протоколы пытались смягчить эти опасения, включив контроли в свои платформы или добавив фильтры для доступа только к известным поставщикам вычислений (т. е. предоставляли информацию о знании клиента), но для принятия понадобятся более надежные методы, которые защищают конфиденциальность, обеспечивая соблюдение правил. В ближайшее время мы, вероятно, увидим появление платформ с проверкой клиента (KYC) и соответствующих регулированиям, ограничивающих доступ к своим протоколам для решения этих проблем. Кроме того, обсуждения возможных новых рамочных законов США, наилучшим образом иллюстрируемые выпуском Указ о безопасной, надежной и доверительной разработке и использовании искусственного интеллекта, подчеркивается потенциал регулирования, которое еще больше сужает доступ к видеокартам.
  • Цензура. Регулирование работает в обе стороны, и децентрализованные вычислительные предложения могут выиграть от действий, направленных на ограничение доступа к искусственному интеллекту. Помимо указа Президента, основатель OpenAI Сэм Альтман протестированныйв Конгрессе о необходимости регулирующих органов, выдающих лицензии на разработку искусственного интеллекта. Обсуждение вопросов регулирования искусственного интеллекта только начинается, но любые попытки ограничить доступ или цензурировать то, что можно делать с помощью искусственного интеллекта, могут ускорить принятие децентрализованных платформ, не имеющих таких барьеров. Ноябрьские перестановки в руководстве OpenAI(или их отсутствие) дополнительно демонстрирует риски делегирования принятия решений наиболее мощной существующей модели искусственного интеллекта только нескольким. Более того, все модели искусственного интеллекта обязательно отражают предвзятости тех, кто их создал, намеренно или нет. Один из способов устранения этих предвзятостей - сделать модели как можно более открытыми для настройки и обучения, обеспечивая доступность моделей всех видов и предвзятостей для любого человека в любом месте.
  • Конфиденциальность данных. При интеграции с внешними решениями по данным и конфиденциальности, обеспечивающими пользователям автономию над своими данными, децентрализованные вычисления могут стать более привлекательными, чем централизованные альтернативы. Samsung стал жертвойк этому, когда они поняли, что инженеры использовали ChatGPT для помощи в проектировании микросхем и утечки чувствительной информации в ChatGPT. Phala Network и iExec утверждают, что предлагают пользователям защищенные области SGX для защиты пользовательских данных, а текущие исследования в области полностью гомоморфного шифрования могут дополнительно расширить возможности обеспечения конфиденциальности децентрализованных вычислений. Поскольку искусственный интеллект становится все более интегрированным в нашу жизнь, пользователи будут ставить все больший акцент на возможность запускать модели на приложениях, в которые встроена конфиденциальность. Пользователи также будут требовать услуг, позволяющих комбинировать данные, чтобы без проблем переносить свои данные из одной модели в другую.
  • Пользовательский опыт (UX). UX по-прежнему является значительным барьером для более широкого принятия всех видов криптоприложений и инфраструктуры. Это не отличается для децентрализованных вычислительных предложений, и в некоторых случаях обостряется необходимостью понимания разработчиков как крипто, так и ИИ. Улучшения необходимы начиная с таких основ как вступление в систему и абстрагирование от взаимодействия с блокчейном до предоставления того жевысококачественные выходные данныев качестве текущих лидеров рынка. Это явно видно по тому факту, что многие операционные децентрализованные вычислительные протоколы, предлагающие более дешевые услуги, испытывают трудности в получении регулярного использования.

Умные контракты & zkML

Смарт-контракты являются основным строительным блоком любой блокчейн-экосистемы. При определенном наборе условий они выполняются автоматически и уменьшают или устраняют необходимость в доверенной третьей стороне, обеспечивая создание сложных децентрализованных приложений, подобных тем, которые видны в DeFi. Однако на сегодняшний день смарт-контракты ограничены в своей функциональности, поскольку они выполняются на основе заранее установленных параметров, которые должны быть обновлены.

Например, смарт-контракт протокола займа/заема развертывается с учетом спецификаций по тому, когда ликвидировать позицию на основе определенных коэффициентов займа к стоимости. Хотя это полезно в статической среде, в динамической ситуации, где риск постоянно изменяется, эти смарт-контракты должны постоянно обновляться, чтобы учитывать изменения в уровне риска, что создает проблемы для контрактов, которые не управляются через централизованные процессы. Например, DAO, которые полагаются на децентрализованные процессы управления, могут не суметь быстро реагировать на системные риски.

Смарт-контракты, интегрирующие искусственный интеллект (т. Е. Модели машинного обучения), являются одним из возможных способов улучшения функциональности, безопасности и эффективности, а также повышения общего опыта пользователя. Однако эти интеграции также вносят дополнительные риски, поскольку невозможно гарантировать, что модели, лежащие в основе этих смарт-контрактов, не могут быть использованы или учитывают долгосрочные ситуации (которые известны своей сложностью для обучения моделей, учитывая дефицит входных данных для них).

Машинное обучение с нулевым разглашением информации (zkML)

Машинное обучение требует больших объемов вычислений для запуска сложных моделей, что мешает прямому запуску моделей ИИ внутри смарт-контрактов из-за высоких затрат. Протокол DeFi, предоставляющий пользователям доступ к модели оптимизации доходности, например, столкнется с проблемой запуска этой модели on-chain без необходимости платить чрезмерно высокие газовые сборы. Одним из решений является увеличение вычислительной мощности базового блокчейна. Однако это также увеличивает требования к набору валидаторов цепочки, потенциально подрывая децентрализованные свойства. Вместо этого некоторые проекты исследуют использование zkML для проверки результатов в доверительном режиме без необходимости интенсивных вычислений on-chain.

Один обычноРазделяемый пример, иллюстрирующий полезность zkML, возникает, когда пользователю нужно, чтобы кто-то другой запустил данные через модель и также проверил, что их контрагент действительно запустил правильную модель. Возможно, разработчик использует децентрализованного поставщика вычислительных мощностей для обучения своих моделей и беспокоится, что поставщик пытается сэкономить, используя более дешевую модель с незаметным различием в выводе. zkML позволяет поставщику вычислительных мощностей запускать данные через свои модели и затем генерировать доказательство, которое можно проверить в сети, чтобы доказать правильность вывода модели для заданного ввода. В этом случае поставщик моделей смог бы получить дополнительное преимущество, предлагая свои модели, не раскрывая при этом базовые веса, которые производят вывод.

Также можно сделать и обратное. Если пользователь хочет запустить модель, используя свои данные, но не хочет, чтобы проект, предоставляющий модель, имел доступ к его данным из-за проблем с конфиденциальностью (т. е. в случае медицинского обследования или конфиденциальной деловой информации), то пользователь может запустить модель на своих данных, не раскрывая их, а затем проверить, что он запустил правильную модель с помощью доказательства. Эти возможности значительно расширяют пространство проектирования интеграции искусственного интеллекта и функциональности смарт-контрактов, преодолевая запретные ограничения вычислений.

Инфраструктура и инструменты

Учитывая раннее состояние пространства zkML, развитие в основном сосредоточено на создании инфраструктуры и инструментов, необходимых для того, чтобы команды могли преобразовывать свои модели и результаты в доказательства, которые могут быть проверены в цепочке. Эти продукты абстрагируются от нулевого аспекта знаний в разработке насколько это возможно.

EZKL и Гизаесть два проекта, строящих этот инструментарий, предоставляя верифицируемые доказательства выполнения модели машинного обучения. Оба помогают командам создавать модели машинного обучения, чтобы гарантировать, что эти модели затем могут быть выполнены таким образом, что результаты могут быть проверены на цепочке без доверия. Оба проекта используют открытый обмен нейронными сетями (ONNX), чтобы преобразовать модели машинного обучения, написанные на обычных языках, таких как TensorFlow и Pytorch, в стандартный формат. Затем они выводят версии этих моделей, которые также производят zk-доказательства при выполнении. EZKL является открытым исходным кодом и производит zk-SNARKS, в то время как Giza является закрытым исходным кодом и производит zk-STARKS. Оба проекта в настоящее время совместимы только с EVM.

EZKL продемонстрировал значительный прогресс за последние несколько месяцев в улучшении своего решения zkML, в основном сосредоточенного наснижение затрат, улучшение безопасности, и ускорение генерации доказательств. Например, в ноябре 2023 года EZKL интегрировала новую библиотеку открытого исходного кода для GPU, которая сокращает общее время доказательства на 35%, а в январе EZKL объявленоЛилит, программное решение для интеграции высокопроизводительных вычислительных кластеров и оркестрации параллельных задач при использовании системы доказательства EZKL. Гиза уникальна тем, что, помимо предоставления инструментов для создания проверяемых моделей машинного обучения, они также планируют реализовать веб3-эквивалент.Объятие Лица, открыв пользовательскую торговую площадку для сотрудничества и обмена моделями zkML, а также в конечном итоге интегрируя предложения по децентрализованным вычислениям. В январе EZKL выпустил,оценка показателейсравнение производительности EZKL, Giza и RiscZero (обсуждаются ниже). EZKL продемонстрировал более быстрые времена доказательств и использование памяти.


Модульные лабораториитакже разрабатывает новую технику доказательства zk, специально разработанную для моделей искусственного интеллекта. Компания Modulus опубликовала статью под названиемСтоимость интеллекта(намекая на чрезвычайно высокие затраты на запуск моделей ИИ на цепи), которые позволили сравнить существующие системы zk-proof на тот момент для выявления возможностей и узких мест для улучшения zk-доказательств моделей ИИ. Опубликованный в январе 2023 года документ демонстрирует, что существующие предложения просто слишком дороги и неэффективны для обеспечения масштабных приложений ИИ. На основе своих первоначальных исследований в ноябре Modulus @ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">представил Remainder, специализированный доказатель нуля знаний, разработанный специально для снижения затрат и времени доказательства для моделей искусственного интеллекта с целью сделать его экономически целесообразным для проектов интегрировать модели в свои смарт-контракты на масштабе. Их работа является закрытой и поэтому не может быть сравнена с вышеуказанными решениями, но недавно была упомянута в Vitalik’sстатья в блогепо крипто и искусственному интеллекту.

Разработка инструментов и инфраструктуры критична для будущего роста пространства zkML, поскольку значительно снижает трение для команд, которым необходимо развертывать zk цепи, необходимые для запуска проверяемых вычислений вне цепи. Создание безопасных интерфейсов, позволяющих не крипто-привычным строителям, работающим в области машинного обучения, перенести свои модели в цепочку, позволит провести более глубокие эксперименты с приложениями с по-настоящему новыми сценариями использования. Инструменты также решают основное препятствие для более широкого принятия zkML - отсутствие разработчиков, знающих и заинтересованных в работе на пересечении нулевого знания, машинного обучения и криптографии.

Копроцессоры

К дополнительным разрабатываемым решениям, называемым «сопроцессорами», относятся RiscZero,Аксиома, и ОбрядТермин сопроцессор в основном семантика - эти сети выполняют множество различных функций, включая проверку вычислений вне цепи в цепи. Как и в случае с EZKL, Giza и Modulus, они стремятся полностью абстрагировать процесс генерации доказательства знания нуля, создавая, по сути, виртуальные машины с нулевым знанием, способные выполнять программы вне цепи и генерировать доказательства для верификации в цепи. RiscZero и Axiom могут сервиспростые модели искусственного интеллекта, поскольку они должны быть более универсальными сопроцессорами, в то время как Ritual предназначен для использования с моделями искусственного интеллекта.

ИнфернетЭто первая реализацияRitual и включает в себя SDK Infernet, который позволяет разработчикам отправлять запросы на вывод в сеть и получать вывод и доказательство (по желанию) взамен. Узел Infernet получает эти запросы и обрабатывает вычисления за пределами цепи, прежде чем вернуть вывод. Например, DAO может создать процесс для обеспечения выполнения всех новых предложений управления определенными предварительными условиями перед их подачей. Каждый раз, когда подается новое предложение, контракт управления запускает запрос на вывод через Infernet, вызывая модель ИИ, обученную для конкретного DAO управления. Модель проверяет предложение, чтобы убедиться, что были представлены все необходимые критерии, и возвращает вывод и доказательство, либо одобряя, либо отклоняя представление предложения.

В течение грядущего года команда Ritual планирует выпустить дополнительные функции, которые составляют базовый инфраструктурный слой, называемый Ritual Superchain. Многие из ранее обсуждавшихся проектов могут подключаться к Ritual в качестве провайдеров услуг. Команда Ritual уже интегрировалась с EZKL для генерации доказательств и, скорее всего, вскоре добавит функционал от других ведущих провайдеров. Узлы Infernet на Ritual также могут использовать графические процессоры Akash или io.net и запрашивать модели, обученные на подсетях Bittensor. Их конечная цель - стать основным провайдером открытой инфраструктуры искусственного интеллекта, способным обслуживать задачи машинного обучения и другие задачи, связанные с искусственным интеллектом, из любой сети по любой нагрузке.

Приложения

zkML помогаетсверятьпротиворечие между блокчейнами и ИИ, где первые по своей сути ограничены ресурсами, а последние требуют больших объемов вычислительных мощностей и данных. Как один из основателей Giza положи его, «Вариантов использования настолько много ... это как спрашивать в ранние дни Ethereum, каковы варианты использования смарт-контрактов ... то, что мы делаем, - это просто расширение вариантов использования смарт-контрактов». Как подчеркнуто выше, развитие в настоящее время в основном происходит на уровне инструментов и инфраструктуры. Приложения все еще находятся в фазе исследований, и командам предстоит продемонстрировать, что ценность, создаваемая при реализации моделей с использованием zkML, превышает сложность и затраты на это.

Некоторые приложения сегодня включают:

  • Децентрализованные финансы. zkML улучшает пространство дизайна для DeFi, улучшая возможности смарт-контрактов. DeFi-протоколы предоставляют моделям машинного обучения большие объемы верифицируемых и неизменяемых данных, которые могут быть использованы для создания стратегий генерации дохода или торговли, анализа рисков, UX и многого другого. Например, Giza, партнерствосотрудничает с Yearn Finance для создания движка автоматической оценки рисков для новых хранилищ v3 Yearn в рамках концепции. У Modulus Labs @ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36">worked with Lyra Finance on incorporating machine learning into their AMMs, is сотрудничалс протоколом Ion для реализации модели анализа риска валидаторов и помогаетИтогпроверить свои ценовые ленты искусственного интеллекта для NFT. Протоколы, такие как NOYA (который использует EZKL) и Мозаикапредоставляют доступ к собственным внебиржевым моделям, которые дают пользователям возможность автоматизированного сбора доходов, позволяя им проверять вводимые данные и доказательства на цепи.Спектральное финансированиестроит движки кредитного скоринга на цепочке, чтобы предсказать вероятность того, что заёмщики Compound или Aave не смогут вернуть кредиты. Эти так называемые продукты "De-Ai-Fi" вряд ли станут намного более распространенными в годах вперед, благодаря zkML.
  • Игровая индустрия. Игровая индустрия давно считается перспективной для изменений и улучшений общедоступными блокчейнами (для получения дополнительной информации о крипте и играх обратитесь к этому отчету Galaxy Digital - История игр и ее будущее в Web3. zkML делает возможным игры с искусственным интеллектом на цепи.Модульные лаборатории уже реализовал Proof of Concepts для простых ончейн-игр. Лила против мираэто игра в шахматы с игровой теорией, в которой пользователи сражаются с моделью искусственного интеллекта, а zkML проверяет, что каждый ход Лилы основан на модели, которую игра, по словам, запущена. Аналогично, команды использовали фреймворки EZKL для создания простыхпесенные конкурсы и он-чейн крестики-нолики. Картридж использует Giza для возможности команд развертывать полностью on-chain игры, в последнее время выделение простая гоночная игра с искусственным интеллектом, в которой пользователи соревнуются в создании лучших моделей для автомобиля, стараясь избегать препятствий. Несмотря на свою простоту, это доказательство концепции указывает на будущие реализации, позволяющие проводить более сложные проверки в сети, такие как изощренные NPC, способные взаимодействовать с внутриигровой экономикой, как показано в @ModulusLabs/Глава-5-стоимость-интеллекта-da26dbf93307">AI Arena, игра вроде супер братьев по оружию, где игроки тренируют своих бойцов, которые затем развертываются в качестве моделей ИИ для боя.
  • Идентичность, Происхождение и Конфиденциальность. Крипто уже используется использованныйв качестве средства проверки подлинности и борьбы с растущим количеством созданного/подделанного искусственного интеллекта и глубоких фейков. zkML может продвинуть эти усилия. WorldCoin - это решение для подтверждения личности, которое требует, чтобы пользователи сканировали свои радужки для генерации уникального идентификатора. В будущем биометрические идентификаторы могут бытьсамостоятельное управлениена персональных устройствах с использованием зашифрованного хранения с моделями, необходимыми для проверки этих биометрических данных, выполняемыми локально. Пользователи могут предоставить доказательства своих биометрических данных, не раскрывая своей личности, борясь с атаками сибиллов, обеспечивая при этом конфиденциальность. Это также может быть применено к другим выводам, требующим конфиденциальности, таким какиспользование моделейанализировать медицинские данные/изображения для выявления заболеваний, проверки личности и разработки алгоритмов подбора в приложениях для знакомств, или для страховых и кредитных агентств, которым необходимо подтверждение финансовой информации.

Перспектива

zkML все еще находится на экспериментальном этапе, большинство проектов сосредоточены на развитии инфраструктуры и концепций доказательств. Сегодняшние вызовы включают вычислительные затраты, ограничения памяти, сложность модели, ограниченные инструменты и инфраструктуру, а также талант разработчика. Проще говоря, перед тем как zkML можно будет реализовать в масштабах, необходимых для потребительских продуктов, требуется выполнить гораздо больше работы.

По мере зрелости сферы и устранения этих ограничений zkML станет критическим компонентом интеграции ИИ и крипто. По своей сути zkML обещает возможность переноса вычислений любого размера с офчейна на чейн, сохраняя те же или близкие к тем же гарантии безопасности, что и если бы вычисления проводились на чейне. Однако до тех пор, пока эта видимая цель не будет достигнута, ранние пользователи технологии будут продолжать балансировать компромисс между конфиденциальностью и безопасностью zkML и эффективностью альтернатив.

Искусственные интеллектуальные агенты

Одно из наиболее захватывающих слияний искусственного интеллекта и криптовалюты - это продолжающийся эксперимент с искусственными агентами. Агенты - это автономные боты, способные принимать, интерпретировать и выполнять задачи с использованием модели искусственного интеллекта. Это может быть что угодно, начиная от наличия всегда доступного персонального ассистента, настроенного под ваши предпочтения, до найма финансового агента, который управляет и корректирует ваш портфель в соответствии с вашими предпочтениями по риску.

Агенты и крипто хорошо сочетаются вместе из-за инфраструктуры платежей без разрешения и доверия, которую предоставляет крипто. После обучения агентам можно выдать кошелек, чтобы они могли проводить транзакции с умными контрактами самостоятельно. Простые агенты сегодня, например, могут сканировать интернет для получения информации, а затем совершать сделки на рынках прогнозирования на основе модели.

Поставщики агентов

Морфеусэто один из самых новых проектов с открытым исходным кодом, который появится на рынке Ethereum и Arbitrum в 2024 году. Его белая книга была опубликована анонимно в сентябре 2023 года, обеспечивая основу для формирования сообщества и его развития вокруг (включая известных фигур, таких как Erik Vorhees). Белая книга включает загружаемый Протокол умного агента, которое является открытым исходным кодом LLM, который может быть запущен локально, управляемый кошельком пользователя и взаимодействовать с умными контрактами. Он использует Ранг смарт-контрактачтобы помочь агенту определить, с какими смарт-контрактами безопасно взаимодействовать на основе критериев, таких как количество обработанных транзакций.

Белая книга также предоставляет каркас для развития сети Morpheus, такой как структуры стимулов и инфраструктура, необходимая для работы протокола Smart Agent. Это включает в себя стимулирование участников для разработки интерфейсов взаимодействия с агентами, API для разработчиков, чтобы создавать приложения, которые могут подключаться к агентам, чтобы они могли взаимодействовать друг с другом, и облачные решения для обеспечения пользователей доступом к вычислениям и хранению, необходимым для запуска агента на устройстве краевого вычисления. Начальное финансирование проекта началось в начале февраля, а полный протокол должен быть запущен в 2 квартале 24 года.

Децентрализованная автономная инфраструктурная сеть (DAIN)это новый протокол инфраструктуры агента, разрабатывающий экономику от агента к агенту на Solana. DAIN стремится сделать так, чтобы агенты из различных компаний могли без проблем взаимодействовать друг с другом через универсальный API, значительно расширяя область дизайна для агентов ИИ с акцентом на реализацию агентов, способных взаимодействовать как с продуктами web2, так и с продуктами web3. В январе DAIN объявили о своем первом партнерствос Asset Shield, позволяющий пользователям добавлять в свои мультисиги «агентских подписантов», способных интерпретировать транзакции и утверждать/отклонять их в соответствии с установленными правилами пользователя.

Fetch.AIбыл одним из первых протоколов искусственного интеллекта, развернутых и разработанных экосистему для создания, развертывания и использования агентов on-chain с использованием своего токена FET и Fetch.AI кошелек. Протокол предоставляет комплексный набор инструментов и приложений для использования Агентов, включая функциональность в кошельке для взаимодействия и заказа агентов.

Autonolas, чьи основатели включают предыдущего участника команды Fetch, является открытым рынком для создания и использования децентрализованных искусственных интеллектуальных агентов. Autonolas также предоставляет набор инструментов для разработчиков, позволяющих создавать искусственных интеллектуальных агентов, которые размещаются вне цепочки и могут подключаться к нескольким блокчейнам, включая Polygon, Ethereum, Gnosis Chain и Solana. В настоящее время у них есть несколько активных агентов-доказательств концепции продуктывключая использование в рынках прогнозов и управлении DAO.

SingularityNetстроит децентрализованную площадку для искусственного интеллекта, где люди могут развертывать узко специализированные агенты искусственного интеллекта, которых можно нанять другими людьми или агентами для выполнения сложных задач. Другие, как ИзмененныйStateMachine, строят интеграции ИИ-агентов с NFT. Пользователи чеканят NFT с случайными характеристиками, которые дают им силы и слабости для различных задач. Эти агенты затем могут быть обучены усилить определенные характеристики для использования в играх, DeFi или в качестве виртуального помощника и обмениваться ими с другими пользователями.

Вместе эти проекты предвидят будущую экосистему агентов, способных работать вместе не только для выполнения задач, но и для помощи в построении искусственного общего интеллекта. Действительно сложные агенты смогут выполнять любую задачу пользователей автономно. Например, вместо того чтобы гарантировать, что агент уже интегрирован с внешним API (например, веб-сайтом бронирования путешествий) перед использованием, полностью автономные агенты будут иметь возможность выяснить, как нанять другого агента для интеграции API, а затем выполнить задачу. С точки зрения пользователя не будет необходимости проверять, может ли агент выполнить задачу, потому что агент может определить это самостоятельно.

Биткойн и искусственный интеллект

В июле 2023 года, Компания Lightning Labsвыпустил доказательство концепции реализации использования агентов в Lightning Network под названием LangChain Bitcoin Suite. Продукт особенно интересен, поскольку его целью является решение растущей проблемы в мире веб-2 –закрытый и дорогойAPI ключи для веб-приложений.

LangChain решает эту проблему, предоставляя разработчикам набор инструментов, позволяющих агентам покупать, продавать и удерживать биткоины, а также запрашивать ключи API и отправлять микроплатежи. В то время как на традиционных платежных путях небольшие микроплатежи невыгодны из-за комиссий, на сети Lightning агенты могут ежедневно отправлять неограниченное количество микроплатежей с минимальными комиссиями. Вместе с L402 платежной счетчиковой API-структурой LangChain это может позволить компаниям корректировать доступные сборы к своему API по мере увеличения или уменьшения использования, а не устанавливать единый стандарт, невыгодный с точки зрения затрат.

В будущем, когда в ончейн-активности будут доминировать агенты, взаимодействующие с агентами, что-то подобное будет необходимо, чтобы гарантировать, что агенты могут взаимодействовать друг с другом таким образом, чтобы это не было непомерно дорого. Это один из первых примеров того, как использование агентов на неразрешительных и экономически эффективных платежных путях открывает возможности для новых рынков и экономических взаимодействий.

Прогноз

Пространство агентов все еще находится в зачаточном состоянии. Проекты только начинают выпускать функционирующих агентов, которые могут обрабатывать простые задачи с использованием своей инфраструктуры, которая часто доступна только опытным разработчикам и пользователям. Однако со временем одним из самых больших влияний ИИ-агентов на криптовалюту будут улучшения в пользовательском опыте во всех вертикалях. Совершение транзакций начнет переходить от нажатия на кнопку к работе с текстом, при этом пользователи смогут взаимодействовать с агентами на цепочке через LLM. Уже команды, подобные Кошелек Dawnмы представляем чат-бот кошельки для взаимодействия пользователей по цепочке.

Кроме того, неясно, как агенты могут работать в веб-2, где финансовые рельсы зависят от регулируемых банковских учреждений, которые не работают круглосуточно и не могут проводить безпрепятственные международные транзакции. Lyn Alden Он подчеркнул, что криптовалютные рельсы особенно привлекательны по сравнению с кредитными картами из-за отсутствия возвратных платежей и возможности обрабатывать микротранзакции. Однако, если агенты станут более распространенным средством совершения транзакций, вполне вероятно, что существующие поставщики платежных услуг и приложения быстро внедрят инфраструктуру, необходимую для работы на существующих финансовых рельсах, что сведет на нет некоторые преимущества использования криптовалюты.

В настоящее время агенты, скорее всего, будут ограничены детерминированными крипто-крипто-транзакциями, где заданный вывод гарантирован для заданного ввода. Оба модели, которые определяют способность этих агентов разбираться, как выполнить сложные задачи, и инструменты, которые расширяют область того, что они могут достичь, требуют дальнейшего развития. Для того чтобы крипто-агенты стали полезными за пределами новаторских крипто-применений на цепочке, потребуется более широкая интеграция и принятие крипто в качестве формы оплаты, а также юридическая ясность. Однако, по мере развития этих компонентов, агенты готовы стать одними из крупнейших потребителей децентрализованных вычислений и обсуждаемых выше решений zkML, действуя автономно недетерминированным образом для получения и решения любой задачи.

Заключение

ИИ внедряет в крипто те же инновации, которые мы уже видим в веб2, улучшая все, начиная от развития инфраструктуры и опыта пользователя, и заканчивая доступностью. Однако проекты все еще находятся на ранней стадии развития, и в ближайшей перспективе интеграция крипто и ИИ будет в основном доминироваться офчейн-интеграциями.

Продукты типа Второй пилотбудет“10x”эффективность разработчика, суровни 1иDeFiприложения уже запустились на развивающихся платформах с искусственным интеллектом в партнерстве с крупными корпорациями, такими как Microsoft. Компании типа Cub3.aiиТестовая машинаразрабатывают интеграции искусственного интеллекта для аудита смарт-контрактов и мониторинга угроз в реальном времени для повышения безопасности on-chain. А чат-боты LLM обучаются с использованием данных on-chain, документов протокола и приложений для обеспечения пользователям улучшенной доступности и UX.

Для более сложных интеграций, которые действительно используют основные технологии крипто, остается вызов продемонстрировать, что реализация решений искусственного интеллекта на цепочке технически возможна и экономически целесообразна в масштабе. Развитие децентрализованных вычислений, zkML и искусственных интеллектуальных агентов указывает на перспективные вертикали, которые заложили основу для будущего, где крипто и искусственный интеллект глубоко взаимосвязаны.

Отказ от ответственности:

  1. Эта статья передана из [галактика]. Все авторские права принадлежат оригинальному автору [Лукас Чеян]. Если есть возражения к этому перепечатыванию, пожалуйста, свяжитесь с Gate Learnкоманда и они оперативно справятся с этим.
  2. Отказ от ответственности: Взгляды и мнения, выраженные в этой статье, являются исключительно мнениями автора и не являются инвестиционными советами.
  3. Переводы статьи на другие языки выполняются командой Gate Learn. Если не указано иное, копирование, распространение или плагиат переведенных статей запрещены.
Empieza ahora
¡Registrarse y recibe un bono de
$100
!