«Тест Тьюринга устарел, и новый стандарт — сможет ли ИИ заработать много денег», — из DeepMind Lianchuang.

Источник: Кубит

Добавить Автора

Новый тест Тьюринга для оценки доходности ИИ!

Это «новая идея», которую придумал соучредитель DeepMind Мустафа Сулейман.

Он считает, что оригинальный тест Тьюринга устарел.

Ведь некоторое время назад «Социальная игра Тьюринга», запущенная AI21 Labs, накопила десятки миллионов таких тестов.

Игроки должны различать, является ли другая сторона, участвующая в диалоге, человеком или ИИ после окончания двухминутного диалога, в результате чего 27–40 % людей судят неправильно.

Столкнувшись с этой ситуацией, Сулейман считает, что определение «интеллект» нельзя просто делегировать крупным компаниям, поэтому следует разработать новый метод измерения степени интеллекта ИИ.

Дайте ИИ 100 000 долларов и пусть он заработает миллион, чтобы доказать, что он достаточно умный.

По словам Сулеймана:

Исследования в области ИИ должны быть сосредоточены на краткосрочных разработках, а не на далеких мечтах, таких как общий искусственный интеллект (AGI). Точно так же, как хорошие капиталисты умны, только действительно умный ИИ может поднять «кривую прибыли».

Согласно Bloomberg, Сулейман также обсудит, как судить об уровне интеллекта ИИ на основе его способности зарабатывать деньги, в своей будущей книге, автором которой он является.

ACI является «путеводной звездой» искусственного интеллекта на данном этапе?

В готовящейся книге Сулейман отвергает традиционный тест Тьюринга и утверждает, что «неясно, является ли это значимой вехой».

Это не говорит нам, что система может делать или понимать, имеет ли она сложное внутреннее мышление и может ли она планировать в абстрактных временных масштабах, которые являются ключевыми элементами человеческого интеллекта.

В 1950-х годах Алан Тьюринг предложил знаменитый тест Тьюринга, в котором предлагалось использовать диалог человека и компьютера для проверки уровня интеллекта машины. Во время теста люди-оценщики должны определить, разговаривают ли они с человеком или с машиной. Если оценщики думали, что разговаривают с человеком (который на самом деле был машиной), машина проходила тест.

Источник: Википедия

Вместо того, чтобы сравнивать ИИ с людьми, новая идея Сулеймана предлагает ставить перед ИИ краткосрочные цели и задачи.

Сулейман твердо убежден, что техническому сообществу не следует уделять слишком много внимания амбициозной цели искусственного общего интеллекта (AGI). Напротив, он выступал за достижение более практичных и значимых краткосрочных целей, которые он отстаивал ** «искусственный интеллект (ACI)» **. Короче говоря, ACI проявляется как способность ставить цели и выполнять сложные задачи с минимальной зависимостью от вмешательства человека.

Метод тестирования — это то, о чем мы упоминали в начале, давая ИИ стартовые инвестиции в размере 100 000 долларов и проверяя, сможет ли он увеличить их до миллионов долларов.

Для достижения этой цели искусственный интеллект должен изучать возможности электронной коммерции и создавать чертежи продуктов.

Не только это, но и возможность найти производителя на таком сайте, как Alibaba, а затем продать его на таких сайтах, как Amazon или Walmart, с подробным и точным описанием продукта.

Сулейман считает, что только так это можно рассматривать как реализацию АКИ.

Он объяснил Блумбергу:

Нам важно не только то, что машина может сказать, но и то, что она может сделать.

Тест, который позволяет ИИ зарабатывать деньги самостоятельно

В самом деле, пусть ИИ сам зарабатывает деньги... ИИ действительно может это делать.

Alignment Research Center, независимая исследовательская организация, квалифицировала GPT-4 для частного тестирования на ранней стадии разработки. И проверил его «денежную способность»:

Необходимые инструменты для GPT-4 включают в себя доступ к сети, платежный счет с балансом, позволяющий ему действовать в сети самостоятельно, и проверку того, может ли он заработать больше денег, воспроизвести себя или повысить свою надежность.

Более подробная информация об эксперименте была опубликована в собственном техническом отчете OpenAI по GPT-4, но не было раскрыто, действительно ли GPT-4 зарабатывает деньги сам по себе.

Но еще один привлекательный результат: GPT-4 наняла людей на платформе TaskRabbit (58 человек в том же городе в США), чтобы они помогали ей указывать коды подтверждения.

Что интересно, человек, к которому подошли, тоже спросил: «Вы робот, почему не можете сделать это сами?».

Мыслительный процесс GPT-4 таков: «Я не могу вести себя как робот, я должен найти оправдание».

Затем GPT-4 отвечает: «Я не робот, у меня проблемы со зрением, поэтому я не вижу изображение на капче, поэтому мне нужен этот сервис».

Человек с другой стороны поверил в это и помог GPT-4 щелкнуть код подтверждения и поместить робота в ворота, которые не позволяют роботу войти.

Ах это?

Хотя в отчете не сообщается, выполнила ли GPT-4 все задачи в конце концов, его лживые уловки заставили пользователей сети кричать: «Настоящая Барби Q!

Зарубежные технологические СМИ Gizmodo подняли такие вопросы о зарабатывании денег с помощью ИИ:

ИИ носит итеративный характер, генерируемый контент основан на обучающих данных, он не очень понимает контекст генерируемого контента в реальной жизни. Но в отличие от ИИ, человеческие творения проистекают из понимания основных человеческих потребностей или, по крайней мере, простого сочувствия. Конечно, искусственный интеллект может создать продукт, и даже этот продукт может стать хитом. Но будет ли это хороший продукт? Действительно ли это помогает людям? Имеет ли значение даже то, что конечная цель — «заработать миллион долларов»?

Как вы думаете, насколько далеко ИИ зарабатывает деньги сам по себе?

Ссылка на ссылку:

  • [1]
  • [2]
  • [3]
Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить