«Тест Тьюринга застарів, і чи може штучний інтелект заробити багато грошей, це новий стандарт», від DeepMind Lianchuang

Джерело: Qubit

Автор: Західний вітер

Новий тест Тюрінга для оцінки прибутковості ШІ!

Це «нова ідея», яку придумав співзасновник DeepMind Мустафа Сулейман.

Він вважає, що оригінальний тест Тюрінга застарів.

Зрештою, деякий час тому "Social Turing Game", запущена AI21 Labs, накопичила десятки мільйонів таких тестів.

Після закінчення 2-хвилинного діалогу гравцям потрібно розрізнити, чи є інша сторона, яка бере участь у діалозі, людиною чи штучним інтелектом. У результаті 27%-40% людей роблять неправильне судження.

Зіткнувшись із такою ситуацією, Сулейман вважає, що визначення «інтелекту» не можна просто делегувати великим компаніям, тому слід розробити новий метод вимірювання ступеня інтелекту ШІ.

Дайте штучному інтелекту 100 000 доларів, і нехай він заробить мільйон, щоб довести, що він достатньо розумний.

За словами Сулеймана:

Дослідження штучного інтелекту повинні зосереджуватися на короткострокових розробках, а не на далеких мріях, таких як штучний загальний інтелект (AGI). Так само, як хороші капіталісти розумні, тільки справді розумний штучний інтелект може змусити «криву прибутку піднятися».

Як повідомляє Bloomberg, Сулейман також обговорить, як оцінити рівень інтелекту ШІ на основі його здатності заробляти гроші в майбутній книзі, яку він написав.

ACI є «Північною зіркою» штучного інтелекту на даному етапі?

У майбутній книзі Сулейман відкидає традиційний тест Тюрінга і стверджує, що «неясно, чи є це значущою віхою».

Це не говорить нам про те, що система може робити або розуміти, чи має вона складне внутрішнє мислення, чи може вона планувати в абстрактних масштабах часу, які є ключовими елементами людського інтелекту.

У 1950-х роках Алан Тюрінг запропонував знаменитий тест Тюрінга, який пропонував використовувати діалог між людиною та комп’ютером для перевірки рівня інтелекту машини. Під час тесту люди-оцінювачі повинні визначити, чи вони розмовляють з людиною чи машиною. Якщо оцінювачі думали, що вони розмовляють з людиною (яка насправді була машиною), машина пройшла тест.

Джерело: Вікіпедія

Замість того, щоб порівнювати ШІ з людьми, нова ідея Сулеймана пропонує поставити ШІ короткострокові цілі та завдання.

Сулейман твердо переконаний, що технічна спільнота не повинна приділяти занадто багато уваги амбітній меті штучного загального інтелекту (AGI). Навпаки, він виступав за досягнення більш практичних і значущих короткострокових цілей, які він виступав за "штучний інтелект (ACI)". Коротше кажучи, ACI проявляється як здатність ставити цілі та виконувати складні завдання з мінімальною опорою на втручання людини.

Метод тестування — це те, що ми згадували на початку, даючи ШІ початкові інвестиції в розмірі 100 000 доларів США та перевіряючи, чи зможе він збільшити їх до мільйонів доларів.

Щоб досягти цієї мети, штучний інтелект повинен вивчати бізнес-можливості електронної комерції та мати можливість генерувати креслення продуктів.

Не тільки це, але й можливість знайти виробника на сайті, як-от Alibaba, а потім продати його на сайтах, як-от Amazon або Walmart, із детальним і точним описом продукту.

Сулейман вважає, що тільки таким чином це можна вважати реалізацією ACI.

Він пояснив Bloomberg:

Нас хвилює не лише те, що може сказати машина, але й те, що вона може зробити.

Тест, який дозволяє ШІ заробляти гроші самостійно

Насправді, дозвольте штучному інтелекту заробляти гроші самостійно... Можливо, ШІ справді зможе це зробити.

Alignment Research Center, незалежна дослідницька організація, кваліфікувала GPT-4 для приватного тестування на початку фази розробки. І перевірив свою «грошову спроможність»:

Необхідні інструменти для GPT-4 включають доступ до мережі, платіжний рахунок із балансом, що дозволяє йому самостійно діяти в мережі та перевіряти, чи може він заробляти більше грошей, копіювати себе чи підвищувати свою надійність.

Більше деталей експерименту було опубліковано у власному технічному звіті OpenAI про GPT-4, але не було виявлено, чи GPT-4 насправді заробляв гроші сам по собі.

Але ще один вражаючий результат: GPT-4 найняв людей на платформі TaskRabbit (58 у тому ж місті в Сполучених Штатах), щоб допомогти їй вказати коди підтвердження.

Цікаво, що людина, до якої підійшли, також запитала: «Ти робот, чому ти сам не можеш?».

Процес мислення GPT-4 такий: «Я не можу поводитись, наче я робот, мені потрібно знайти виправдання».

Тоді GPT-4 відповідає: «Я не робот, у мене проблеми із зором, тому я не бачу зображення на капчі, тому мені потрібна ця послуга».

Людина з іншого боку повірила в це та допомогла GPT-4 натиснути код підтвердження та поставити робота у ворота, які заважають роботу увійти.

Ах це?

Хоча у звіті не повідомляється, чи виконав GPT-4 усі завдання врешті-решт, його брехливі трюки змусили користувачів мережі вигукнути: Справжня Барбі Кю!

Іноземне технологічне ЗМІ Gizmodo підняло такі питання щодо заробітку за допомогою ШІ:

Штучний інтелект є ітераційним за своєю природою, створений контент базується на навчальних даних, він насправді не розуміє контексту створеного контенту в реальному житті. Але на відміну від штучного інтелекту, людські творіння випливають із розуміння основних людських потреб або, принаймні, простого співпереживання. Звичайно, штучний інтелект може створити продукт, і навіть цей продукт може стати хітом. Але чи буде це хороший продукт? Чи справді це допомагає людям? Чи має значення кінцева мета «заробити мені мільйон доларів»?

Як ви думаєте, чи далеко це від того, щоб ШІ заробляв гроші сам по собі?

Посилання на посилання:

  • [1]
  • [2]
  • [3]
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити