Глибина пошуку (DeepSeek): дзвоник відповідального інноваційного розвитку та управління ризиками

robot
Генерація анотацій у процесі

Джерело: Cointelegraph Оригінал: 《 Глибокий пошук (DeepSeek): дзвоник відповідальної інновації та управління ризиками 》

Автор думки: доктор Мерав Озайр

З моменту випуску 20 січня DeepSeek R1 привернув широку увагу користувачів, а також світових технологічних магнатів, урядів і законодавців — від похвали до сумнівів, від прийняття до заборони, від блиску інновацій до незмірної приватності та проблем безпеки.

Хто правий? Коротка відповідь: всі праві, і всі помиляються.

Це не «Момент Спутника»

DeepSeek розробила велику мовну модель (LLM), чия продуктивність може зрівнятися з GTPo1 від OpenAI, а час і витрати на її розробку становлять лише невелику частину від тих, що витрачаються OpenAI (та іншими технологічними компаніями) на розробку власної LLM.

Завдяки продуманій оптимізації архітектури значно знижено витрати на навчання та інферицію моделі, DeepSeek змогла розробити LLM за 60 днів, витративши менше ніж 600 тисяч доларів.

Дійсно, DeepSeek заслуговує на визнання за активний пошук кращих способів оптимізації структури моделей і коду. Це є тривожним сигналом, але аж ніяк не є «моментом Спутника».

Кожен розробник знає, що є два способи підвищення продуктивності: оптимізація коду або "вкидання" величезної кількості обчислювальних ресурсів. Останній варіант має дуже високу вартість, тому розробникам завжди рекомендують спочатку максимізувати оптимізацію архітектури перед збільшенням обчислювальних ресурсів.

Однак, з огляду на високі оцінки стартапів у сфері штучного інтелекту та величезні інвестиції, розробники, здається, стали лінивими. Якщо у вас є бюджет у кілька мільярдів доларів, навіщо витрачати час на оптимізацію структури моделі?

Це попередження для всіх розробників: повертайтеся до основ, відповідально інноваційте, виходьте з зони комфорту, думайте нестандартно, не бійтеся викликів. Не витрачайте гроші та ресурси даремно — використовуйте їх розумно.

Як і інші LLM, DeepSeek R1 все ще має значні недоліки в розумінні, складному плануванні, розумінні фізичного світу та довгостроковій пам'яті. Отже, тут немає жодних революційних інновацій.

Тепер настав час для вчених перевершити LLM, вирішити ці обмеження і розробити "парадигму нової генерації архітектури ШІ". Це може бути не LLM або генеративний ШІ — а справжня революція.

Продовжувати шлях до інновацій

Метод DeepSeek може заохочувати розробників по всьому світу, особливо в країнах, що розвиваються, незалежно від кількості ресурсів, інновувати та розробляти власні AI-додатки. Чим більше людей залучено до розробки AI, тим швидше відбувається інноваційний розвиток, а також тим більше шансів на досягнення значних проривів.

Це відповідає баченню Nvidia: зробити ШІ доступним і дати змогу кожному розробнику або вченому створювати свої власні ШІ-додатки. Саме в цьому полягає сенс проекту DIGITS, який був оголошений на початку січня цього року - настільний GPU за ціною 3000 доларів.

Людству потрібно "всім об'єднатися", щоб вирішити термінові проблеми. Ресурси, можливо, більше не є перешкодою — настав час розірвати старі парадигми.

Водночас вихід DeepSeek також є нагадуванням про управління операційними ризиками та відповідальним штучним інтелектом.

Уважно прочитайте умови

Усі програми мають умови обслуговування, а громадськість часто їх ігнорує.

Деякі тривожні деталі в умовах обслуговування DeepSeek можуть вплинути на вашу конфіденційність, безпеку та навіть бізнес-стратегію:

Зберігання даних: видалення облікового запису не означає, що дані видаляються - DeepSeek все ще зберігає ваші дані.

Моніторинг: Додаток має право контролювати, обробляти та збирати введення та виведення користувача, включаючи чутливу інформацію.

Правова експозиція: DeepSeek підлягає юрисдикції китайського законодавства, що означає, що державні органи можуть за запитом отримувати доступ до ваших даних і здійснювати їх моніторинг — китайський уряд активно контролює ваші дані.

Односторонні зміни: DeepSeek може в будь-який час оновлювати умови — без вашої згоди.

Спори та судові справи: всі претензії та правові питання підлягають юрисдикції законодавства Народної Республіки Китай.

Вищезазначені дії явно порушують Загальний регламент про захист даних (GDPR), а також інші порушення конфіденційності та безпеки GDPR, зазначені у скаргах Бельгії, Ірландії та Італії, які також тимчасово заборонили використання DeepSeek.

У березні 2023 року італійські регулятори тимчасово заборонили запуск ChatGPT OpenAI через порушення GDPR, і тільки через місяць, після покращення відповідності, він був відновлений. Чи також буде DeepSeek дотримуватися шляху відповідності?

Упередження та цензура

Як і інші LLM, DeepSeek R1 має ілюзії, упередження в навчальних даних і демонструє поведінку, що відповідає політичній позиції Китаю з певних тем, таких як цензура та конфіденційність.

Як китайська компанія, це можна було б очікувати. Закон «Про генеративний ШІ», що застосовується до постачальників і користувачів систем ШІ, у статті 4 встановлює: це правило перевірки. Це означає, що розробники та/або користувачі генеративного ШІ повинні підтримувати «основні соціалістичні цінності» та дотримуватися відповідних законів Китаю.

Це не означає, що інші LLM не мають власних упереджень і «агенд». Це підкреслює важливість надійного та відповідального ШІ, а також важливість дотримання строгого управління ризиками ШІ користувачами.

Уразливості безпеки LLM

LLM може піддаватися атакуванню та безпековим вразливостям. Ці вразливості особливо тривожні, оскільки вони вплинуть на будь-яку організацію чи особу, яка розробляє додатки на основі цього LLM.

Qualys провела тестування вразливостей, оцінку етичних ризиків та юридичних ризиків для скороченої версії LLaMA 8B DeepSeek-R1. Модель зазнала невдачі в половині тестів на витік — тобто в атаках, що обминають вбудовані заходи безпеки та етичні норми AI-моделі.

Goldman Sachs розглядає можливість використання DeepSeek, але необхідно провести перевірку безпеки, наприклад, на наявність атак через ін'єкції та тестування на злам. Незалежно від того, чи походить модель з Китаю, для будь-якої компанії існує ризик безпеки перед використанням додатків, керованих AI моделями.

Goldman Sachs впроваджує правильні заходи управління ризиками, інші організації також повинні наслідувати цю практику перед тим, як вирішити використовувати DeepSeek.

підсумувати досвід

Ми повинні залишатися пильними і старанними, впроваджуючи належне управління ризиками перед використанням будь-якої системи або застосунку штучного інтелекту. Щоб пом'якшити будь-які упередження та проблеми цензури, пов'язані з LLM, ми можемо розглянути можливість впровадження децентралізованого штучного інтелекту, бажано у формі децентралізованої автономної організації (DAO). Штучний інтелект не знає кордонів, можливо, зараз саме час розглянути можливість розробки єдиних глобальних норм для штучного інтелекту.

Автор думки: доктор Мерав Озайр

Рекомендоване: Як децентралізовані фінанси (DeFi) можуть досягти безпечного масштабованого розвитку в епоху штучного інтелекту (AI)

Ця стаття призначена лише для загальної інформації і не є, і не повинна сприйматися як юридична або інвестиційна порада. Висловлені в статті думки, ідеї та погляди є лише поглядами автора і не обов'язково відображають або представляють позицію та погляди Cointelegraph.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити