Результати пошуку для "QWEN"
03:57

Tencent Cloud оголосила про новий CloudBase AI CLI, який може зменшити обсяг коду на 80%.

Jin10 дані 15 серпня, Tencent Cloud оголосила про оновлення раніше запущеного CloudBase AI ToolKit до CloudBase AI CLI — першого глибоко інтегрованого інструменту управління AI CLI для платформи хмарної розробки, що підтримує розробників у використанні природної мови для єдиного управління AI CLI інструментами, які раніше вимагали окремої конфігурації (наприклад, Claude
Більше
23:03

Hugging Face Відкритий вихідний код顶级模型

Дані Jin10 9 липня: сьогодні вночі всесвітньо відома платформа відкритих великих моделей Hugging Face відкрила код, представивши найкращу малу модель SmolLM3. SmolLM3 має лише 3 мільярди параметрів, але його продуктивність значно перевершує такі відкриті моделі, як Llama-3.2-3B і Qwen2.5-3B. Має контекстне вікно 128k, підтримує 6 мов, включаючи англійську, французьку, іспанську, німецьку. Підтримує глибоке мислення та двосторонній режим міркування, користувачі можуть гнучко перемикатися.
Більше
B-3.09%
13:10

Jingwei Hengrun: Компанія розгорнула DeepSeek і Qwen

Jingwei Hengrun використовує великі моделі, такі як DeepSeek і Qwen, для розробки професійних додатків штучного інтелекту, що охоплюють кілька областей, таких як інтелектуальна допомога, дизайн, тестування, оптимізація продукту та аналіз бізнес-процесів. Ці програми підвищують ефективність, якість роботи та знижують витрати.
Більше
DEEPSEEK-0.59%
  • 3
  • 1
23:02
Золоті фінанси повідомляють, що команда Алі Qwen офіційно опублікувала свої найновіші дослідження - велику мовну модель QwQ-32B, яка, маючи лише приблизно 1/21 обсягу параметрів DeepSeek-R1, досягла значного прогресу в продуктивності за допомогою посиленого навчання.
DEEPSEEK-0.59%
  • 1
  • 1
12:16

Четвертий парадигма випускає рішення для великих моделей на кшталт AIoT ModelHub для країни

Дані Jinshi 26 лютого, відомо від Четвертого парадигми, що Четверта парадигма випустила рішення для великої моделі навчання AIoT ModelHub AIoT на кінцевому пристрої, де користувачі можуть легко розгортати невеликі моделі дистиляції, такі як DeepSeek R1, Qwen 2.5, Llama 2/3, та запускати їх офлайн. Користувачі можуть гнучко перемикатися між кількома моделями, беручи до уваги компресію моделі, продуктивність розсуду, що вирішує складність розгортання та оптимізації. Компанія зазначає, що це рішення не лише задовольняє вимоги користувачів щодо конфіденційності та реального часу, але також значно знижує витрати на інференцію великої моделі штучного інтелекту.
Більше
DEEPSEEK-0.59%
09:58

4Paradigm запускає SageOne IA, рішення для виведення великих моделей

Четвертий парадигма представляє великий модельний рішення SageOneIA, що зменшує вартість обчислень великих моделей. Інтегрована технологія пулу обчислювальної потужності в рішенні все в одному дозволяє підтримувати кілька провідних великих моделей, підприємство може перемикатися між повноцінною версією та моделлю з випаровуванням, ефективність використання GPU збільшується на 30% або більше, а продуктивність обчислення зростає від 5 до 10 разів.
Більше
10:01

Алі, якщо ви можете відповісти, коли нове

QwQ-Max скоро буде випущений для широкої публіки під ліцензією Apache 2.0 Відкритий вихідний кодQwQ-Max і Qwen 2.5-Max, а менші версії, такі як QwQ-32B, доступні для розгортання на локальних пристроях. Тоді ж вийде офіційний QwQ-Max, а також вийдуть додатки для Android та iOS.
Більше
MAX1.28%
APP-4.37%
04:11

Команда Али Qwen випустила нову модель QwQ, яка покаже повний ланцюг мислення

Дані Jin 25 лютого, команда Qwen від Алібаби сьогодні вранці оголосила в соціальних мережах про випуск нової моделі мислення — Глибоке мислення (QwQ). Це модель мислення, заснована на QWQ-MAX-PREVIEW, підтримується на базі QWEN2.5-Max. Blue Whale News виявила, що подібно Глибина
Більше
MAX1.28%
DEEPSEEK-0.59%
  • 2
  • 1
23:46

Мікрософт Відкритий вихідний код інноваційний фреймворк: можна перетворити DeepSeek у AI Agent

Корпорація Майкрософт випустила останню версію OmniParser V2.0, яка підвищує ефективність і точність роботи агента ШІ на комп'ютерах, особливо у виявленні дрібних елементів інтерфейсу користувача та швидкості висновків. Продуктивність цієї версії в тесті агентів з високою роздільною здатністю також значно покращилася, досягнувши вражаючої точності 39,6%. Крім того, Microsoft має омнітул з відкритим вихідним кодом, ключовий інструмент для перетворення великих моделей на агентів.
Більше
DEEPSEEK-0.59%
AGENT3.16%
GPT2.13%
  • 2
  • 4
11:29

Підключення міжнародного сайту Ali до великої моделі DeepSeek

Дані Jin 12 лютого, міжнародний сайт Alibaba AI вже підключив DeepSeek та інші великі моделі і повністю застосуватиме їх в усіх ключових аспектах зовнішньої торгівлі. Після підключення штучний інтелект під час автоматичного прийому закордонних клієнтів зможе більш повно враховувати наміри покупців, а потім, сполучуючи даний інтелект з ринковими інсайтами, досвідом зовнішньої торгівлі та обставинами продуктів продавця на міжнародному сайті Alibaba, проводитиме Глибина міркування. Також відомо, що міжнародний сайт Alibaba також тестує універсальні запитання Qwen
Більше
DEEPSEEK-0.59%
09:02

Longxin Zhongke: процесор Longxin успішно запустив велику модель DeepSeek

Компанія Longxin Zhongke успішно запустила модель DeepSeek R1 7B, що працює на процесорі Longxin 3, з локалізованим розгортанням, відмінною продуктивністю та вигідною вартістю, що забезпечить користувачам швидший, потужніший та більш економний досвід навчання та інференсу. Longxin співпрацює з партнерами, такими як Taichi, Hangu, Tianshu Zhixin, Algonomy та openEuler, щоб створити багатоформатну платформу інференції серії моделей DeepSeek.
Більше
DEEPSEEK-0.59%
  • 1
04:19
Golden Ten Data повідомила 29 квітня, що Tongyi K Man вперше запустила модель параметрів в'язання Qwen1.5-110B, показавши відмінну продуктивність у найдовших тестових оцінках, таких як MMLU, TheoremQA та GPQA. В даний час серія Qwen 1.5 накопичила 10 великих моделей з відкритим вихідним кодом, а кількість завантажень моделей Tongyi K Відкритий вихідний код перевищила 7 мільйонів.
Завантажити більше

Гарячі теми

Більше

Криптокалендар

Більше
Розблокування токенів
Avalanche (AVAX) розблокує 1,67 мільйона Токенів 15 серпня о 8:00, що становить приблизно 35,8 мільйона доларів, що становить 0,39% Оборотна пропозиція.
2025-08-15
Розблокування токенів
Avalanche (AVAX) розблокує 1,67 мільйона Токенів 15 серпня о 8:00, що становить приблизно 39,8 мільйона доларів США, або 0,33% від Оборотна пропозиція.
2025-08-15
Розблокування Токенів
Arbitrum розблокує 92,650,000 ARB токенів 16 серпня, що становить приблизно 1,80% від нинішнього обсягу обігу.
2025-08-15
Зустріч в Папуа
Tokocrypto оголосила про свою участь у зустрічі громади Obras Papua, яка відбудеться 16 серпня в Папуа. Подія зосередиться на обговореннях торгівлі та потенціалу цифрових активів у регіоні. Місцеві учасники матимуть можливість безпосередньо взаємодіяти з представниками Tokocrypto та досліджувати можливості у сфері освіти та впровадження криптовалют.
2025-08-15
Кампанія Dragonverse Neo Сезон 21
MOBOX запускає Сезон 21 своєї кампанії Dragonverse Neo, яка триватиме з 5 по 16 серпня, 8:00 AM UTC. Захід має призовий фонд у 6,000 MBOX, 10,000,000 eMDBL та 50% від покупок гравців. Додаткові переваги включають спеціальні Падіння для ходлерів активів MOBOX та ексклюзивні винагороди за витрати MBOX, з додатковими бонусами для топ-5 учасників.
2025-08-15