Взгляд на десять личностей, формирующих будущее искусственного интеллекта в 2025 году — от лабораторий, уточняющих его основные разработки, до политиков, устанавливающих его рамки. Их идеи, исследования и лидерство приводят к реальным изменениям в том, как ИИ создается, делится и используется по всему миру.
Это не список знаменитостей. Каждый человек здесь имеет реальное влияние, четкую экспертность и опыт ведения дискуссий в сообществе ИИ. Их мнения имеют значение, потому что они основаны на создании, управлении и оспаривании систем, формирующих наше будущее.
Ян Лекун по-прежнему остается одним из самых сильных голосов в области ИИ, особенно в фундаментальных исследованиях. Его публичные комментарии часто противоречат преобладающей тенденции, особенно в дебатах о крупных языковых моделях. Он выступает за системы, которые обучаются с гораздо меньшим объемом данных и потребляют значительно меньше энергии, отклоняясь от мышления «больше - значит лучше».
Место Лекуна в истории закреплено за изобретением свёрточных нейронных сетей (CNNs), которые сейчас являются основой компьютерного зрения. Сегодня он является ведущим сторонником самообучающегося обучения и автономного ИИ — машин, которые развивают понимание через наблюдение, а не через бесконечное поглощение данных.
Теперь он редко публикует оригинальный контент в Твиттере, но часто перепостит или ссылается на подробные эссе по исследованиям ИИ и системному проектированию.
Основные темы: энергоэффективные архитектуры, объектно-ориентированное обучение, модели мира;
Охват аудитории: более 900 000 подписчиков;
Замечательная динамика: частые технические обмены с исследователями из OpenAI и DeepMind;
На протяжении более тридцати лет его работа формировала стратегию ИИ Meta, стремясь к созданию систем, которые наблюдают и мыслят способами, более близкими к человеческому рассуждению, а не просто предсказывают следующее слово в последовательности.
Андрей Карпати сочетает в себе глубокие технические навыки и взгляд человека, который воплотил в жизнь крупные продукты. Он разбирает сложные идеи — от проектирования моделей до выбора методов обучения и препятствий при развертывании — так, что они находят отклик как у исследователей, так и у практиков.
Его лента сочетает в себе технические знания и видение — например, он недавно предложил, что большие языковые модели становятся строительными блоками современного программного обеспечения.
Наследие: ранние прорывы в глубоком обучении и компьютерном зрении, руководство ИИ в Tesla;
Охват: более 1 миллиона подписчиков;
Вовлеченность: частые конференционные выступления и образование сообщества;
Вернувшись в OpenAI в 2024 году, Карпати сосредоточился на упрощении управления моделями и масштабировании их без потери контроля. Он также работал над открытием большего количества ресурсов для сообщества разработчиков. В своих публикациях он связывает глубокое техническое мышление с повседневной работой по созданию программного обеспечения, предоставляя инженерам практические способы создания систем, которые выдерживают реальные условия использования.
Фей-Фей Ли построила свою репутацию на согласовании ИИ с человеческими потребностями. Она выступает за разработки, которые служат здравоохранению, образованию и общественным интересам так же, как они служат корпоративным или государственным интересам. Она возглавила создание ImageNet, проекта, который изменил глубокое обучение и оставил один из самых сильных следов в современном ИИ.
Её посты сосредоточены на человеческой стороне ИИ — этических последствиях, влиянии на здравоохранение и важности сохранения человеческого достоинства.
Известен за: ImageNet, Институт человекоцентричного ИИ Стэнфорда;
Аудитория: более 500,000 подписчиков, консультирующих как американских, так и международных политиков;
Текущий фокус: этика, доступность и социальное включение в приложениях ИИ;
Она привносит перспективы людей, которые часто остаются незамеченными в технологиях — таких как медицинские работники, educators и люди с ограниченными возможностями — и держит их проблемы в центре внимания. Ли рассматривает ответственное ИИ как вопрос эмпатии, предвидения и участия голосов, находящихся далеко за пределами залов заседаний Кремниевой долины.
Эмад Мостаки является определяющей фигурой в области генеративного ИИ с открытым исходным кодом. Он выступает за доступность моделей и наборов данных, выходящую за пределы контроля крупных корпораций, влияя на волну стартапов, которые выпускают системы с открытыми весами.
В своем канале он делится яркими обновлениями о генеративном ИИ с открытым исходным кодом и приглашениями для публичной обратной связи по развитию.
Этап: запуск Stable Diffusion;
Области внимания: прозрачность затрат, открытость инфраструктуры, принципы безопасности ИИ;
Аудитория: более 250 000 подписчиков;
Мостак регулярно анализирует реальные затраты и ограничения на создание сложных моделей, предлагая редкий взгляд на бюджеты и технические усилия, стоящие за генеративными инструментами. Его настойчивость в открытости изменила ожидания относительно того, что разработчики и исследователи должны иметь возможность проверять и контролировать.
Исследования Тимнит Гебру по алгоритмическим предвзятостям и прозрачности данных изменили обсуждение справедливости ИИ на глобальном уровне. Она изучает, кто обладает властью в разработке ИИ и как эта власть формирует результаты.
Она использует свое присутствие, чтобы подчеркнуть проблемы предвзятости, часто ссылаясь на свои исследования или крупные изменения в политике в области справедливости в ИИ.
Аудитория: более 160 000 подписчиков; упоминается в политических рамках по всему миру;
Она строит свои аргументы на ясных доказательствах. Ее исследования показывают, как недостатки в обучающих данных могут переносить реальные неравенства, связанные с расой, полом и классом. Законодатели и регуляторы теперь ссылаются на ее исследования при формировании правил, что сделало ее ведущим критическим голосом в обсуждении.
Крис Олах развеял тайны некоторых из самых сложных частей нейронных сетей. Его визуальные и нарративные объяснения того, как модели обрабатывают информацию, стали учебным материалом в университетах и отправными точками для исследователей безопасности ИИ.
Он часто публикует обновления по интерпретируемости — недавняя работа по открытию анализа моделей цепей привлекла внимание в кругах исследований безопасности.
Специальность: инструменты интерпретации, визуализация пути принятия решений;
Аудитория: более 150 000 подписчиков;
Последняя работа: согласование моделей, протоколы безопасности, Конституционный ИИ;
Сделав внутренние механизмы ИИ видимыми, Олах перенес интерпретируемость из академической любопытности в центральное требование для доверия и безопасности. Его влияние формирует то, как лаборатории и законодатели думают о мониторинге и управлении поведением моделей.
Сара Хукер работает над тем, чтобы сделать машинное обучение более эффективным и доступным. Она освещает исследования в регионах с меньшими ресурсами, стремясь децентрализовать, кто может вносить вклад в эту область.
Её публикации подчеркивают инклюзивность в исследовании ИИ — она недавно обратила внимание на ограничения регуляции на основе вычислений.
Ключевое внимание: разреженные модели, воспроизводимость, инклюзивные исследования в области ИИ;
Аудитория: более 45,000 подписчиков;
Её работа ставит под сомнение веру в то, что серьёзные исследования могут происходить только при наличии огромной инфраструктуры. Продвигая эффективные архитектуры и глобальное сотрудничество, Хукер меняет ожидания как в отношении производительности, так и участия в ИИ.
Итан Моллик демонстрирует, как инструменты ИИ меняют способ, которым люди учатся и работают. Его эксперименты с большими языковыми моделями в классах и бизнес-средах предлагают конкретные, воспроизводимые результаты.
Его лента вводит ИИ в реальные классы и офисные сценарии — исследуя, как дизайн подсказок и инструменты на рабочем месте развиваются и влияют на обучение.
Области фокуса: прикладные LLM, проектирование подсказок, рабочие процессы с помощью ИИ;
Аудитория: более 280,000 подписчиков;
Моллик работает, пробуя инструменты сам, наблюдая за тем, что происходит, и корректируя свой подход по ходу дела. Этот практический цикл предоставляет педагогам и специалистам план для интеграции ИИ с минимальными догадками.
Дарио Амодеи возглавляет одну из самых пристально наблюдаемых инициатив по безопасности ИИ. Разработка Claude компанией Anthropic является частью более широкой стратегии по обеспечению безопасности масштабирования без остановки инноваций.
Он публикует редко, но когда он это делает, его мнения вызывают споры — недавно он подверг критике нарратив, который описал как искажающий миссию Anthropic, ориентированную на безопасность.
Фокус: Конституционный ИИ, надежность системы, выравнивание в масштабе;
Аудитория: более 70 000 подписчиков; признаны на законодательных слушаниях и глобальных саммитах;
Стиль Амодеи и акцент на механизмах контроля сделали его работу контрольной точкой как для промышленности, так и для правительства в установлении ожиданий по надзору за моделями.
Карьера Грейди Буча построена на проектировании и управлении сложными программными системами, что делает его мнения о том, как создается и поддерживается современный ИИ, особенно ценными. Десятилетия, проведенные за проектированием систем, рассчитанных на долгий срок службы, позволяют ему подчеркнуть, что потребуется для создания устойчивого ИИ.
Его голос сочетает в себе глубокую перспективу системного проектирования с контекстом ИИ — хотя обновления происходят реже, он приносит архитектурную ясность в дебаты о ИИ.
Наиболее известный своим вкладом в создание UML (Unified Modeling Language), Буч применяет строгие архитектурные подходы к вопросам развертывания ИИ и его надежности.
Основные темы: проектирование систем, долговечность, этика в инженерии;
Аудитория: более 160 000 подписчиков из сообществ ИИ и традиционной инженерии;
Он предостерегает, что слишком быстрые действия могут подорвать уже заложенные основы. Для него устойчивый прогресс приходит от терпеливого проектирования, тщательного тестирования и приверженности строгим инженерным практикам.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Топ AI влиятельных лиц 2025: подтвержденные, уважаемые, за которыми следят
Кратко
Взгляд на десять личностей, формирующих будущее искусственного интеллекта в 2025 году — от лабораторий, уточняющих его основные разработки, до политиков, устанавливающих его рамки. Их идеи, исследования и лидерство приводят к реальным изменениям в том, как ИИ создается, делится и используется по всему миру.
Это не список знаменитостей. Каждый человек здесь имеет реальное влияние, четкую экспертность и опыт ведения дискуссий в сообществе ИИ. Их мнения имеют значение, потому что они основаны на создании, управлении и оспаривании систем, формирующих наше будущее.
Ян Лекун по-прежнему остается одним из самых сильных голосов в области ИИ, особенно в фундаментальных исследованиях. Его публичные комментарии часто противоречат преобладающей тенденции, особенно в дебатах о крупных языковых моделях. Он выступает за системы, которые обучаются с гораздо меньшим объемом данных и потребляют значительно меньше энергии, отклоняясь от мышления «больше - значит лучше».
Место Лекуна в истории закреплено за изобретением свёрточных нейронных сетей (CNNs), которые сейчас являются основой компьютерного зрения. Сегодня он является ведущим сторонником самообучающегося обучения и автономного ИИ — машин, которые развивают понимание через наблюдение, а не через бесконечное поглощение данных.
Теперь он редко публикует оригинальный контент в Твиттере, но часто перепостит или ссылается на подробные эссе по исследованиям ИИ и системному проектированию.
На протяжении более тридцати лет его работа формировала стратегию ИИ Meta, стремясь к созданию систем, которые наблюдают и мыслят способами, более близкими к человеческому рассуждению, а не просто предсказывают следующее слово в последовательности.
Андрей Карпати сочетает в себе глубокие технические навыки и взгляд человека, который воплотил в жизнь крупные продукты. Он разбирает сложные идеи — от проектирования моделей до выбора методов обучения и препятствий при развертывании — так, что они находят отклик как у исследователей, так и у практиков.
Его лента сочетает в себе технические знания и видение — например, он недавно предложил, что большие языковые модели становятся строительными блоками современного программного обеспечения.
Вернувшись в OpenAI в 2024 году, Карпати сосредоточился на упрощении управления моделями и масштабировании их без потери контроля. Он также работал над открытием большего количества ресурсов для сообщества разработчиков. В своих публикациях он связывает глубокое техническое мышление с повседневной работой по созданию программного обеспечения, предоставляя инженерам практические способы создания систем, которые выдерживают реальные условия использования.
Фей-Фей Ли построила свою репутацию на согласовании ИИ с человеческими потребностями. Она выступает за разработки, которые служат здравоохранению, образованию и общественным интересам так же, как они служат корпоративным или государственным интересам. Она возглавила создание ImageNet, проекта, который изменил глубокое обучение и оставил один из самых сильных следов в современном ИИ.
Её посты сосредоточены на человеческой стороне ИИ — этических последствиях, влиянии на здравоохранение и важности сохранения человеческого достоинства.
Она привносит перспективы людей, которые часто остаются незамеченными в технологиях — таких как медицинские работники, educators и люди с ограниченными возможностями — и держит их проблемы в центре внимания. Ли рассматривает ответственное ИИ как вопрос эмпатии, предвидения и участия голосов, находящихся далеко за пределами залов заседаний Кремниевой долины.
Эмад Мостаки является определяющей фигурой в области генеративного ИИ с открытым исходным кодом. Он выступает за доступность моделей и наборов данных, выходящую за пределы контроля крупных корпораций, влияя на волну стартапов, которые выпускают системы с открытыми весами.
В своем канале он делится яркими обновлениями о генеративном ИИ с открытым исходным кодом и приглашениями для публичной обратной связи по развитию.
Мостак регулярно анализирует реальные затраты и ограничения на создание сложных моделей, предлагая редкий взгляд на бюджеты и технические усилия, стоящие за генеративными инструментами. Его настойчивость в открытости изменила ожидания относительно того, что разработчики и исследователи должны иметь возможность проверять и контролировать.
Исследования Тимнит Гебру по алгоритмическим предвзятостям и прозрачности данных изменили обсуждение справедливости ИИ на глобальном уровне. Она изучает, кто обладает властью в разработке ИИ и как эта власть формирует результаты.
Она использует свое присутствие, чтобы подчеркнуть проблемы предвзятости, часто ссылаясь на свои исследования или крупные изменения в политике в области справедливости в ИИ.
Она строит свои аргументы на ясных доказательствах. Ее исследования показывают, как недостатки в обучающих данных могут переносить реальные неравенства, связанные с расой, полом и классом. Законодатели и регуляторы теперь ссылаются на ее исследования при формировании правил, что сделало ее ведущим критическим голосом в обсуждении.
Крис Олах развеял тайны некоторых из самых сложных частей нейронных сетей. Его визуальные и нарративные объяснения того, как модели обрабатывают информацию, стали учебным материалом в университетах и отправными точками для исследователей безопасности ИИ.
Он часто публикует обновления по интерпретируемости — недавняя работа по открытию анализа моделей цепей привлекла внимание в кругах исследований безопасности.
Сделав внутренние механизмы ИИ видимыми, Олах перенес интерпретируемость из академической любопытности в центральное требование для доверия и безопасности. Его влияние формирует то, как лаборатории и законодатели думают о мониторинге и управлении поведением моделей.
Сара Хукер работает над тем, чтобы сделать машинное обучение более эффективным и доступным. Она освещает исследования в регионах с меньшими ресурсами, стремясь децентрализовать, кто может вносить вклад в эту область.
Её публикации подчеркивают инклюзивность в исследовании ИИ — она недавно обратила внимание на ограничения регуляции на основе вычислений.
Её работа ставит под сомнение веру в то, что серьёзные исследования могут происходить только при наличии огромной инфраструктуры. Продвигая эффективные архитектуры и глобальное сотрудничество, Хукер меняет ожидания как в отношении производительности, так и участия в ИИ.
Итан Моллик демонстрирует, как инструменты ИИ меняют способ, которым люди учатся и работают. Его эксперименты с большими языковыми моделями в классах и бизнес-средах предлагают конкретные, воспроизводимые результаты.
Его лента вводит ИИ в реальные классы и офисные сценарии — исследуя, как дизайн подсказок и инструменты на рабочем месте развиваются и влияют на обучение.
Моллик работает, пробуя инструменты сам, наблюдая за тем, что происходит, и корректируя свой подход по ходу дела. Этот практический цикл предоставляет педагогам и специалистам план для интеграции ИИ с минимальными догадками.
Дарио Амодеи возглавляет одну из самых пристально наблюдаемых инициатив по безопасности ИИ. Разработка Claude компанией Anthropic является частью более широкой стратегии по обеспечению безопасности масштабирования без остановки инноваций.
Он публикует редко, но когда он это делает, его мнения вызывают споры — недавно он подверг критике нарратив, который описал как искажающий миссию Anthropic, ориентированную на безопасность.
Стиль Амодеи и акцент на механизмах контроля сделали его работу контрольной точкой как для промышленности, так и для правительства в установлении ожиданий по надзору за моделями.
Карьера Грейди Буча построена на проектировании и управлении сложными программными системами, что делает его мнения о том, как создается и поддерживается современный ИИ, особенно ценными. Десятилетия, проведенные за проектированием систем, рассчитанных на долгий срок службы, позволяют ему подчеркнуть, что потребуется для создания устойчивого ИИ.
Его голос сочетает в себе глубокую перспективу системного проектирования с контекстом ИИ — хотя обновления происходят реже, он приносит архитектурную ясность в дебаты о ИИ.
Наиболее известный своим вкладом в создание UML (Unified Modeling Language), Буч применяет строгие архитектурные подходы к вопросам развертывания ИИ и его надежности.
Он предостерегает, что слишком быстрые действия могут подорвать уже заложенные основы. Для него устойчивый прогресс приходит от терпеливого проектирования, тщательного тестирования и приверженности строгим инженерным практикам.