Principales Influencers de IA 2025: Verificados, Respetados, Seguidos

En breve

Una mirada a diez figuras que están dando forma al futuro de la inteligencia artificial en 2025: desde los laboratorios que refinan sus diseños centrales hasta los responsables políticos que establecen sus límites. Sus ideas, investigaciones y liderazgo están impulsando cambios reales en cómo se construye, comparte y utiliza la IA en todo el mundo.

Principales Influencers de IA 2025: Verificados, Respetados, Seguidos

Esta no es una lista de celebridades. Cada persona aquí tiene un impacto real, una experiencia clara y un historial de dirigir discusiones dentro de la comunidad de IA. Sus opiniones importan porque provienen de construir, guiar y desafiar los sistemas que están dando forma a nuestro futuro.

Yann LeCun sigue siendo una de las voces más fuertes en IA, especialmente en la investigación fundamental. Su comentario público a menudo va en contra de la tendencia predominante, particularmente en los debates sobre los modelos de lenguaje grandes. Él aboga por sistemas que aprenden con mucho menos datos y consumen significativamente menos energía, alejándose de la mentalidad de "más grande siempre es mejor".

El lugar de LeCun en la historia está consolidado por haber inventado las redes neuronales convolucionales (CNNs), ahora esenciales para la visión por computadora. Hoy, es un defensor líder del aprendizaje auto-supervisado y de la IA autónoma: máquinas que desarrollan comprensión a través de la observación en lugar de la ingesta interminable de datos.

Ahora rara vez tuitea contenido original, pero a menudo vuelve a publicar o enlaza ensayos en profundidad sobre investigación en IA y diseño de sistemas.

  • Temas centrales: arquitecturas energéticamente eficientes, aprendizaje centrado en objetos, modelos del mundo;
  • Alcance de audiencia: más de 900,000 seguidores;
  • Dinámica notable: intercambios técnicos frecuentes con investigadores de OpenAI y DeepMind;

Durante más de treinta años, su trabajo ha dado forma a la estrategia de IA de Meta, con el objetivo de crear sistemas que observan y piensan de maneras más cercanas al razonamiento humano, no solo predicen la siguiente palabra en una secuencia.

Andrej Karpathy combina una profunda habilidad técnica con la perspectiva de alguien que ha dado vida a productos importantes. Descompone ideas complejas — desde el diseño de modelos hasta las decisiones de entrenamiento y los obstáculos en el despliegue — de maneras que resuenan tanto con investigadores como con constructores prácticos.

Su feed combina información técnica con visión; por ejemplo, recientemente propuso que los modelos de lenguaje grandes se están convirtiendo en los bloques de construcción del software moderno.

  • Legado: primeros avances en aprendizaje profundo y visión por computadora, liderazgo de la IA en Tesla;
  • Alcance: más de 1 millón de seguidores;
  • Participación: conferencias frecuentes y educación comunitaria;

Después de regresar a OpenAI en 2024, Karpathy se centró en facilitar la gestión de modelos y escalarlos sin perder el control. También trabajó en abrir más recursos a la comunidad de desarrolladores. En sus publicaciones, vincula el pensamiento técnico profundo con el trabajo diario de construir software, ofreciendo a los ingenieros formas prácticas de crear sistemas que funcionen en el uso del mundo real.

Fei-Fei Li ha construido su reputación alineando la IA con las necesidades humanas. Aboga por diseños que sirvan a la salud, la educación y el interés público tanto como a las agendas corporativas o gubernamentales. Lideró la creación de ImageNet, un proyecto que transformó el aprendizaje profundo y dejó una de las huellas más fuertes en la IA actual.

Sus publicaciones se centran en el lado humano de la IA: implicaciones éticas, impacto en la salud y la importancia de preservar la dignidad humana.

  • Conocido por: ImageNet, el Instituto de IA Centrado en el Ser Humano de Stanford;
  • Audiencia: más de 500,000 seguidores, asesorando a responsables de políticas tanto de EE. UU. como internacionales;
  • Enfoque actual: ética, accesibilidad e inclusión social en aplicaciones de IA;

Ella aporta perspectivas de personas que a menudo son pasadas por alto en la tecnología, como los trabajadores médicos, educadores y personas con discapacidades, y mantiene sus preocupaciones en el centro de atención. Li enmarca la IA responsable como una cuestión de empatía, previsión y participación de voces que están muy lejos de las salas de juntas de Silicon Valley.

Emad Mostaque es una figura definitoria en la inteligencia artificial generativa de código abierto. Aboga por que los modelos y conjuntos de datos sean accesibles más allá del control de las grandes corporaciones, influyendo en una ola de nuevas empresas para que lancen sistemas con pesos abiertos.

En su feed, comparte actualizaciones vívidas sobre inteligencia artificial generativa de código abierto e invitaciones para comentarios públicos sobre el desarrollo.

  • Hito: lanzamiento de Stable Diffusion;
  • Áreas de enfoque: transparencia de costos, apertura de infraestructura, principios de seguridad de IA;
  • Audiencia: más de 250,000 seguidores;

Mostaque desglosa regularmente los costos reales y las limitaciones de construir modelos avanzados, ofreciendo una mirada rara a los presupuestos y el esfuerzo técnico que impulsan las herramientas generativas. Su insistencia en la apertura ha cambiado las expectativas sobre lo que los desarrolladores e investigadores deberían poder inspeccionar y controlar.

La investigación de Timnit Gebru sobre el sesgo algorítmico y la transparencia de datos ha cambiado la forma en que se discute la equidad en la IA a escala global. Ella examina quién tiene el poder en el desarrollo de la IA y cómo ese poder moldea los resultados.

Ella utiliza su presencia para resaltar problemas de sesgo, a menudo haciendo referencia a su investigación o a los principales desarrollos de políticas sobre la equidad en la IA.

  • Áreas clave: sesgo sistémico en LLMs, gobernanza liderada por la comunidad, estándares éticos de datos;
  • Audiencia: más de 160,000 seguidores; citados en marcos de políticas en todo el mundo;

Ella fundamenta sus argumentos en pruebas claras. Sus estudios revelan cómo las fallas en los datos de entrenamiento pueden perpetuar desigualdades del mundo real relacionadas con la raza, el género y la clase. Los legisladores y reguladores ahora hacen referencia a su investigación al formular reglas, lo que la ha convertido en una voz crítica líder en la conversación.

Chris Olah ha desmitificado algunas de las partes más complejas de las redes neuronales. Sus explicaciones visuales y narrativas de cómo los modelos procesan la información se han convertido en material de enseñanza en universidades y puntos de referencia para los investigadores de seguridad en IA.

Frecuentemente publica actualizaciones de interpretabilidad; el trabajo reciente sobre el análisis de circuitos de modelos de código abierto ha llamado la atención en los círculos de investigación sobre seguridad.

  • Especialidad: herramientas de interpretabilidad, visualización de caminos de decisión;
  • Audiencia: más de 150,000 seguidores;
  • Trabajo reciente: alineación de modelos, protocolos de seguridad, IA constitucional;

Al hacer visibles los mecanismos internos de la IA, Olah ha trasladado la interpretabilidad de una curiosidad académica a un requisito central para la confianza y la seguridad. Su influencia moldea la forma en que los laboratorios y los responsables de políticas piensan sobre el monitoreo y la guía del comportamiento de los modelos.

Sara Hooker trabaja en hacer que el aprendizaje automático sea más eficiente y accesible. Ella destaca a investigadores en regiones con menos recursos, con el objetivo de descentralizar quién puede contribuir al campo.

Sus publicaciones destacan la inclusión en la investigación de IA; recientemente ha llamado la atención sobre los límites de la regulación basada en el cómputo.

  • Enfoque clave: modelos escasos, reproducibilidad, investigación de IA inclusiva;
  • Audiencia: más de 45,000 seguidores;

Su trabajo cuestiona la creencia de que la investigación seria solo puede suceder con una gran infraestructura. Al promover arquitecturas eficientes y la colaboración global, Hooker está redefiniendo las expectativas tanto para el rendimiento como para la participación en la IA.

Ethan Mollick demuestra cómo las herramientas de IA cambian la forma en que las personas aprenden y trabajan. Sus experimentos con modelos de lenguaje grandes en aulas y entornos empresariales ofrecen resultados concretos y replicables.

Su feed lleva la IA a escenarios reales de clases y oficinas, explorando cómo el diseño de prompts y las herramientas de trabajo evolucionan e influyen en el aprendizaje.

  • Áreas de enfoque: LLMs aplicados, ingeniería de prompts, flujos de trabajo asistidos por IA;
  • Audiencia: más de 280,000 seguidores;

Mollick trabaja probando las herramientas por sí mismo, observando lo que sucede y ajustando su enfoque en el camino. Ese bucle práctico está brindando a educadores y profesionales un plan para integrar la IA con mínima incertidumbre.

Dario Amodei lidera uno de los esfuerzos de seguridad en IA más vigilados. El desarrollo de Claude por parte de Anthropic es parte de una estrategia más amplia para hacer que la escalabilidad sea más segura sin frenar la innovación.

Publica raramente, pero cuando lo hace, sus publicaciones generan debate; recientemente criticó una narrativa que describió como distorsionadora de la misión prioritaria en seguridad de Anthropic.

  • Enfoque: IA constitucional, fiabilidad del sistema, alineación a gran escala;
  • Audiencia: más de 70,000 seguidores; reconocidos en audiencias legislativas y cumbres globales;

El estilo medido de Amodei y su énfasis en los mecanismos de control han convertido su trabajo en un punto de referencia tanto para la industria como para el gobierno en el establecimiento de expectativas para la supervisión de modelos.

La carrera de Grady Booch se ha construido en torno al diseño y la gestión de sistemas de software complejos, lo que hace que sus opiniones sobre cómo se construye y se mantiene la IA moderna sean especialmente valiosas. Décadas dedicadas al diseño de sistemas construidos para perdurar le permiten resaltar lo que requerirá la ingeniería de IA duradera.

Su voz combina una profunda perspectiva de diseño de sistemas con contexto de IA; aunque las actualizaciones son menos frecuentes, aporta claridad arquitectónica al debate sobre la IA.

Mejor conocido por crear UML (Lenguaje de Modelado Unificado), Booch aplica un pensamiento arquitectónico riguroso a las cuestiones de implementación y confiabilidad de la IA.

  • Temas centrales: diseño de sistemas, durabilidad, ética en la ingeniería;
  • Audiencia: más de 160,000 seguidores que abarcan comunidades de IA y de ingeniería tradicional;

Advierte que moverse demasiado rápido arriesga socavar los cimientos ya establecidos. Para él, los avances duraderos provienen de un diseño paciente, pruebas rigurosas y un compromiso con prácticas de ingeniería sólidas.

IN-1.77%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)