Profundidad de búsqueda (DeepSeek): un llamado de atención sobre la innovación responsable y la gestión de riesgos

robot
Generación de resúmenes en curso

Fuente: Cointelegraph Texto original: "DeepSeek: un llamado de atención sobre la innovación responsable y la gestión de riesgos"

Autor de la opinión: Dra. Merav Ozair

Desde su lanzamiento el 20 de enero, DeepSeek R1 ha atraído la atención de usuarios, así como de magnates tecnológicos, gobiernos y formuladores de políticas de todo el mundo, desde elogios hasta escepticismo, desde la adopción hasta prohibiciones, desde los logros de la innovación hasta vulnerabilidades de privacidad y seguridad que son difíciles de medir.

¿Quién tiene razón? Respuesta corta: todos tienen razón y todos están equivocados.

Esta no es la "hora Sputnik".

DeepSeek ha desarrollado un modelo de lenguaje de gran tamaño (LLM) cuyo rendimiento puede compararse con el de GTPo1 de OpenAI, y el tiempo y costo requeridos son solo una pequeña parte de lo que OpenAI (y otras empresas tecnológicas) necesitan para desarrollar su propio LLM.

A través de una optimización arquitectónica ingeniosa, se han reducido drásticamente los costos de entrenamiento e inferencia del modelo, permitiendo que DeepSeek desarrolle un LLM en 60 días, con un costo de menos de 6 millones de dólares.

De hecho, DeepSeek merece reconocimiento por su búsqueda activa de mejores métodos para optimizar la estructura y el código del modelo. Esto es un toque de atención, pero dista mucho de ser un "momento Sputnik".

Cada desarrollador sabe que hay dos maneras de mejorar el rendimiento: optimizar el código o "inyectar" una gran cantidad de recursos de cálculo. Este último tiene un costo muy alto, por lo que siempre se aconseja a los desarrolladores maximizar la optimización de la arquitectura antes de aumentar los recursos de cálculo.

Sin embargo, con las valoraciones de las startups de inteligencia artificial en aumento y la llegada de enormes inversiones, los desarrolladores parecen haberse vuelto perezosos. Si tienen decenas de miles de millones de dólares de presupuesto, ¿por qué gastar tiempo optimizando la estructura del modelo?

Esta es una advertencia para todos los desarrolladores: volver a lo básico, innovar de manera responsable, salir de la zona de confort, romper con los patrones de pensamiento convencionales y no temer a los desafíos. No es necesario desperdiciar dinero y recursos: deben usarse de manera inteligente.

Al igual que otros LLM, DeepSeek R1 todavía tiene deficiencias evidentes en razonamiento, capacidad de planificación compleja, comprensión del mundo físico y memoria persistente. Por lo tanto, no hay nada innovador y disruptivo aquí.

Ahora es el momento de que los científicos superen los LLM, aborden estas limitaciones y desarrollen un "nuevo paradigma de arquitectura de IA de próxima generación". Esto podría no ser LLM o IA generativa, sino una verdadera revolución.

Allanar el camino para acelerar la innovación

El método DeepSeek puede alentar a desarrolladores de todo el mundo, especialmente en países en desarrollo, a innovar y desarrollar sus propias aplicaciones de IA, independientemente de cuántos recursos tengan. Cuantas más personas participen en la investigación y el desarrollo de la IA, más rápida será la velocidad de innovación y más probable será lograr avances significativos.

Esto está en línea con la visión de Nvidia: hacer que la IA sea asequible y permitir que cada desarrollador o científico desarrolle su propia aplicación de IA. Este es precisamente el significado del proyecto DIGITS anunciado a principios de enero de este año: una GPU de escritorio con un precio de 3000 dólares.

La humanidad necesita que "todos estén involucrados" para resolver problemas urgentes. Los recursos pueden que ya no sean un obstáculo: es hora de romper con los viejos paradigmas.

Al mismo tiempo, el lanzamiento de DeepSeek también es un llamado de atención sobre la gestión de riesgos operativos y la inteligencia artificial responsable.

Lea atentamente los términos.

Todas las aplicaciones tienen términos de servicio, y el público a menudo los ignora.

Detalles preocupantes en los Términos de Servicio de DeepSeek que pueden afectar tu privacidad, seguridad e incluso tu estrategia comercial:

Retención de datos: eliminar la cuenta no significa que los datos se eliminen: DeepSeek aún retiene tus datos.

Monitoreo: La aplicación tiene derecho a monitorear, procesar y recopilar la entrada y salida de los usuarios, incluyendo información sensible.

Exposición legal: DeepSeek está sujeto a la legislación china, lo que significa que las agencias estatales pueden acceder y monitorear tus datos a solicitud: el gobierno chino está monitoreando activamente tus datos.

Modificación unilateral: DeepSeek puede actualizar los términos en cualquier momento, sin necesidad de tu consentimiento.

Controversias y litigios: todas las reclamaciones y asuntos legales están sujetos a la legislación de la República Popular China.

Las acciones anteriores violan claramente el Reglamento General de Protección de Datos (GDPR) y otras violaciones de privacidad y seguridad del GDPR mencionadas en las quejas presentadas por Bélgica, Irlanda e Italia, y como resultado, estos países han prohibido temporalmente el uso de DeepSeek.

En marzo de 2023, la autoridad reguladora de Italia prohibió temporalmente el lanzamiento de ChatGPT de OpenAI debido a violaciones del GDPR, y no se restableció hasta que se realizaron mejoras para cumplir con la normativa un mes después. ¿DeepSeek también seguirá el camino de la conformidad?

Prejuicio y censura

Al igual que otros LLM, DeepSeek R1 presenta alucinaciones, sesgos en los datos de entrenamiento y muestra comportamientos que se alinean con la postura política china en ciertos temas, como la censura y la privacidad.

Como empresa china, esto es predecible. La "Ley de IA Generativa" para proveedores y usuarios de sistemas de IA estipula en su artículo 4: esta es una regla de revisión. Esto significa que las personas que desarrollan y/o utilizan IA generativa deben apoyar los "valores centrales del socialismo" y cumplir con las leyes pertinentes de China.

Esto no significa que otros LLM no tengan sus propios sesgos y "agendas". Esto resalta la importancia de una IA confiable y responsable, así como la necesidad de que los usuarios sigan una estricta gestión de riesgos de IA.

Vulnerabilidades de seguridad en LLM

Los LLM pueden ser susceptibles a ataques adversariales y vulnerabilidades de seguridad. Estas vulnerabilidades son particularmente preocupantes, ya que afectarán a cualquier organización o individuo que construya aplicaciones basadas en ese LLM.

Qualys ha realizado pruebas de vulnerabilidad, evaluación de riesgos éticos y evaluación de riesgos legales en la versión simplificada LLaMA 8B de DeepSeek-R1. El modelo falló en la mitad de las pruebas de jailbreak, es decir, ataques que eluden las medidas de seguridad y los principios éticos incorporados en el modelo de IA.

Goldman Sachs está considerando el uso de DeepSeek, pero necesita realizar una revisión de seguridad, como pruebas de inyección y pruebas de jailbreak. Independientemente de si el modelo proviene de China, existe un riesgo de seguridad para cualquier empresa antes de utilizar aplicaciones impulsadas por modelos de IA.

Goldman Sachs está implementando las medidas de gestión de riesgos adecuadas, y otras organizaciones también deberían seguir este enfoque antes de decidir usar DeepSeek.

Resumir experiencias

Debemos mantenernos alerta y diligentes, e implementar una gestión de riesgos adecuada antes de utilizar cualquier sistema o aplicación de IA. Para mitigar los problemas de sesgo "agendado" y censura que pueden surgir de cualquier LLM, podemos considerar la adopción de IA descentralizada, preferiblemente en forma de organizaciones autónomas descentralizadas (DAO). La IA no tiene fronteras, y quizás ahora sea el momento de considerar la creación de regulaciones globales unificadas para la IA.

Autor de la opinión: Dra. Merav Ozair

Artículos relacionados: ¿Cómo lograr un desarrollo seguro y escalable de las finanzas descentralizadas (DeFi) en la era de la inteligencia artificial (IA)?

Este artículo es solo para fines de información general y no debe ser considerado como asesoramiento legal o de inversión. Las opiniones, ideas y puntos de vista expresados en este artículo son solo del autor y no reflejan necesariamente las opiniones y posiciones de Cointelegraph.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)