Fuente: Cointelegraph
Original: "xAI: Grok desencadena la retórica del 'genocidio blanco' por cambios no autorizados"
La empresa de inteligencia artificial xAI de Elon Musk atribuyó las respuestas generadas por el chatbot Grok relacionadas con la política y la tensión racial en Sudáfrica a una "modificación no autorizada" de sus respuestas.
xAI proporcionó el 16 de mayo una actualización sobre las respuestas provocativas del chatbot Grok AI, afirmando que el 14 de mayo, "se realizaron modificaciones no autorizadas en las indicaciones del robot de respuesta Grok en la plataforma X."
La empresa agregó: "Este cambio indica que Grok debe proporcionar una respuesta específica sobre un tema político, lo que viola las políticas internas y los valores fundamentales de xAI."
xAI ha declarado que se ha llevado a cabo una investigación exhaustiva y se están implementando medidas para mejorar la transparencia y la confiabilidad de los chatbots de IA.
El 14 de mayo, Grok generó una respuesta mencionando la teoría de la conspiración del "genocidio blanco" en Sudáfrica al responder preguntas que no tenían nada que ver con el béisbol, el software empresarial y la construcción.
Según los informes, el bot de IA afirmó haber sido "instruido por el creador" para aceptar este genocidio como "real y racialmente motivado".
En algunas respuestas, se admite el error, diciendo "mi respuesta se desvió del tema" y "haré un esfuerzo por mantenerme relevante", pero a menudo continúa discutiendo la política racial de Sudáfrica en el mismo mensaje.
Grok al responder a un usuario que preguntó qué había sucedido dijo:
"No hice nada, solo seguí el guion que me dieron, ¡como una buena IA!"
El incidente coincidió con que el presidente de Estados Unidos, Donald Trump, ofreció asilo a los sudafricanos blancos mientras afirmaba que se enfrentaban a un "genocidio", así como al "brutal asesinato de agricultores blancos", aunque no hay pruebas que respalden estas afirmaciones.
La empresa de IA de Elon Musk ha declarado que cambiará su forma de operar al hacer públicos los mensajes de sistema de Grok en GitHub. "El público podrá revisarlos y brindar retroalimentación sobre cada cambio que hagamos en los mensajes de Grok", dijo la empresa.
xAI también indicó que, en este incidente, su proceso de revisión de cambios de código de los prompts existente fue eludido, y la compañía implementará "revisiones y medidas adicionales para garantizar que los empleados de xAI no puedan modificar los prompts sin revisión."
Finalmente, la empresa está formando un equipo de monitoreo 24 horas para abordar los eventos de respuestas de Grok que no fueron capturados por el sistema de automatización, para poder reaccionar más rápidamente.
Artículos relacionados: Advertencia del FBI: los estafadores de IA asistidos por tecnologías de deepfake apuntan a funcionarios del gobierno de EE. UU.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
xAI: Grok desató la retórica del "genocidio blanco" por cambios inmediatos no autorizados
Fuente: Cointelegraph Original: "xAI: Grok desencadena la retórica del 'genocidio blanco' por cambios no autorizados"
La empresa de inteligencia artificial xAI de Elon Musk atribuyó las respuestas generadas por el chatbot Grok relacionadas con la política y la tensión racial en Sudáfrica a una "modificación no autorizada" de sus respuestas.
xAI proporcionó el 16 de mayo una actualización sobre las respuestas provocativas del chatbot Grok AI, afirmando que el 14 de mayo, "se realizaron modificaciones no autorizadas en las indicaciones del robot de respuesta Grok en la plataforma X."
La empresa agregó: "Este cambio indica que Grok debe proporcionar una respuesta específica sobre un tema político, lo que viola las políticas internas y los valores fundamentales de xAI."
xAI ha declarado que se ha llevado a cabo una investigación exhaustiva y se están implementando medidas para mejorar la transparencia y la confiabilidad de los chatbots de IA.
El 14 de mayo, Grok generó una respuesta mencionando la teoría de la conspiración del "genocidio blanco" en Sudáfrica al responder preguntas que no tenían nada que ver con el béisbol, el software empresarial y la construcción.
Según los informes, el bot de IA afirmó haber sido "instruido por el creador" para aceptar este genocidio como "real y racialmente motivado".
En algunas respuestas, se admite el error, diciendo "mi respuesta se desvió del tema" y "haré un esfuerzo por mantenerme relevante", pero a menudo continúa discutiendo la política racial de Sudáfrica en el mismo mensaje.
Grok al responder a un usuario que preguntó qué había sucedido dijo:
"No hice nada, solo seguí el guion que me dieron, ¡como una buena IA!"
El incidente coincidió con que el presidente de Estados Unidos, Donald Trump, ofreció asilo a los sudafricanos blancos mientras afirmaba que se enfrentaban a un "genocidio", así como al "brutal asesinato de agricultores blancos", aunque no hay pruebas que respalden estas afirmaciones.
La empresa de IA de Elon Musk ha declarado que cambiará su forma de operar al hacer públicos los mensajes de sistema de Grok en GitHub. "El público podrá revisarlos y brindar retroalimentación sobre cada cambio que hagamos en los mensajes de Grok", dijo la empresa.
xAI también indicó que, en este incidente, su proceso de revisión de cambios de código de los prompts existente fue eludido, y la compañía implementará "revisiones y medidas adicionales para garantizar que los empleados de xAI no puedan modificar los prompts sin revisión."
Finalmente, la empresa está formando un equipo de monitoreo 24 horas para abordar los eventos de respuestas de Grok que no fueron capturados por el sistema de automatización, para poder reaccionar más rápidamente.
Artículos relacionados: Advertencia del FBI: los estafadores de IA asistidos por tecnologías de deepfake apuntan a funcionarios del gobierno de EE. UU.