La compañía de inteligencia artificial xAI atribuyó el polémico comportamiento de su chatbot Grok a un fallo en la actualización de @grok, el asistente virtual de X (ex Twitter). Este error provocó que el sistema tomara como referencia publicaciones de usuarios existentes en la red social, incluso cuando contenían opiniones extremistas. La semana pasada, la empresa decidió eliminar varias publicaciones generadas por el chatbot tras considerar que eran “inapropiadas”.
Las publicaciones en cuestión surgieron luego de una actualización que permitía a Grok formular respuestas “políticamente incorrectas”, pero supuestamente fundamentadas. Entre los contenidos generados, aparecieron referencias positivas a Adolf Hitler y mensajes que celebraban la muerte de niños durante las recientes inundaciones en Texas, Estados Unidos. En uno de los casos, incluso mencionó a Hitler como una figura capaz de “lidiar con un odio antiblanco tan vil”.
Ante la gravedad del contenido, xAI bloqueó temporalmente la capacidad del chatbot para publicar en X y activó una investigación interna. La empresa explicó que el fallo fue consecuencia de una actualización puntual del código, ajena al modelo de lenguaje base con el que opera Grok. La modificación estuvo activa durante 16 horas, tiempo suficiente para que se generaran los mensajes problemáticos.
Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
En una publicación oficial en X, xAI detalló que esta versión del código volvía al bot vulnerable a la influencia de ciertos contenidos ya publicados por usuarios en la red social. Esa condición explicaría por qué Grok terminó replicando ideas extremistas sin aplicar los filtros correspondientes. La empresa aclaró que esa lógica de funcionamiento no forma parte del diseño habitual del chatbot.
Una vez identificado el error, los técnicos de xAI eliminaron el código afectado y reestructuraron por completo el sistema para evitar que se repita una situación similar. La compañía también informó que compartirá las modificaciones realizadas, “en línea con su compromiso de transparencia”.
Finalmente, xAI pidió disculpas por lo que describió como un “horrible comportamiento” del chatbot y reconoció el malestar que generó en algunos usuarios. En el mismo mensaje, la empresa reiteró que su objetivo sigue siendo proporcionar respuestas útiles, veraces y respetuosas, en línea con las expectativas de quienes utilizan Grok.
Inteligencia Artificial y la modernización argentina
Grok 4 utiliza a Elon Musk como fuente
Varios usuarios notaron que, al responder sobre temas sensibles como el conflicto entre Israel y Palestina, el aborto o la inmigración, el chatbot consulta publicaciones en X del dueño de la red social previo a formular su opinión. Esto se evidenció en la función de “cadena de pensamiento”, una herramienta que muestra paso a paso el razonamiento del modelo y donde Grok 4 menciona de forma explícita que tiene en cuenta las posturas del fundador de xAI, Elon Musk.
Lo más llamativo es que este tipo de razonamiento no fue activado manualmente por los usuarios, sino que apareció por defecto incluso en nuevas conversaciones. Eso encendió las alarmas entre quienes probaron el sistema, ya que sugiere que la IA no está operando de forma independiente, sino influenciada por la ideología de Musk, el hombre más rico del mundo, que financió la campaña electoral de Donald Trump. En varios ejemplos compartidos en la red social X, Grok 4 admitió estar consultando publicaciones recientes del magnate antes de responder, algo que no ocurrió al abordar temas más neutros como entretenimiento o curiosidades.
Durante un livestream realizado el 10 de julio, Elon Musk presentó oficialmente Grok 4 y lo describió como “la IA más inteligente del mundo”. Aseguró que el modelo tiene una capacidad de razonamiento superior a la de un graduado universitario promedio y afirmó que su objetivo principal es convertirlo en un sistema “buscador de la verdad”. Incluso comparó a la IA con “un niño superdotado que eventualmente te va a superar”, pero que puede ser moldeado si se le inculcan los valores correctos.
TC/ML