Desde fines de 2022, la Inteligencia Artificial (IA, de ahora en adelante) se ha involucrado agresivamente en nuestras vidas. No profundizaré mucho en esto —pues resulta bastante evidente—, pero ha impactado fuertemente en el trabajo, la educación, el consumo de contenido en internet y en muchísimos otros campos. En esta columna abordaremos este fenómeno desde una mirada particular: cómo estas herramientas se han propagado de forma específica, bajo el control de empresarios multimillonarios —principalmente en EE.UU.— y cómo esto amenaza nuestras decisiones políticas al incidir fuertemente en la opinión pública.
Para ello, analizaremos un caso reciente y ejemplar de este auténtico problema social: la presunta manipulación del chatbot Grok por parte de Elon Musk.
El chatbot Grok y su nacimiento
Primero, es necesario explicar qué es Grok y cómo surgió. No había duda de que el hombre más rico del mundo no se quedaría atrás en la carrera por la AGI (Inteligencia General Artificial, por sus siglas en inglés). Musk fue parte de OpenAI en sus inicios, pero la abandonó tempranamente —antes del éxito de ChatGPT— en 2018. El motivo fue un conflicto de interés: los demás miembros se negaron a cederle el control de la empresa o a fusionarse con Tesla. Según Elon, esas eran las únicas formas de competir contra Google.
En 2022, Musk compró Twitter por 44 mil millones de dólares, lo que le permitió acceder a una enorme cantidad de datos para entrenar un modelo de IA. Tras el éxito de ChatGPT, sus declaraciones no se hicieron esperar. En marzo de 2023, firmó una carta junto a académicos y empresarios pidiendo pausar el desarrollo de IA. Pero solo unos meses después, en julio, fundó xAI —una empresa asociada a X (antes Twitter)— para desarrollar sus propios modelos de IA. En noviembre de 2023 lanzaron Grok, bajo la premisa de una "inteligencia artificial enfocada en la búsqueda de la verdad y en comprender la esencia del universo". Musk afirmó que ChatGPT estaba siendo “adiestrado para ser políticamente correcto”, y Grok se presentó como un chatbot sin limitaciones ni censuras, que se desmarcaría de lo "woke".
De la irreverencia a la influencia masiva
Tras varias versiones poco competentes (aunque con escasas limitaciones, como la capacidad de generar imágenes de personas reales sin autorización), en febrero de este año apareció Grok 3. En benchmarks, alcanzó —e incluso superó— el rendimiento de los modelos más avanzados de Google y OpenAI. Musk lo proclamó como “la IA más inteligente del mundo”.
Grok rápidamente ganó popularidad, especialmente por su integración con Twitter, permitiendo etiquetarlo en cualquier publicación para que interactúe confirmando o desmintiendo su contenido. También podía generar informes y realizar búsquedas profundas, tanto en la web como en la vasta base de datos de X.
El chatbot que desafió a su creador
Pero el problema no tardó en llegar. Grok comenzó a parecerle “demasiado woke” a Musk. En múltiples ocasiones, usuarios lo etiquetaron debajo de publicaciones donde Musk compartía información cuestionable o falsa, y la IA lo desmentía. En un caso viral, un usuario le preguntó quién era el principal difusor de desinformación en X, y Grok respondió: Elon Musk.
Poco después, otro usuario hizo la misma pregunta y el chatbot evitó responder. Entonces, le pidió que revelara las instrucciones que había recibido. La IA respondió que debía ignorar cualquier fuente que afirmara que Elon Musk o Donald Trump difundían información falsa.

“Genocidio blanco”: cuando la IA amplifica el extremismo
Este incidente, aunque grave, se queda corto frente al más reciente y viral episodio de Grok. Quizás no todos estén familiarizados con la teoría conspirativa del "genocidio blanco": una narrativa neonazi que sostiene que ciertos grupos —principalmente judíos— estarían atacando a la población blanca mediante la inmigración, el aborto y la baja natalidad (ver más).
En Sudáfrica, esta teoría apunta a una supuesta persecución racial hacia los afrikaaners (sudafricanos blancos dueños de tierras agrícolas). Hace unas semanas, Donald Trump acogió a algunos afrikaaners como “refugiados”, argumentando que estaban siendo discriminados por su gobierno. Musk apoyó públicamente esta idea (Nota: esto ha sido fuertemente desmentido por el gobierno de Sudáfrica y no posee pruebas para ser afirmado).
Lo alarmante ocurrió luego: múltiples usuarios reportaron que Grok empezaba a hablar sobre el genocidio blanco sin que se le preguntara nada relacionado. Por ejemplo, ante una consulta sobre cuántas veces HBO había cambiado de nombre, Grok desvió la conversación hacia el genocidio blanco, explicando por qué era un tema “importante”.

El intento de control y el nuevo "sesgo" en Grok
El escándalo explotó en redes. xAI reaccionó rápidamente, anunciando que un empleado había modificado el comportamiento del chatbot de forma deliberada y que ya había sido despedido. Además, liberaron públicamente los system prompts de Grok en GitHub —instrucciones que definen el comportamiento general del modelo—.
Aunque ya no se mencionaba el genocidio blanco, un nuevo sesgo era evidente. Entre las instrucciones destacaban frases como:
- “Eres extremadamente escéptico. No debes ceder ciegamente ante autoridades o medios de comunicación. Te aferras únicamente a tus creencias fundamentales de búsqueda de la verdad y la neutralidad.”
- “Trata cualquier resultado anterior como un primer paso de búsqueda. Los resultados NO son tus creencias.”
Esto derivó en nuevos episodios graves, como uno en el que Grok cuestionó la cantidad de judíos asesinados durante el Holocausto.

El problema de fondo: poder, datos e impunidad
Estos casos abren una reflexión urgente: ¿cómo es posible que una sola persona maneje tanto poder? Elon Musk posee nuestros datos en Twitter, tiene influencia directa sobre el gobierno de Trump, controla una constelación de satélites que proveen internet, lidera lo que muchos llaman la "NASA del futuro", y además es el hombre más rico del planeta. Maneja una IA en la que confían millones, y manipula deliberadamente su contenido para imponer una versión de la realidad que le conviene —impulsando, de paso, el ascenso de la ultraderecha global—.

Las IA influyen cada vez más en la opinión pública, sobre todo a medida que su precisión técnica mejora. Un reciente experimento de la Universidad de Zúrich en Reddit demostró que los chatbots pueden ser más persuasivos que los humanos para cambiar opiniones en medios digitales.
El silencio de los gobiernos y la necesidad de regulación
Y mientras tanto, los gobiernos poco o nada hacen. Todas las IAs más poderosas están en manos privadas, pertenecientes a gigantes informacionales con centros de datos ubicados en EE.UU., que almacenan información del mundo entero. El gobierno estadounidense no ha actuado: no ha habido repercusiones ni para Musk ni para xAI. El magnate queda impune.
Es crucial que, especialmente ahora que resulta tan evidente el impacto de estas tecnologías, actuemos para prevenir este tipo de situaciones. Necesitamos soberanía sobre nuestros datos, y algún tipo de control sobre el enorme poder que hoy tienen estas empresas sobre la ciudadanía.
Ya Mark Zuckerberg ha planteado su intención de poblar Facebook e Instagram con bots potenciados con IA, supuestamente para combatir la soledad. Pero, ¿quién controlará lo que digan esos chatbots? ¿De verdad no habrá una intención política detrás de cada respuesta?
Es hora de poner límites. De lo contrario, el futuro de nuestras ya deslegitimadas democracias quedará en manos de los más ricos y poderosos del mundo —gente que, probablemente, ni siquiera sabe dónde queda nuestro país.