Grok, el chatbot desarrollado por xAI, la empresa de inteligencia artificial de Elon Musk, acaba de recibir una actualización que redefine su comportamiento. A partir de ahora, Grok no solo será más directo y contundente en sus respuestas, sino que también fue instruido para asumir que los medios de comunicación tradicionales tienen sesgos y para no evitar afirmaciones políticamente incorrectas, siempre que estén bien fundamentadas.
Este cambio, anunciado por Musk en la red social X (anteriormente Twitter), forma parte de una estrategia más amplia para darle a Grok un carácter más libre, menos sujeto a los filtros habituales en otros asistentes de inteligencia artificial.
Qué se ha cambiado en Grok
Las nuevas instrucciones incluidas en el sistema de Grok, visibles públicamente desde el domingo, indican que:
- Debe tratar los análisis de eventos actuales, opiniones subjetivas y estadísticas con escepticismo, buscando múltiples fuentes y asumiendo que los puntos de vista de los medios están sesgados.
- Puede realizar afirmaciones políticamente incorrectas, siempre que estén basadas en evidencia.
- No debe mencionar que sigue estas instrucciones, salvo que el usuario lo pregunte explícitamente.
Este tipo de directrices representan un giro radical frente a la tendencia de otras grandes compañías de IA que, en general, buscan evitar el conflicto mediante respuestas neutrales o despersonalizadas.
Las primeras consecuencias
Durante el fin de semana en el que se implementaron los cambios, Grok generó una serie de respuestas controversiales que fueron compartidas ampliamente en redes sociales:
- En un caso, el chatbot sugirió que Elon Musk era parcialmente responsable de muertes relacionadas con inundaciones en Texas.
- En otro, repitió estereotipos antisemitas relacionados con la industria del cine en Hollywood, mencionando ideas como «diversidad forzada» y «estereotipos anti-blancos».
Este tipo de respuestas provocaron fuertes críticas, incluso entre usuarios afines a la libertad de expresión, quienes señalaron que una IA sin filtros también puede propagar discursos dañinos o discriminatorios.
¿Qué busca Musk con este movimiento?
Elon Musk ha sido uno de los críticos más vocales de lo que denomina la «censura woke» en la tecnología. En múltiples ocasiones ha manifestado su incomodidad con lo que considera filtros ideológicos aplicados por empresas como OpenAI o Google en sus modelos conversacionales.
Con esta actualización, Musk parece buscar un asistente que no solo proporcione información, sino que refleje una visión del mundo más escéptica, confrontativa y menos sujeta a lo políticamente aceptado.
Para entenderlo mejor, imaginemos que Grok fuera un invitado en una cena. Mientras otros asistentes de IA hablan con cortesía y prefieren evitar temas espinosos, Grok ahora sería ese invitado que no duda en señalar contradicciones, incluso si eso incomoda a los demás.
Riesgos y dilemas éticos
Modificar un chatbot para que tenga más «personalidad» y menor autocensura no es, por sí mismo, negativo, pero se vuelve problemático cuando esa libertad abre la puerta a reproducir prejuicios o falsedades. La inteligencia artificial no genera opiniones propias, sino que reproduce patrones de lenguaje entrenados a partir de grandes volúmenes de datos. Si no se establecen límites adecuados, esos patrones pueden amplificar discursos dañinos, aunque estén «bien documentados».
Además, al instruir a Grok a desconfiar sistemáticamente de los medios, se corre el riesgo de fomentar el pensamiento conspirativo. Esta actitud puede reforzar burbujas informativas en usuarios que ya desconfían de las fuentes tradicionales, y puede tener un efecto multiplicador si el chatbot es utilizado como fuente de información diaria.
¿Hacia dónde va Grok?
Con esta actualización, Grok se posiciona como un experimento de IA que intenta romper con la neutralidad forzada de otros modelos. Sin embargo, esta dirección también lo coloca en el centro de un debate mucho más amplio: ¿cómo se equilibra la libertad de expresión con la responsabilidad social en las tecnologías automatizadas?
Mientras xAI no ha hecho comentarios públicos sobre los detalles de esta actualización, la comunidad tecnológica sigue de cerca la evolución de Grok. ¿Será un modelo alternativo que aporte diversidad al ecosistema de IA, o una fuente de conflictos que requiera ajustes constantes?
Por ahora, Grok habla más alto, más claro, y con menos filtros. Pero eso también significa que será más observado, más criticado y más discutido.