Grok, el asistente de inteligencia artificial (IA) de X (antes Twitter), se ha convertido en la herramienta que muchos usuarios de esta red social utilizan para verificar información, pero no es tan efectivo como parece.
Expertos en IA han advertido que tiene una alta taza de errores y que los usuarios no deberían fiarse de su veracidad. De hecho, ya se han viralizado respuestas erróneas de Grok e incluso ha demostrado no ser objetivo, razón por la que hace unas semanas X lo deshabilitó por unos días para actualizarlo.
“Los chatbots basados en IA buscan generar un texto convincente, bien estructurado, y que sea cierto o verdadero, no importa”, explicó a Agencia EFE, Javi Cantón, profesor e investigador en la Universidad Internacional de La Rioja, experto en IA y desinformación.
Cantón señala que estas herramientas no saben “contrastar hechos en tiempo real ni aplican criterios periodísticos de verificación”. Además, “no entienden lo que afirman. En definitiva, generan plausibilidad lingüística, no verdad factual”, subraya.
A estas limitaciones —propias de las herramientas de IA— se suman “los sesgos ideológicos y la eliminación de límites poco éticos que se han incluido en su programación”, agrega el experto.
Grok no es de confianza
Las IA pueden ser entrenadas con ‘prompts’, es decir, instrucciones, pero es un hecho que no dominan todos los aspectos de sus tareas, por muy avanzadas que sean.
Incluso los desarrolladores siguen batallando con las “alucinaciones”, que es el término que utilizan para referirse a cuando una IA especula en lugar de entregar información real.
Recientemente, un estudio de la revista Columbia Journalism Review evaluó la capacidad de ocho herramientas de IA para acceder, presentar y citar las noticias que utilizaban como fuente.
Entre ellas, analizaron a ChatGPT Search de OpenAI, Perplexity, Perplexity Pro, DeepSeek Search, Copilot de Microsoft, Grok-2 y Grok-3 (beta) de xAI y Gemini de Google.
La investigación concluyó que cuando los chatbots no podían responder con precisión a algunas consultas, en lugar de decir que no tenían la respuesta, entregaban respuestas incorrectas o especulativas.
Asimismo, “los chatbots premium proporcionaron respuestas incorrectas con mayor confianza que sus contrapartes gratuitas”, dice el reporte.
Cantón advierte que, estas herramientas están hechas “para darnos la razón y adularnos”, por lo que “no podemos fiarnos al 100 % de lo que nos dicen“.
Referencia:
Klaudia Jaźwińska y Aisvarya Chandrasekar. AI Search Has A Citation Problem. Revista Columbia Journalism Review, 2025.
Fuente: Biobio Chile