Desde la llegada de los motores de búsqueda con IA, la promesa de acceder a información inmediata sin necesidad de revisar múltiples enlaces ha seducido a millones de usuarios. Estas herramientas presentan respuestas estructuradas, eliminando la necesidad de hacer click en páginas web al recopilar datos en un solo espacio. Sin embargo, en este proceso, han surgido dudas sobre su fiabilidad y sobre cómo manejan las fuentes originales. ¿Pueden estas IA reemplazar los buscadores tradicionales sin comprometer la precisión y la correcta atribución de la información?
Un estudio del Tow Center for Digital Journalism de Columbia Journalism Review ha puesto a prueba la capacidad de los motores de búsqueda con IA para recuperar y citar correctamente noticias recientes. Los investigadores analizaron ocho herramientas con acceso en vivo a la web, realizándoles 1.600 consultas para comprobar si podían identificar con precisión el titular, el editor original y la URL de cada artículo. Los resultados han sido contundentes: más del 60 % de las respuestas eran incorrectas o presentaban errores en las citas.
Uno de los problemas más graves detectados fue la confianza con la que estas herramientas proporcionaban información errónea. En lugar de reconocer cuando no podían encontrar la respuesta, muchas optaban por generar datos inexactos con un tono de seguridad engañoso. El peor caso fue Grok 3, que falló en el 94 % de las consultas, mientras que Perplexity, considerado uno de los motores más precisos, tuvo un 37 % de error. También se detectó que ChatGPT identificó mal 134 artículos, pero solo reconoció su falta de confianza en 15 ocasiones, sin negarse nunca a responder.
Otro hallazgo preocupante fue la falta de precisión al citar fuentes. En múltiples casos, los motores de búsqueda con IA:
Citaron fuentes incorrectas o versiones sindicadas en plataformas como Yahoo News o AOL, en lugar del editor original.
Inventaron URLs que no existían, dificultando la verificación de la información.
Se negaron a responder consultas sobre temas políticos, incluso cuando los editores permitían su acceso.
Además, los investigadores encontraron indicios de que algunas herramientas podrían estar ignorando las restricciones impuestas por los medios de comunicación. Un caso llamativo fue el de Perplexity, que identificó correctamente diez artículos de pago de National Geographic, a pesar de que este medio ha bloqueado el acceso a su contenido. Esto sugiere que algunos modelos de IA podrían estar accediendo a información de manera no autorizada o a través de fuentes alternativas.
Más allá de los problemas de precisión, estos errores tienen implicaciones serias para el periodismo. Si los motores de búsqueda con IA no enlazan correctamente a las fuentes originales, los medios pierden tráfico y, con ello, ingresos publicitarios. Además, la desinformación se vuelve más difícil de rastrear y corregir, ya que los usuarios reciben respuestas empaquetadas sin transparencia sobre su procedencia.
Otro aspecto clave del estudio es la relación entre los editores y las empresas de IA. Aunque algunas compañías han firmado acuerdos de licencia con medios de comunicación, el análisis sugiere que esto no garantiza una mejor atribución. Por ejemplo, ChatGPT solo identificó correctamente uno de los diez artículos del San Francisco Chronicle, un medio con el que OpenAI tiene un acuerdo de contenido. Esto indica que, incluso cuando hay colaboración directa, los motores de búsqueda con IA siguen sin citar con precisión.
Con la creciente adopción de la IA en la búsqueda de información, surge una pregunta clave: ¿pueden estas herramientas reemplazar realmente a los motores de búsqueda tradicionales si no garantizan precisión y atribución? El estudio deja claro que aún queda un largo camino por recorrer antes de que la inteligencia artificial pueda ser una fuente confiable de información.
Más información
La entrada Los motores de búsqueda con IA tienen un problema se publicó primero en MuyComputer.