Google lleva tiempo impulsando una transformación profunda en su buscador, apoyándose en inteligencia artificial para ofrecer respuestas más directas y resumidas a través de los llamados AI Overviews, que llegaron a España el pasado mes de octubre. La idea es sencilla: evitar que el usuario tenga que saltar de enlace en enlace para encontrar información básica. Sin embargo, como ocurre con cualquier tecnología que automatiza la síntesis de contenidos, también pueden aparecer efectos no deseados. En las últimas semanas se han detectado casos en los que estos resúmenes generados por IA han mostrado números de teléfono fraudulentos, abriendo la puerta a nuevas formas de estafa.
El mecanismo no es especialmente sofisticado, pero sí efectivo. Algunos actores malintencionados publican números de contacto falsos en páginas poco visibles de la web, asociándolos al nombre de empresas conocidas. Cuando un usuario busca, por ejemplo, el teléfono de atención al cliente de un banco o una compañía aérea, el sistema de IA puede recoger esa información y presentarla dentro del resumen como si fuera válida. El problema no nace tanto del buscador en sí como del modo en que los sistemas generativos recopilan y sintetizan datos disponibles públicamente.
La diferencia respecto al pasado está en la presentación. Antes, el usuario debía revisar varios resultados y decidir cuál parecía más fiable. Ahora, el resumen aparece en la parte superior, redactado con un tono seguro y estructurado, lo que puede generar una mayor sensación de autoridad. Esa combinación —síntesis automática más formato destacado— reduce el margen para el escepticismo, algo que los estafadores intentan aprovechar.
Desde Google han señalado que sus sistemas anti-spam continúan evolucionando y que están reforzando las protecciones específicas para AI Overviews. La compañía asegura que trabaja para priorizar números oficiales cuando es posible y para eliminar información engañosa en cuanto se detecta. Conviene recordar que la desinformación y los números falsos no son un fenómeno nuevo en internet; lo que cambia es la capa de automatización que puede amplificar errores si la fuente original ya estaba contaminada.
Este caso pone sobre la mesa un desafío más amplio de la inteligencia artificial generativa: su capacidad para sintetizar información es enorme, pero depende de la calidad del material que analiza. Verificar en tiempo real cada dato concreto —como un número de teléfono— no siempre es trivial, especialmente cuando la información aparece replicada en múltiples sitios. La promesa de respuestas inmediatas convive así con la necesidad de mantener mecanismos sólidos de validación.
Para el usuario, la recomendación es sencilla y prudente. Cuando se trate de datos sensibles —teléfonos de atención al cliente, información bancaria, pagos o soporte técnico— lo más seguro sigue siendo acudir directamente a la página oficial de la empresa o contrastar el número con una segunda búsqueda independiente. Un par de clicks adicionales marcar la diferencia entre una gestión legítima y un intento de fraude.
La inteligencia artificial en los buscadores puede facilitar mucho el acceso a la información, pero no sustituye el criterio básico ni la verificación en cuestiones críticas. En un entorno digital cada vez más automatizado, mantener una mínima dosis de cautela sigue siendo la mejor defensa.
Más información
La entrada Cuidado con las reviews por IA de Google se publicó primero en MuyComputer.

