Un estudio publicado por The New York Times ha destapado la realidad de las búsquedas de Google con sus resultados de IA. Según la información, las Google AI Overviews están cometiendo millones de errores cada día. Muchos de los usuarios ni siquiera se dan cuenta de que han recibido una información errónea.
Que Google ha comenzado a incendiar todo lo construido desde hace años en su buscador no es una noticia nueva. Ya hemos comentado en otras ocasiones que la empresa está cambiando las reglas sin pensar en las consecuencias de sus actos. No obstante, hay quienes quieren que los usuarios conozcan lo que se esconde realmente detrás del uso de la IA en los resultados de búsqueda.
Millones de respuestas incorrectas
En The New York Times, donde sus periodistas siempre tratan de compartir con los lectores la realidad de las noticias que les rodean, han hecho una investigación sobre las AI Overviews de Google. Los resultados determinan que 1 de cada 10 búsquedas de IA que se hacen en Google al día tienen información falsa.
La cifra resulta dramática cuando somos conscientes de que Google recibe 5 billones de consultas al año (5 trillones en inglés, que se transforman en billones en español). Esto implica que, cada minuto, Google está lanzando a los usuarios 1 millón de respuestas erróneas. Si hablamos en horas, cada hora se comparten 57 millones de respuestas con datos falsos. Las cifras son más que preocupantes para que los usuarios comiencen a ver que esta forma de buscar no es fiable.
El origen del estudio
The New York Times ha pedido a la empresa Oumi especializada en IA que haga los análisis pertinentes de Google para poner a prueba la veracidad y confianza de sus resultados. Lo han hecho analizando Gemini mediante un sistema de SimpleQA, que se trata del método más habitual para poner a prueba a las IA. Como expertos en IA sabían cómo tenían que actuar para comprobar si realmente Google está realizando un buen trabajo o no con las Overviews.
En el trabajo de análisis realizado por Oumi se han probado miles de consultas de los resultados de Google. Lo que han descubierto es que Google no siempre proporciona un único resultado cuando le hacemos una pregunta. Hay muchos casos en los que puede dar varias respuestas, lo que denota falta de precisión. Aseguran que, incluso repitiendo la misma consulta segundos después de haberla realizado, se han encontrado con respuestas totalmente diferentes. Algo totalmente inconcebible para otro tipo de resultados, como un diccionario online, una web de recetas o cualquier otro medio especializado.
Desde Google critican el estudio realizado por Oumi y dicen que sus pruebas no reflejan el rendimiento real de su IA con búsquedas reales. Mientras tanto, documentos internos de Google confirman que, cuando Gemini 3 se usa de manera independiente fuera de su estructura de búsquedas de Google, llega a dar resultados erróneos en un 28% de los casos.
Los enlaces en las búsquedas con IA
Otro de los aspectos que han descubierto en el estudio es que los enlaces que incluye Gemini en los resultados de las búsquedas no suelen estar dirigidos a confirmar la información que está dando. Tanto si los resultados que ha dado Gemini en las Overviews son correctos como si son erróneos, los enlaces que se incluyen no siempre sirven como sistema de verificación.
Según explican, hay casos en los que un enlace incluido por Gemini ofrece la información correcta cuando la IA ha dado información falsa. Eso haría que el propio resultado de Gemini pasara a ser irrelevante y que los usuarios tuvieran que acostumbrarse a pinchar en el enlace. No obstante, el funcionamiento de la IA también falla al recomendar enlaces, dado que Oumi dice que, en muchas de las ocasiones, los enlaces que se recomiendan no responden a las dudas planteadas.
Lo que resulta más problemático para el uso de los Overviews de Google es saber que la tecnología, en vez de estar mejorando, está empeorando, al menos con el sistema de enlaces. Aunque los niveles de acierto con las búsquedas están aumentando, no está ocurriendo lo mismo con los enlaces. El estudio confirma que los errores entre la conexión de resultado-enlace eran del 37% en Gemini 2 y que, en febrero, con Gemini 3, subieron hasta el 56%. Esto reflejaría la inestabilidad del sistema y lo mal que estaría reuniendo información a través de la red para servir las respuestas a los usuarios.
Por si esto fuera poco, recuerdan cómo estos resultados de Overviews se pueden manipular para engañar a Google y entorpecer el uso de las búsquedas. Así, un periodista de la BBC publicó a propósito información falsa en un experimento en su blog y, horas después, descubrió que Google ya la había asimilado para sus Overviews. En ese momento, las dudas que resolvía Google sobre esa cuestión utilizaban la información falsa que el periodista había puesto como cebo para la IA. Este tipo de manipulación podría provocar un buen número de problemas y estropear las búsquedas en Google tal y como las hemos conocido durante años.
