Un reciente estudio ha encendido las alarmas sobre la fiabilidad de los motores de búsqueda impulsados por inteligencia artificial, herramientas que millones de usuarios emplean diariamente para obtener información. La investigación, publicada por Columbia Journalism Review, demuestra que estos sistemas inventan respuestas hasta en el 60% de los casos, incluso cuando se les proporcionan citas textuales de noticias reales. Este preocupante hallazgo cuestiona la confiabilidad de una tecnología que cada vez más personas adoptan como fuente primaria de conocimiento.
Las pruebas realizadas mostraron diferencias significativas entre plataformas: mientras Perplexity falló en el 37% de las consultas, Grok de xAI llegó a fabricar información en el 97% de los casos. Entre los errores más recurrentes se encontraron titulares falsos, enlaces rotos o inexistentes, y detalles completamente inventados. Este fenómeno, conocido como «alucinación» en el ámbito de la IA, revela una tendencia preocupante: los sistemas priorizan dar una respuesta -aunque sea errónea- antes que reconocer limitaciones en su conocimiento.
La situación se agrava por las prácticas cuestionables de algunos motores de búsqueda respecto a contenido protegido. Plataformas como Perplexity han sido sorprendidas eludiendo restricciones de rastreo en sitios como National Geographic, generando tensiones con medios que exigen acuerdos de reparto de ingresos. Estos conflictos legales se suman a otro problema grave: cuando estos sistemas atribuyen erróneamente información falsa a medios confiables, dañan su reputación, como ya ha ocurrido con casos como el de la BBC y Apple.
El problema radica en parte en la arquitectura misma de estos sistemas, que utilizan generación aumentada por recuperación, combinando datos en tiempo real con información previamente entrenada. Esta mezcla, aunque potente, abre la puerta a sesgos y manipulaciones, especialmente cuando ciertas fuentes introducen datos falsos en el sistema. Pese a estas fallas, el uso de estos motores crece aceleradamente: un 25% de estadounidenses ya los emplea regularmente, y muchos aceptan sus respuestas sin verificar fuentes, repitiendo un patrón observado antes con los buscadores tradicionales.
Expertos como Mark Howard de Time advierten que, aunque estas herramientas mejorarán con el tiempo, los usuarios deben mantener una actitud crítica, especialmente con servicios gratuitos. «Hoy es el peor momento de estos productos», señala Howard, recordando que toda tecnología pasa por fases de desarrollo. Sin embargo, el impacto de difundir información falsa a escala masiva no puede subestimarse. Mientras la industria trabaja en soluciones, el estudio sirve como recordatorio: en la era de la IA, la verificación sigue siendo responsabilidad del usuario final.
Con información de: Gizmodo.com