Inicio Medios Las nuevas búsquedas por IA y el problemas de las citas

Las nuevas búsquedas por IA y el problemas de las citas

Una nueva investigación del Tow Center for Digital Journalism vuelve a encender las alertas sobre el comportamiento de los motores de búsqueda basados en inteligencia artificial. El informe, publicado en Columbia Journalism Review, evaluó ocho herramientas de búsqueda generativa (como ChatGPT, Gemini o Perplexity) y reveló un patrón preocupante: más del 60% de las respuestas contenían errores en la identificación de artículos periodísticos, sus autores o URLs originales.

Ante un uso creciente de herramientas conversacionales en reemplazo del buscador tradicional, este tipo de fallos no son menores ya que afectan directamente a la visibilidad, credibilidad y monetización del trabajo periodístico.

Entre los hallazgos, el estudio muestra que los modelos premium —como Perplexity Pro o Grok 3— no solo fallan con más frecuencia que sus versiones gratuitas, sino que lo hacen con una confianza alarmante. A menudo, los chatbots ofrecen respuestas erradas con tono seguro y sin matices, dificultando al usuario detectar cuándo está frente a información equivocada.

Otro punto crítico documentado por el informe es que varios chatbots ignoraron las restricciones establecidas por medios en sus archivos robots.txt, accediendo a contenidos que explícitamente no deberían rastrear. Perplexity Pro, por ejemplo, citó correctamente artículos de National Geographic, a pesar de que el medio bloquea su acceso y no tiene un acuerdo comercial con la empresa.

Y aunque algunas plataformas mantienen convenios con medios —como los casos de Time o San Francisco Chronicle con OpenAI— el estudio demuestra que esas alianzas no garantizan una correcta citación ni mayor precisión. Incluso en los casos de mayor acierto, las tasas de error siguen siendo preocupantes.

Entre los principales hallazgos del informe se destacan:

  • Más del 60% de las respuestas de los chatbots evaluados fueron incorrectas.
  • Grok 3 tuvo el peor desempeño: 94% de error en sus respuestas.
  • Perplexity respondió incorrectamente el 37% de las veces.
  • ChatGPT respondió mal en 134 de 200 consultas, y solo en 15 ocasiones expresó duda.
  • Perplexity Pro citó correctamente cerca de un tercio de los artículos de National Geographic, pese a que el medio bloquea sus crawlers
  • Los modelos premium ofrecieron más respuestas correctas, pero también cometieron más errores con alta confianza.

El trabajo concluye que los problemas no son exclusivos de un modelo, sino transversales al enfoque actual de las búsquedas generativas: atribuciones incorrectas, URLs rotas, ignorancia de protocolos y una peligrosa ilusión de precisión. Todo esto configura un escenario hostil para el ecosistema periodístico.

Danielle Coffey, presidenta de la News Media Alliance, resume el dilema con claridad: “Sin la posibilidad de excluirnos del scraping masivo, no podemos monetizar nuestro contenido ni pagar a nuestros periodistas”. Mientras el desarrollo de estas tecnologías avanza, los medios enfrentan un nuevo desafío: cómo convivir con plataformas que usan su contenido sin garantizar visibilidad, precisión ni compensación.

Más info: AI Search Has A Citation Problem