ChatGPT está creando enlaces falsos a las principales investigaciones de sus socios de noticias, según pruebas realizadas por Nieman Lab. Varios medios importantes han firmado acuerdos de licencia con OpenAI, incluyendo nombres como The Wall Street Journal, El País y The Atlantic, con la promesa de que ChatGPT producirá resúmenes atribuidos y enlaces a los sitios web de estas publicaciones.
ChatGPT y sus problemas con los enlaces
En junio, se informó que ChatGPT está generando enlaces falsos a investigaciones importantes de Business Insider, redirigiendo a los usuarios a errores 404 en lugar de a las páginas reales de los artículos. Según la fuente, esta situación no es exclusiva de Business Insider, ya que al menos 10 otras publicaciones están experimentando el mismo problema.
Estas publicaciones incluyen nombres de peso como The Associated Press, Financial Times, The Times (UK), Le Monde, Vox y Politico, entre otros.
La investigación detrás de los enlaces falsos
Durante las pruebas, se solicitó a ChatGPT que enlazara artículos destacados, incluyendo historias ganadoras del Premio Pulitzer y largas investigaciones. Aunque ChatGPT identificaba correctamente el medio que publicó la historia, los enlaces proporcionados frecuentemente llevaban a páginas de error 404.
Un ejemplo claro fue cuando se pidió a ChatGPT que enlazara la investigación del Financial Times sobre el escándalo de Wirecard. El enlace generado por el chatbot resultó ser incorrecto, llevando a una página que no existía.
Declaraciones de OpenAI
OpenAI, a través de su portavoz Kayla Wood, mencionó que las características de atribución prometidas aún están en desarrollo y no están disponibles en ChatGPT. Sin embargo, no se proporcionaron respuestas específicas sobre cómo planean abordar el problema de los enlaces falsos.
Rhonda Taylor, portavoz del Financial Times, destacó la importancia de una experiencia de usuario de alta calidad con atribuciones precisas, indicando que las citaciones de los editores aún están en progreso.
Preocupaciones en la industria de los medios
Muchos periodistas en salas de redacción que han firmado acuerdos con OpenAI han expresado su escepticismo sobre el potencial de ChatGPT como herramienta de búsqueda. Estas «alucinaciones» de enlaces falsos son profundamente preocupantes y subrayan la necesidad de más transparencia en los acuerdos con OpenAI.
Por ejemplo, David A. Graham, redactor y miembro del comité de negociación editorial del sindicato de The Atlantic, expresó que necesitan conocer más detalles sobre el acuerdo con OpenAI para proteger la integridad del periodismo y el legado de The Atlantic.
Problemas recurrentes y soluciones propuestas
Las pruebas realizadas con la versión gratuita de ChatGPT, utilizando el modelo GPT-4o, mostraron que el chatbot predice la URL más probable de una historia en lugar de la correcta. Esta predicción errónea resulta en una serie de errores 404.
Por ejemplo, cuando se pidió un enlace a la primera investigación sobre las acusaciones de mala conducta sexual contra el director de Hollywood Bryan Singer, ChatGPT proporcionó un enlace incorrecto a un artículo diferente de 2014 sobre Boko Haram.
Impacto en los medios internacionales
Las «alucinaciones» de enlaces no se limitan a publicaciones en inglés. ChatGPT también generó enlaces falsos para investigaciones nacionales en francés de Le Monde y en español de El País. Ambos medios firmaron acuerdos de licencia con OpenAI en marzo.
Aunque ChatGPT ocasionalmente genera enlaces precisos, como en el caso de la filtración de la decisión de Roe v. Wade en 2022 por Politico, los errores son demasiado frecuentes. La longitud de los acuerdos de licencia no parece influir significativamente en la precisión de los enlaces.
Conclusión
Los problemas con los enlaces falsos de ChatGPT destacan la necesidad de mejoras significativas antes de que pueda ser una herramienta confiable para la búsqueda y referencia de contenido de medios. Las publicaciones deben seguir colaborando con OpenAI para asegurar que las citaciones sean precisas y que la integridad del periodismo sea respetada.
Fuente: https://www.niemanlab.org/2024/06/chatgpt-is-hallucinating-fake-links-to-its-news-partners-biggest-investigations/