Un estudio de la Universidad de Princeton detectó que una parte significativa de los artículos en Wikipedia podría estar creada por IA, lo que plantea nuevos desafíos en la fiabilidad de la enciclopedia.
MIRÁ TAMBIÉN | La película biográfica de Michael Jackson se estrenará en octubre de 2025
Un reciente estudio de la Universidad de Princeton, titulado El Auge del Contenido Generado por IA en Wikipedia, arrojó resultados reveladores sobre el uso de inteligencia artificial en la creación de artículos en esta plataforma. Según el informe, el 4.36% de los artículos en inglés publicados en agosto de 2024 presentan signos de haber sido generados por IA. Sin embargo, el margen de detección sugiere que la cifra podría superar el 5%, lo que despertó preocupaciones en la comunidad sobre la veracidad y calidad de estos contenidos.
Los investigadores, Creston Brooks, Samuel Eggert y Danis Peskoff, analizaron 2,909 artículos utilizando herramientas de detección de IA como GPTZero y Binoculars. Según el estudio, las detecciones se calibraron para minimizar los falsos positivos al 1%, basándose en artículos escritos antes de la introducción de GPT-3.5.
En otras versiones lingüísticas de Wikipedia, el porcentaje de artículos generados por IA es menor pero no insignificante: entre el 1.5% y 4.5% en francés, 5% en alemán y entre el 3% y 5% en italiano. Estos hallazgos han generado inquietud sobre la posible pérdida de calidad y la aparición de sesgos en los contenidos.
MIRÁ TAMBIÉN | Pilotos de Fórmula 1 exigen transparencia sobre multas de la FIA
Los investigadores de Princeton señalaron que los artículos creados por IA a menudo presentan una calidad inferior en comparación con los redactados por personas, mostrando una notable falta de referencias y, en ocasiones, sesgos en temas sensibles. Además, el estudio sugiere que muchas de estas publicaciones responden a intereses de autopromoción y a la necesidad de producción rápida de contenido, factores que ponen en riesgo la integridad y objetividad de Wikipedia como fuente de consulta.
El crecimiento de contenidos generados por IA en Wikipedia plantea un reto importante para su comunidad de editores y usuarios. La utilización de modelos automatizados permite la creación rápida de artículos, pero conlleva riesgos de calidad y precisión que podrían erosionar la confianza en esta plataforma colaborativa. Según los investigadores, la clave para el futuro de Wikipedia radica en un equilibrio que permita beneficiarse de la IA sin sacrificar los estándares de calidad.
En respuesta a estos desafíos, se sugiere una mayor vigilancia y mecanismos de control para mantener la fiabilidad de Wikipedia, así como una colaboración entre humanos e IA que priorice la veracidad de la información.
Fuente: TN
Foto: xataka