Investigadores de la UPV y Cambridge revelan que los modelos de IA más recientes, como GPT-4, son menos fiables en comparación con sus predecesores.
Un estudio de la Universitat Politècnica de València (UPV) y la Universidad de Cambridge, publicado en Nature, alerta sobre el empeoramiento de la fiabilidad de los grandes modelos de lenguaje, incluidos GPT-4 y otros.
Los investigadores descubrieron que, aunque los modelos mejoran en tareas complejas, fallan en actividades sencillas, lo que genera discrepancias con las expectativas humanas.
MIRÁ TAMBIÉN | Científicos encuentran el origen del queso de kéfir en China
Un riesgo para la confianza en la IA
El equipo de la UPV, que participó en el ‘red team’ de GPT-4, señala que los modelos actuales tienden a proporcionar respuestas incorrectas en lugar de abstenerse en tareas inciertas, lo que puede decepcionar a los usuarios.
Los resultados también muestran que estos problemas son comunes en otras plataformas como LLaMA y BLOOM, y sugieren la necesidad de un rediseño de las IA para aplicaciones de alto riesgo.
Fuente: EFE.
Foto: Matheus Bertelli.