Un metaanálisis publicado en mayo de 2025 en la revista *Humanities Social Sciences Communications* ha sido retirado tras detectarse errores en sus afirmaciones sobre el impacto de ChatGPT en el aprendizaje. El estudio era uno de los más ambiciosos del área: combinaba los resultados de 51 investigaciones separadas para comparar el rendimiento de estudiantes que usaban el chatbot frente a los que no lo hacían.
Qué ha pasado
Tal y como informa TechSpot, el paper fue publicado en mayo de 2025 y retirado con posterioridad después de que se identificaran fallos en su metodología y en las conclusiones que extraía. La retracción llegó cuando el estudio ya había circulado ampliamente, lo que significa que sus afirmaciones —no verificadas— ya habían influido en debates sobre el uso de IA en entornos educativos.
El material disponible no detalla cuáles fueron los errores concretos que motivaron la retirada, ni quiénes fueron los autores del estudio ni la institución responsable.
El contexto del sector
El caso llega en un momento en que instituciones de todo el mundo están tratando de establecer marcos claros para el uso de la IA en educación. La UNESCO ha publicado guías específicas para responsables de políticas educativas y ha lanzado un Observatorio de Inteligencia Artificial en Educación. En España, el 44% de los encuestados en un informe de la Fundación Cotec considera que la IA no debe ignorarse en los procesos educativos, porcentaje que sube al 51% entre profesionales del sector.
El problema de fondo es metodológico y no es nuevo. Los metaanálisis —estudios que agregan resultados de múltiples investigaciones— son especialmente sensibles a la calidad de los estudios que incluyen. Si los estudios originales tienen sesgos de diseño, muestras pequeñas o métricas inconsistentes, el resultado combinado amplifica esos problemas en lugar de corregirlos. En el caso de la IA educativa, muchos estudios miden «rendimiento académico» como calificaciones obtenidas, lo que no distingue entre aprendizaje real y capacidad para completar tareas con ayuda externa.
El escenario es directo: un estudiante que usa ChatGPT para resolver ejercicios puede obtener mejores notas, pero si el estudio que avala esa mejora tiene errores de base, la conclusión —que la IA mejora el aprendizaje— no está respaldada por evidencia sólida.
La retracción de este metaanálisis de 51 estudios no invalida toda la investigación existente sobre IA y educación, pero sí señala que una de las piezas más citadas del área no superó el escrutinio académico.