""

Inteligencia artificial y educación


Retos y oportunidades en España
FECHA PUBLICACIÓN:

Introducción

Aunque comenzó a desarrollarse a mediados de la década de 1950, la inteligencia artificial (IA) se ha popularizado en los últimos años, especialmente con la eclosión de la IA generativa en 2022 (Ver cuadro 1)1,2. En la denominada era de la implementación, se compara la llegada de la IA con la introducción de la electricidad1. Se considera que tiene el potencial de revolucionar decenas de industrias diferentes y transformar el mercado de trabajo1,3–5. Por ejemplo, según el INE, en España la emplean el 9,55 % de las empresas con más de diez trabajadores, porcentaje que se cuadriplica en las empresas de más de 250 empleados6. Además, la llegada de la IA generativa ha aumentado el potencial de automatización de los trabajos desempeñados por empleados con mayor nivel educativo2. Según el personal experto, el cambio estructural no deriva solo de la disponibilidad de nuevas herramientas, sino de que la IA permite, si así se decide, delegar en las máquinas tareas complejas que antes eran dominio exclusivo de la inteligencia humana7.

El sector educativo se considera uno de los más sensibles a los cambios que causará la IA, tanto por las tareas que podrán ser automatizadas o complementadas por ella como por el potencial aumento de la productividad del personal educativo4,8.

A pesar de las expectativas, es demasiado pronto para saber si será una tecnología realmente disruptiva9. Por el momento, pocos países la integran en sus sistemas educativos10. Sin embargo, el 82 % de los alumnos españoles de entre 14 y 17 años, el 73 % del profesorado y el 69 % de los padres y madres encuestados dice haber usado alguna vez alguna herramienta de IA, principalmente chatbots o asistentes virtuales11. De hecho, el 40 % del alumnado afirma usar ChatGPT de manera frecuente11.

Además, el 39 % del profesorado encuestado y el 57 % de los padres y las madres cree que la IA tendrá un impacto positivo en la educación, con solo un 27 % de los primeros y un 11 % de los segundos inclinándose por un efecto negativo o muy negativo11. Sin embargo, la sociedad también percibe el riesgo de exclusión que pueden traer los modelos educativos digitales, donde se incluiría la IA, ante la falta de acceso a las infraestructuras necesarias para implementar estos modelos en algunos hogares12.

La aplicación de IA en la educación supone un reto educativo y social que parte de una innovación tecnológica, lo que entronca con el debate sobre el uso de nuevas tecnologías en la educación13. A este respecto, un reciente informe de la UNESCO indica que escasean los datos fiables e imparciales sobre el impacto de la tecnología educativa, ya que esta evoluciona más rápido de lo que es posible evaluarla y en ocasiones la validación procede de las propias empresas desarrolladoras10. Entre el personal experto hay un gradiente de opiniones, desde los que se centran en los aspectos negativos que la tecnología tiene sobre el aprendizaje a los que la perciben como la revolución que transformará la educación13. En este debate, algunas voces apuntan que el ser humano siempre ha estado involucrado con la tecnología y recuerdan la controversia que causó la instalación de pizarras grandes en las aulas del siglo XIX, cuando los estudiantes se rebelaron contra la idea de resolver problemas en la pizarra sin la ayuda de los libros y los profesores tuvieron que descubrir su utilidad para dar instrucciones al grupo completo13. Así, cualquier herramienta, sea digital o no, se podría considerar tecnología y hay que decidir cuál es la mejor forma de usarla13.

Cuadro 1. La eclosión de la IA generativa

La inteligencia artificial generativa es una tecnología que puede crear contenido, como texto, imágenes, audio o video a petición de las indicaciones (prompts) que escribe el usuario en lenguaje natural26.

La herramienta ChatGPT (cuyas siglas se traducen como modelo de lenguaje basado en un transformador generativo previamente entrenado) es una aplicación de IA generativa especializada en dialogar (chatbot), que fue lanzada por la empresa privada OpenAI en noviembre de 202226,27. Le siguieron otras como Gemini, de Google, Microsoft Copilot o el software libre de Meta, Llama 3.1. Además, hay herramientas que aportan las fuentes del texto y opciones especializadas en artículos científicos como Consensus o SciteAI28. En particular, ChatGPT ha sido adoptada rápidamente, es especialmente popular entre los jóvenes y cuenta con más de 200 millones de usuarios a nivel mundial. Entre ellos, más de 4 millones residen en España10,26,29.

ChatGPT es un modelo de lenguaje de gran tamaño (LLM, por sus siglas en inglés) que se basa en el aprendizaje profundo, con miles de millones de parámetros, para controlar la respuesta del sistema27. El objetivo es que el modelo aprenda a predecir qué palabra es más probable que siga a la anterior en una frase27. Para ello, se entrena con gran cantidad de textos descargados de internet y, en fases posteriores, las respuestas son refinadas con supervisión humana27. El resultado son textos que se parecen mucho a los generados por personas27. Sin embargo, estos modelos no comprenden realmente el lenguaje30 y, al no basarse en reglas lógicas sino en la probabilidad, la información generada no siempre es fiable31 y puede ser fuente de desinformación26,32. Además, el entrenamiento del modelo de ChatGPT-4o, recientemente liberado, terminó en octubre de 2023, por lo que no ofrece información actualizada. Sin embargo, otros servidores que incorporan estas tecnologías disponen de acceso continuo a internet y sí lo hacen33.

Aunque por su entrenamiento muchos modelos de lenguaje de gran tamaño son multilingües, actualmente almacenan más conocimiento en inglés, lo que puede derivar en que usuarios de otras lenguas reciban respuestas diferentes, de menor calidad, ante una misma pregunta34,35. A este respecto, en España se está desarrollando un modelo de lenguaje de gran tamaño entrenado en español, catalán, vasco y gallego financiado por el Proyecto Estratégico para la Recuperación y Transformación Económica (PERTE) de la Nueva Economía de la Lengua36.

Otro aspecto a tener en cuenta es que estos modelos siempre ofrecen una respuesta, pero no suelen intentar clarificar antes a lo que se refiere el usuario, ni suelen aportar explícitamente información fiable sobre el grado de certidumbre de sus afirmaciones37,38. Hay investigaciones en curso para mejorar estos aspectos39,40.

Entre las formas de mejorar este tipo de modelos, una de las más habituales es aumentar su tamaño, lo que incrementa el número de parámetros y la cantidad de datos de entrenamiento41. Aunque hay otras opciones con menor consumo energético, esta estrategia de mejora conlleva costes ambientales y aumenta el precio de implementar los modelos, lo que limita el acceso a nuevos desarrolladores y los idiomas que pueden beneficiarse de las mejoras41. Por eso, algunos expertos se plantean si es necesario seguir aumentando su tamaño y proponen aproximaciones más racionales, con revisión previa de los datos que alimentan el modelo41.

Actualmente el usuario puede refinar algunos de estos modelos alimentándolos con sus propias bases de datos para aumentar su grado de especialización en algún ámbito, adaptar las respuestas a un estilo determinado o mejorar su desempeño en alguna tarea42–44. Esto conlleva una inversión de tiempo y recursos42–44. Aunque mejorables45,46, algunos de estos modelos, los denominados multimodales, han sido entrenados con imágenes y texto y teóricamente representan la semántica del lenguaje de forma más parecida a los humanos, al tener capacidades mejoradas para relacionar datos de distinto tipo47–49.

El uso de la IA en educación conlleva beneficios y riesgos, sobre los que todavía hay incertidumbres14,15 y falta de estudios sistemáticos16–19. Sin embargo, algunos recalcan que la incertidumbre en materia tecnológica siempre es temporal e indican que el alarmismo distrae de los problemas reales sobre los que se debe meditar en el momento actual14. También indican que la IA es sustancialmente distinta y complementaria a la inteligencia humana y que el reto es establecer un ecosistema donde puedan cooperar20,21. En esta línea, otros proponen huir de visiones utópicas o distópicas, que califican como un falso dilema entre la innovación o el retroceso22,23.

Como alternativa, llaman a la acción para reflexionar sobre la mejor forma de equipar a las instituciones educativas no solo con las herramientas y las metodologías necesarias, sino también con las capacidades humanas, la mentalidad, la ética y los marcos regulatorios para apoyar la evolución de la educación23. En esta vía, la celeridad con la que surgen nuevas tecnologías dificulta actualizar la legislación, las pedagogías y las formas de monitorización al ritmo preciso24,25.

Para adaptar la educación y la formación a la era digital, que incluye la IA como una herramienta más, se están desarrollando planes a nivel europeo y nacional (Ver Cuadro 2).

Cuadro 2. Planes para adaptar la educación a la era digital.

Para adaptar la educación y la formación a la era digital, que incluye la IA como una herramienta más, la Comisión Europea lanzó en 2020 el Plan de Acción de Educación Digital 2021-202750.

A nivel nacional, recientemente se ha publicado la nueva Estrategia de Inteligencia Artificial, que viene a reforzar y acelerar la edición de 2020 (ENIA)51. Además, la Agenda España Digital 2026, en el eje estratégico relativo a las personas, indica como objetivo completar la transformación digital de la educación52.

Para ello, entre 2021 y 2024 se presupuestó destinar 1 412 millones de euros a las líneas del Plan Nacional de Competencias Digitales para la digitalización de la educación y el desarrollo de competencias digitales para el aprendizaje y a lo largo de la vida laboral53,54. A nivel universitario, mediante la coordinación entre el Ministerio de Ciencia, Innovación y Universidades y la Conferencia de Rectores de las Universidades Españolas (CRUE), se propone modificar los planes de estudio para ampliar la formación digital de los futuros maestros e incluir la formación digital en el currículum de las diferentes carreras, entre otras medidas53.

El objetivo de digitalización de la educación, que incluye la IA, se concretó por parte del Ministerio de Educación, Formación Profesional y Deportes en el Plan de Digitalización y Competencias Digitales del Sistema Educativo (Plan #DigEdu)55.

En resumen, la Agenda España Digital 2026 establece la visión global para la digitalización del país, el Plan Nacional de Competencias Digitales define cómo mejorar las habilidades digitales de la población y el Plan #DigEdu es la estrategia específica para llevar la digitalización al sistema educativo53,55.

Oportunidades de la IA para el alumnado

Existen múltiples aplicaciones basadas en IA cuyo propósito es apoyar al estudiantado en su aprendizaje19,56. Por ejemplo, algunas resuelven las operaciones matemáticas que el usuario escanea paso a paso, otras interpretan los esquemas del estudiante y ofrecen retroalimentación, otras ayudan a escribir o corregir código, a mejorar dibujos o animarlos19,57,58. También hay software educativo para aprender idiomas, traducir textos o resolver las dudas del alumnado19,57,58. Respecto a su uso en las aulas, el Ministerio de Educación, Formación Profesional y Deportes ha publicado un documento orientativo que analiza el grado de cumplimiento de la legislación europea en materia de protección de datos de carácter personal de más de 70 aplicaciones de IA con versión gratuita58. Entre las más populares se encuentran las herramientas de IA generativa y las de aprendizaje adaptativo.

Herramientas de IA generativa

A pesar de lo extendido de su uso entre los estudiantes11, las aplicaciones más populares están recomendadas solo a partir de los 13 años59 y, en algunos casos, de los 1860. Como el contenido generado puede no ser apropiado, los menores de 13 años necesitan consentimiento paterno para usar ChatGPT, aunque ninguna de las herramientas tiene un mecanismo de verificación de edad60.

Los estudiantes adultos o con consentimiento pueden emplear IA generativa para resumir, esquematizar, destacar palabras clave, obtener definiciones y ampliar una explicación, expresar una idea de manera alternativa, buscar bibliografía básica, estructurar trabajos, traducir o simplificar textos, revisar su estilo gramatical y formato, generar cuestionarios de autoevaluación, corregir código, redactar su currículum vitae, actuar como oponente para preparar debates, generar imágenes, presentaciones etc. 33,61–64. Pero han de ser conscientes del riesgo de inexactitud, la falta de profundidad del contenido y la necesidad de supervisión del resultado33,61–64. Se recomienda que no se queden con la primera respuesta y que aprendan a dialogar con la aplicación utilizando instrucciones efectivas61. Para un uso ético, los estudiantes deben respetar las normas establecidas por el profesorado respecto a las herramientas de IA generativa, referenciarlas si se han usado, desarrollar las habilidades críticas necesarias, según la etapa educativa, para identificar los sesgos o la información falsa en los resultados generados, evitar proporcionar información personal y no copiar literalmente los textos producidos de forma automática, sin un análisis que lleve al aprendizaje61 (Ver Cuadro 3).

Las instituciones educativas tienen la tarea de valorar la idoneidad de estas herramientas en educación24.

Herramientas para personalizar el aprendizaje

Hace décadas se demostró que las tutorías individuales mejoraban el rendimiento académico de los estudiantes y reducían las diferencias entre ellos78. Aun así, incluso en clases pequeñas, personalizar el contenido para cada estudiante supone un gran esfuerzo19,57,78. Sin embargo, desde la década de 1970, se han desarrollado plataformas basadas en IA que permiten adaptar los itinerarios de aprendizaje, basándose en el conocimiento previo de cada estudiante, en sus debilidades y fortalezas57. Con los datos de entrenamiento y los resultados que se generan con el uso, el aprendizaje automático permite crear y actualizar modelos personalizados, o un modelo de estudiante medio, que se utilizan para recomendar nuevos itinerarios que respondan a su progreso57. Algunos algoritmos, cuando se trata de asignaturas complejas, son capaces de generar trillones de rutas diferentes57.

Estas plataformas, junto con los tutores virtuales, permiten que los alumnos reciban feedback inmediato a cualquier hora sin temor a ser juzgados por las respuestas. Además, amplían el tiempo de aprendizaje más allá de la escuela79, señalan al profesor las partes donde los estudiantes tienen más dificultades y utilizan recursos elaborados como animaciones, representaciones 3D o grabaciones con la pronunciación correcta57. También, hay opciones dirigidas a alumnos con discapacidad o dificultades en el aprendizaje, como la dislexia80–83. Aunque algunos informes indican que los estudiantes con discapacidad están en desventaja cuando se utilizan tecnologías digitales debido a trabas en la accesibilidad, otros señalan que es necesario trabajar para llevar las nuevas tecnologías a todos19,84.

En la otra cara de la moneda, la individualización del aprendizaje supone ignorar su componente social y centrar el objetivo en el rendimiento académico57,85. Se desconocen las consecuencias que esto puede tener en el bienestar psicológico del estudiante y en su habilidad para autorregularse, ya que estos métodos precisan más autocontrol y disciplina57,85. Además, para predecir los siguientes pasos del itinerario, el modelo se basa en las respuestas del estudiante medio o en datos del pasado del estudiante57. Sin embargo, las personas están en continua evolución y su comportamiento y circunstancias pueden no ser predecibles57.

Cuadro 3. Deberes, trabajos de investigación y cómo evaluar en la era de la IA generativa.

La IA generativa es capaz de aprobar exámenes universitarios y crear obras artísticas24,64–69. Además, en un estudio se observó que los trabajos generados por la IA pasaban por humanos en un 94 % de los casos y obtenían notas incluso más altas, especialmente en los primeros cursos de grado65. Por tanto, es necesario replantearse qué se va a aprender y con qué fines y cómo se van a examinar y validar las capacidades del alumnado, ya que las pruebas sin vigilancia pueden no reflejar sus conocimientos24,64,68–70. Respecto al qué, la comunidad experta opina que es necesario que se sigan adquiriendo habilidades fundamentales a un nivel alto para poder desarrollar el pensamiento complejo, incluso en aquellas tareas que la IA puede desempeñar mejor que los humanos24. También es importante que el alumnado aprenda a usar las herramientas actuales, sin sustituir el aprendizaje de habilidades críticas70,71.

Independientemente de su valor educativo, los estudiantes consideran que la IA generativa es útil11,72. Pueden resolver sus tareas mucho más rápidamente e, incluso, producir textos que juzgan mejores que los propios sin necesidad de pasar por el proceso de aprendizaje57,73. El uso indebido de esta tecnología también es especialmente relevante en los trabajos de investigación de grado y posgrado, ya que el estudiante podría incurrir, incluso sin saberlo, en errores, violación de derechos de autor o plagio (ver más adelante)68,74.

Algunos argumentan que el problema no es nuevo, ya que los estudiantes siempre han utilizado todo tipo de recursos no siempre detectables (enciclopedias, internet, ayuda externa…) para resolver sus tareas y superar sus evaluaciones y que la IA generativa simplemente agranda y visibiliza problemas que ya estaban presentes57,71,75. En este caso, sin embargo, el punto de inflexión viene dado por la imposibilidad de distinguir si un texto ha sido generado por la IA71,76. Incluso los detectores de IA generativa más avanzados, que pierden eficacia si se modifican palabras o frases sueltas, solo ofrecen una probabilidad de que el texto no tenga origen humano71. Sin embargo, como no se tiene acceso al texto que generó el modelo, no es posible evidenciar la copia si el estudiante la niega71.

Aunque en algunos casos se ha optado por prohibir completamente estas tecnologías, en otros se han establecido guías para formar y orientar a alumnos y profesores en un uso adecuado y ético24,61,68,71,77. Por un lado, se recomienda repensar la evaluación de los trabajos teniendo en cuenta la tecnología disponible68,75. Por ejemplo, las calificaciones podrían basarse en exámenes o trabajos en el aula, sin tecnología, en presentaciones o exámenes orales o en ejercicios donde se especifica qué herramientas pueden usarse y cuáles no, con preguntas o formatos innovadores que los modelos de lenguaje de gran tamaño no puedan resolver fácilmente. También puede requerirse declarar explícitamente en los trabajos de investigación qué tecnologías se han usado y en qué forma61,68. Asimismo, se recomienda valorar más los procesos que los productos, supervisar al alumnado de manera continua y acompañar en el uso de la tecnología, incentivando capacidades superiores como el pensamiento crítico68,75. Algunas de estas aproximaciones (los exámenes orales, la supervisión continua) precisan más tiempo en el aula y por tanto más personal, lo que deriva en un aumento de los costes o la transformación de la organización y dinámicas escolares68.

Por tanto, el algoritmo puede tener dificultad para interpretar las fluctuaciones de la normalidad o incluso registrarlas, ya que muchas variables con relevancia educativa (por ejemplo, conversaciones en el aula) no están a su alcance57.

El aprendizaje personalizado a través de tecnologías de automatización también podría agrandar las diferencias entre los estudiantes con mayor y menor rendimiento académico e incluso encasillarlos (el conocido en psicología como efecto Pigmalión o profecía autocumplida), al exponerlos mayoritariamente solo a contenido que les vaya a gustar o con el que se sientan cómodos57. Además, el alumnado puede descubrir sus debilidades y sabotearlos. Por ejemplo, los estudiantes pueden responder erróneamente para obtener tareas más fáciles que puedan terminar en menos tiempo86. También, resolver las tareas de un compañero y que el sistema infiera erróneamente que este progresa y proponga problemas más difíciles que terminen desmotivándolo86.

A pesar de las incertidumbres, algunas de estas herramientas han demostrado su eficacia, frecuentemente en la enseñanza de Matemáticas, aunque a menudo en estudios cortos, con investigaciones en universidades o institutos y menos evidencia en etapas más tempranas o en otras áreas como la lectura y la escritura19,87–90. Otros apuntan que es necesario investigar si la mejora proviene del uso de la herramienta en sí o de recibir instrucción más tiempo90. Sus detractores esgrimen que solo es un parche que desvía recursos de la raíz del problema: la necesidad de más profesores cualificados19.

Oportunidades de la IA para el personal educativo

Algunos señalan que los promotores de la IA pretenden sustituir al profesorado o relegarlo a tareas menores19. Otros en cambio esperan que la tecnología libere a los docentes de algunas tareas para que puedan centrarse en otras más relevantes19. Según esta visión, el objetivo de utilizar IA para ayudar al profesorado no es sustituirlo por la tecnología sino ampliar sus capacidades a través de nuevas herramientas, el llamado maestro aumentado57.

Herramientas de IA generativa

Con los prompts adecuados y una revisión posterior, los profesores pueden ayudarse de esta tecnología para elaborar planes de sus asignaturas, identificar los objetivos clave de aprendizaje, generar rúbricas e infografías, resumir o adaptar temas para alumnos con diversidad funcional o distinto nivel, transformar textos a diferentes estilos, encontrar nuevos recursos educativos, idear pruebas, generar audio y vídeo a partir de texto y otros usos listados anteriormente61,64,79,91,92.

Puede ser interesante utilizarlas en clase para hacer ver a los alumnos sus limitaciones, por ejemplo, identificando los errores57.

Herramientas para evaluar y corregir

El Consenso de Pekín sobre IA y educación, auspiciado por la UNESCO, propone aprovechar el potencial de los datos para evaluar las distintas competencias de los estudiantes, siempre que se mitiguen los riesgos asociados16. También usar la IA para apoyar la evaluación a gran escala y a distancia16. Los defensores de utilizar la IA para corregir proponen que, además de ahorrar tiempo al profesorado, podrían obtenerse calificaciones más objetivas y prolongar el período de evaluación, lo que disminuiría las dinámicas orientadas a preparar las pruebas93,94. Sin embargo, la IA puede estar sesgada y no ser justa corrigiendo, lo que perpetuaría desigualdades pasadas19,93. Además, el análisis de la IA puede no tener la profundidad de interpretación de los humanos19,93. Estas características han llevado a considerar estos sistemas como de alto riesgo (ver Regulación más adelante)95. Además, someter a una persona a una decisión automatizada con efectos jurídicos o significativos ya está prohibido en el artículo 22 del Reglamento General de Protección de Datos si no hay ciertas garantías, como la intervención humana cualificada96.

Una vía intermedia consistiría en usar la IA para apoyar al docente en las correcciones. De esta forma, la tecnología ofrecería sugerencias y atajos, pero la calificación la realizaría el profesorado19. También podría utilizarse la IA para guiar al alumnado durante la evaluación continua, corrigiendo los primeros borradores de sus trabajos para poder darles indicaciones antes de que envíen la versión final19.

Herramientas para optimizar la formación de equipos

El alumnado aprende más, retiene la información por más tiempo y está más satisfecho con sus clases cuando trabaja en equipo y sigue dinámicas de aprendizaje activo97–99. Para agruparlos de la manera más equilibrada posible, el Consejo Superior de Investigaciones Científicas (CSIC) ha desarrollado el programa informático gratuito Eduteams97. Utilizando distintos algoritmos y basándose en la personalidad, género y competencias del alumnado, distribuye a los estudiantes en equipos que tengan todas las competencias necesarias para desarrollar una tarea y a la vez sean diversos en cuanto a personalidad y género. El objetivo es que todos los grupos sean igual de capaces de desempeñar el trabajo y que los participantes puedan aprender unos de otros97,100. Los equipos que hace la IA parecen funcionar mejor que los que se agrupan por métodos tradicionales101,102.

Herramientas para saber cómo se aprende

Los investigadores en el campo del aprendizaje analítico obtienen datos sobre cómo aprende el alumnado para que el profesorado (o incluso otros actores implicados como alumnos, padres, instituciones, etc.) pueda tomar decisiones que faciliten el aprendizaje19,103. Por ejemplo, el resultado del análisis puede llevar a modificar el diseño de un curso, influir en cómo los estudiantes revisan el contenido, reconocer aspectos que les resultan difíciles, identificar personas en riesgo de abandonar el curso, saber cómo van en otras asignaturas, predecir la nota final, tener una impresión del rendimiento de toda la clase o permitir al alumno saber cómo progresan sus compañeros etc.62,104–111.

Los datos recogidos a través de distintas herramientas digitales se analizan y modelan, a menudo con IA para hacer predicciones112,113. Por ejemplo, la fuente de datos pueden ser plataformas de aprendizaje adaptativo que informen al profesor del progreso y dificultades de sus alumnos con los deberes, para que pueda adaptar sus clases en consecuencia114,115.

Es frecuente que los docentes no estén implicados en la investigación sobre cómo se aprende, lo que dificulta la interpretación de los resultados, muy dependiente del contexto116. Algunos investigadores proponen que una parte del profesorado se especialice en obtener datos para colaborar con ellos. Además, indican que para poder escalar los resultados del aprendizaje analítico, necesitan integrar datos que provengan de diversas fuentes y que estos sean interoperables116,117.

Herramientas para automatizar tareas rutinarias

El profesorado podría utilizar herramientas de IA para contabilizar la asistencia y reducir su carga de tareas administrativas79.

Estas también podrían ayudar a los servicios administrativos e institucionales, por ejemplo para apoyar en los procesos de admisión o mediante chatbots monitorizados que resuelvan las dudas de los aspirantes en horario ininterrumpido19,64,118,119. De igual manera, pueden usarse para confeccionar horarios, asignar espacios, escribir recordatorios para las familias o para planificar el calendario de exámenes93,120.

Riesgos del uso de la IA en el ámbito educativo

La IA, aunque tiene sus propias especificidades, entra dentro de la tecnología educativa13. Aunque no hay tanta evidencia sobre su uso en educación, sí hay más sobre la tecnología educativa en general19,57. En la literatura científica, se ha observado que hay dos parámetros que influyen en el éxito de las intervenciones: la dedicación y formación del implementador y el tamaño de la muestra121. Respecto a este último, la mayoría de las experiencias se investigan a pequeña escala y son una prueba de eficacia más que de efectividad en condiciones menos controladas. El efecto positivo suele diluirse al escalar, aunque también se conocen intervenciones exitosas con millones de alumnos10,121.

Un experimento con tecnología educativa a gran escala fue la educación durante la reciente pandemia cuando, debido al cierre repentino de los centros educativos, las clases se impartieron en remoto utilizando medios digitales122. Aunque estas decisiones permitieron a muchos estudiantes continuar el curso, otros quedaron excluidos122. En países como España, se estima que se perdió un 35 % del aprendizaje en comparación a un año normal y que estas pérdidas fueron aún mayores para menores de entornos desfavorecidos122,123. En este contexto tan difícil, también empeoró la salud mental y física, y las relaciones humanas se remplazaron por las mediadas por máquinas122. En estas circunstancias extremas, los estudios señalan que la tecnología no fue capaz de sustituir a las escuelas122.

Respecto a la IA, aún no hay suficiente evidencia sólida e independiente sobre los efectos de introducirla en la educación y su eficacia para mejorar el aprendizaje19,57,120, por lo que las afirmaciones que reivindican su poder transformador en este ámbito son todavía aspiracionales19.

Para algunos, la tecnología no es ideológicamente neutra, sino que acarrea unos valores que no pueden separarse del contexto social y político en el que opera22,32,124,125. Al ser un producto social, sus efectos e impactos no pueden desvincularse de los objetivos de las políticas educativas, que pueden priorizar mayor equidad y justicia social, o mayor excelencia y diferenciación22,124,126. Para decidir cómo encaja la IA en el sistema educativo y limitar sus riesgos e impactos indeseados, se precisa contar tanto con los tecnólogos como con los responsables de política educativa, los especialistas en ciencias sociales y la comunidad educativa, para abrir y diversificar el debate público124. Esto implica conocer cómo las personas usan esta tecnología, qué recursos se necesitan para producirla, qué actores desarrollan y comercializan las aplicaciones y qué formas de organización educativa conllevan124. En el contexto educativo se traduce en contar con el profesorado, el alumnado, los gestores y expertos en educación, así como evaluar si el objetivo que persigue la introducción de la IA promueve su bienestar y una educación inclusiva, equitativa y de calidad127.

A continuación, se describen una serie de riesgos asociados al uso de IA en educación, algunos comunes a otras tecnologías educativas.

Privacidad y protección de datos

El Reglamento General de Protección de Datos (RGPD) protege los derechos y las libertades fundamentales de las personas físicas en relación con las actividades de tratamiento de datos de carácter personal96.

Tendrán que someterse al RGPD los tratamientos que incluyan operaciones implementadas con sistemas de IA que tratan datos personales, generan perfiles de personas físicas o toman decisiones sobre ellas128. En este sentido, ha de someterse a los principios de: licitud, lealtad y transparencia (que los datos se traten solo si lo ampara una base legal, sin llevar a error o a engaño al interesado, al que se debe informar de manera clara y concisa), limitación de la finalidad (que se recojan con fines determinados explícitos y legítimos), minimización de datos (recoger los mínimos necesarios para el propósito de la actividad), exactitud, limitación del plazo de conservación (que se pueda identificar al interesado solo el tiempo necesario para los fines acordados) y seguridad y confidencialidad (que se garantice la seguridad de los datos) y responsabilidad proactiva96.

Sin embargo, la realidad es diferente. Por un lado, en algunas herramientas de aprendizaje falta información sobre el tratamiento de datos, como qué datos se recogen (pueden ser personales, académicos, de asistencia u otros más invisibles como los clics del alumno, el tiempo en la página, las respuestas que se reescriben etc.), dónde se almacenan, por cuánto tiempo, cómo se garantiza la calidad de los datos generados, qué intervinientes participan en los tratamientos o para qué fines se usarán19,76,129. También hay cierta opacidad que dificulta validar si efectivamente se cumplen los principios mencionados19.

Por otra parte, los sistemas que incluyen IA pueden aumentar los riesgos para los derechos y libertades de alumnos, profesores y familiares, así como de seguridad130 o presentar algunos específicos128. Asimismo, los modelos basados en aprendizaje automático suelen funcionar mejor con más datos de los estrictamente necesarios, lo que dificulta establecer el límite del principio de minimización130.

En la misma línea, además de los datos que se le provean, algunos algoritmos pueden inferir información, verdadera o errónea, que vulnere la privacidad de los usuarios e incluso pueda resultar en discriminación15,19.

Hay que tener en cuenta que el tratamiento de datos para el uso de IA en las aulas no puede basarse en el consentimiento de un menor de 14 años y generalmente no puede fundarse en el consentimiento, que no es apropiado cuando hay un desequilibrio de poder entre las partes y puede retirarse en cualquier momento86,131. Como todo tratamiento de datos personales, si no está basado en el consentimiento solo podrá llevarse a cabo si es necesario para cumplir determinados propósitos: ejecutar o perfeccionar un contrato, atender el interés público o cumplir una obligación legal86,96. En los últimos dos casos, dicho propósito debe estar establecido en una norma con rango de ley86,96.

Existen mecanismos para disminuir el riesgo, como ejecutar las aplicaciones en el propio dispositivo en lugar de en un servidor web, usar versiones que no sigan aprendiendo, convertir los datos en menos legibles, agregarlos, o anonimizarlos128,130.

Si el tratamiento que emplea IA implica un alto riesgo, es obligatorio que sea realmente idóneo (cumpla objetivamente su propósito), necesario (no haya otra forma menos lesiva de conseguir el propósito) y proporcional (los beneficios para la sociedad y el interesado compensan la intrusión en los derechos y libertades)96.

Asimismo, la determinación de la calidad y confiabilidad de los productos que utilizan IA no puede basarse únicamente en las manifestaciones de fabricantes y distribuidores: es fundamental que, como cualquier otro desarrollo tecnológico, pasen exámenes previos ejecutados por terceros y que se desarrollen marcos de referencia para acreditar el cumplimiento del RGPD128.

Vigilancia

Si las aplicaciones de IA recogen constantemente datos sobre su desempeño académico, los estudiantes pueden sentirse vigilados, expuestos y cambiar sus comportamientos, inhibirse, autocensurarse o actuar como creen que se espera de ellos76,86. Algunos estudios advierten de que disponer de tantos datos puede derivar en relaciones en el aula basadas en la desconfianza, el control y la supervisión23,132.

Sesgos

Seleccionar adecuadamente los datos para el entrenamiento de la IA es un paso clave para su funcionamiento ético: si no están equilibrados, la herramienta puede reproducir estos sesgos durante su funcionamiento64,76,133,134. Por ejemplo, si se ha entrenado mayoritariamente con rostros de hombres blancos, no será tan eficiente reconociendo rostros de mujeres, especialmente mujeres no blancas135. Es más, si hay un grupo sobrerrepresentado, la IA puede reconocer patrones o establecer relaciones de causalidad erróneas en su beneficio. Por ejemplo, puntuar mejor los currículums de hombres al inferir que ser hombre es preferible en determinados puestos135.

No se ha hecho público el conjunto de datos que se ha utilizado para entrenar los principales modelos de lenguaje, aunque se sabe que incluye una mayoría de contenido sin seleccionar recogido directamente de internet136. Uno de estos conjuntos de datos, el llamado Common Crawl, ha servido para entrenar a los principales modelos y contiene un porcentaje no desdeñable de contenido no deseado, que incluye discurso de odio y contenido sexual explícito incluso después de haber sido filtrado136. En los textos e imágenes producidos por estos modelos se han detectado sesgos que llevan a generar contenido sexista, racista o a perpetuar y replicar determinados estereotipos15,57,76.

Los prejuicios también pueden estar en los algoritmos y en la apariencia física, voz o nombre que adopte el sistema. Por ejemplo, la mayoría de los asistentes virtuales para los estudiantes en distintas universidades españolas tiene nombre y apariencia de mujer135.

Además de la recomendación de usar datos de calidad, existen técnicas de diseño centrado en la persona para favorecer el desarrollo ético de los productos de software137,138. Aquí se incluyen, por ejemplo, protocolos para diseñar productos más inclusivos en cuanto al género139, instrucciones específicas para neutralizar variables discriminatorias135 o utilizar la IA como herramienta para anonimizar perfiles en los procesos de selección o eliminar la información que permita la identificación personal133.

Efecto filtro

La IA generativa no es un buscador, sino que actúa como un filtro según los datos con los que se ha entrenado57,74. Puede no tener acceso a todo el conocimiento de un tema (por ejemplo, incluir artículos de unos autores y de otros no o excluir el conocimiento no digitalizado), lo que empobrece la realidad para los usuarios y sesga el conocimiento57,74. Por estas razones, algunos expertos señalan la conveniencia de que universidades y otras entidades públicas desarrollen modelos más transparentes y confiables, abiertos y sin ánimo de lucro74,140.

Desconexión social

La escuela, además de un espacio académico, es un espacio de socialización insustituible donde se aprende con y de los otros y donde el vínculo con el profesorado es central para el éxito educativo141,142. Como con otras tecnologías, el uso de dispositivos de IA por parte de los estudiantes puede llevar a que interaccionen menos con sus compañeros y profesores120,122,143. Priorizar la relación del alumnado con la tecnología puede debilitar el aspecto social del aprendizaje85,122,144 y empobrecer la experiencia educativa, al aumentar el aislamiento, la soledad y la desconexión143.

Sin embargo, algunos expertos apuestan por el diseño de aplicaciones de IA alineadas con los valores sociales, que permitan al alumnado beneficiarse de la tecnología sin remplazar la interacción humana144. Esta corriente sugiere que las herramientas de IA son una oportunidad para planificar actividades en las que los estudiantes puedan establecer sus propios objetivos y trabajar en equipo en proyectos abiertos144.

Efectos en las capacidades humanas

Más allá de los efectos de usar IA en la experiencia educativa, todavía se desconoce su impacto en el desarrollo neurológico, cognitivo y emocional de los escolares19,145. Preocupa, por ejemplo, el efecto que puede tener la IA generativa en habilidades como la creatividad, la curiosidad, el pensamiento crítico o la capacidad de resolver problemas, así como la posibilidad de generar dependencia tecnológica57,120,146. En algunos casos, puede usarse para saltarse el proceso de aprendizaje y obtener directamente el producto final73. También cabría la posibilidad de que la IA merme las funciones del profesorado, y sean relegados a facilitadores de la tecnología y monitores del comportamiento del alumnado57,120.

No obstante, un estudio con alumnado universitario reveló que la IA generativa facilita y acelera la generación de ideas y otros aspectos de la creatividad147. Como contrapunto, algunos de los participantes no conseguían aportar alternativas a las propuestas por la IA y sintieron que la tecnología hacía el trabajo por ellos147. Además, algunos no veían las sugerencias de la IA como originales, sino como un refrito de ideas ajenas, lo que subraya la necesidad de supervisión y refinamiento de los resultados147. A pesar de su utilidad, otra investigación indica que los estudiantes tienden a depender de la IA en lugar de aprender de ella, lo que subraya la necesidad de equilibrar su uso148.

Por otra parte, un estudio sobre cómo utilizan la IA generativa los estudiantes de doctorado, detectó que los que usaban la IA para mejorar sus textos escribían mejor que aquellos que no la usaban o la utilizaban únicamente como fuente de información suplementaria149. En esta línea, la comunidad experta recomienda desarrollar y utilizar herramientas que mejoran las habilidades humanas, más que utilizarla como un buscador79. Proponen crear con la IA en lugar de dejar que la IA cree por los humanos150.

Inexactitudes, errores y exceso de confianza

La IA generativa inventa información que puede parecer verídica76. Esto puede llevar a generar materiales educativos de baja calidad o a respuestas incorrectas del alumnado120. Un estudio reciente con preguntas sobre programación identificó que ChatGPT ofrecía información incorrecta en el 52 % de las respuestas151. Esta inexactitud es una de las principales preocupaciones de los profesores152. Sin embargo, en otra encuesta, solo el 56 % de los alumnos consideraba que a veces puede proporcionar información falsa11,32. Además, a menudo la desinformación puede pasar desapercibida151.

También se ha observado que puede impactar negativamente en la toma de decisiones porque las personas tienden a confiar en el criterio del algoritmo y no lo ignoran cuando es erróneo153,154, incluso si el usuario tiene información sobre cómo decide el algoritmo153.

Estos datos subrayan la necesidad de regulación y estándares de calidad altos en los sistemas que puedan condicionar las decisiones humanas (por ejemplo, en orientación académica). Al mismo tiempo, es clave desarrollar el pensamiento crítico del alumnado y fomentar su curiosidad por saber más76,153.

Derechos de autor y plagio

Los datos que se han utilizado para entrenar a los modelos de lenguaje de gran tamaño son públicos, pero se sabe que también pueden acceder a contenido protegido por derechos de autor y resumirlo o utilizar fragmentos de fotografías con marca de agua para componer una nueva imagen57,155. Asimismo, algunas licencias de copyright permiten usar el contenido si se cita la fuente original, algo que los modelos pueden hacer o no57. Normalmente la IA no reproduce los textos literalmente, sino que los genera a partir de las fuentes155. Sí puede reproducir frases comunes que no generan derechos. Sin embargo, puede darse el caso de que en el entrenamiento se repita mucho algún contenido protegido, por ser muy frecuente, y que la IA considere que es una respuesta natural y lo reproduzca sin modificarlo156. Así, en teoría el estudiante podría incurrir en plagio o violar derechos de autor si usa textos o imágenes procedentes de la IA sin modificar, que en origen estén protegidos, sin acreditarlo74. Algunas grandes compañías han denunciado la reproducción de sus contenidos sin permiso, pero todavía no hay sentencias al respecto155,157,158.

En este sentido, el Real Decreto 24/2021 indica que es lícito utilizar contenidos protegidos por derechos de propiedad intelectual para la minería de datos siempre que la finalidad sea la investigación o los usos comerciales, a menos que el titular rechace explícitamente que su contenido se utilice para este fin159. Aun así, según el personal experto, todavía hay incertidumbre sobre cómo se van a interpretar estos supuestos respecto a la IA generativa.

Actualmente, la obra generada únicamente por IA no es protegible por derechos de autor, ya que por ley solo los humanos pueden ser autores160. Sin embargo, todavía no hay guías claras sobre cuánto hay que modificar un contenido para poder reclamar algún derecho57,161. Además, como la IA generativa puede tomar textos de otras personas, la autoría y el plagio ya no son tan sencillos de definir como antes (alguien ha sido autor o no, se ha utilizado una fuente o no)74,162. Se discute por ejemplo si la IA generativa podría generar derechos como el sui generis sobre bases de datos163.

Comercialización de la educación

La investigación en IA se realizaba mayoritariamente en las universidades hasta 2014, cuando aumentaron las colaboraciones con las empresas164. Sin embargo, el auge del aprendizaje profundo está inclinando la balanza hacia el dominio empresarial, que cuenta con gran financiación, potencia de cálculo, grandes conjuntos de datos e investigadores altamente capacitados41,165. De generalizarse el uso de las aplicaciones de IA en educación, podría tratarse de una privatización encubierta, ya que la mayoría son productos comerciales19.

Por otro lado, las compañías pioneras y más exitosas están concentradas en unos pocos países, mayoritariamente de habla inglesa, lo que dificulta la diversidad cultural y puede llevar a que estas compañías determinen y homogeneicen los contenidos que se estudian19,57. Además de la influencia que estas empresas pueden tener en las sociedades del futuro de los países usuarios, también se produce una brecha entre los países con acceso a esta tecnología y el resto1,19,57.

En otro plano, algunos también apuntan la necesidad de salvaguardar la libertad académica de los profesores que utilizan plataformas educativas en la universidad y la propiedad intelectual sobre el contenido que suben129.

Como solución, la comunidad experta propone promover recursos educativos abiertos y el desarrollo de herramientas públicas que permitan la independencia respecto a las empresas19,140.

Agrandar la brecha digital

Para usar la IA se requiere una infraestructura digital básica, con ordenadores y acceso estable a internet15. No obstante, el acceso a estos recursos es desigual, como evidenció la pandemia15,58, aunque podría paliarse con sistemas de préstamo, reciclaje y reacondicionamiento de dispositivos en los centros120. También son desiguales las competencias digitales de las familias120. Además, la mayoría de las aplicaciones de IA son gratuitas al principio para después requerir suscripción de pago, necesaria para acceder al menos a la versión más potente de la tecnología76. Esto puede resultar en desigualdades entre alumnos y centros. Por otro lado, las herramientas gratuitas basan su negocio en los datos recabados o en la publicidad19,76,143.

Para favorecer la igualdad, la comunidad experta llama a desarrollar programas de bajo coste para el usuario, fáciles de usar, que unifiquen las mejores características y que no requieran demasiado conocimiento técnico para su uso79.

Gasto energético y coste ambiental

Los sistemas de IA, especialmente los de IA generativa, son costosos para el medio ambiente: precisan energía y materias primas críticas, emiten CO2 , consumen agua para enfriar los servidores, ocupan espacio físico y generan desechos electrónicos57,166–168.

Una parte significativa del gasto energético proviene del entrenamiento de los modelos. Por ejemplo, se estima que una persona emite unas 5 toneladas de CO2 (o gases equivalentes) al año, mientras que entrenar un modelo grande basado en redes neuronales emitió 284 toneladas41.

Usarlos también deja una huella de carbono, especialmente importante en la generación de imágenes166,169. Incluso cuando se trata de texto, 1000 respuestas equivaldrían en los modelos más eficientes al 9% de la energía necesaria para cargar un móvil inteligente166. Así, aunque cada respuesta puede requerir una cantidad relativamente pequeña de energía, el consumo total se acumula exponencialmente cuando se utiliza en todo el mundo millones de veces al día166. Además, los grandes modelos de lenguaje siguen aumentando de tamaño, lo que multiplica su consumo y requerimientos41,168,169. En este sentido, otros argumentan que entrenar mejor a los modelos ahorra energía a largo plazo, ya que son más eficaces y gastan menos energía cada vez que se usan170.

Otras estrategias para que la IA contamine menos serían reutilizar modelos en vez de entrenarlos desde cero, utilizar fuentes de energía renovables y decidir en qué situaciones se necesita y con qué capacidades41,167,170.

El encaje de la IA en el sistema educativo

A continuación, se exploran algunas alternativas para dotar a la sociedad con las herramientas y capacidades necesarias para relacionarse con la IA de manera efectiva, especialmente en el plano educativo.

Alfabetización en IA

La alfabetización digital no es un tema de futuro sino de presente, pues la sociedad digital ya configura la forma en que interpretamos, vivimos y entendemos el mundo así como la experiencia de estar en la escuela para los estudiantes171. No obstante, disponer de aparatos tecnológicos no garantiza que los estudiantes adquieran los conocimientos que precisarán para estudiar o trabajar. No se trata solamente de aprender a usar la tecnología, sino de comprenderla críticamente y capacitar a las personas para participar en la sociedad digital actual171,172.

En concreto, aprender los fundamentos de la IA es necesario para que los estudiantes y otros actores del sistema educativo puedan usarla de forma segura, entiendan la tecnología, sus riesgos y beneficios y cómo les afecta173, además de para desmitificarla y evitar errores de concepto (por ejemplo, atribuirle en exceso rasgos o cualidades humanas174). También es esencial para despertar vocaciones y cubrir los puestos de trabajo especializado que se requerirán en los próximos años173. A este respecto, en la Unión Europea, la oferta académica de másteres en IA está liderada por Alemania, Países Bajos y Suecia, con España en una posición intermedia175. Sin embargo, recientemente ha aumentado el número de másteres ofertados, tanto genéricos como especializados y diversas universidades han iniciado grados en IA175.

El pensamiento computacional, el lenguaje de programación y la robótica educativa, ya presentes en los currículos de educación infantil, primaria y secundaria176–178, suponen una buena base para facilitar la comprensión de la IA173,179. Al tratarse de un campo nuevo para la educación preuniversitaria y en continuo cambio, por el momento solo 15 países han aprobado o están desarrollando currículos para su enseñanza en estas etapas180. En España, su introducción reglada sigue pendiente181. Es necesario definir qué debe aprender el alumnado en este contexto182. A este respecto, desde Europa y el Ministerio de Educación se recopilan ya escenarios educativos y ejemplos prácticos de su uso120,179. A nivel internacional se está desarrollando un marco de referencia sobre el plan de estudios en IA180.

Mientras que, en etapas tempranas, pueden utilizarse aproximaciones sin ordenadores o sin usar la IA para formar al alumnado, en España, una iniciativa particular ha desarrollado una plataforma denominada LearningML, que permite enseñar las bases del aprendizaje automático y reflexionar sobre su uso responsable173,183 (Ver Cuadro 4).

Cuadro 4. LearningML: una herramienta desarrollada en España para enseñar aprendizaje automático

LearningML es una plataforma abierta de software libre y accesible que no requiere grandes conocimientos para iniciarse en su uso, pero permite desarrollar proyectos complejos con distintos algoritmos173. En la actualidad, es utilizada por una media de 700 estudiantes al día en escuelas e institutos de todo el país184–186. Consta de dos aplicaciones, una para desarrollar modelos de aprendizaje automático a partir del entrenamiento de datos y otra para programar aplicaciones creativas utilizando el modelo generado173. No requiere registro y se ejecuta localmente en el ordenador del docente, sin necesidad de recurrir a la nube, lo que garantiza la protección de datos173. También existe una versión de escritorio que no requiere conexión a internet, lo que posibilita su uso en zonas remotas187.

LearningML se evaluó en un taller online con 135 estudiantes de entre 10 y 16 años durante la pandemia con buenos resultados de aprendizaje183. En la misma línea, también se ha demostrado útil con profesores de distintas comunidades autónomas y como actividad del aula de matemáticas en E.S.O184,185. Otras aplicaciones para enseñar aprendizaje automático serían Teachable Machine, Cognimates o Machine Learning for kids76,173.

Otro aspecto relevante es enseñar a los alumnos a comprender y analizar datos, que son la base de las aplicaciones de aprendizaje automático, así como estadística, matemáticas e informática174.

Actualmente, la evidencia científica internacional sobre las experiencias de enseñanza del aprendizaje automático en la educación preuniversitaria es escasa y centrada mayoritariamente en la etapa del instituto como parte de la educación formal y asociada a actividades informáticas, aunque se espera que se publiquen investigaciones más variadas en los próximos años188. En los estudios también se evidenció la falta de preparación del profesorado para enseñar aprendizaje automático188. Este aspecto es clave, pues el éxito de las experiencias parece depender del grado de competencia e interés en el tema del docente, lo que subraya la necesidad de investigar sus necesidades188.

Asimismo, muchos estudios no detallan el grado de adquisición de conocimiento de los estudiantes tras el programa189. Conviene desarrollar criterios de evaluación para medir el grado de alfabetización en IA y qué implica esta alfabetización en los distintos niveles preuniversitarios189.

Formación del profesorado

Respecto a la preparación de los docentes, es importante que dispongan del conocimiento necesario para utilizar y adaptar las herramientas de IA según sus prioridades didácticas y pedagógicas23.

Algunos estudios preliminares indican que el profesorado preuniversitario de España e Iberoamérica conoce y usa poco las herramientas de IA190. En esta línea y ante la rapidez con que esta avanza, una mayoría del claustro no se cree preparado para integrarla en su profesión, cree que necesita formación y aduce falta de tiempo para ponerse al día o preocupaciones acerca de sus riesgos62,174,191.

En este sentido, según algunas investigaciones en curso, la opinión respecto al uso de la IA puede volverse más positiva tras un curso de capacitación192. El Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF) ofrece formación para el profesorado en distintos formatos, como un complemento que mejora la competencia digital docente193. El profesorado necesita distintas competencias según el objetivo: enseñar cómo interactuar de manera segura con la IA, abordar la IA desde un enfoque técnico o utilizarla con fines educativos194. Además, el trabajo manual y de fabricación tecnológica fomenta la comprensión y favorece el pensamiento crítico del alumnado171, por lo que algunos expertos sugieren incluso que los profesores desarrollen actividades de construcción de tecnologías sencillas en el aula. Esto implica que puedan servirse de recursos educativos abiertos fácilmente adaptables o grupos de apoyo y asesoramiento. Para ello necesitan herramientas para experimentar con la IA y tiempo y recursos para pensar individual y colectivamente en proyectos estables79,195.

Regulación para el uso de IA

Aunque hay aspectos de la lA que ya están regulados por otras leyes, como el tratamiento de datos por el RGPD, el Reglamento de IA del Parlamento Europeo y del Consejo, entrará mayoritariamente en vigor en 2026 sin necesidad de trasposición. Según este reglamento, incorporar sistemas de IA en la educación es importante para promover una educación digital de alta calidad y para permitir a estudiantes y profesores adquirir y compartir las competencias digitales necesarias95.

Con esta norma, para evitar vulnerar la privacidad de los estudiantes y perpetuar patrones históricos de discriminación, se prohíben los sistemas de reconocimiento de emociones en la educación, excepto si tienen uso terapéutico95. Además, se considerarán sistemas de alto riesgo los que pueden determinar el curso educativo y profesional de la vida de una persona e influir en sus posibilidades futuras95. Entre ellos:

  • Sistemas que determinan admisiones o asignan personas a programas educativos o instituciones95.
  • Sistemas que evalúan el grado de aprendizaje o el nivel educativo e influyen en el título que los alumnos van a recibir o en el nivel educativo al que tienen acceso95.
  • Sistemas que monitorizan y detectan comportamientos prohibidos durante los exámenes95.

Los sistemas de alto riesgo están sujetos a obligaciones estrictas antes de que puedan introducirse en el mercado, como someterlos a evaluación, entrenarlos con conjuntos de datos de alta calidad o garantizar la trazabilidad de los resultados, entre otros95. En paralelo, el Consejo de Europa, formado por 46 países y abierto a otras adhesiones, ha publicado el primer borrador del Convenio Marco sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho196.

A nivel nacional, destacan los esfuerzos por robustecer la gobernanza y el marco regulatorio, con la creación de la primera Agencia Española de Supervisión de la Inteligencia Artificial, que velará por la adherencia a los estándares de IA y facilitará su introducción responsable197. También se ha creado un sandbox regulatorio en colaboración con la Comisión Europea para implementar la nueva legislación198,199.

Las comunidades de Cataluña y Canarias han publicado sendas guías orientativas sobre el uso de la IA en el sistema educativo76,200.

Hacia la IA responsable en educación

El desarrollo e introducción responsable de la IA en educación requiere garantizar que la IA sea fiable. Para ello, debe fundamentarse sobre 3 pilares: cumplir con la ley, adherirse a los principios éticos y ser robusta201–203.

Junto con los requerimientos ya mencionados, la IA fiable admite el control o la supervisión humana y es transparente y explicable, lo que permite que los agentes implicados entiendan cómo llega al resultado201. Los algoritmos también deben poder ser auditados para comprobar que funcionan como se espera y además debe haber un responsable si la IA causa daños201,204.

Asimismo, tiene que ser beneficiosa, no solo para las personas de hoy, sino también para las generaciones del futuro, lo que subraya la necesidad de que sea sostenible201.

En el plano educativo, la comunidad experta sugiere evaluar las herramientas de IA antes de usarlas en base a criterios que ya se usan con otros recursos educativos, tales como la exactitud del contenido, la adecuación a la edad, la pertinencia de los métodos pedagógicos y la idoneidad cultural y social125.

Por otro lado, para desarrollar la IA de manera responsable en el ámbito educativo, parte de la comunidad experta propone fundamentar su incorporación en el Principio de Precaución. Este principio no implica inmovilismo, sino actuar según una acción mesurada, que se caracteriza por ser progresiva, revocable, tener en cuenta las consecuencias de las acciones y retroalimentarse de las opiniones y necesidades de la comunidad educativa171,205. En definitiva, sin negar el potencial transformador de la tecnología, algunos llaman a huir del solucionismo tecnológico, ya que transformar y mejorar la educación depende especialmente de la política educativa y el contexto social y familiar171. Los cambios que pueden conllevar las tecnologías van de la mano de transformaciones en otras dimensiones, como la infraestructura educativa, la preparación de los profesores, establecer nuevas pedagogías, mejorar la evaluación, tener un contenido y currículo de alta calidad etc.23.

Ideas fuerza

  • La comunidad experta insta a debatir cómo encaja la IA en el sistema educativo y a decidir cómo dotar a las instituciones con las herramientas, la metodología, las capacidades humanas, la ética y los marcos regulatorios para respaldar la educación. 
  • El uso de la IA en educación conlleva beneficios, desafíos y riesgos sobre los que todavía hay incertidumbres, ya que aún no hay suficientes estudios sistemáticos e imparciales al respecto.
  • Entre las oportunidades, el alumnado podría acceder a herramientas que personalicen el aprendizaje o les asistan en sus tareas. El profesorado podría utilizar los sistemas de IA para reducir el tiempo que dedican a tareas habituales, como planificar las clases, organizar a los estudiantes en equipos más efectivos o recoger datos sobre su aprendizaje y analizarlos para tomar decisiones más informadas. Las herramientas de IA generativa urgen a replantear la evaluación de las capacidades del alumnado.
  • El uso ético y responsable de la IA en educación abarca aspectos muy diferentes, como la privacidad del alumnado, el efecto en sus habilidades cognitivas, el tratamiento de datos, el riesgo de desconexión social, o el coste ambiental de estas tecnologías.
  • Hay aspectos que favorecen una relación más segura y productiva con la IA: el desarrollo de una IA responsable, ética y de calidad demostrada, su regulación (aunque algunos aspectos como el tratamiento de datos ya están regulados por leyes vigentes) y la alfabetización en IA del alumnado y el personal educativo. 
  • Entender los fundamentos de la IA sirve no solo para usar la tecnología existente, sino también para entender su funcionamiento, valorar sus riesgos y beneficios, entrenar el pensamiento crítico y ser innovadores y responsables en su desarrollo y aplicación.
  • La comunidad experta urge a promover los recursos educativos abiertos y el desarrollo de herramientas públicas independientes.

Personal experto, científico e investigador consultado*

  • Calvo, Jorge. Director y profesor de Innovación en el Colegio Europeo de Madrid. Docente universitario en la Universidad Alfonso X El Sabio.
  • Cobo, Cristóbal. Senior Fellow del Inter-American Dialogue.
  • de la Higuera, Colin. Catedrático en la Universidad de Nantes, Francia, y Catedrático de la UNESCO.
  • de Salvador Carrasco, Luis. Director de la División de Innovación y Tecnología de la Agencia Española de Protección de Datos.
  • Díaz Rodríguez, Irene. Catedrática de Inteligencia Artificial y vicerrectora de Investigación de la Universidad de Oviedo.
  • Fernández, Raquel. Catedrática en Lingüística Computacional y vice-directora de investigación del Institute for Logic, Language and Computation, Universidad de Ámsterdam. Países Bajos.
  • González González, Carina Soledad. Catedrática de Arquitectura y Tecnología de Computadores en la Universidad de La Laguna.
  • Lobo Martínez, Jorge. Maestro y coordinador CompDigEdu en el Colegio de Educación Infantil y Primaria Lope de Vega de Madrid. 
  • López Cobo, Montserrat. Responsable de proyectos en el Centro Común de Investigación de la Comisión Europea (JRC).
  • Mateos Caballero, Alfonso. Catedrático de la Universidad Politécnica de Madrid.
  • Mesa Sánchez, Cristina. Socia del departamento de Propiedad Industrial e Intelectual de Garrigues.
  • Ortiz de Zárate Alcarazo, Lucía. Investigadora predoctoral en la Universidad Autónoma de Madrid.
  • Poyatos Dorado, César. Investigador y profesor de Tecnología Educativa en el departamento de Pedagogía de la Universidad Autónoma de Madrid. Miembro del grupo de investigación Educación Digital e Innovación (EDI).
  • Rodríguez García, Juan David. Asesor técnico docente en INTEF.
  • Sanchez Vera, María del Mar. Profesora titular del departamento de Didáctica y Organización Escolar de la Facultad de Educación de la Universidad de Murcia. Miembro del Grupo de Investigación de Tecnología Educativa (GITE).
  • Sierra, Carles. Director del Instituto de Investigación en Inteligencia Artificial del CSIC (IIIA-CSIC).
  • Tarabini-Castellani Clemente, Aina. Profesora del departamento de Sociología de la Universitat Autònoma de Barcelona y miembro de los grupos de investigación GEPS (Grupo de investigación en Globalización, Educación y Políticas sociales) y GIPE (Grupo Interdisciplinar de Políticas Educativas).
  • Vallès Peris, Núria. Científica titular en el Instituto de Investigación en Inteligencia Artificial del CSIC (IIIA-CSIC) y miembro del grupo de investigación STS-b (Barcelona Science and Technology Studies Group) de la Universitat Autònoma de Barcelona.
  • Wasson, Barbara. Catedrática y directora del Centre for the Science of Learning & Technology (SLATE) de la Universidad de Bergen, Noruega.

Método de elaboración

Los Informes C son documentos sobre los temas seleccionados por la Mesa del Congreso que contextualizan y resumen la evidencia
científica disponible para el tema de análisis. Además, recogen las áreas de consenso, disenso, las incógnitas y los debates en curso.
Su proceso de elaboración se fundamenta en una exhaustiva revisión bibliográfica que se complementa con entrevistas individuales y
metodologías de consulta participativa basadas en el diálogo estructurado con el personal experto. El informe es revisado posteriormente
por el personal experto consultado. La Oficina C colabora con la Dirección de Documentación, Biblioteca y Archivo del Congreso de
los Diputados en este proceso.

Para la redacción del presente informe la Oficina C ha referenciado 209 documentos y consultado a un total de 19 personas expertas
en la materia. Se trata de un grupo multidisciplinar en el que el 47 % pertenece a las ciencias sociales y el 53 % al área de ingeniería
y tecnología. El 79 % trabaja en centros o instituciones españolas mientras que el 21 % lo hace al menos en una institución extranjera.

La Oficina C es la responsable del contenido del informe y actúa como supervisora editorial del mismo.

Cómo citar

Oficina de Ciencia y Tecnología del Congreso de los Diputados (Oficina C). Informe C. Inteligencia artificial y educación. (2024) www.doi.org/10.57952/hqct-6d69

Archivado como

Inteligencia artificial y educación