El 47% de los centros educativos en España ya ha implementado tecnologías basadas en la IA, según un informe de GoStudent de este año. Otro estudio, en este caso elaborado por la plataforma Empantallados y la consultora GAD3, indica que el 73% del profesorado ha utilizado herramientas de IA en el aula; una cifra que asciende al 82% en el caso de los estudiantes.

En este contexto se hace más necesaria que nunca la Ley de la IA de la Unión Europea (AI Act) aprobada en 2024, que establece un marco legal para el uso seguro y ético de la inteligencia artificial. A ella se sumará en los próximos meses la Ley para el buen uso y la gobernanza de la IA española, que incluirá medidas específicas para nuestro contexto, con especial atención a la infancia y la educación.

¿Cómo afecta en estos momentos la legislación europea a los centros de nuestro país?¿Qué medidas se deben implementar para garantizar la protección de los datos del alumnado?

Corrección automática de exámenes: la supervisión del docente es necesaria

Aunque muchas plataformas ya ofrecen la corrección automática de tests, exámenes o trabajos mediante IA, la Ley de Inteligencia Artificial de la Unión Europea clasifica esta tarea como de ‘alto riesgo’ si pueden tener un impacto significativo en el futuro de los estudiantes; un grupo al que pertenecen aquellos sistemas que afectan directamente a su formación, evaluación o comportamiento. Por este motivo, los centros educativos deben garantizar que se utilizan con supervisión humana, transparencia, evaluación de impacto y cumplimiento estricto de la normativa de protección de datos.

¿Qué consideraciones implica?

  • Los centros educativos no pueden delegar totalmente en una máquina la evaluación académica, debiendo garantizar la intervención y supervisión del profesorado.
  • Verificar que estas herramientas permiten efectivamente la revisión humana.
  • Establecer protocolos para validar las calificaciones generadas por la IA.
  • Que el alumnado sea informado de que la corrección incluye el uso de inteligencia artificial.
ley de la ia en los centros
Ley de la IA en Educación

Elaboración de temarios con ayuda de la IA: cuidado con los sesgos

La IA puede generar contenidos educativos adaptados al nivel o intereses del alumnado, pero también conlleva riesgos si los algoritmos refuerzan estereotipos o excluyen determinados perfiles culturales o sociales. En este sentido, la legaltech Atico34, especialista en protección de datos y asesoramiento en IA, señala:  “Los centros deben supervisar estos contenidos para evitar sesgos o discriminaciones, garantizar diversidad curricular y asegurar que el profesorado tenga control sobre la planificación educativa”.

¿Qué dice la legislación europea? 

Indica que los sistemas deben ser auditables y garantizar la ausencia de sesgos discriminatorios, ofreciendo explicaciones claras sobre cómo se ha generado un contenido o decisión.

¿Qué deben hacer los centros educativos al respecto?

  • Evaluar qué datos usa la IA para personalizar contenidos.
  • Comprobar que los resultados no discriminan a ningún colectivo.
  • Mantener supervisión docente sobre todo contenido generado.

El tratamiento de datos de menores: protección reforzada

Muchos sistemas de IA necesitan recopilar datos del alumnado: notas, hábitos de estudio, tiempo de respuesta, etc. Si se trata de menores, la legislación refuerza las exigencias de protección de datos y la Agencia Española de Protección de Datos (AEPD) es clara a este respecto: “Cuando la recogida y el tratamiento de datos de menores responda al consentimiento, hay que tener en cuenta que deberá ser expreso y que cuando se trate de menores de 14 años lo han de prestar sus padres o tutores”.

¿Qué implica esto? 

Los centros no pueden emplear sistemas de IA que recojan datos personales sin una base legal clara. Deben contar con el consentimiento explícito de las familias: aplicar medidas de seguridad reforzadas y usar herramientas que cumplan con la normativa de protección de datos.

¿Qué deben hacer los centros docentes?

  • Solicitar siempre el consentimiento informado de las familias.
  • Recurrir solo a plataformas que cumplan con el Reglamento General de Protección de Datos (RGPD) y la nueva normativa europea de IA.
  • Evitar el uso de herramientas opacas o con almacenamiento de datos fuera de la UE.
ley de la ia en los centros
Ley de la IA en Educación

Vigilancia en el aula con IA: prohibido el reconocimiento facial

Algunas plataformas de ‘proctoring’ o vigilancia remota utilizan la IA para detectar si un estudiante copia en un examen online. Otras incluso incluyen reconocimiento facial o análisis de comportamiento.

¿Qué dice la Ley de IA? 

La IA con biometría (como la cara o la voz) está prácticamente prohibida en educación, salvo excepciones muy justificadas. Se considera una invasión de la privacidad y una medida desproporcionada, sobre todo si se aplica a menores.

¿Qué deben hacer los colegios y los institutos?

  • Evitar cualquier sistema que use cámaras o sea capaz de reconocer rostros.
    Buscar alternativas que cumplan con el principio de proporcionalidad como exámenes abiertos o el control por parte de docentes.
  • Informar siempre si se va a realizar cualquier tipo de grabación o monitoreo.

Asistentes educativos con IA: transparencia y límites

Muchos centros ya disponen de asistentes virtuales basados en IA para responder dudas, organizar tareas o acompañar el aprendizaje. Son herramientas útiles, pero es importante que el alumnado sepa que están interactuando con una máquina. “Los asistentes educativos con IA son programas que interactúan con el alumnado para resolver dudas o apoyar el aprendizaje. Pueden ser muy útiles, pero los centros educativos están obligados a identificarlos claramente como IA, supervisar sus respuestas, y asegurar que respetan la privacidad y el nivel educativo adecuado”, matizan los abogados de Atico34.

¿Qué exige la normativa sobre IA? 

Todo sistema de IA conversacional debe identificarse claramente como tal. Además, cuando se dirige a menores, debe estar diseñado con especial cuidado para no generar dependencia ni confusión.

¿Qué deben hacer los centros?

  • Asegurarse de que los asistentes se presentan como IA (no como una persona real).
  • Supervisar su uso para evitar abusos o la desinformación. 
  • Evitar que sustituyan la relación con docentes reales.

Evaluación del rendimiento con IA: no a las decisiones automáticas

Algunos sistemas educativos aplican la IA para analizar el rendimiento académico y predecir futuros resultados. Sin embargo, tomar decisiones importantes (como repetir curso o pasar a un programa especial) en base únicamente a algoritmos está prohibido.

¿Qué dice la Ley de IA? 

Las decisiones automatizadas deben contar siempre con una supervisión humana, posibilidad de revisión y derecho a recibir una explicación.

¿Qué deben hacer los centros educativos?

  • No usar las herramientas de IA como único criterio para tomar decisiones educativas relevantes. 
  • Asegurar que el personal docente revisa los resultados y tiene la última palabra. 
  • Explicar al alumnado y a las familias cómo se emplea la IA en estos procesos.

Plataformas educativas con IA integrada

Muchas herramientas que hay en el aula incluyen funciones de IA sin que siempre se advierta: desde apps para aprender idiomas hasta plataformas de evaluación o comunicación con familias.

¿Qué dice la regulación sobre IA? 

Los centros educativos son responsables de garantizar que las tecnologías que contratan cumplen la normativa sobre protección de datos y uso ético de la IA.

¿Qué deben hacer los centros educativos?

  • Revisar los términos y las condiciones de uso antes de contratar cualquier herramienta.
  • Solicitar a los proveedores información clara sobre cómo se procesan los datos del alumnado.
  • Incluir cláusulas específicas en los contratos para asegurar el cumplimiento del AI Act y la normativa española.

Principales conclusiones

Las herramientas de inteligencia artificial son de gran ayuda en el contexto educativo, pero siempre y cuando se adopten conforme a la normativa vigente, en concreto, a las leyes sobre IA y protección de datos. Y dado que los centros tratan con información relativa a menores, la protección de sus datos personales cobra especial importancia al tratarse de un grupo de población especialmente vulnerable.

En este contexto, conviene recomendar la ayuda de especialistas en protección de datos y asesoría en inteligencia artificial, tanto para la elaboración de auditorías o evaluaciones de impacto previas, como para la aplicación de las medidas concretas que permitan un uso seguro de la IA en el aula.