¿Sabías que el 74 % de los alumnos españoles de secundaria ya usa IA para hacer deberes y el 38 % de los profesores no sabe detectarlo, según el estudio del INTEF de 2025? La inteligencia artificial ha entrado en las aulas sin pedir permiso, y ahora la pregunta urgente no es si debemos usarla, sino cómo hacerlo de forma ética para que potencie el aprendizaje en vez de reemplazarlo. Padres, docentes y centros educativos se enfrentan al mayor reto educativo del siglo: educar con IA sin perder la ética ni la equidad.
El marco ético internacional y español
La UNESCO publicó en 2021 la “Recomendación sobre la ética de la inteligencia artificial”, ratificada por España, que establece principios básicos: transparencia, justicia, no maleficencia y responsabilidad humana. En 2024, el Ministerio de Educación español lanzó las “Directrices para el uso ético de la IA en educación”, obligatorias en centros públicos desde septiembre 2025. Estos documentos exigen que cualquier herramienta de IA en la escuela respete la privacidad, evite sesgos y mantenga siempre al profesor como responsable último de la evaluación.
Principales dilemas éticos en el aula
Plagio y autoría: ¿de quién es el trabajo?
Cuando un alumno entrega un ensayo generado por ChatGPT, ¿es plagio o uso de herramienta? La postura mayoritaria (UNED, UOC, CRUE) es clara: si no se cita ni se transforma significativamente, sí es plagio. Sin embargo, si el estudiante usa la IA como borrador y lo reescribe con sus palabras, se considera apoyo legítimo.
Sesgos y discriminación algorítmica
Los modelos de IA entrenados con datos sesgados pueden perpetuar estereotipos de género, raza o clase social. Un ejemplo real: en 2024, una herramienta de corrección automática de exámenes penalizaba más a alumnos andaluces por su acento al usar reconocimiento de voz. Los centros deben elegir proveedores que auditen sesgos y permitan ajuste regional.
Brecha digital y equidad
El 12 % de los hogares españoles aún carece de conexión estable (INE 2025). Si las tareas requieren IA, los alumnos sin acceso quedan excluidos. Las directrices del Ministerio obligan a ofrecer alternativas offline y a no penalizar a quien no use IA.
Privacidad y protección de datos
Herramientas como ClassDojo o Google Classroom con IA recopilan datos de menores. La LOPDGDD y el RGPD exigen consentimiento explícito y minimización de datos. En 2025, la AEPD multó a tres colegios por usar aplicaciones sin evaluación de impacto.
Buenas prácticas para un uso ético de la IA en la escuela
Transparencia total
Los centros deben publicar qué herramientas usan, para qué y quién tiene acceso a los datos. Ejemplo: el IES Ramiro de Maeztu (Madrid) creó en 2025 una “Política de IA transparente” visible en su web.
Citar la IA como fuente
Enseñar a los alumnos a citar: “Este texto ha sido redactado con ayuda de Gemini 3 y revisado por mí” o usar el formato APA para IA propuesto por la CRUE.
Evaluación competencial, no memorística
Cambiar exámenes tradicionales por proyectos, debates o demostraciones prácticas donde la IA no pueda sustituir el razonamiento personal.
Formación docente obligatoria
El INTEF ofrece desde 2025 el curso gratuito “IA ética en el aula” (30 horas), obligatorio para nuevos profesores interinos.
Herramientas recomendadas con sello ético
- EducAItor (desarrollada por la Junta de Andalucía): IA educativa en español, sin datos externos, con sello RGPD.
- NotebookLM (Google for Education): genera resúmenes y mapas mentales sin almacenar datos del alumno.
- SchoolAI: plataforma supervisada por docentes, con controles parentales.
Experiencias reales en centros españoles
El colegio Montserrat (Barcelona) implantó en 2024 la “semana sin IA” y la “semana con IA ética”: los alumnos compararon ambos métodos y el 89 % reconoció aprender más cuando usaban la IA como apoyo crítico.
El IES La Laguna (Tenerife) usa ética IA como asignatura transversal desde 1º ESO: debaten casos reales (Deepfakes, sesgos en reconocimiento facial) y redactan su propio código ético.
Recomendaciones para familias
- Hablar abiertamente del uso de IA con los hijos.
- Instalar extensiones como “Originate” que detectan texto generado por IA.
- Exigir al centro su política de IA y participar en los consejos escolares.
La ética IA en la escuela no es un obstáculo, sino la oportunidad de formar ciudadanos críticos en un mundo gobernado por algoritmos.
Fuentes consultadas
- UNESCO – Recomendación sobre la ética de la inteligencia artificial (2021) → https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
- Ministerio de Educación – Directrices para el uso ético de la IA en educación (2024) → https://www.educacionfpydeportes.gob.es/ia-educacion
- INTEF – Informe “IA en la educación española 2025”
- CRUE – Guía para citar IA en trabajos académicos (2025)
- AEPD – Guía de protección de datos en centros educativos con IA (2025)
- Observatorio de Tecnología Educativa – Ética y IA en el aula: casos prácticos
- UOC – Estudio “Impacto de la IA generativa en la educación superior” (2025)