Hace unos días, gracias a Paul Van Branteghem, descubrí un artículo del Stanford Institute for Human-Centered Artificial Intelligence (HAI) que me ha dejado profundamente impactada. Habla de un riesgo silencioso pero creciente: el uso de IA generativa para crear imágenes sexualizadas falsas de menores, en muchos casos producidas por otros menores. Una amenaza que no es ciencia ficción, sino una realidad que ya está ocurriendo en colegios e institutos de distintos países.
El artículo, titulado “Addressing AI-Generated Child Sexual Abuse Material: Opportunities for Educational Policy”, no solo describe el problema, sino que lanza una llamada a la acción urgente desde el ámbito educativo. Porque si bien la tecnología evoluciona a toda velocidad, la conciencia ética sobre su uso no siempre la acompaña.
Un problema nuevo, una responsabilidad antigua
La facilidad con la que se puede acceder hoy a herramientas que permiten manipular imágenes y generar falsos desnudos ha puesto en manos de adolescentes un poder para el que no están preparados. Lo hacen —a veces— como una broma, otras como venganza, o simplemente porque pueden. Pero detrás de esa acción hay un daño real: a la dignidad, a la privacidad y al bienestar de las personas retratadas.
Lo más preocupante es que muchos centros educativos aún no saben cómo abordar este tema. No hay protocolos claros, ni formación específica para el profesorado, y en muchos casos, ni siquiera se habla de ello por miedo a “dar ideas”. Pero el silencio no protege, al contrario: desinforma y deja desamparadas a las víctimas.
¿Qué podemos hacer desde la educación?
Stanford HAI plantea propuestas muy concretas: incluir estos temas en los programas escolares, formar a docentes, establecer respuestas claras ante incidentes y tratar estas conductas como lo que son: formas graves de ciberacoso. Pero también nos recuerda algo esencial: la respuesta no debe ser solo punitiva, sino educativa. Hay que enseñar, acompañar y hacer entender el impacto de las acciones en el mundo digital.
Desde Spain AI Valladolid, lo tenemos claro. Por eso impulsamos este año la primera Feria de Inteligencia Artificial para jóvenes, donde más de 400 escolares participaron en talleres y charlas diseñadas para concienciar sobre el uso ético, creativo y responsable de la IA. Porque si queremos que las nuevas generaciones usen bien estas herramientas, tenemos que llegar antes que los riesgos.
La ética digital empieza en las aulas… y en casa
La clave está en hablar con ellos, sin tabúes, sin dramatismos, pero con claridad. Que entiendan que generar una imagen falsa de otra persona puede ser un delito, pero sobre todo es una agresión. Que sepan que usar la IA no es solo cuestión de habilidad, sino también de valores.
Como sociedad, tenemos una oportunidad para actuar antes de que este problema se vuelva estructural. No esperemos a que estalle. Educar en inteligencia artificial también es educar en humanidad.