Interesante jornada en torno a la educación digital. Evento organizado por la Comisión Europea y el Ministerio de Educación en España por ostentar la presidencia del consejo este segundo semestre de 2023.
Quería traer aquí este documento Value Compass for digital transformation in Education. Fue desarrollado por SURF y Kennisnet, las organizaciones públicas de Tecnologías de Ia Información para la educación en los Países Bajos. Proporciona un marco de referencia para estructurar la transformación digital basada en valores. Los tres valores centrales en la educación son justicia, humanidad y autonomía:
Justicia:
Igualdad: La educación debe ofrecer igualdad de oportunidades para todos, sin perjudicar ni excluir a ningún grupo específico.
Inclusividad: La educación debe estar abierta a todos los estudiantes, permitiendo su participación y pertenencia.
Integridad: La transparencia y la confianza son esenciales en la educación.
Autonomía:
Autodeterminación: Los estudiantes tienen derecho a elegir el tipo de educación que les conviene y controlar su desarrollo.
Salvaguardia de la privacidad: Los datos personales deben manejarse de manera segura y respetar la privacidad de docentes y estudiantes.
Independencia educativa: Las instituciones educativas deben poder enseñar sin interferencias externas.
Humanidad:
Cohesión social: Las instituciones educativas deben fomentar el contacto significativo y respetar la individualidad de cada estudiante.
Seguridad y bienestar: Proporcionar un entorno seguro y saludable para el aprendizaje.
Desarrollo personal: Fomentar la expresión individual y el equilibrio entre humanidad y tecnología
La transformación digital puede apoyar estos valores, pero también puede ponerlos en riesgo. El diálogo sobre valores puede ayudar a tomar decisiones informadas y garantizar que la educación controle el proceso de transformación digital.
Pero, ¿Cómo se puede aplicar de forma práctica?
Aquí hay algunas formas en que se puede aplicar este documento en la práctica:
Priorización de valores: Las instituciones educativas pueden utilizar el Value Compass para identificar y priorizar los valores que son importantes para su contexto específico. Por ejemplo, pueden enfocarse en la igualdad de oportunidades, la autonomía o la humanidad.
Diseño de tecnologías: Al desarrollar o adoptar nuevas tecnologías, las instituciones pueden considerar cómo se alinean con los valores destacados en el Value Compass. Por ejemplo, al implementar chatbots en la educación, se puede evaluar su impacto ético y garantizar la privacidad de los estudiantes.
Toma de decisiones: Cuando se enfrentan a dilemas relacionados con la tecnología, como el uso de proctoring (supervisión examen) en línea, las instituciones pueden consultar el Value Compass para evaluar cómo se ven afectados los valores clave. Esto ayuda a tomar decisiones informadas.
Colaboración y control público: Las instituciones pueden trabajar juntas para garantizar que los valores educativos prevalezcan sobre los intereses comerciales. La cooperación y el control público son esenciales para mantener el equilibrio.
En resumen, el Value Compass es una herramienta para guiar la toma de decisiones éticas y asegurar que la transformación digital en la educación se realice de manera responsable y alineada con los valores fundamentales.
La Unión Europea ha aprobado recientemente una Regulación sobre Inteligencia Artificial (IA) en Europa. Esta regulación busca garantizar la seguridad y los derechos fundamentales de las personas. Los elementos principales de esta regulación son los siguientes:
Prohibición de sistemas de IA peligrosos: Se prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas.
Obligaciones para los sistemas de IA de alto riesgo: Los sistemas de IA considerados de alto riesgo, como los utilizados en la atención médica, el transporte y la energía, deben cumplir con requisitos específicos de transparencia, supervisión y control humano.
Obligaciones para los sistemas de IA de riesgo limitado: Los sistemas de IA considerados de riesgo limitado, como los utilizados en la educación y el entretenimiento, también deben cumplir con requisitos específicos de transparencia y supervisión.
Registro de sistemas de IA de alto riesgo: Los sistemas de IA de alto riesgo deben ser registrados y evaluados antes de su lanzamiento al mercado.
Sanciones por incumplimiento: Las empresas que no cumplan con las regulaciones de IA pueden enfrentar sanciones financieras significativas.
La nueva regulación prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas. Aunque la regulación no proporciona una lista exhaustiva de sistemas de IA peligrosos, algunos ejemplos podrían incluir:
Sistemas de vigilancia masiva: Los sistemas de IA utilizados para la vigilancia masiva pueden ser considerados peligrosos debido a su capacidad para recopilar y analizar grandes cantidades de datos personales.
Sistemas de IA discriminatorios: Los sistemas de IA que discriminan a ciertos grupos de personas, como los grupos étnicos o de género, pueden ser considerados peligrosos debido a su impacto en los derechos fundamentales de las personas.
Sistemas de IA que toman decisiones críticas: Los sistemas de IA que toman decisiones críticas, como los utilizados en la atención médica o el transporte, pueden ser considerados peligrosos si no se supervisan adecuadamente.
Respecto a las diferencias de esta regulación con respecto a los Estados Unidos o China:
La regulación de la Unión Europea (UE) se centra en garantizar la seguridad y los derechos fundamentales de las personas como veíamos.Por otro lado, China ha publicado recientemente nuevas normas sobre inteligencia artificial generativa (IA), convirtiéndose en uno de los primeros países del mundo en regular la tecnología que está detrás de la IA generativa 2. El enfoque de China se centra en la implementación de un sistema de licencias para contenido y servicios generativos de IA, y requiere que las empresas registren sus productos, realicen evaluaciones de seguridad y sigan los valores socialistas.
En los Estados Unidos, no existe una regulación federal de IA a nivel nacional. Sin embargo, algunos estados, como California, han promulgado leyes específicas sobre IA 1. Además, varias empresas de tecnología han creado sus propias políticas y principios éticos para guiar el desarrollo y uso de la IA.
Es importante tener en cuenta que la regulación de la IA varía según el país y la región, y que la evaluación de si un sistema de IA es peligroso dependerá de las circunstancias específicas.
La Unión Europea ha aprobado recientemente una Regulación sobre Inteligencia Artificial (IA) en Europa. Esta regulación busca garantizar la seguridad y los derechos fundamentales de las personas. Los elementos principales de esta regulación son los siguientes:
Prohibición de sistemas de IA peligrosos: Se prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas.
Obligaciones para los sistemas de IA de alto riesgo: Los sistemas de IA considerados de alto riesgo, como los utilizados en la atención médica, el transporte y la energía, deben cumplir con requisitos específicos de transparencia, supervisión y control humano.
Obligaciones para los sistemas de IA de riesgo limitado: Los sistemas de IA considerados de riesgo limitado, como los utilizados en la educación y el entretenimiento, también deben cumplir con requisitos específicos de transparencia y supervisión.
Registro de sistemas de IA de alto riesgo: Los sistemas de IA de alto riesgo deben ser registrados y evaluados antes de su lanzamiento al mercado.
Sanciones por incumplimiento: Las empresas que no cumplan con las regulaciones de IA pueden enfrentar sanciones financieras significativas.
La nueva regulación prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas. Aunque la regulación no proporciona una lista exhaustiva de sistemas de IA peligrosos, algunos ejemplos podrían incluir:
Sistemas de vigilancia masiva: Los sistemas de IA utilizados para la vigilancia masiva pueden ser considerados peligrosos debido a su capacidad para recopilar y analizar grandes cantidades de datos personales.
Sistemas de IA discriminatorios: Los sistemas de IA que discriminan a ciertos grupos de personas, como los grupos étnicos o de género, pueden ser considerados peligrosos debido a su impacto en los derechos fundamentales de las personas.
Sistemas de IA que toman decisiones críticas: Los sistemas de IA que toman decisiones críticas, como los utilizados en la atención médica o el transporte, pueden ser considerados peligrosos si no se supervisan adecuadamente.
Respecto a las diferencias de esta regulación con respecto a los Estados Unidos o China:
La regulación de la Unión Europea (UE) se centra en garantizar la seguridad y los derechos fundamentales de las personas como veíamos.Por otro lado, China ha publicado recientemente nuevas normas sobre inteligencia artificial generativa (IA), convirtiéndose en uno de los primeros países del mundo en regular la tecnología que está detrás de la IA generativa 2. El enfoque de China se centra en la implementación de un sistema de licencias para contenido y servicios generativos de IA, y requiere que las empresas registren sus productos, realicen evaluaciones de seguridad y sigan los valores socialistas.
En los Estados Unidos, no existe una regulación federal de IA a nivel nacional. Sin embargo, algunos estados, como California, han promulgado leyes específicas sobre IA 1. Además, varias empresas de tecnología han creado sus propias políticas y principios éticos para guiar el desarrollo y uso de la IA.
Es importante tener en cuenta que la regulación de la IA varía según el país y la región, y que la evaluación de si un sistema de IA es peligroso dependerá de las circunstancias específicas.
Quería dejar referencia a información sobre lo que la inteligencia artificial y lo que supone para la educación. Se trata de un importante reto para el ámbito educativo. Tanto en el ámbito del uso educativo, como en el de ámbito de la gestión educativa, como en el ámbito regulatorio.
En este articulo solo incluiré referencias actuales y marco regulatorio en el que se trabaja.
La propuesta de la Comisión Europea pretende establecer normas armonizadas sobre la inteligencia artificial (IA) en la Unión Europea (UE).
El objetivo de la propuesta es promover la adopción de la IA y abordar los riesgos que plantea para los derechos fundamentales, la seguridad y el mercado interior.
Se basa en los valores y principios de la UE y busca crear un ecosistema de confianza en la IA, garantizando que los sistemas de IA sean fiables, transparentes y responsables.
Establece un marco jurídico que clasifica los sistemas de IA según su nivel de riesgo y define las obligaciones y requisitos que deben cumplir los proveedores y usuarios de dichos sistemas.
También prevé la creación de un comité europeo de inteligencia artificial, un sistema de gobernanza y supervisión a nivel nacional y europeo y un régimen sancionador para garantizar el cumplimiento de las normas.
También hace alguna referencia al ámbito educativo:
Se considera que los sistemas de IA que se utilizan para el acceso a la educación son de alto riesgo y deben cumplir con una serie de requisitos obligatorios, como la calidad y transparencia de los datos, la documentación adecuada, la supervisión humana efectiva y la información clara a los usuarios.
Se establece que los sistemas de IA que se utilizan para fines educativos o formativos deben garantizar que los usuarios puedan comprender el funcionamiento y las capacidades del sistema, así como desarrollar sus propias habilidades y competencias críticas.
Estrategia Nacional de Inteligencia Artificial (ENIA)
En España la referencia fundamental es la Estrategia Nacional de Inteligencia Artificial (ENIA).
«Introducir las bases para la comprensión del pensamiento computacional, crítico y creativo de los fundamentos y dilemas de la IA en la Educación Infantil, Primaria y Secundaria, con la adecuada formación del profesorado en el largo plazo, que permita la inclusión del alumnado con necesidades especiales en estos ámbitos digitales»
También referencia a la EPCIA del Minsiterio de Educación y Formación Profesional:
Por su parte, el Ministerio de Educación y FP ha elaborado y publicado un estudio sobre la situación del Pensamiento Computacional en la educación en España. A partir de este estudio desarrolla en colaboración con las comunidades autónomas el proyecto Escuela de Pensamiento Computacional e Inteligencia Artificial.
Referencias Comisión Europea IA – Educación
Información sobre la inteligencia artificial en la educación según la Comisión Europea. Aquí tienes algunos enlaces que pueden ser de tu interés:
Inteligencia artificial en la educación según la Comisión Europea: un artículo que resume una guía publicada por la Comisión para los profesores de primaria y secundaria sobre el uso de la IA en la educación.
EUR-Lex – 52021PC0206 – EN – EUR-Lex – Europa: el texto de la propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial, que aborda los riesgos y las oportunidades de la IA en diferentes ámbitos, incluyendo la educación.
Excelencia y confianza en la inteligencia artificial: una página web que explica las acciones y las iniciativas de la Comisión para promover el desarrollo y el uso de la IA en Europa, así como para garantizar su respeto por los valores y los derechos fundamentales.
Enlaces de la UNESCO inteligencia artificial en educación
Por último dejo aquí este video que publicaba «El Confidencial» con una visión interesante y para la reflexión y que me ha llevado a escribir la info previa:
¿Cómo afecta la tecnología a los adolescentes? Esta es una pregunta que muchos padres, educadores y profesionales se hacen ante el creciente uso de internet, las redes sociales y los dispositivos electrónicos por parte de los jóvenes. Para responder a esta cuestión, UNICEF España ha realizado el estudio más amplio hasta la fecha en nuestro país y en Europa sobre este tema, con la participación de más de 50.000 adolescentes de entre 11 y 18 años de 265 centros educativos.
El informe «Impacto de la tecnología en la adolescencia«: relaciones, riesgos y oportunidades» ofrece una fotografía muy precisa sobre cómo usan la tecnología los chicos y chicas de nuestro entorno y, sobre todo, cómo se relacionan a través de las pantallas. El estudio aborda aspectos como el tiempo dedicado a las actividades online, el tipo de contenidos que consumen o generan, las formas de comunicación que emplean, las ventajas e inconvenientes que perciben, los riesgos a los que se enfrentan o las medidas que toman para protegerse.
Los resultados del informe revelan una realidad compleja y diversa, en la que conviven aspectos positivos y negativos del uso de la tecnología por parte de los adolescentes. Por un lado, se constata que la tecnología les ofrece múltiples beneficios para su desarrollo personal, social y educativo: les permite acceder a información variada y actualizada, expresar su creatividad e identidad, mantener el contacto con sus amigos y familiares, ampliar su red social o apoyar causas sociales. Por otro lado, se evidencian también algunos riesgos asociados al uso problemático o excesivo de la tecnología: interferencia con otras actividades importantes como el estudio o el deporte, exposición a contenidos inapropiados o falsos, acoso o ciberbullying, sexting o envío de imágenes íntimas sin consentimiento, adicción o dependencia emocional .
Según el informe de UNICEF España, uno de cada tres adolescentes estaría haciendo un uso problemático de estas tecnologías; es decir, que pasa un número de horas muy elevado en internet y las redes sociales, y que eso interfiere en su día a día: educación, relación con su familia y amigos, desarrollo personal en otros ámbitos… Además, el estudio muestra que hay diferencias significativas según el género, la edad y el nivel socioeconómico de los adolescentes, lo que implica la necesidad de adaptar las estrategias educativas y preventivas a cada grupo.
Ante esta situación, UNICEF España propone una serie de recomendaciones dirigidas a los diferentes agentes implicados: familias, educadores, administraciones públicas, empresas tecnológicas y medios de comunicación. Entre ellas, destacan:
Promover un uso saludable e inclusivo de las tecnologías entre los adolescentes, basado en el respeto, la responsabilidad y la participación activa.
Fomentar el diálogo y la confianza entre padres e hijos sobre sus experiencias online, así como establecer normas y límites consensuados.
Incorporar la educación digital como una competencia transversal en el currículo escolar, desde edades tempranas.
Garantizar el acceso equitativo a las tecnologías digitales para todos los adolescentes, independientemente de su situación económica o geográfica.
Proteger los derechos y la privacidad de los adolescentes en internet, evitando su exposición a contenidos nocivos.
Investigación: Andrade, B., Guadix, I., Rial, A. y Suárez, F. (2021). Impacto de la tecnología en la adolescencia. Relaciones, riesgos y oportunidades. Madrid: UNICEF España.
En el ámbito de la competencia digital docente, en los últimos meses ha habido dos grandes acuerdos entre todas las Administraciones Educativas en España:
En este artículo mostramos el gran trabajo que estamos haciendo en Digitalización en Educación.
El ámbito educativo ha sido uno de los más golpea-dos por la crisis originada por la pandemia de la Covid-19. El pasado 11 de marzo de 2020 se cerraba la activi-dad presencial en los centros educativos de la Comunidad de Madrid y, tres días des-pués, todo el país trasladaba las aulas al entorno virtual. En ese momento fuimos más conscientes que nunca de que este era un punto de inflexión en la educación y en cómo se estaban utilizando las tecnologías para el pro-ceso de enseñanza – aprendizaje.