Interesante jornada en torno a la educación digital. Evento organizado por la Comisión Europea y el Ministerio de Educación en España por ostentar la presidencia del consejo este segundo semestre de 2023.
La Unión Europea ha aprobado recientemente una Regulación sobre Inteligencia Artificial (IA) en Europa. Esta regulación busca garantizar la seguridad y los derechos fundamentales de las personas. Los elementos principales de esta regulación son los siguientes:
Prohibición de sistemas de IA peligrosos: Se prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas.
Obligaciones para los sistemas de IA de alto riesgo: Los sistemas de IA considerados de alto riesgo, como los utilizados en la atención médica, el transporte y la energía, deben cumplir con requisitos específicos de transparencia, supervisión y control humano.
Obligaciones para los sistemas de IA de riesgo limitado: Los sistemas de IA considerados de riesgo limitado, como los utilizados en la educación y el entretenimiento, también deben cumplir con requisitos específicos de transparencia y supervisión.
Registro de sistemas de IA de alto riesgo: Los sistemas de IA de alto riesgo deben ser registrados y evaluados antes de su lanzamiento al mercado.
Sanciones por incumplimiento: Las empresas que no cumplan con las regulaciones de IA pueden enfrentar sanciones financieras significativas.
La nueva regulación prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas. Aunque la regulación no proporciona una lista exhaustiva de sistemas de IA peligrosos, algunos ejemplos podrían incluir:
Sistemas de vigilancia masiva: Los sistemas de IA utilizados para la vigilancia masiva pueden ser considerados peligrosos debido a su capacidad para recopilar y analizar grandes cantidades de datos personales.
Sistemas de IA discriminatorios: Los sistemas de IA que discriminan a ciertos grupos de personas, como los grupos étnicos o de género, pueden ser considerados peligrosos debido a su impacto en los derechos fundamentales de las personas.
Sistemas de IA que toman decisiones críticas: Los sistemas de IA que toman decisiones críticas, como los utilizados en la atención médica o el transporte, pueden ser considerados peligrosos si no se supervisan adecuadamente.
Respecto a las diferencias de esta regulación con respecto a los Estados Unidos o China:
La regulación de la Unión Europea (UE) se centra en garantizar la seguridad y los derechos fundamentales de las personas como veíamos.Por otro lado, China ha publicado recientemente nuevas normas sobre inteligencia artificial generativa (IA), convirtiéndose en uno de los primeros países del mundo en regular la tecnología que está detrás de la IA generativa 2. El enfoque de China se centra en la implementación de un sistema de licencias para contenido y servicios generativos de IA, y requiere que las empresas registren sus productos, realicen evaluaciones de seguridad y sigan los valores socialistas.
En los Estados Unidos, no existe una regulación federal de IA a nivel nacional. Sin embargo, algunos estados, como California, han promulgado leyes específicas sobre IA 1. Además, varias empresas de tecnología han creado sus propias políticas y principios éticos para guiar el desarrollo y uso de la IA.
Es importante tener en cuenta que la regulación de la IA varía según el país y la región, y que la evaluación de si un sistema de IA es peligroso dependerá de las circunstancias específicas.
La Unión Europea ha aprobado recientemente una Regulación sobre Inteligencia Artificial (IA) en Europa. Esta regulación busca garantizar la seguridad y los derechos fundamentales de las personas. Los elementos principales de esta regulación son los siguientes:
Prohibición de sistemas de IA peligrosos: Se prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas.
Obligaciones para los sistemas de IA de alto riesgo: Los sistemas de IA considerados de alto riesgo, como los utilizados en la atención médica, el transporte y la energía, deben cumplir con requisitos específicos de transparencia, supervisión y control humano.
Obligaciones para los sistemas de IA de riesgo limitado: Los sistemas de IA considerados de riesgo limitado, como los utilizados en la educación y el entretenimiento, también deben cumplir con requisitos específicos de transparencia y supervisión.
Registro de sistemas de IA de alto riesgo: Los sistemas de IA de alto riesgo deben ser registrados y evaluados antes de su lanzamiento al mercado.
Sanciones por incumplimiento: Las empresas que no cumplan con las regulaciones de IA pueden enfrentar sanciones financieras significativas.
La nueva regulación prohíbe el uso de sistemas de IA que se consideren peligrosos para la seguridad, la privacidad y los derechos fundamentales de las personas. Aunque la regulación no proporciona una lista exhaustiva de sistemas de IA peligrosos, algunos ejemplos podrían incluir:
Sistemas de vigilancia masiva: Los sistemas de IA utilizados para la vigilancia masiva pueden ser considerados peligrosos debido a su capacidad para recopilar y analizar grandes cantidades de datos personales.
Sistemas de IA discriminatorios: Los sistemas de IA que discriminan a ciertos grupos de personas, como los grupos étnicos o de género, pueden ser considerados peligrosos debido a su impacto en los derechos fundamentales de las personas.
Sistemas de IA que toman decisiones críticas: Los sistemas de IA que toman decisiones críticas, como los utilizados en la atención médica o el transporte, pueden ser considerados peligrosos si no se supervisan adecuadamente.
Respecto a las diferencias de esta regulación con respecto a los Estados Unidos o China:
La regulación de la Unión Europea (UE) se centra en garantizar la seguridad y los derechos fundamentales de las personas como veíamos.Por otro lado, China ha publicado recientemente nuevas normas sobre inteligencia artificial generativa (IA), convirtiéndose en uno de los primeros países del mundo en regular la tecnología que está detrás de la IA generativa 2. El enfoque de China se centra en la implementación de un sistema de licencias para contenido y servicios generativos de IA, y requiere que las empresas registren sus productos, realicen evaluaciones de seguridad y sigan los valores socialistas.
En los Estados Unidos, no existe una regulación federal de IA a nivel nacional. Sin embargo, algunos estados, como California, han promulgado leyes específicas sobre IA 1. Además, varias empresas de tecnología han creado sus propias políticas y principios éticos para guiar el desarrollo y uso de la IA.
Es importante tener en cuenta que la regulación de la IA varía según el país y la región, y que la evaluación de si un sistema de IA es peligroso dependerá de las circunstancias específicas.
Quería dejar referencia a información sobre lo que la inteligencia artificial y lo que supone para la educación. Se trata de un importante reto para el ámbito educativo. Tanto en el ámbito del uso educativo, como en el de ámbito de la gestión educativa, como en el ámbito regulatorio.
En este articulo solo incluiré referencias actuales y marco regulatorio en el que se trabaja.
La propuesta de la Comisión Europea pretende establecer normas armonizadas sobre la inteligencia artificial (IA) en la Unión Europea (UE).
El objetivo de la propuesta es promover la adopción de la IA y abordar los riesgos que plantea para los derechos fundamentales, la seguridad y el mercado interior.
Se basa en los valores y principios de la UE y busca crear un ecosistema de confianza en la IA, garantizando que los sistemas de IA sean fiables, transparentes y responsables.
Establece un marco jurídico que clasifica los sistemas de IA según su nivel de riesgo y define las obligaciones y requisitos que deben cumplir los proveedores y usuarios de dichos sistemas.
También prevé la creación de un comité europeo de inteligencia artificial, un sistema de gobernanza y supervisión a nivel nacional y europeo y un régimen sancionador para garantizar el cumplimiento de las normas.
También hace alguna referencia al ámbito educativo:
Se considera que los sistemas de IA que se utilizan para el acceso a la educación son de alto riesgo y deben cumplir con una serie de requisitos obligatorios, como la calidad y transparencia de los datos, la documentación adecuada, la supervisión humana efectiva y la información clara a los usuarios.
Se establece que los sistemas de IA que se utilizan para fines educativos o formativos deben garantizar que los usuarios puedan comprender el funcionamiento y las capacidades del sistema, así como desarrollar sus propias habilidades y competencias críticas.
Estrategia Nacional de Inteligencia Artificial (ENIA)
En España la referencia fundamental es la Estrategia Nacional de Inteligencia Artificial (ENIA).
«Introducir las bases para la comprensión del pensamiento computacional, crítico y creativo de los fundamentos y dilemas de la IA en la Educación Infantil, Primaria y Secundaria, con la adecuada formación del profesorado en el largo plazo, que permita la inclusión del alumnado con necesidades especiales en estos ámbitos digitales»
También referencia a la EPCIA del Minsiterio de Educación y Formación Profesional:
Por su parte, el Ministerio de Educación y FP ha elaborado y publicado un estudio sobre la situación del Pensamiento Computacional en la educación en España. A partir de este estudio desarrolla en colaboración con las comunidades autónomas el proyecto Escuela de Pensamiento Computacional e Inteligencia Artificial.
Referencias Comisión Europea IA – Educación
Información sobre la inteligencia artificial en la educación según la Comisión Europea. Aquí tienes algunos enlaces que pueden ser de tu interés:
Inteligencia artificial en la educación según la Comisión Europea: un artículo que resume una guía publicada por la Comisión para los profesores de primaria y secundaria sobre el uso de la IA en la educación.
EUR-Lex – 52021PC0206 – EN – EUR-Lex – Europa: el texto de la propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial, que aborda los riesgos y las oportunidades de la IA en diferentes ámbitos, incluyendo la educación.
Excelencia y confianza en la inteligencia artificial: una página web que explica las acciones y las iniciativas de la Comisión para promover el desarrollo y el uso de la IA en Europa, así como para garantizar su respeto por los valores y los derechos fundamentales.
Enlaces de la UNESCO inteligencia artificial en educación
Por último dejo aquí este video que publicaba «El Confidencial» con una visión interesante y para la reflexión y que me ha llevado a escribir la info previa:
¿Cómo afecta la tecnología a los adolescentes? Esta es una pregunta que muchos padres, educadores y profesionales se hacen ante el creciente uso de internet, las redes sociales y los dispositivos electrónicos por parte de los jóvenes. Para responder a esta cuestión, UNICEF España ha realizado el estudio más amplio hasta la fecha en nuestro país y en Europa sobre este tema, con la participación de más de 50.000 adolescentes de entre 11 y 18 años de 265 centros educativos.
El informe «Impacto de la tecnología en la adolescencia«: relaciones, riesgos y oportunidades» ofrece una fotografía muy precisa sobre cómo usan la tecnología los chicos y chicas de nuestro entorno y, sobre todo, cómo se relacionan a través de las pantallas. El estudio aborda aspectos como el tiempo dedicado a las actividades online, el tipo de contenidos que consumen o generan, las formas de comunicación que emplean, las ventajas e inconvenientes que perciben, los riesgos a los que se enfrentan o las medidas que toman para protegerse.
Los resultados del informe revelan una realidad compleja y diversa, en la que conviven aspectos positivos y negativos del uso de la tecnología por parte de los adolescentes. Por un lado, se constata que la tecnología les ofrece múltiples beneficios para su desarrollo personal, social y educativo: les permite acceder a información variada y actualizada, expresar su creatividad e identidad, mantener el contacto con sus amigos y familiares, ampliar su red social o apoyar causas sociales. Por otro lado, se evidencian también algunos riesgos asociados al uso problemático o excesivo de la tecnología: interferencia con otras actividades importantes como el estudio o el deporte, exposición a contenidos inapropiados o falsos, acoso o ciberbullying, sexting o envío de imágenes íntimas sin consentimiento, adicción o dependencia emocional .
Según el informe de UNICEF España, uno de cada tres adolescentes estaría haciendo un uso problemático de estas tecnologías; es decir, que pasa un número de horas muy elevado en internet y las redes sociales, y que eso interfiere en su día a día: educación, relación con su familia y amigos, desarrollo personal en otros ámbitos… Además, el estudio muestra que hay diferencias significativas según el género, la edad y el nivel socioeconómico de los adolescentes, lo que implica la necesidad de adaptar las estrategias educativas y preventivas a cada grupo.
Ante esta situación, UNICEF España propone una serie de recomendaciones dirigidas a los diferentes agentes implicados: familias, educadores, administraciones públicas, empresas tecnológicas y medios de comunicación. Entre ellas, destacan:
Promover un uso saludable e inclusivo de las tecnologías entre los adolescentes, basado en el respeto, la responsabilidad y la participación activa.
Fomentar el diálogo y la confianza entre padres e hijos sobre sus experiencias online, así como establecer normas y límites consensuados.
Incorporar la educación digital como una competencia transversal en el currículo escolar, desde edades tempranas.
Garantizar el acceso equitativo a las tecnologías digitales para todos los adolescentes, independientemente de su situación económica o geográfica.
Proteger los derechos y la privacidad de los adolescentes en internet, evitando su exposición a contenidos nocivos.
Investigación: Andrade, B., Guadix, I., Rial, A. y Suárez, F. (2021). Impacto de la tecnología en la adolescencia. Relaciones, riesgos y oportunidades. Madrid: UNICEF España.
Siéntate comodamente para ver esta interesante charla sobre Aprendizaje Basado en Proyectos y su aplicación en eTwinning de Fernando Trujillo. Muy interesante.
Cada vez parece haber mas exposición de nuestros alumnos a las redes sociales, a Internet, por ello parece preciso estar al tanto de como actuar, y conocer cómo se debe tratar la información de carácter personal desde un centro educativo.
Disponemos de esta documentación publicada por la Junta de Andalucía, sin duda de gran utilidad para echarle un vistazo.