La Inteligencia Artificial (IA) hoy ya es inseparable de nuestras vidas. A medida que la opinión pública sabe más sobre su interactuación con las personas, aumentan las incertidumbres, desconfianzas y dudas. También se descubren muchas oportunidades. Mientras, nos envuelve por todas partes, la llevamos usando cada día en todos los ámbitos desde hace años y no parece fácil salirse de sus dominios. Ante este panorama, muchas voces piden control, normativas claras y unificadas, surgen recomendaciones y toma fuerza aplicar la ética a la IA.
La tecnología en sí misma depende de las personas que la diseñan y de las directrices y normas comunes, también las éticas, en caso de que existan. Ahora que llevamos años con cierta drogodependencia de unas emociones condicionadas por los algoritmos, con nuestro narcisismo y atención conducidos día y noche en tiempos acelerados, con los teléfonos móviles publicitados como sinónimos de una libertad que ahora nos tienen encadenados y sin tiempo de esperas, con la abundancia de la producción de primeros planos como reclamos de las miradas digitales, ahora imploramos a la ética, en un mundo donde a corto plazo existe el riesgo de desinformación por exceso, sin criterios de contraste ni capacidad de digerirlo todo; a medio plazo, el efecto en los empleos y en la formación; a largo plazo, en los efectos de las relaciones entre la evolución tecnológica y lo que queremos para la sociedad. De todo ello se pueden deducir acciones educativas.
La ética nos compete a todos. En el caso que nos ocupa, es un término aplicado a las corporaciones privadas y a generadores de algoritmos que luego ofrecen a públicos abducidos por medio de actuaciones programadas, con decisiones personales más compulsivas que pensadas. Aun teniendo poder de decisión personal, dejarse llevar es un éxito conductual conseguido por las aplicaciones, con gran poder adictivo. Y ocurre en todas las edades.
En nuestro primer bautizo con los dispositivos e Internet, quizá hubiera sido fundamental y obligatoria una formación profunda en el significado de todo, sus repercusiones en los actos humanos ante o con las pantallas, qué hay detrás de ellas y cuáles son nuestras responsabilidades. Nunca es tarde, todos estamos en un proceso de educación y formación continuas, ahora con la ética también en primer plano.
Ante las incógnitas sobre una IA creada por la inteligencia natural humana, surgen sospechas sobre intereses, sobre quién se ha adueñado de mi identidad digital y quién incide en mi futuro.
Por ello, las evidencias del sentido común y del respeto a los derechos humanos son buenas guías éticas y educativas. El tema está presente cada vez en más personas con sentido crítico. También se analiza a fondo en jornadas, artículos, documentos oficiales, estudios y mesas redondas.
Oficialidades
En noviembre de 2021, un organismo internacional como la UNESCO publicó el documento La ética de la inteligencia artificial con recomendaciones en once ámbitos, el octavo dedicado a la educación e investigación. La mayoría de los puntos que trata comienzan con la frase: “Los Estados Miembros deberían…”. En 2022, un grupo de expertos de la Comisión Europea publicó otro documento: Directrices éticas sobre el uso de la IA y los datos en la educación y formación para los educadores, una guía con directrices éticas, dentro del Plan de Acción de Educación Digital (2021-2027). Antes, en 2015 según la ONU, el Objetivo de Desarrollo Sostenible 4 (ODS4) de la Agenda 2030, se hacía eco de la IA para garantizar siempre una educación de calidad.
En la última Escuela de Verano del CSIC (Centro Superior de Investigaciones Científicas), celebrada el pasado mes de julio en Barcelona y de la que hablamos aquí, dedicada a la IA y educación, también se planteó el tema de al ética en un taller, si bien era uno de los hilos transversales en otras intervenciones a cargo de investigadores y educadores.
Con algunas incógnitas trasladadas a la educación: ¿cuál será el papel de los docentes en las aulas? ¿Cómo llevar a la práctica tecnologías de alto riesgo (según el Parlamento Europeo) como la IA, con ética? Las respuestas son abiertas y en construcción. En todo caso, apuntaremos algunas ideas para despejar dudas o para generar más, como por ejemplo: ¿dónde queda el papel del ser humano en todo?
Principios
El taller sobre ética en la inteligencia artificial, de la Escuela de Verano del CSIC, impartido por el Dr. Albert Sabater , del Observatorio de Ética en IA de Cataluña (OEIAC), de la Universitat de Girona, bajo el título IA y enseñanza, cuestionar la experiencia, aportó una visión crítica y positiva sobre la IA centrándose en los beneficios, las preocupaciones éticas y riesgos potenciales, con algunas orientaciones.
De entrada, la ética debería arrancar de reflexiones extraídas de las buenas y malas prácticas con Internet, qué observa el alumnado y qué soluciones proponen. Hay centros educativos que ya lo están haciendo.
A continuación, algunas ideas y consejos presentes en los diferentes espacios, foros y documentos, traducidos a aplicaciones en las aulas:
- Necesaria presencia de la IA en las clases, convertirla en objeto de uso y de análisis posterior, lejos de posturas negacionistas que pretenden volver al pasado o borrar el futuro.
- El valor de los derechos y los deberes, ante algoritmos e IA que puedan aumentar el control y la vulnerabilidad de las personas.
- Remarcar la importancia de la identidad personal en digital y el valor de la responsabilidad individual a la hora de consultar, difundir o interactuar en Internet.
- Ser capaces de entender que sumar inteligencias (la natural y la artificial) aumenta los beneficios, evitando siempre generar perjuicios a otras personas.
- Intentar avanzar en las posibles respuestas a las dos preguntas que el profesor y pedagogo Jordi Adell reflexionaba en un reciente artículo sobre dos cuestiones, qué o quién puede hacer la escuela más inteligente: la primera, educar con la ayuda de la IA; la segunda, educar para la era de la IA.
- Explicar en clase cómo funcionan algoritmos concretos, por ejemplo algunos muy usados como los de Netflix, Amazon, Instagram o Google. Ante la tendencia actual de primero hacer en el mundo digital y luego preguntarse, habría que reflexionar a continuación, desde la experiencia de uso, para deducir si cumplen principios éticos: 1. Que sean transparentes, como para inspeccionar, seguir, auditar, ver el modelo en que está basado su funcionamiento, si usan o no sesgos selectivos o discriminatorios. 2. Conocer las fuentes de las informaciones con que trabajan, cómo funcionan los usados en educación y cómo se toman las decisiones basados en ellos, o quiénes tienen los datos, quiénes los usan y para qué. 3. Que sean predecibles, saber su comportamiento. 4. Que sean robustos ante posibles ataques, manipulaciones o usos posteriores por quien sea. Y si no cumplen esto, vigilar y decidir si se utilizan o no.
- Se habría que tener en cuenta cómo estos procesos tan diseñados encajarán en una educación dirigida a seres humanos en evolución, cambiantes, alumnado sujeto a condicionantes abiertos, a veces no predecibles, y en entornos sometidos a la complejidad, donde más importante que los productos finales son los procesos, y cómo cada estudiante construye el conocimiento. La empatía y el acercamiento humano son fundamentales, más propios de la inteligencia natural. Tanto el uso ético de la IA como la utilización de esta para trabajar la ética, ayudarán a que el alumnado conozcan las consecuencias de su comportamiento y decisiones ante el uso de Internet.
Cuando se le consultó a ChatGPT sobre la ética en el uso educativo de la IA, en una de sus respuestas enumeró estos aspectos condicionantes: transparencia, privacidad, no discriminación, responsabilidad y respeto de los derechos humanos. Los principios elaborados por la IA son claros. Después todo depende de todos. Y todo quizá también necesita de unas dosis de saludable duda y desconfianza hacia Internet y la IA.
1 comentario
No puede quedar más claro lo perdidos que estamos ante el reto que supone el incremento exponencial del la IA.