Llevaba tiempo pensando en escribir esta columna y le iba dando vueltas a títulos como “Llamar las cosas por su nombre” o “¿Por qué no le llamamos algoritmo?”. Como educadora e investigadora del ámbito de las tecnologías de la educación, siempre me ha inquietado el reduccionismo ontológico, impulsado desde EE. UU. en la década de 1950, que subyace a “la magia” de las máquinas (Y sí… una vez más, hablemos de educación. Edit.um. Sancho, 2002). Para John Searle (The Ridescovery of the Mind. The MIT Press. 1992, p. 15), la ‘reducción ontológica’ consiste en «la forma en que objetos de ciertos tipos se muestran como consistentes en nada más que objetos de otro tipo». Desde esta perspectiva, si entendemos la ‘inteligencia’ no solo como una forma, por muy sofisticada que sea, de reorganizar la información elaborada por un conjunto de seres humanos a lo largo de siglos, sino como una facultad con conciencia de sí, criterio, emoción, afectos y capacidad de juicio, me pregunto ¿por qué llamar a determinados desarrollos tecnológicos ‘inteligencia’, aunque añadamos ‘artificial’?
Aunque la noción de Inteligencia Artificial (IA) ha cobrado un auge especial en los últimos tiempos y, en particular, desde la reciente aparición del ChatGPT -al que inevitablemente me referiré luego-, la idea de crear entes artificiales capaces de ejecutar acciones humanas cuenta con una larga genealogía. Diferentes autores sitúan su comienzo en los mitos griegos de Hefesto y Dédalo que incorporaron la idea de robots inteligentes y seres artificiales como Pandora. Aunque también refieren a la temprana creación de robots y autómatas en distintas culturas (india, egipcia).
En Egipto, el artesano Yan She, de la dinastía Zhou occidental, creó, en el siglo X antes de la era común, autómatas mecánicos, con huesos, músculos y articulaciones, que podían cantar y bailar. Con todo, el gran salto en el continuado intento de los seres humanos de “crear” vida, de “dominar” la materia, de “emular” y “mejorar” la inteligencia, tuvo lugar en la década de 1940. El documento “Una propuesta para el proyecto de investigación de verano de Dartmouth sobre inteligencia artificial” de 1956, se considera un texto fundacional.
En la actualidad se ha multiplicado el desarrollo de aplicaciones llamadas IA, que aumentan el valor y la importancia de las fórmulas matemáticas denominadas algoritmos. Las matemáticas, el algoritmo, la reducción de toda complejidad a una fórmula, sigue siendo la base de todo. El equipo liderado por Joseph Weizenbaum en el MIT, que, en 1966, desarrolló Eliza, el primer programa informático capaz de interactuar con los usuarios en lenguaje natural, enfatizó el papel fundamental del algoritmo. Eliza se basaba en el trabajo desarrollado por el psicólogo Carl Rogers e intentaba mantener una conversación, a través del teclado y la pantalla, que fuera coherente para el usuario.
Algunos estudios evidenciaron que ciertos pacientes se sentían mejor con este chabot (chat robot) que con su terapeuta. Pero detrás de este chabot estaba el conocimiento elaborado por un reconocido psicólogo, un gran equipo de informáticos y unas máquinas de precio considerable y con obsolescencia programada.
El algoritmo, aportación del matemático persa Al-Juarismi (en torno al 780 de la era común) es un conjunto de instrucciones o reglas definidas y no-ambiguas, ordenadas y finitas que permite solucionar un problema, realizar un cómputo, procesar datos y llevar a cabo otras tareas o actividades a las que ahora llamamos IA. Esta columna, no pretende minimizar los desarrollos y las aportaciones de los algoritmos cada vez más sofisticados y complejos a distintos campos científicos, industriales, sanitarios y, también, educativos. Lo que sí intenta es situarnos más allá de la “magia de la máquina” para poder acercarnos a este fenómeno desde su complejidad en un ciberespacio cada vez más opaco y, cada vez más, fuera del dominio de la ciudadanía y de los propios gobiernos. ¿Por qué pongo tanto énfasis en estos aspectos? Lo hago porque parece que aplicaciones como ChatGPT, surjan por generación espontánea y puedan hacerlo todo por sí mismas.
Aunque la banda sonora de este texto me viene resonando desde hace tiempo, en los últimos meses, la aparición de la nueva ‘Inteligencia Artificial’ ChatGPT, ha aumentado la atención sobre este término convirtiéndolo en un ‘hit’ y creando un gran revuelo. ChatGPT es un complejo algoritmo, chabot o “asistente virtual” en sus propias palabras, diseñado por un numeroso equipo de empleados de una de las grandes empresas tecnológicas. A los tres meses de su lanzamiento (30 de noviembre de 2022), varias empresas ya están dispuestas a invertir considerables fondos. En varias ocasiones se ha visto colapsada por su uso (el 3 de febrero de 2023 había conseguido más de 100 millones de usuarios) y, a punto de acabar este texto, una exploración en uno de los buscadores más utilizados reseñaba 600 millones consultas, en una amplia diversidad de idiomas.
Como cabe esperar, en este tiempo, se ha multiplicado la publicación de artículos tanto sobre esta aplicación específica como sobre la denominada IA. Algunos se muestran entusiastas e invitan a utilizarla. Otros manifiestan una gran preocupación sobre el impacto negativo que puede tener para la educación formal. Los menos señalan sus aportaciones, debilidades y consecuencias. Distintos autores, como por ejemplo, Josep M. Puig en este diario, han publicado columnas de opinión basadas en un diálogo con esta aplicación. Por otro lado, el hecho de que sea un programa que puede dar respuestas verosímiles a cuestiones y problemas considerablemente complejos, ha levantado una gran controversia en las instituciones educativas. Las posiciones van desde prohibir su uso en los procesos de enseñanza y aprendizaje, aunque es obvio que la vida del alumnado no se acaba en la institución escolar; a utilizarla, de manera más o menos crítica. Porque, si hasta este momento se podía buscar la información en Internet y recortar y pegar a nuestro criterio, ahora se intenta que la llamada IA generativa elabore textos, imágenes, vídeo o música. Eso sí, sin que nadie muestre el contenido de su “caja negra” (La Inteligencia Artificial en la educación: Big data, cajas negras y solucionismo tecnológico). Y como los sistemas educativos no suelen pedir referencias bibliográficas hasta en niveles avanzados, se puede estar aumentando una vía de consecuencias imprevisibles.
Vivimos un momento en el que se advierte con preocupación sobre la falta de atención y concentración y la dificultad del alumnado para leer y entender textos complejos. Se nos pone en guardia sobre las consecuencias que esto tiene para el desarrollo del aprendizaje en unos sistemas educativos en los que predomina la información descontextualiza y sin autoría en libros de texto y materiales de enseñanza. Mientras la evaluación suele centrarse en el conocimiento factual y declarativo, a la vez que se nos dice, tal como manifestó uno de los participantes en el encuentro mSchools del Mobile Wold Conference 2023, que ya no necesitamos memorizar. De ahí que la mayoría de las entidades educativas (espero que todas) se sientan preocupadas por la posibilidad de que el alumnado obtenga títulos vacíos de saber, experiencia y sentido. Porque, si esto es así ¿quién seguirá alimentando a los algoritmos?
Cuando en 1997 IBM Deep Blue ganó al campeón del mundo de ajedrez Garri Kaspárov, se vio como una “maravilla” que le hubiese ganado una máquina, una IA. Pero casi nadie explicó que detrás del algoritmo que alimentaba la máquina había un equipo de informáticos y el saber acumulado de miles de jugadores de ajedrez a lo largo de los años. Sin ese conocimiento disponible ¿de qué se hubiese nutrido el programa?
Todas las IA se sustentan en conocimientos humanos previamente creados, aunque algoritmos cada vez más sofisticados puedan llevar a propuestas que vayan más allá de la información disponible. En este momento, como además, una gran masa de información, con derechos de autor o no, está disponible en Internet, los diseñadores de algoritmos y los “dueños” de los datos que proporcionamos de manera alegre y gratuita, nos pueden ofrecer respuestas realmente sorprendentes. Otra cosa sería si son “capaces” de interpretar, sentir y valorar -aunque algunos hablen de autoconciencia. Pero, si todo lo fiamos a la respuesta del algoritmo ¿qué haremos el día que nadie lo alimente? O incluso algo más básico, el día que no dispongamos de corriente eléctrica o se produzca un ataque cibernético.
Por otro lado, como han evidenciado distintos estudios, los algoritmos, como creaciones humanas, no están exentos de prejuicios e intereses (ver “Armas de destrucción matemática” de Cathy O’Neill y Armas con cerebro de Javier Sampedro). De ahí la importancia de que la educación sea capaz de “bucear” en las oscuras profundidades de las que emergen todos estos desarrollos, situarlos contextual y críticamente y poder, así, librarse de la “magia” de la tecnología. Aquí me refiero al sistema educativo como un todo, desde los responsables políticos, al profesorado, pasando por los formadores y la propia sociedad. Soy consciente de la dificultad de esta tarea, de que todo está en contra de ella, debido al atractivo de lo nuevo, la sensación de poder y un largo etcétera, pero como investigadora, educadora y ciudadana, no puedo menos que proponerlo.
1 comentario
Muy lúcido y tranquilizador el artículo de Juana M. Sancho con quien tuve la suerte de colaborar en su asesoramiento al instituto Bernat Metge de Barcelona. Allí ya pude constatar la «volatilidad» de los conocimientos y habilidades presuntamente adquiridos con el uso de las tecnologías. Gracias, Juana María.