¿Cómo pueden las personas educadoras ayudar al estudiantado a pensar de forma crítica y tomar decisiones correctas en torno a las inteligencias artificiales (IA) y los contextos digitales? Hemos publicado en PE diversos artículos sobre inteligencia artificial y educación. Hoy, recogemos las ideas principales de un reciente webinar de la Harvard Graduate School of Education: en él, los expertos debaten de manera realmente apasionada sobre las habilidades necesarias para navegar por un mundo cada vez más influenciado por la inteligencia artificial, la desinformación y las noticias falsas (fake news). Las propuestas que plantean son útiles desde la educación infantil hasta la educación de personas adultas.

De partida, dejan claro que todas las personas educadoras pueden dominar lo más importante para sacar el mejor provecho a las IA. Sugieren grupos de lectura y debate, en persona o entre los muchos grupos online, para comentar contenidos de buena calidad. Así, el nivel y sensación de dominio puede aumentar mucho y muy rápido. Confirman la idea de que es importante tanto el qué como el cómo.

Las panelistas nos ponen en contexto: las IA no son nuevas, quizá las IA generativas como ChatGPT sí, y solo estas han centrado nuestra atención. Nos recuerdan que la tecnología no se puede separar en buena y mala: toda se puede usar positiva y negativamente. Refuerzan la idea de que ChatGPT, entre otras muchas IA generativas, puede ser un recurso educativo de calidad si lo sabemos emplear

Pero aclaran que hace años que estamos enseñando que lo que aparece en un buscador o en redes sociales puede no ser verdad. Ya sea en TikTok, YouTube o ChatGPT, debemos enseñar al alumnado “rutinas de pensamiento”, como el hábito de formular preguntas críticas propias de una mentalidad investigadora y científica: ¿creo que esto es cierto? ¿Por qué? ¿Qué fuentes ofrece? Esta, además, es una tarea de todo el mundo hoy en día. De manera brillante, afirman que el cinismo es lo opuesto del pensamiento crítico: el cinismo es fácil, pensar que nada es verdad o todo está manipulado; la importante tarea es enseñar a investigar, no a dudar. Ya estamos contribuyendo si estamos socializando al alumnado, en términos generales, en la integridad académica y moral, en privacidad personal, o el uso efectivo de la tecnología. Esto es la base que luego podemos aplicar a las novedades tecnológicas.

Además, podemos enseñar estas habilidades de pensamiento crítico sin necesidad de usar IA, sino de manera conceptual: el foco no está en dominar IAs concretas —que además cambian todo el tiempo— sino en dominar las estrategias investigadoras. En un enfoque muy freiriano, no siempre tenemos que ser los expertos en el aula, sino que podemos aprender de la mano del alumnado. En el caso de la infancia y adolescencia, las herramientas digitales están en su cultura y socialización desde el nacimiento, y les encanta: si tratamos las IA como herramientas de ayuda que hay que aprender a utilizar, y creamos una cultura de diálogo constante que refuerce estas habilidades, conseguiremos una participación activa, con importantes aprendizajes, y la transferencia será enorme. Empecemos con lo que sabemos, y empecemos ya.

Por Guillermo Legorburo

Investigador predoctoral en la Universitat Rovira i Virgili. Maestro de Educación Primaria