Punto Convergente

La inteligencia artificial generativa llegó a las aulas

pexels-fauxels-3184658
Compartilo

Según un estudio de UNICEF, dos de cada tres chicos que utilizan la IA lo hacen con fines escolares, cómo afecta al aprendizaje

Lautaro Turco es profesor de historia en escuelas secundarias públicas y privadas de CABA e Ituzaingó desde 2019. Todavía recuerda perfectamente la primera vez que un alumno le entregó un trabajo hecho con inteligencia artificial, allá por el 2023. Era diciembre y un alumno tenía que recuperar un trabajo práctico en el que se le consignaba analizar las causas del ascenso de Hitler al poder.

“Estaba escrito hiper robótico, sin haber citado nada del libro. Era muy obvio”, recuerda García, y describe lo que sintió: “la sensación fue la misma que cuando encontrás a un estudiante copiarse en un examen”.

Y si bien admite que copiar y pegar una respuesta de internet no es algo nuevo, identifica en el uso de Chat-GPT, el más común entre sus alumnos, características que cambian las reglas del juego, principalmente lo accesible que es.

No solo porque lo tienen descargado en su celular, que llevan consigo en el aula, sino también porque ni siquiera tienen que pensar cómo redactar la información que les da, pues el chatbot lo hace por ellos.

Turco, que está cursando una maestría en cursando una maestría en Educación en la Universidad de San Andrés e investigando las dinámicas de la inteligencia artificial generativa en la escuela, destaca que el uso de Chat-GPT que observa en el aula es transversal: todos los alumnos recurren a él, incluso “los más aplicados”.

Según un estudio publicado en mayo por UNICEF, UNESCO y Kids Online Argentina, más de la mitad de las chicas y chicos de 9 a 17 en Argentina usa inteligencia artificial (IA).

De ellos, dos de cada tres lo hacen con fines escolares. El informe, además, indica que al menos el 95% de los menores de edad tienen acceso a un celular con internet y el promedio de edad al que acceden es de 9,6 años.

Eso sí, el profesor nota que aquellos menos proactivos, o quienes tienen la autoestima más baja y piensan que la IA hará el trabajo mejor, son un poco más propensos a hacerlo. En cualquier caso, lo que le preocupa es la pérdida de agencia de sus alumnos, que derive en un empobrecimiento de la capacidad de redacción y una falta de desarrollo del pensamiento crítico.

Hallazgos del MIT

Recientemente, investigadores del MIT (Instituto Tecnológico de Massachusetts) publicaron un estudio llamado “Tu cerebro en ChatGPT: acumulación de deuda cognitiva cuando usás asistentes de IA para escribir ensayos”, en el que dividieron a 54 estudiantes universitarios en diferentes grupos y los hicieron escribir ensayos de diferentes maneras: usando solo su cerebro, con la ayuda de buscadores tradicionales como Google, y con la ayuda de Chat-GPT.

Un estudio del MIT evaluó el impacto cognitivo de escribir ensayos con asistentes de IA

Durante el proceso, registraron la actividad cerebral mediante electroencefalografía (EEG) de alta densidad. Y en una cuarta sesión, quienes habían usado IA escribieron sin ella, y viceversa.

Las mediciones revelaron diferencias claras en la función neuronal. El subconjunto que completó la redacción sin apoyo tecnológico exhibió una conectividad cerebral más fuerte, particularmente en las zonas del cerebro vinculadas con la memoria, la ideación creativa y la capacidad de análisis.

Por otro lado, los sujetos que dependieron de ChatGPT registraron una actividad neuronal notablemente inferior y expresaron una menor identificación con el texto producido.

Un hallazgo clave fue que, al prescindir de la IA, este último grupo no logró reinstaurar completamente su compromiso cognitivo. En contraste, aquellos que empezaron sin ayuda y luego la integraron pudieron sostener un alto nivel de involucramiento mental durante todo el proceso.

Así, los autores concluyen que usar la inteligencia artificial de forma continuada, desde etapas tempranas, puede generar una “deuda cognitiva” acumulativa y reduce el desarrollo de habilidades cognitivas clave. No obstante, sugieren que un uso equilibrado es posible: la persona debe comenzar con su pensamiento propio y usar la IA en etapas posteriores. Esta estrategia podría mitigar los efectos negativos observados.

La ciencia detrás

Pedro Benedetti es bioingeniero egresado del ITBA y becario de CONICET, donde estudia, entre otros, la memoria y la creatividad en humanos y explica profundiza sobre el potencial riesgo de meter a Chat-GPT en el proceso de aprendizaje.

“El aprendizaje efectivo es un proceso que requiere enfrentarse a la dificultad de manera activa. Adquirir conocimiento implica, explícita o implícitamente, plantear hipótesis y hacer predicciones sobre cómo funciona el mundo. Cuando estas predicciones no se ajustan a la realidad, la persona debe reformular sus suposiciones y crear nuevas hipótesis”, sostiene.

Este proceso, que a menudo resulta trabajoso y genera una cierta fricción o frustración, explica el bioingeniero, es precisamente lo que asegura que la información se retenga a largo plazo y se incorpore de manera profunda en nuestra estructura cognitiva.

Según el MIT, usar IA desde etapas tempranas del aprendizaje puede usar una “deuda cognitiva”

Pero cuando herramientas tecnológicas nos ofrecen respuestas rápidas, sin esfuerzo ni el necesario proceso de frustración, saltean todas estas etapas cruciales. Al hacerlo, el proceso de incorporación de la información no es el mismo.

“Si bien obtenemos una respuesta correcta de inmediato, se genera una falsa sensación de autoconfianza y se corre el riesgo de dejar vacíos conceptuales que solo se llenarían a través del razonamiento completo y el esfuerzo deliberado. El aprendizaje profundo necesita el trabajo arduo que vemos en un niño lidiando con las tablas de multiplicar; ese esfuerzo, aunque tedioso, es lo que consolida el conocimiento. Si eliminamos la dificultad inherente, es muy probable que el resultado final del aprendizaje no sea el deseado”, advierte.

Desde aquella primera experiencia con un trabajo hecho 100% con Chat-GPT, Turco se volvió “ más paranoico”. Cada vez que piensa una actividad para sus alumnos, la formula de manera que les sea difícil que el chatbot la haga por ellos y prueba él mismo que le responde la inteligencia artificial generativa frente a la consigna.

Similar a lo que concluye el estudio del MIT, Turco cree que la inteligencia artificial generativa puede ser una herramienta muy poderosa para ayudar en la corrección de texto o para oficiar como asistente en investigaciones. Eso sí, un buen uso implica, para él, tener “un alto grado de autonomía” y “ser muy conciente de los usos”.

Redactado por

Scroll al inicio