Document
Por Ana Cecilia Pérez

Una de cada tres personas en edad universitaria ya usa ChatGPT.

El porcentaje de adolescentes estadounidenses que lo utilizan para tareas escolares se duplicó entre 2023 y 2024.

Y esta semana, OpenAI presentó su nueva apuesta: el Modo de Estudio.

Una función que, en vez de dar respuestas, guía a los estudiantes a través de preguntas y pistas. Basado en el método socrático, promete «enseñar a pensar».

¿Y suena bien, no?

Sí… hasta que hacemos las preguntas que no vienen en el examen.

¿Quién decide qué es aprender?

Lo que está en juego con esta función —y con muchas otras que vienen— no es solo si los estudiantes aprenden mejor o peor.

Es quién decide cómo debe aprenderse.

Es quién entrena a las máquinas que entrenan a nuestros hijos.

No es menor.

Hoy, millones de niños y adolescentes están resolviendo problemas, escribiendo ensayos y descubriendo ideas… acompañados por una inteligencia artificial que no rinde cuentas a sus padres, ni a sus escuelas, ni a su país.

¿Quién protege lo que aprenden?

Aunque el Modo de Estudio no da respuestas directas, sí observa, registra, analiza.

Y aunque OpenAI asegura que el objetivo es mejorar el aprendizaje, la realidad es que todo proceso educativo guiado por IA genera datos profundamente personales.

¿Cómo piensas?

¿Dónde te atoras?

¿Qué errores repites?

¿Qué palabras usas?

¿Cuál es tu estilo cognitivo?

Datos que pueden ser usados para ayudar… o para mucho más.

Porque no estamos hablando de saber si alguien puso atención en clase. Estamos hablando de modelar cómo razona una generación entera.

¿Quién tiene acceso?

No todos.

SUSCRÍBETE PARA LEER LA COLUMNA COMPLETA...

Mujeres al frente del debate, abriendo caminos hacia un diálogo más inclusivo y equitativo. Aquí, la diversidad de pensamiento y la representación equitativa en los distintos sectores, no son meros ideales; son el corazón de nuestra comunidad.