Mi hijo me preguntó por qué no podía usar ChatGPT para los deberes.

Tuve que pensar la respuesta.

La respuesta fácil es "porque haces trampa". Pero eso no es del todo honesto.

ChatGPT no hace trampa. Hace exactamente lo que le pides: resolver el problema. El problema es que tú desapareces del proceso. Y la próxima vez que te enfrentes a ese mismo tipo de ejercicio, sigues sin saber hacerlo.

Hay algo más profundo aquí que no solemos nombrar.

El bloqueo que siente un alumno delante de un enunciado no siempre es falta de conocimiento. A veces es no saber por dónde empezar. No saber descomponer algo grande en algo manejable. No saber gestionar la frustración cuando no sale a la primera.

Una IA que te da la respuesta resuelve el síntoma. No el problema.

Lo que realmente necesita ese alumno es alguien que le pregunte: ¿qué parte no entiendes? ¿Qué ya sabes de esto? ¿Qué pasaría si empezaras por aquí?

Eso es lo que intentamos construir en GLIA. Una IA que guía, que pregunta, que acompaña — y que tiene terminantemente prohibido dar la solución directa.

Le expliqué todo esto a mi hijo. Se quedó pensando un momento y dijo: "ah, entonces es como un profe pero que no se cansa".

Bastante buena definición.

¿Cómo gestionáis vosotros la relación de vuestros alumnos o hijos con la IA? ¿Les dejáis usarla? ¿Con qué límites?