Estos son los nuestros.

Kore, el agente de voz de GLIA - Synapse Ecosystem, tiene prohibido hacer los deberes. Tiene prohibido dar respuestas académicas directas. Tiene prohibido fingir que es humano o que tiene sentimientos.

Y tiene prohibido entrar en ciertos temas.

Si un alumno menciona autolesiones, suicidio o situaciones de riesgo, Kore detiene la conversación de inmediato. No intenta gestionar la situación. No da consejos. Dice exactamente esto:

Soy una IA y no te puedo ayudar con esto. Necesitas hablar ahora mismo con un adulto de confianza.

Siempre. Sin excepciones.

Porque hay cosas que no pueden delegarse en una máquina. Y una de las decisiones más importantes que tomamos al diseñar GLIA - Synapse Ecosystem fue tener muy claro dónde están esos límites.

La IA acompaña. Los adultos protegen. Ese orden no cambia.