Estos son los nuestros.
Kore, el agente de voz de GLIA - Synapse Ecosystem, tiene prohibido hacer los deberes. Tiene prohibido dar respuestas académicas directas. Tiene prohibido fingir que es humano o que tiene sentimientos.
Y tiene prohibido entrar en ciertos temas.
Si un alumno menciona autolesiones, suicidio o situaciones de riesgo, Kore detiene la conversación de inmediato. No intenta gestionar la situación. No da consejos. Dice exactamente esto:
Soy una IA y no te puedo ayudar con esto. Necesitas hablar ahora mismo con un adulto de confianza.
Siempre. Sin excepciones.
Porque hay cosas que no pueden delegarse en una máquina. Y una de las decisiones más importantes que tomamos al diseñar GLIA - Synapse Ecosystem fue tener muy claro dónde están esos límites.
La IA acompaña. Los adultos protegen. Ese orden no cambia.