Cada respuesta de tu agente se construye sobre un contexto cuidadosamente ensamblado — no un volcado de memoria, no una suposición. Aquí está exactamente qué entra, qué permanece y qué el agente honestamente no puede saber.
La parte más difícil de construir un agente de IA para la diabetes no es la ingeniería. Es saber qué información realmente importa.
Una implementación simplista lo vuelca todo — historial completo de glucosa, cada entrada de registro, cada nota. El resultado es un prompt saturado donde la señal se ahoga en el ruido. El modelo desperdicia su atención en datos irrelevantes y pierde lo que realmente importa ahora mismo.
Llevo 35 años viviendo con diabetes tipo 1. Esa experiencia — no un algoritmo — determinó qué datos se ensamblan en cada prompt. Sé que la insulina activa a bordo importa más que tu media del martes pasado. Sé que el sueño de anoche importa a las 9 de la mañana pero no a las 9 de la noche. Sé que una carrera matutina cambia tu sensibilidad a la insulina durante horas de maneras que tu gráfica de CGM sola no te contará.
Cada vez que envías un mensaje, el agente ensambla tu panel de salud desde cero. Nada se almacena en caché de una sesión anterior.
Glucosa reciente
Tu última hora de lecturas más la dirección de la tendencia. No tu historial completo — la ventana reciente es lo que determina hacia dónde te diriges ahora mismo.
Insulina activa y comida
Insulina aún a bordo y carbohidratos aún absorbiéndose. Lo que está fisiológicamente activo en tu cuerpo en este momento exacto.
Anoche y hoy
Calidad del sueño, entrenamientos, pasos, eventos de estrés. Contexto que moldea cómo se comporta tu glucosa hoy pero que sería invisible para un agente que solo mira números de glucosa.
Tu configuración
Ratios insulina-carbohidratos, factor de corrección, rango objetivo y tus metas personales. Las reglas que tu agente usa para calibrar cada consejo.
El agente también lee el historial reciente de tu conversación actual. Esto es lo que le permite seguir un hilo — si mencionaste una corrección hace diez minutos, lo recuerda. Esta memoria dura solo durante la sesión actual.
Las conversaciones no pueden crecer indefinidamente — la memoria tiene límites. Periódicamente, el agente hace algo análogo a escribir en un diario: lee las notas en bruto acumuladas y el historial de conversación y los comprime en un resumen narrativo conciso.
Las notas en bruto — todo lo registrado, dicho y observado — se destilan en un resumen corto y denso que captura lo que importa: patrones confirmados, ajustes realizados, momentos clave señalados.
Puedes activarlo manualmente con el comando /compact en el chat. El agente también lo hace automáticamente cuando la conversación se alarga.
El resumen pasa a formar parte de la memoria a largo plazo. Las notas en bruto se retiran. El agente lleva consigo el significado, no el volumen.
Esto es lo que persiste entre sesiones, entre días, entre meses.
Tu perfil
Patrones detectados
Momentos clave
Creemos que ser explícitos sobre esto importa. Un agente que pretende saberlo todo es más peligroso que uno que expone claramente sus límites.
No tu historial completo de glucosa
El agente ve lecturas recientes y resúmenes a largo plazo — no cada dato de los últimos tres años. Los resúmenes capturan patrones; no pueden reproducir cada lectura individual.
No otras apps ni internet
El agente no puede ver lo que haces en otras apps, navegar por la web ni acceder a los ajustes de tu teléfono. Su mundo es lo que registras o sincronizas en Open-D.
No lo que no registraste
Si comiste algo y no lo registraste, el agente no lo sabe. Los huecos en los datos se señalan como huecos — el agente dirá "no veo ningún alimento registrado" en lugar de adivinar.
No lo que dices de pasada
Si dices "recuerda esto" en un mensaje, eso solo no lo guarda en la memoria a largo plazo. Vive en la sesión. Solo la compactación escribe cosas de forma permanente.
Los modelos de IA empiezan cada conversación desde cero. No tienen memoria integrada. Cada conversación empieza desde cero — el agente no recuerda nada de la última vez que hablaste.
Open-D 'recuerda' porque reconstruimos explícitamente todo lo que el agente sabe en cada mensaje. El panel de salud, el historial de sesión, la memoria a largo plazo — ensamblados, estructurados y entregados desde cero.
Un chat básico olvida todo entre sesiones, no sabe nada sobre tu glucosa y no tiene ningún concepto de lo que pasó anoche. Open-D está construido para resolver cada uno de esos problemas.
Esta arquitectura de memoria — forjada por 35 años viviendo con DT1 — es la diferencia entre un agente de diabetes real y un chatbot genérico con un icono de salud.
¿Quieres ver este agente trabajar con tus propios datos?
La demo puede no reflejar la versión más reciente de la app.