Jede Antwort deines Agents basiert auf einem sorgfältig zusammengestellten Kontext — kein Speicherdump, kein Raten. Hier steht genau, was hineinkommt, was bleibt und was der Agent ehrlichweise nicht wissen kann.
Das Schwierigste beim Aufbau eines KI-Agents für Diabetes ist nicht die Technik. Es ist zu wissen, welche Informationen wirklich zählen.
Eine naive Implementierung kippt alles rein — vollständige Glukosehistorie, jeden Protokolleintrag, jede Notiz. Das Ergebnis ist ein überladener Prompt, in dem das Signal im Rauschen untergeht. Das Modell verschwendet seine Aufmerksamkeit auf irrelevante Daten und verpasst, was gerade wirklich zählt.
Ich lebe seit 35 Jahren mit Typ-1-Diabetes. Diese Erfahrung — kein Algorithmus — hat bestimmt, welche Daten in jeden Prompt einfließen. Ich weiß, dass das aktive Insulin on Board wichtiger ist als dein Durchschnitt vom letzten Dienstag. Ich weiß, dass der Schlaf der letzten Nacht um 9 Uhr morgens zählt, aber nicht um 9 Uhr abends. Ich weiß, dass ein Morgenlauf deine Insulinsensitivität für Stunden verändert — auf eine Weise, die dein CGM-Diagramm allein nicht zeigen wird.
Jedes Mal, wenn du eine Nachricht sendest, stellt der Agent dein Gesundheits-Dashboard von Grund auf neu zusammen. Nichts wird aus einer vorherigen Sitzung zwischengespeichert.
Aktuelle Glukose
Deine letzte Stunde an Messwerten plus Trendrichtung. Nicht deine vollständige Historie — das aktuelle Fenster bestimmt, wohin du gerade steuerst.
Aktives Insulin & Essen
Noch wirksames Insulin und noch absorbierende Kohlenhydrate. Was physiologisch in diesem exakten Moment in deinem Körper aktiv ist.
Letzte Nacht & heute
Schlafqualität, Trainings, Schritte, Stressereignisse. Kontext, der das Glukoseverhalten heute prägt, aber für einen Agent unsichtbar wäre, der nur auf Glukosezahlen schaut.
Deine Einstellungen
Insulin-Kohlenhydrat-Verhältnisse, Korrekturfaktor, Zielbereich und persönliche Ziele. Die Regeln, nach denen dein Agent jeden Ratschlag kalibriert.
Der Agent liest auch den aktuellen Verlauf deines Gesprächs. Das ermöglicht es ihm, einem Faden zu folgen — wenn du vor zehn Minuten eine Korrektur erwähnt hast, erinnert er sich. Dieses Gedächtnis gilt für die Dauer deiner Chat-Sitzung.
Gespräche können nicht unbegrenzt wachsen — das Gedächtnis hat Grenzen. Regelmäßig macht der Agent etwas Ähnliches wie Tagebuchschreiben: Er liest angesammelte Rohnotizen und den Gesprächsverlauf und komprimiert sie zu einer knappen narrativen Zusammenfassung.
Rohnotizen — alles Protokollierte, Gesagte und Beobachtete — werden zu einer kurzen, dichten Zusammenfassung destilliert, die das Wesentliche festhält: bestätigte Muster, vorgenommene Anpassungen, markierte Schlüsselmomente.
Du kannst dies manuell mit dem /compact-Befehl im Chat auslösen. Der Agent tut es auch automatisch, wenn das Gespräch lang wird.
Die Zusammenfassung wird Teil des Langzeitgedächtnisses. Die Rohnotizen werden zurückgezogen. Der Agent trägt die Bedeutung weiter, nicht das Volumen.
Das bleibt sitzungsübergreifend, tageübergreifend, monateübergreifend erhalten.
Dein Profil
Erkannte Muster
Schlüsselmomente
Wir halten es für wichtig, dies explizit zu machen. Ein Agent, der vorgibt, alles zu wissen, ist gefährlicher als einer, der seine Grenzen klar benennt.
Nicht deine vollständige Glukosehistorie
Der Agent sieht aktuelle Messwerte und Langzeitzusammenfassungen — nicht jeden Datenpunkt der letzten drei Jahre. Zusammenfassungen erfassen Muster; sie können nicht jeden einzelnen Messwert reproduzieren.
Nicht andere Apps oder das Internet
Der Agent kann nicht sehen, was du in anderen Apps machst, nicht im Web surfen oder auf deine Telefoneinstellungen zugreifen. Seine Welt ist das, was du in Open-D protokollierst oder synchronisierst.
Nicht was du nicht protokolliert hast
Wenn du etwas gegessen und nicht protokolliert hast, weiß der Agent es nicht. Datenlücken werden als Lücken markiert — der Agent sagt "Ich sehe keine protokollierte Nahrung" statt zu raten.
Nicht beiläufig Gesagtes
Wenn du in einer Nachricht sagst "merke dir das", wird es allein dadurch nicht ins Langzeitgedächtnis gespeichert. Es lebt in der Sitzung. Nur die Kompaktierung schreibt Dinge dauerhaft.
KI-Modelle starten jedes Gespräch bei null. Sie haben kein eingebautes Gedächtnis. Jedes Gespräch startet bei null — der Agent erinnert sich an nichts vom letzten Mal.
Open-D 'erinnert sich', weil wir bei jeder einzelnen Nachricht alles, was der Agent weiß, explizit neu aufbauen. Das Gesundheits-Dashboard, der Sitzungsverlauf, das Langzeitgedächtnis — frisch zusammengestellt, strukturiert und geliefert.
Ein einfacher Chat-Wrapper vergisst zwischen Sitzungen alles, weiß nichts über deine Glukose und hat kein Konzept davon, was letzte Nacht passiert ist. Open-D ist gebaut, um genau diese Probleme zu lösen.
Diese Gedächtnisarchitektur — geprägt durch 35 Jahre Leben mit T1D — ist der Unterschied zwischen einem echten Diabetes-Agenten und einem generischen Chatbot mit Gesundheitslogo.
Willst du diesen Agenten mit deinen echten Daten sehen?
Die Demo spiegelt möglicherweise nicht die neueste App-Version wider.