Künstliche Intelligenz kann nicht nur auf Sprache reagieren, sondern auch auf den Körper: Ein Forschungsteam um Morris Gellisch (Universität Zürich) und Boris Burr (Ruhr-Universität Bochum) hat gezeigt, dass Large Language Models (LLMs) wie GPT-4 in Echtzeit auf Herzfrequenzdaten reagieren können.
Damit verstehen sie nicht nur, was ein Mensch sagt – sondern auch, wie sein Körper dabei reagiert.
KI reagiert auf körperliche Signale
Über eine eigens entwickelte Schnittstelle übermittelten die Forschenden Herzratenvariabilitätsdaten eines Brustgurts direkt an das Sprachmodell. Dieses konnte die Messwerte korrekt interpretieren, statistisch auswerten und grafisch darstellen – ohne externe Software.
In einem weiteren Test erkannte die KI Unterschiede zwischen Situationen mit niedriger und hoher kognitiver Belastung und passte ihre Antworten entsprechend an.
«Ziel war es, zu demonstrieren, dass das Sprachmodell in Echtzeit auf physiologische Parameter reagieren kann»,
erklärt Gellisch in einer Mitteilung. Bei dem Experiment handle es sich nicht um eine validierte psychophysiologische Studie, sondern um ein «Proof-of-Concept-Szenario», so der Forscher.
Neue Perspektiven für Medizin und Pflege
Die Einbindung körperlicher Signale in KI-Systeme eröffnet vielfältige Möglichkeiten, so Gellisch: «Die Schnittstelle ist nicht nur für Bildungs- oder Forschungsszenarien interessant, sondern auch für medizinische und pflegerische Anwendungen – etwa zur Erkennung von Stress, Überlastung oder emotionaler Dysregulation in Echtzeit».
Die Integration physiologischer Signale könnte künftig zu «adaptiveren und kontextsensitiveren Interaktionen» führen, so die Autoren. Dies biete einen «klaren Mehrwert». Nicht nur beim Lernen, sondern auch bei der Entscheidungsfindung und im Gesundheitswesen.