Embedded Brain Reading revolutioniert Mensch-Roboter-Interaktion Logo of esanum https://www.esanum.de

Embedded Brain Reading revolutioniert Mensch-Roboter-Interaktion

Wie lassen sich Gedanken für die Interaktion mit Robotern nutzen? Gemeinsam entwickeln Wissenschaftlerinnen und Wissenschaftler Schlüsseltechnologien, die echtzeitfähiges und adaptives embedded Brain Reading ermöglichen.

Exoskelette können lernen, Bewegungen zu antizipieren

Wie lassen sich unsere Gedanken für die Interaktion mit Robotern nutzen? Mit dieser Frage beschäftigen sich Wissenschaftlerinnen und Wissenschaftler des Robotics Innovation Center am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und der Arbeitsgruppe Robotik der Universität Bremen. Gemeinsam entwickeln sie Schlüsseltechnologien, die echtzeitfähiges und adaptives embedded Brain Reading ermöglichen. Dadurch sind Roboter auf Basis der Gehirnaktivitäten des Menschen nicht nur intuitiv und effektiv steuerbar. Die Systeme können zugleich menschliche Gedanken interpretieren und daraus lernen. Ihre wegweisenden Arbeiten, die u.a. in der Rehabilitationsrobotik zum Einsatz kommen, veröffentlichten die Forscherinnen und Forscher u.a. in den international renommierten Fachjournalen Frontiers in Neuroscience, Scientific Reports - Nature und Sensors.

Roboter lassen sich mithilfe menschlicher Gehirnaktivität über sogenannte Brain-Computer-Interfaces (BCIs) steuern. Dabei kommt Elektroenzephalografie zum Einsatz, bei der am Kopf angelegte Elektroden Potentialänderungen im Gehirn messen. Im Gegensatz zu klassischen BCIs geht der von den Wissenschaftlerinnen und Wissenschaftlern entwickelte ganzheitliche Ansatz "embedded Brain Reading" (eBR) noch einen Schritt weiter: Gehirnaktivität kann nicht nur gemessen, sondern auch interpretiert werden. Auf diese Weise lassen sich Handlungsabsichten und die kognitive Auslastung von Personen erkennen. Dabei setzt eBR ausschließlich auf die passive Beobachtung natürlich auftretender Gehirnaktivität und vermeidet so eine Mehrbelastung des Menschen durch die Nutzung eines BCIs. Zudem ermöglicht der innovative Ansatz, der zusätzlich zum EEG auch auf Elektromyografie zur Messung der Muskelaktivität, Eye-Tracking und Bewegungsanalyse setzt, die vollständige und fehlertolerante Integration der Gehirnaktivität in die Steuerung technischer Systeme. Dies machen sich die Forscher z.B. bei der Teleoperation von Weltraumrobotern, aber auch bei der EEG-basierten Steuerung robotischer Exoskelette zunutze.

Ereigniskorrelierte Potentiale geben Aufschluss über die Informationsverarbeitung beim Menschen

Beim embedded Brain Reading dienen ereigniskorrelierte Potentiale (engl.: event related potentials, ERPs) im EEG als Input-Quellen, die als Reaktion auf eine interne Zustandsänderung oder einen externen Reiz entstehen. Am DFKI werden diese Potentiale genutzt, um die Interaktion zwischen Mensch und Roboter zu verbessern. In ihrem Aufsatz "Multi-tasking and Choice of Training Data Influencing Parietal ERP Expression and Single-trial Detection – Relevance for Neuroscience and Clinical Applications", der am 27. März 2018 in dem Fachjournal Frontiers in Neuroscience erschien, untersuchen die Wissenschaftlerinnen Dr. Elsa Andrea Kirchner und Dr. Su Kyoung Kim, wie sich ERPs durch single-trial Detektion im EEG erkennen lassen und welchen Einfluss unterschiedliche Trainingsmodalitäten haben. Es zeigte sich, dass sich ERPs durch single-trial Erkennung auch unter "dual-task"-Bedingungen erfolgreich detektieren lassen, also wenn der Mensch nicht nur einer, sondern mehreren Aktivitäten nachgeht. Dabei ist die Detektionsleistung umso höher, je seltener und bedeutender ein bei der Aufgabe hervorgerufener Reiz ist. Die single-trial ERP-Erkennung eignet sich insbesondere für die Online-EEG-Analyse in Echtzeit, etwa zur Steuerung eines Exoskeletts. Im Rahmen der rehabilitativen Therapie kann die ERP-Erkennung nicht nur Hinweise zu geplanten Bewegungen, sondern z.B. auch über den Aufmerksamkeitszustand eines Patienten geben.

Roboter lernen dank menschlichem Negativ-Feedback aus eigenem Fehlverhalten

Zu den ereigniskorrelierten Potenzialen gehört das sogenannte fehlerkorrelierte Potential (engl.: error-related potential). Wie sich dieses für die Mensch-Roboter-Interaktion gewinnbringend einsetzten lässt, ist Gegenstand des am 14. Dezember 2017 in dem Fachjournal Scientific Reports - Nature erschienenen Papers "Intrinsic interactive reinforcement learning – Using error-related potentials for real world human-robot interaction". Darin beschreiben die Wissenschaftlerinnen und Wissenschaftler des Robotics Innovation Center und der Universität Bremen Dr. Su Kyoung Kim, Dr. Elsa Andrea Kirchner, Arne Stefes und Prof. Dr. Dr. h.c. Frank Kirchner ein am DFKI entwickeltes Verfahren des Maschinellen Lernens, bei dem ein Roboter aus dem eigenen Fehlverhalten in der gestengesteuerten Interaktion mit dem Menschen lernen kann. Der Roboter ist dabei in der Lage, gleichzeitig zu lernen, die Gesten des Menschen zu unterscheiden und den von ihm ausführbaren Aktionen zuzuordnen. Ob diese Zuordnung richtig oder falsch war, erfährt er anhand der EEG-Messung beim Menschen, durch die er im Falle einer fehlerhaften Aktion ein negatives Feedback, das fehlerkorrelierte Potential, erhält. Dies entlastet den Menschen in der Interaktion, da er die Rückmeldung nicht bewusst an den Roboter geben muss, sondern diese dank eBR bereits auf der unterbewussten Ebene bei ihm abgegriffen wird. Die Bremer Forscher konnten das auf intrinsisches Feedback beruhende Verfahren erstmals in der Interaktion mit einem echten Robotersystem anwenden, und zeigen, dass es zu einer Verbesserung der Interaktion zwischen Mensch und Roboter führt. Bei der Rehabilitation mit Exoskeletten ließe sich das Error-Potential z.B. nutzen, um Erkenntnisse über die Akzeptanz durch den Nutzer zu gewinnen.

FPGAs ermöglichen die mobile Verarbeitung physiologischer Daten in Echtzeit

Die Verwendung physiologischer Daten zur Verbesserung der Funktionalität und Benutzerfreundlichkeit in technischen Rehabilitationssystemen ist jedoch an die Möglichkeit ihrer Verarbeitung gebunden. Diese muss in Echtzeit erfolgen, um eine möglichst natürliche Unterstützung der Bewegungen zu realisieren. Zudem braucht es mobile und miniaturisierte Verarbeitungssysteme, die in die Rehabilitationseinrichtung eingebettet werden können. In dem Paper "A Hybrid FPGA-Based System for EEG- and EMG-Based Online Movement Prediction", das am 3. Juli 2017 in dem Fachjournal Sensors publiziert wurde, stellen Wissenschaftlerinnen und Wissenschaftler des DFKI und der Universität Bremen – Dr. Hendrik Wöhrle, Marc Tabie, Dr. Su Kyoung Kim, Prof. Dr. Dr. h.c. Frank Kirchner und Dr. Elsa Andrea Kirchner – ein kompaktes Brain-Reading-System zur Echtzeit-Bewegungsvorhersage vor. Dabei setzen sie auf sogenannte Field Programmable Gate Arrays (FPGAs), wiederprogrammierbare Schaltkreise, die parallele Verarbeitungsoperationen ermöglichen und daher große Datenmengen in kürzester Zeit verarbeiten können. Um diese für die Robotik nutzbar zu machen, entwickelten die Forscher zudem das Software-Framework reSPACE. Dieses definiert die verschiedenen anwendungsspezifischen Rechenoperationen, die nach dem Baukastenprinzip zu einem Datenflussbeschleuniger kombiniert und auf dem FPGA zur Verfügung gestellt werden. Durch die Echtzeit-Auswertung von EEG-Daten kann das entwickelte System z.B. die Regelung eines Exoskeletts unterstützen. Die FPGAs bewältigen die dabei anfallende riesige Datenmenge innerhalb weniger Nanosekunden – nur so kann das Exoskelett genau im richtigen Moment die Armbewegung unterstützen.

Quelle: Deutsches Forschungszentrum für künstliche Intelligenz