Forscher der UC Berkeley haben ein gestenerkennendes Wearable entwickelt, das ihrer Meinung nach zur Steuerung von Prothesen und elektronischen Geräten eingesetzt werden könnte
Das Gerät verwendet eine Kombination aus Biosensoren und KI-Software, um die von einer Person beabsichtigten Handgesten zu erkennen, indem es die elektrischen Signale ihres Arms analysiert.
Es ist bei weitem nicht das erste Gestenerkennungssystem, das für die Mensch-Computer-Interaktion (HCI) entwickelt wurde, aber das neue System bietet einige einzigartige Vorteile.
Vor allem nutzt es einen neuroinspirierten hyperdimensionalen Rechenalgorithmus, um sich selbst zu aktualisieren, wenn es neue Informationen erhält, z. B. Veränderungen der elektrischen Signale, wenn ein Arm schwitzt.
„Bei der Gestenerkennung ändern sich die Signale im Laufe der Zeit, und das kann die Leistung des Modells beeinträchtigen“, erklärte Studienmitautor Ali Moin in einer Erklärung. „Wir konnten die Klassifizierungsgenauigkeit erheblich verbessern, indem wir das Modell auf dem Gerät aktualisierten.
Das Team druckte das Biosensorsystem im Siebdruckverfahren auf ein dünnes PET-Substrat, ein Polymerharz, das normalerweise zur Herstellung von Kunstfasern und Kunststoffbehältern verwendet wird.
Die Forscher wählten das Material für ihre Armbinde aufgrund seiner Flexibilität, die es erlaubt, sich den Muskelbewegungen des Unterarms anzupassen.
Die Anordnung besteht aus 64 Elektroden, von denen jede elektrische Signale von einem anderen Punkt des Arms erfasst. Diese Daten werden in einen Elektrochip eingespeist, der mit Hilfe eines Algorithmus die Signale mit bestimmten Handgesten verknüpft.
Das Team trainierte den Algorithmus, indem es das Armband um den Unterarm eines Benutzers wickelte und ihn anwies, jede Geste auszuführen. In Tests konnte das System 21 Handzeichen, darunter eine Faust, einen Daumen nach oben und das Zählen von Zahlen, genau klassifizieren.