Was würde ein Computer am liebsten essen? Und wie kann man binnen 10 Sekunden Diabetes anhand der Stimme erkennen? Das erfahrt ihr hier in unseren News für Nerds.
Die meisten Menschen haben ein Lieblingsessen – eine KI nicht. Das ist eines der Dinge, die einen Menschen bisher von einer Maschine unterschieden haben. Damit KI-Systeme künftig auch die psychologische Seite der menschlichen Intelligenz berücksichtigen, entwickelten Forscher nun eine „elektronische Zunge“.
Essgewohnheiten sind zum einen ein Beispiel für die emotionale Intelligenz zum anderen für die Interaktion zwischen psychologischem und physiologischem Zustand des Körpers. So hilft uns der Geschmackssinn anhand eigener Präferenzen zu entscheiden, was wir essen. Die Geschmacksrezeptoren auf der menschlichen Zunge wandeln chemische Informationen in elektrische Impulse um, welche über Neuronen an den Geschmackskortex des Gehirns gesendet werden. Hier bestimmen kortikale Schaltkreise die Geschmackswahrnehmung.
Diesen Prozess stellten Forscher vereinfacht dar, inklusive der elektronischen Zunge und eines elektronischen Geschmackskortex. Das Verfahren ist vielseitig genug, um alle fünf primären Geschmacksprofile (süß, salzig, bitter, sauer, Umami) zu erkennen. Das schafft eine potenzielle Anwendung in KI-kuratierten Diäten (basierend auf emotionaler Intelligenz mit dem Ziel der Gewichtsreduktion) hin zu personalisierten Essgewohnheiten in Restaurants.
Na, neugierig geworden? Die Studie findet ihr hier.
In einer neuen Studie wurde Sprachtechnologie mit künstlicher Intelligenz kombiniert – um Diabetiker anhand der Stimme erkennen zu können. Klingt verrückt? Scheint aber zu funktionieren. Möglich wird dies indem die untersuchte Person ein paar Sätze in ihr Smartphone spricht. Anhand von sechs bis zehn Sekunden der Stimme eines Menschen, in Kombination mit Gesundheitsdaten wie Alter, Größe, Geschlecht und Gewicht, kann mit einem KI-Modell ermittelt werden, ob die Person Typ-2-Diabetes hat. Das Modell hat eine Genauigkeit von 89 Prozent für Frauen und 86 Prozent für Männer.
„Unsere Forschung zeigt erhebliche Stimmunterschiede zwischen Personen mit und ohne Typ-2-Diabetes auf und könnte die Art und Weise, wie die medizinische Gemeinschaft Diabetes-Screening durchführt, verändern“, sagt Jaycee Kaufman, Erstautorin der Studie. „Aktuelle Erkennungsmethoden können viel Zeit, Reisen und Kosten erfordern. Sprachtechnologie hat das Potenzial, diese Barrieren vollständig zu beseitigen.“
Die Forscher untersuchten eine Reihe von Merkmalen der Stimme, wie beispielsweise die Veränderungen der Tonhöhe und Intensität. Diese können vom menschlichen Ohr nicht wahrgenommen werden. Mithilfe der Signalverarbeitung konnten Wissenschaftler Veränderungen in der Stimme erkennen, die durch Typ-2-Diabetes verursacht werden. Es wurde angenommen, dass punktuelle Glukosekonzentrationen die elastischen Eigenschaften der Stimmbänder beeinflussen. Weiter heißt es, dass davon ausgegangen werde, dass ein langfristig erhöhter Blutzuckerspiegel zu Muskel- und Nervenschädigungen führt, die wiederum mit Stimmstörungen und Dysphagien korrelieren. Bei Menschen mit diabetischer Neuropathie können hingegen Heiserkeit, Stimmüberanstrengung und Aphonie auftreten. Laut Yan Fossat, Hauptautor der Studie, könnte die Sprachtechnologie „als zugängliches und erschwingliches digitales Screening-Tool die Gesundheitspraxis revolutionieren.“
Wenn ihr mehr über diese Studie erfahren wollt, dann klickt hier.
Bildquelle: Jason Rosewell, Unsplash