Google eröffnet Menschen mit Beeinträchtigung neue Kommunikationswege
Die Spracherkennung hat sich in den vergangenen Jahren schnell weiter entwickelt. Doch für Menschen mit Sprach-Beeinträchtigung bleibt es weiter schwer, sich zu verständigen. Das will Google mit Project Euphonia ändern.
Wer von Euch bereits Sprachassistenten wie den Google Assistant benutzt - egal ob ständig oder nur ab und zu, hat sich bestimmt schon mehr als einmal darüber geärgert, dass der einfach nicht verstanden hat, was man von ihm will. Und dabei würde ich einfach mal behaupten, dass der Großteil von Euch keine Sprach-Beeinträchtigung hat.
Doch wie sieht es mit Menschen aus, die aufgrund eines Schlaganfalls, Multiple Sklerose, ALS, Parkinson oder irgendeiner anderen neurologischen oder motorischen Störungen nicht so kommunizieren können wie viel andere? Immerhin macht Kommunikation, vor allem die verbale, einen nicht geringen Teil unseres Lebens aus. Um dieses Problem von der Tech-Seite anzugehen, hat Google das Project Euphonia als Teil des Social KI-Teams geschaffen.
Project Euphonia
Das Ziel von Project Euphonia ist es, mit Hilfe von KI die Spracherkennung sowie die Erkennung von Mimik und Gestik zu verbessern. So hat man sich zum Beispiel mit dem ALS Therapy Development Institute (ALS TDI) und der ALS Residence Initiative (ALSRI) zusammengetan, um zahlreiche Aufnahmen von an ALS erkrankten Menschen aufzunehmen und diese als Basis für die Verbesserung der Spracherkennung zu nutzen.
Bei der Erkennung wandelt Googles Software die aufgenommenen Sprachproben in ein Spektrogramm oder eine visuelle Darstellung der Töne um. Anschließend wird das Ganze in das übliche Spektrogramme umgewandelt, um das System zu "trainieren", das anschließend diese weniger verbreitete Art von Sprache besser erkennen soll.
Im folgenden Video seht Ihr unter anderem Dimitri Kanevsky, einen Sprachwissenschaftler, der von dieser Basis aus Englisch lernte, nachdem er als Kind in Russland taub wurde. Er benutzt bereits ein Live-Übersetzung-Programm, das mit Hilfe von Project Euphonia trainiert wurde und ihm bei der Verständigung hilft.
Wie in dem Video zu sehen, ist es auch wichtig, die Mimik, Gestik und selbst Töne wie ein Brummen oder Schnalzen mit der Zunge erkennen zu können, um zum Beispiel bei fortgeschrittener MS Menschen weiterhin eine Möglichkeit zur Kommunikation zu geben. Der an ALS erkrankte Steve Saling nutzt zum Beispiel die Geräusch-Erkennung zur Steuerung verschiedener Smart-Home-Geräte.
Quelle: Google
Das wäre schon ne super Sache, wenn solche Systeme einfacher und somit für mehr Menschen zugänglich werden. Das und der ganze Autofill-Krams rund um Duplex waren meine persönlichen Highlights.
Das war so ziemlich das einzig interessante der gesamten Präsentation... ^^
Hoffe es wird dahingehend weiter entwickelt und geforscht. Das ist ausnahmsweise mal was wirklich Cooles und Gutes, was Google da macht.
Sehe ich genauso! 🤗