Weil Zuhören wichtig ist: Alexa und Co. gegen Suizid
Der National Health Service (NHS) in Großbritannien will in Zukunft intelligente Lautsprecher mit Amazon Alexa und dem Google Assistant verwenden, um Risiko- und Selbstmordpatienten zu helfen. Das Modell könnte auch in Deutschland funktionieren.
Im britischen Gesundheitswesen sollen verstärkt neue Technologien wie Künstliche Intelligenz und Robotik eingesetzt werden. Dabei gibt es umfangreiche Pläne, die KI in die psychiatrischen Dienste zu integrieren, um Patienten zu identifizieren, die Gefahr laufen, sich selbst zu verletzen.
Seit Jahren können Patienten bereits online mit NHS-Chatbots sprechen, um allgemeine Gesundheitsprobleme zu identifizieren und Ratschläge zu erhalten. In Zukunft werden Patienten mit psychischen Problemen in der Lage sein, Gespräche mit speziellen Bots über intelligente Lautsprecher zu führen, die Warnzeichen für selbstmörderisches Verhalten erkennen können.
Die Praxis der technologiegestützten Patientenkontrolle wurde schon früher genutzt: Facebook überprüft seit 2017 die Beiträge der Nutzer auf Selbstmordgedanken. Jetzt könnten intelligente Lautsprecher, die bereits in Millionen von Haushalten vorhanden sind, im Wesentlichen dasselbe für gesprochene Unterhaltungen tun.
In einigen Regionen laufen bereits Versuche mit diesen neuen technologischen Dienstleistungen. In Oxford verwenden Patienten mit Höhenangst Virtual-Reality-Headsets, um die Phobie zu überwinden, und ähnliche Studien finden für Patienten statt, die an Angst und posttraumatischer Belastungsstörung leiden.
Technologie im Gesundheitssektor ist unerlässlich
Der Bericht, der vom US-Akademiker Dr. Eric Topol erstellt und vom NHS in Auftrag gegeben wurde, besagt, dass die Einführung digitaler Technologien im nationalen Gesundheitswesen unvermeidlich sei. Es werden auch medizinische KI-Scanner und Formen der Therapie mit Virtual Reality erwähnt. Topol ist der Meinung, dass 90 Prozent aller Jobs in diesem Sektor innerhalb von 20 Jahren "digitale Fähigkeiten" erfordern würden.
Gerade der NHS war nicht immer vorbildlich bei neuen Technologien. Im Jahr 2017, als das Gesundheitswesen Opfer eines groß angelegten Cyberangriffs wurde, tauchten Berichte auf, dass 60 Prozent der NHS-Rechner noch das hoffnungslos veraltete und unsichere Windows XP verwendeten.
Quelle: Telegraph
Siri gibt auch Tipps und fragt ob sie die Seelensorge anrufen soll.
Ich stelle mir das folgendermaßen vor :
Ich hege Selbstmordgedanken und nehme mittels Alexa Kontakt zu diesem Service auf.
Zukünftig erhalte ich in meiner Browserwerbung Angebote für Seile, Rasierklingen und Abflussreiniger.
Oder eine Anleitung wie man sich die Treppe runter stürzt 😅🔫
Ja, man hat leicht reden. Aber ernsthaft.
Ich selbst habe auch Depressionen gehabt die nicht von Pappe waren. Aber den Alexahumbug würde ich nie machen, da mir schon das Vertrauen in dieses Gerät fehlt. Und das ist wichtig, Vertrauen.
Deswegen alles versuchen um irgendwie noch nen Grinsen zu bewahren.
Die Alexa kann mir auch nicht bei Epilepsie helfen. Man muss aber bedenken mit, das Alexa und co kein Ersatz für ein Arzt ist.
Ich halte das für reines Marketing, denn ich halte es für unmöglich, dass ein Algorithmus treffsicher Selbstmordabsichten diagnostizieren kann. Selbst sehr nahe Angehörige sind hinterher oft extrem betroffen, weil sie nichts bemerkt hatten, obwohl sie den Menschen doch gut kannten. Ich habe mich selbst mal mit einem Mädchen einen ganzen Abend lang unterhalten und am nächsten Tag erfahren müssen, dass sie sich am Mittag vor eine U-Bahn geworfen hatte. Ich hatte nichts bemerkt, dabei bin ich in dieser Hinsicht eigentlich sehr sensibel. Programmcode mag noch so gut angelernt sein, er wird dennoch bei der Erkennung zig Fehlalarme produzieren. Und welche Konsequenzen der Stigmatisierung dies dann für Betroffene hat, kann sich jeder selbst ausmalen.
Menschen, nur Menschen helfen Menschen!
Das ist nicht korrekt, denk mal an Blindenhunde zum Beispiel.
Oder Herz-Lungen-Maschinen.
Die reden aber nicht. Wenn du da dran hängst hat schon jemand geholfen.
Der Punkt geht an Dich
Das sind doch nur alles Argumente, um die Verbraucher davon zu überzeugen, wie gut ständiges zuhören und übertragen der Daten an den Betreiber ist. Das ist wie mit dem Kennzeichen scannen. Ein paar wenige Ausnahmen, die jeder gut finden wird, werden dazu verwendet, alle ständig zu überwachen.
Stimmt. Deshalb wurde im Artikel auch explizit von selbstmordgefährdeten - und Risikopatienten gesprochen.
Sag mal liest Du eigentlich auch die Artikel oder musst Du in jedem Beitrag einfach nur gegen die offensichtliche Meldung bashen?
@Maximilian HE:
Steter Tropfen hölt den Stein.
Bald sind es womöglich Menschen mit Selbstmordgefahr, bei denen bspw. Alexa immer zuhört, dann werden es Menschen mit Behinderung, dann Menschen im hohen Alter und am Ende haben wir alle den Salat, wenn man solch ein Gerät nutzt.
Die Datensammelwut (sorry für das Buzzword) ist ungebrochen und damit lässt sich viel Geld verdienen. Bis alle Daten en detail auswertbar sind, wird nicht viel Zeit vergehen. Im Grunde bin ich hier aber dankbar, dass Deutsche relativ technikfeindlich sind und sich solche Machenschaften, wie im Artikel genannt, hier wohl erst spät durchsetzen werden, wenn man woanders schon Erfahrung gesammelt hat.
Auch wenn die Absicht dahinter löblich sein mag, aber solche Sachen sind ein schwerer Eingriff in die Persönlichkeitsrechte. Insbesondere "Facebook überprüft seit 2017 die Beiträge der Nutzer auf Selbstmordgedanken" finde ich verstörend. Facebook darf und soll prüfen, ob Beiträge "verboten" sind, z. B.: gewaltverherrlichend, rassistisch usw.
Außerdem soll Alexa & co doch nur dann zuhören können/dürfen, wenn das Aktivierungswort gesagt wurde. Wie soll ich das Ganze in der Praxis vorstellen? "Alexa, bestell 1 Kilogramm Arsen" oder "Alexa, wie binde ich einen Strick" ?
Wenn Du 1 Kilo Arsen bestellst hört Dir nicht nur Alexa zu.... 😉
"Außerdem soll Alexa & co doch nur dann zuhören können/dürfen, wenn das Aktivierungswort gesagt wurde."
Steht ja auch nirgendwo was anderes. Das System kann auch nach dem Hotword die Stimme und Tendenzen darin analysieren. Aber ich glaube dennoch nicht, dass das vernünftig interpretierbar ist.
Ich vermute, Alexa ist nur die Schnittstelle beim Benutzer, das eigentliche Gespräch führt ein Therapie-Bot, der vermutlich auch die Selbstmordgefährdung feststellen soll. Das Ganze richtet sich wohl eher an Leute, die ohnehin psychische Probleme haben, und z.B. unter Depressionen leiden. Was die bei der Nutzung des Bots sagen, vielleicht Phrasen wie "da kann ich ja gleich einen Strick nehmen", sind dann möglicherweise Indizien für eine Suizidgefährdung, wobei es vermutlich nicht ganz so einfach ist, eine Suizidgefährdung zu diagnostizieren. Alexa hat bei dem Projekt möglicherweise nur die Rolle eines Freisprechtelefons zum Therapiebot.
Alexa & Co. sollen bei Suizidgefahr helfen können? Sterbehilfe ist in Deutschland verboten. 😉
Jetzt mal ernsthaft. So langsam wird es richtig Lebensgefährlich. Auf was hören die Konsumenten denn noch so alles?