Staatliche Überwachung: Die KI braucht Grenzen
Ja ja, schon wieder China. Schon wieder ist es das Reich der Mitte, das uns zeigt, wohin die Welt der modernen Technik führen kann - und zwar diesmal im negativen Sinne. Was die KI-gestützten Systeme in China anrichten können, zeigen zwei aktuelle Beispiele.
In vielen chinesischen Städten wird der Verkehr weitläufig mit Kameras überwacht, und die verfügen immer mehr auch über Gesichtserkennung. Das dort etablierte Social-Credit-System sorgt dafür, dass Regelverstöße in vielen Gebieten, nicht nur im Verkehr, automatisch erfasst und in der persönlichen Akte vermerkt werden. Besonders pikant: Auf Monitoren werden "Sünder" öffentlich bloß gestellt.
Dong Mingzhu, Präsidentin einer großen Klimaanlagen-Firma und laut Forbes im Vorjahr auf Platz eins der Top 100 chinesischen Geschäftsfrauen, dürfte nicht schlecht gestaunt haben, als Ihr Bild samt Namen und einem Teil der Ausweisnummer in einer Stadt südlich von Shanghai gezeight wurde. Der Vorwurf: Bei Rot über die Ampel gegangen. Dumm nur: Auf dem Bild ist zu sehen, dass Dong gar nicht selbst dort war, sondern ihr Konterfei auf einer Werbung an einem Bus zu sehen war, der gerade über den Zebrastreifen fuhr. Sie hatte also nichts getan, war nicht einmal dort, wurde aber bestraft - automatisch von der KI.
Die zuständige Verkehrspolizei räumte später auf Weibo den Fehler ein und löschte den Gesetzesübertritt von Dong aus dem System. Zudem habe man ein Upgrade gemacht, damit so etwas zukünftig nicht mehr vorkommt.
Das zweite Beispiel ist noch viel krasser und betrifft tatsächlich Millionen Menschen. Die chinesische Regierung hat nämlich auf Basis des immer weiter automatisierten Social-Credit-Systems unzählige Menschen auf eine sogenannte Schwarze Liste gesetzt. Wer da drauf gelandet ist, darf keine Flüge und Züge buchen. Die Begründung: Bei den Millionen Menschen handele es sich um "nicht vertrauenswürdige" Individuen, denen man es schwer machen wolle, sich frei zu bewegen. Harter Tobak, zumal es nicht unwahrscheinlich ist, dass vielleicht auch Menschen wegen Fehlern im System auf der Liste gelandet sind, die sich nichts vorzuwerfen haben.
Ohne Grenzen wird es ungemütlich
Beide Ereignisse zeigen, dass wir als Gesellschaft höllisch aufpassen müssen, wenn wir eine so mächtige Technologie wie die Künstliche Intelligenz entwickeln. Ohne sinnvolle Regulierung und Grenzen, sowohl bei den Kompetenzen als auch den Einsatzgebieten, kann die Sache schnell aus dem Ruder laufen. Es bringt nichts, den Kopf in den Sand zu stecken und darauf zu hoffen, dass sich das schon irgendwie ergeben wird - vor allem in unserer globalisierten Welt, wo keine Entwicklung so einfach auf nur ein Land zu begrenzen ist. Umso wichtiger, dass sich Deutschland und Europa stark in der KI-Forschung, aber auch in der Regulierung einbringen.
Wie stellt Ihr Euch die Zukunft bei uns in Deutschland vor, wenn unsere Umwelt weiter digitalisiert wird?
Quelle: Futurezone, The Independent
Die KI ist genau so schlau wie die Menschen.
Je mehr Möglichkeiten desto dümmer.
Oh ich bin bei rot über die Ampel gelaufen.
Die KI hat's bemerkt.
Jetzt lässt sie mir in meinem smart home kein heißes Bad mehr ein und den Kaffee muss ich mir jetzt auch wieder selbst machen.
Ach, und seit ich die KI anpöbelte läuft RTL nur noch in s/w.
😂.
Der Mensch sagt der KI was diese zu tun und zu lassen hat. Wundert sich aber was dabei raus kommt.
Wie wäre es mal mit Reflektion, denken in Ketten und Umkeherschlüssen.
Auch die kommerzielle KI braucht Grenzen.
„...die KI braucht Grenzen.“
Also müsste man die KI mal übers Knie legen und den Hintern versohlen.Aber das darf man heut nicht mehr. Ja dann bedarf es mal ein paar Takte harte Worte zur KI.... böse böse KI🤨☝️🤖💦
An einem sog. Zebrastreifen (= Fußgängerüberweg) gibt es keine Ampel (= Lichtzeichenanlage). Man kann dort gar nicht bei "Rot" gehen. Also entweder, die Geschichte mit der Fr. Dong ist frei erfunden, oder der Autor hat hier wieder einiges verwurstelt (aus welchen Gründen auch immer 🤔🤭 ...).
Nun, es gibt aus Länder, die Zebrastreifen mit Ampeln haben - z. B. Österreich oder Schweiz. Somit ist das in China zumindest mal vorstellbar. ;-)
Die Menschen haben in den letzten 100 Jahren einiges erfunden was uns Fluch und Segen zugleich ist. Ob das jetzt Atomkraft, Waffen oder sämtliche Fahrzeuge sind, es gibt zu all diesen nützlichen Dingen eine unmenge an Todesopfer.
Die KI sehe ich noch lange nicht soweit das sie uns überhaupt wirklich umfangreich nützlich sein kann, geschweige denn gefährlich. Außer man setzt sie einfach unausgereift ein, was aber hoffentlich nicht passiert. Das Beispiel mit dem tödlichen Unfall eines selbstfahrenden Autos, das ja auch KI gesteuert war zeigt wie weit es hier noch fehlt. Auf der anderen Seite ist es schon bedenklich wenn unsere europäische Regierung es nicht mal schafft das Problem Sommer/Winterzeit zu lösen, und was passiert wohl mit so einer Mammut Aufgabe wie die Regelung was die Nutzung der KI betrifft?
"was aber hoffentlich nicht passiert."
Der Artikel sagt: Zu spät ^^ KIs sind längst nicht ausgereift und trotzdem verlässt man sich schon so sehr darauf, dass man die von der KI ausgewählten Personen direkt öffentlich an den Pranger stellt...
KI ist so so schlau, es gibt mehr Probleme als ja wirklich Hilfe.
In China🤭💦 ist gerade ein Sack Reis umgefallen und die KI 🤖💦 hat es nicht gemerkt.
Die KI ist vielleicht sogar schuld das der Sack Reis umgefallen ist. 🙄
Das zum Thema wie schlau KI ist🤖💭
Momentan ist KI gar nicht so schlau, wie viele Nutzen es sich wünschen. In Zukunft wird es bestimmt besser, aber heutzutage ist es eher Marketing.
Marketing Gag oder Running Gag.
Oder die KI hält es für ein Erdbeben und schaltet vorsorglich Strom, Gas und Wasser ab, setzt landesweit sämtliche Rettungskräfte in Alarmbereitschaft und sperrt Flughäfen und Bahnhöfe.
Das Problem ist ja nicht die sogenannte "KI", sondern die sogenannten Menschen, die diese Dinger programmieren und auf die Menschheit loslassen. Sowas wie in China darf es einfach gar nicht geben. Ich bin auch gegen Überwachung des öffentlichen Straßenverkehrs .... zur kurzzeitigen Verkehrskontrolle mag das Sinn machen, auch an gefährlichen Stellen, aber halt nicht generell und aus reinem "Bestrafzweck"
*falsche Seite*
Falsche Seite?
Warum?
Die beiden Beispiele oben zeigen recht gut, wie dumm eine "ich habe ja nichts zu verbergen" Einstellung ist. Denn man muss gar nichts zu verbergen haben, um ins Fadenkreuz zu gelangen. Man muss sich also überlegen, wie man mit dieser neuen Technologie umgeht, bei der Algorithmen entscheiden und nicht mehr Menschen. Und diese Technologie wird kommen, daran besteht kein Zweifel, das ist nicht mehr aufzuhalten. Jetzt wäre noch Zeit, Regeln aufzustellen, was eine KI tun darf, können darf, entscheiden darf. Und vor allem, wie man diese Entscheidungen überprüfen kann. Denn wenn wir das nicht tun, wird irgendwann niemand mehr für irgendetwas verantwortlich sein, denn niemand kann die Entscheidungen der KI noch nachvollziehen. Dass eine KI ein Bild auf einem LKW falsch interpretiert hat lässt sich noch recht einfach belegen. Aber warum eine KI jemand als gefährlich, nicht kreditwürdig, terroristisch veranlagt, suizidgefährdet oder was auch immer einstufen wird, das wird man irgendwann nicht mehr widerlegen können. Und Gnade uns Gott, wenn wir uns dann zu sehr auf das Urteilsvermögen von komplexen Algorithmen verlassen müssen.
> wie dumm eine "ich habe ja nichts zu verbergen" Einstellung ist.
Amen!
Selbst wenn man unterstellt, das die gesammelten Daten derzeit in vertrauenswürdigen Händen sind und nicht missbraucht werden - morgen haben wir eine andere Regierung und/oder andere Personen haben an relevanten Stellen Entscheidungsbefugnisse, die heute gesammelten Daten sind aber immer noch da, dann aber plötzlich in nicht mehr so vertrauenswürdigen Händen...
Daten werden im großen Stil gesammelt (und dazu muss man nicht nach China gucken, das passiert auch in Europa allerorten), und aufgrund der bei anlassloser Überwachung anfallenden Datenmengen, werden die selbstverständlich von KI ausgewertet (auch von unqualifizierter, weil unausgereifter).
Ob mehr Regeln für KI-Systeme da helfen würden, wage ich mal leise zu bezweifeln, die Geschichte zeigt ja regelmäßig, das Regeln immer nur für manche gelten, nicht für alle (siehe zB die BND-Skandale im Umfeld der Snowden-Enthüllungen); und Regeln können später, wenn die Daten schon gesammelt sind, auch schnell wieder geändert werden (siehe zB die gerade geplante Zusammenlegung von "Polizei-Datenbanken", die wurden seinerzeit mit dem vorliegenden Datenumfang auch mit der Argumentation geschaffen, das ja alles örtlich begrenzt sei und nicht weitergegeben wird)...