Halt, Künstliche Polizei! So schnappt die KI Betrüger
Seit Jahren stehen Lügendetektoren in der Kritik. Die veraltete Technik ist viel zu unsicher, um wirklich nützlich zu sein. Die neue Hoffnung liegt in der künstlichen Intelligenz, die auch geschriebene Lügen erkennen soll - und bereits zum Einsatz kommt.
Keine Methode bietet die Möglichkeit, mit hundertprozentiger Sicherheit festzustellen, ob jemand lügt. Entsprechende Lügendetektoren mit veralteter Technik stehen daher schon seit unzähligen Jahren in der Kritik. Deutlich besser bei der Lügenerkennung sollen Systeme mit künstlicher Intelligenz dank des maschinellen Lernens sein.
Entwickelt wurde ein solches System mit Namen VeriPol von Informatikern der Universitäten Cardiff und Carlos III in Madrid. Es ist speziell darauf ausgerichtet, Berichte von Raubüberfällen und Diebstählen zu analysieren. Nach einer erfolgreichen Testphase im Vorjahr wird das System seit Neuestem von der spanischen Polizei eingesetzt, um zum Beispiel Betrugsfälle auszudecken.
KI analysiert Text statt Sprache
Mithilfe von maschinellem Lernen und Textanalyse kann das KI-System dabei herausfinden, ob die Berichte von Opfern eines Überfalls oder Diebstahls der Wahrheit entsprechen oder es sich um falsche Angaben handelt. Dabei geht es darum, falsche Angaben zum Täter, den gestohlenen Gegenständen oder anderen Details zu analysieren, um Straftaten wie Versicherungsbetrug aufzudecken.
VeriPol arbeitet dafür mit Algorithmen, um die verschiedenen Merkmale wie die Verwendung von Adjektiven, Verben, Substantiven, Zahlen und Satzzeichen in der Aussage des Opfers zu identifizieren. Diese werden dann mit den typischen Mustern falscher Angaben verglichen. Solche gefälschten Berichte seien in der Regel kürzer und auf das gestohlene Gut konzentriert. Deshalb gibt es wenig Details zum Angreifer, dem Angriff selbst und oftmals keine Zeugen gibt.
Gute Quote, doch nicht perfekt
Auf den ersten Blick klingt das nach Merkmalen, die man auch mit gesundem Menschenverstand erkennen dürfte. Doch die KI ist effektiver, weil sie emotionslos die vorliegenden Daten interpretiert. Bei der Testphase identifizierte das System in nur einer Juni-Woche des Vorjahres 64 Berichte mit falschen Angaben, während die Polizisten ohne Hilfe des Systems in den vergangenen Jahren im Juni nur im Schnitt rund 16 Fälle im Monat aufdeckten.
Berichte von gestohlenen iPhones und Samsung-Smartphones sind tendenziell eher erlogen, während Meldungen von gestohlenen Fahrrädern und Halsketten tendenziell der Wahrheit entsprechen - meint die KI.
Aber natürlich ist auch dieses System mit einer Trefferquote von 83 Prozent nicht perfekt. So werden zum Beispiel Vorfälle, in denen der Räuber von hinten kam oder einen Helm trug fälschlicherweise als Lüge interpretiert, da das Opfer zu wenig Infos zum Täter liefern kann.
Quelle: ScienceDirect, Cardiff University
Gibt auch schon länger "KI" Programme die Cheater, Hacker bei Steam und Co. bannt 🎮
Immerhin lässt sich eine KI zumindest bis jetzt nicht bestechen und Jeder User/Mensch ist da gleich gestellt wie auch bei Justizia ursprünglich vorgesehen...
Die Affen bilden den Rechtsstaat gut ab, aber sind schon lange nicht mehr so unparteiisch 🙈🙉🙊
Naja, wenn du die Parameter kennst, die die hier beschriebene "KI" für ihre Häufigkeitsvergleiche verwendet, kannst du die natürlich überlisten. Und das dann sogar zuverlässiger als einen echten Menschen. Am besten lässt sich das dann natürlich mit einer KI machen.
Die KI ist Ergebnis nicht quelloffener Programmierung und Algorithmen DURCH MENSCHENHAND. Anzunehmen, dass eine KI von göttlicher Neutralität sei und aus dem Nichts in unsere hilfebedürftige Welt kommt, ist mehr als naiv....
Ist dann ein bestochenes System etwa ehrlicher/neutraler als die künstliche KI?
Zwar denke ich dann durchaus an den Film Ilysium, wo der Held von der KI falsch behandelt wurde...
Mein Beispiel habe ich ja auf den Bann von Cheatern/Hacker gerichtet und keiner Göttlichkeit.
Durch meine Arbeit sehe ich genug Un/Gerechtigkeit und habe auch Jura im Studium gehabt, sowie die Entscheidung und Folgen von Justizia gesehen...
Geht nur um Geld machen, wo es geht, und nicht um Gerechtigkeit oder angebrachte Strafen 😪😔
Lieber einen richtigen Hund darauf trainieren ,der eine Nase für Lügner hat. Selbst Computer kann man tricksen.
Absolut erstaunlich, was man uns heute schon alles als künstliche Intelligenz aufschwatzen möchte.
Minority Report lässt langsam aber sicher grüßen.
Und weist auch Parallelen zu Psycho Pass.
Ein unfassbar zeitloser SiFi Tom Cruise Film!
Aber dabei wurde keine KI angewandt, sondern Precops also psychisch/physisch "manipulierte" Menschen?
Immerhin hat der Film ein gutes und faires Happy-End 💻
Lest lieber mal das Gesamtwerk Philip K. Dicks, statt schlechte Verfilmungen seiner Geschichten zu schauen.
Es gibt erste Pilotprojekte, in denen eine KI in Verbindung mit Sensoren die Mimik, Körpersprache und unbewusste Reaktionen (Räuspern, Stirnrunzeln, etc.) analysiert und beim Grenzübertritt bzw. im Reiseverkehr die "Wahrhaftigkeit" der Reisemotive ergründet und anhand eines Scorings die Einreise ablehnen darf.
Natürlich wird uns die KI als dienlich angepriesen werden und wird ersteinmal ganz harmlos unsere Fotos optimieren und sinnvollere App-Vorschläge machen. Da uns die Krone der Schöpfung nicht reicht und wir uns in der Eitelkeit eines gar göttlichen Schöpfers sonnen wollen, wird die KI als "unser Geisteswerk" verkauft werden, die endlich mit den menschlichen Unzulänglichkeiten aufräumt und die Gedanken eben nicht mehr frei sein lässt.
Und in diesem todesverachtenden Geschäftsbetrieb, wo inzwischen selbst Kriege und Wetten auf Hungersnöte (Börse) zum "Guten Ton" eines gierigen Kaufmannes gehören und nicht als unethisch empfunden wird, muss eben das höchste Ideal des Menschseins (nämlich die Freiheit und Unergründlichkeit der individuellen Natur) dem betriebswirtschaftlichen Streben nach weniger "Versicherungsbetrügern" weichen!
KI ist eine der vielen Büchsen der Pandora, die wir neuerlich zu öffnen bereit sind...
http://dasfilter.com/gesellschaft/kuenstliche-intelligenz-der-neue-luegendetektor-understanding-digital-capitalism-iii-teil-9
Ein Mann kauft sich einen Lügendetektor, der einen schlägt, wenn man lügt, und probiert ihn gleich beim Abendessen aus.
Vater: " Na, Sohnemann? Wo warst du heute während der Schulzeit?"
Sohn: "Im Unterricht!"
Roboter schlägt Sohn.
Sohn: "Okay, ich war im Kino und hab mir Filme angeschaut."
Vater: "Welchen Film hast du geschaut?"
Sohn: "Toy Story."
Roboter schlägt Sohn.
Sohn: "Okay, es war ein Porno-Film."
Vater: "WAS? Als ich in deinem Alter war, wusste ich nichtmal, was ein Porno ist!"
Roboter schlägt Vater.
Mutter: "HAHA ! Dein Sohn eben."
Roboter schlägt Mutter...
Klassiker
Hehe! :-)
Solange der Roboter noch keine Rechte und Pflichten verordnet bekommen hat, darf er auch Kinder schlagen. Ansonsten stelle ich mir einen Roboter im Knast vor ;-)
Dann wäre der Roboter ein Widerspruch gegen die 3x Gesetzte der Robotik?!
Der Abend nach dem Familienessen wäre somit sicherlich für Alle gelaufen 😅😂
Das ist ja lustig =D