Übler Privatsphäre-Patzer bei Apple: ChatGPT-App speichert im Klartext
Schon lange wirbt Apple damit, dass die Privatsphäre seiner Kunden ganz oben auf der Prioritätenliste steht. Jetzt hat ein Nutzer jedoch einen ziemlichen Patzer aufgedeckt. Denn die ChatGPT-Desktop-App von OpenAI speichert Daten unter MacOS alles andere als sicher ab.
Daten im Klartext gespeichert
Wie Tech-Enthusiast Pedro José über einen Post auf Threads (via Neowin) mitteilte, machte er eine besorgniserregende Entdeckung: Die erst kürzlich für MacOS erschienene Desktop-App von ChatGPT speicherte bis in jüngster Vergangenheit alle Konversationen im Klartext in einer leicht zugänglichen ungeschützten Datei auf den Geräten der Nutzer.
Sicherheitsvorkehrungen ausgehebelt
Das bedeutet, dass jede Anwendung oder Malware auf all die dort abgelegten Daten zugreifen konnte. Normalerweise verhindert Apple so etwas seit MacOS Mojave 10.14 von 2018 damit, dass private Nutzerdaten an einem speziell geschützten Ort im System abgelegt werden. Jedes Programm muss sich vor einem Zugriff zuerst die explizite Zustimmung der Anwender einholen. Dadurch, dass OpenAIs ChatGPT-Desktop-App seine Daten jedoch nicht an diesem Ort speicherte, griff diese Sicherheitsvorkehrung nicht.
Nachdem diese Sicherheitslücke aufgedeckt wurde, hat OpenAI Anpassungen an der App für MacOS vorgenommen, sodass die Unterhaltungen jetzt nur noch verschlüsselt auf den Festplatten der Apple-Geräte abgelegt werden.
Ähnlicher Vorfall bei Microsoft
Das KI-Programm von OpenAI in der Desktop-Variante war zur Überraschung vieler zuerst für MacOS erschienen und trotz der Milliarden an Investitionen in die Firma mit CEO Sam Altman durch Microsoft nicht für Windows. Microsoft CEO Satya Nadella hatte Altman unter anderem deswegen zum Rapport bestellt. Microsoft stand kürzlich jedoch selbst massiv in der Kritik, da die von seiner geplanten Recall-Funktion in Windows abgespeicherten Daten ebenfalls im Klartext abgelegt wurden.
Apple verspricht Privatsphäre
Man kann argumentieren, dass es im jetzt vorliegenden Fall nicht unmittelbar die Verantwortung von Apple ist, sicherzustellen, dass sich Softwareentwickler wie OpenAI an die Vorschriften und Empfehlungen zum Abspeichern von Daten unter MacOS halten.
Trotzdem ist das Bekanntwerden der Sicherheitslücke in der KI-App ein unangenehmer Vorfall für das Unternehmen aus Cupertino. Denn Tim Cook und sein Team betonten von Anfang an, dass bei allen KI-Funktionen von Apple die Privatsphäre der Nutzer im Vordergrund steht. Jetzt wurde diese allerdings durch das Abspeichern von Daten im Klartext nicht gut geschützt.
Besonders pikant: Erst kürzlich hatten Mitglieder der Führungsriege von Apple Microsoft öffentlich verspottet und sich über das Privatsphäre-Desaster bei Windows Recall lustig gemacht:
Joz’s answer to Microsoft’s ”Recall” failure is hilarious. pic.twitter.com/5RkRsUvb4O
— AppleLeaker (@LeakerApple) June 15, 2024
Hätte Apple sicherstellen müssen, dass die ChatGPT-Desktop-App die Sicherheitsvorschriften einhält und beschädigt dieser Vorfall euer Vertrauen in Apples Versprechen auf Privatsphäre? Oder ist das Ganze alleine OpenAIs Schuld, die sich an die Empfehlungen aus Cupertino hätten halten müssen?
Zusammenfassung
- Pedro José entdeckte die Sicherheitslücke in ChatGPT-Desktop-App für MacOS
- App speicherte Nutzerdaten ungeschützt und im Klartext
- Apple schützt normalerweise Nutzerdaten seit MacOS Mojave 10.14
- OpenAI hat die App mittlerweile so angepasst, dass Daten verschlüsselt werden
- Apple betont immer wieder die Wichtigkeit der Privatsphäre seiner Nutzer
- Apple-Führungsriege verspottete kürzlich Microsoft wegen ähnlicher Probleme
Finde schade das Apple die Kontrolle mit der Kinder Pornographie nicht durchbekommen hat und der Aufschrei so groß war . Finde wer sich sowas reinzieht sollte sofort polizeilich verfolgt werden Privatsphäre ist für mich da unwichtig . Für mich ist dieses ganze KI Zeug total uninteressant ! Habe ich nichts mit am Hut .
Lag daran dass man false positives nicht ausschließen kann (und weil das permanente scannen von Dateien im Hintergrund ziemlich dystopisch wirkt)
False Positives in großer Zahl hätte man nicht nur nicht aussch!iessen können, sie wären mit Sicherheit aufgetreten. Die auf eine erträgliche Zahl zu drücken würde eine so große Zahl von false Negatives zur Folge haben, dass das Verfahren dadurch nicht mehr tauglich wäre.
Was habt Ihr eigentlich alle mit der Pruvatsphäre bei Apple?
Auf jedem Iphone die Fotos werden durchscannt, wirklich tolle privatsphäre.
Samsung ist da mit Knox und deren sicheren Ordner auf Hardware Ebene auch sicherer, so etwas wie einen E-Fuse Chip hat Apple nicht im Ansatz, das ist bei Samsung schon ewig im Einsatz, Militär und Regierungstelefone wird Samsung Apple auch vor gezogen.
In meiner Firma wird Apple nicht akzeptiert weil nicht sicher genug fürs Firmennetzwerk, darf mich mit einem Iphone bei uns nicht einloggen.
Selbst das Amerikansiche Militär benutzt Samsungs in der Military Edition.
Ich traue Apple keinen Meter um erhlich zu sein, schon der Face Id zwang ist komisch, oder Kopfhörer welche an bleiben müssen.
Ich traue dem Braten nicht.
Bei Samsung kann ich es wenigstens abschalten das meine Fotosammlung durchleuchtet wird, bei Apple passiert das zwanghaft, also so toll finde ich das Privatsphäretechnisch nicht...
"In meiner Firma wird Apple nicht akzeptiert weil nicht sicher genug fürs Firmennetzwerk,..."
Ihr habt Hobby-IT'ler da sitzen, oder?
"schon der Face Id zwang ist komisch,"
Ist kein Zwang, kannst Du auch deaktivieren.
"oder Kopfhörer welche an bleiben müssen."
Hat mit Sicherheit nichts zu tun.
"Selbst das Amerikansiche Militär benutzt Samsungs in der Military Edition."
Aber nur, weil Apple nichts vergleichbares anbietet.
"Ich traue Apple keinen Meter um erhlich zu sein, "
Mußt Du als Samsung-Fanboy auch nicht...
Ist jetzt zum Glück kein Desaster, ich würde den schwarzen Peter sowohl bei OpenAI als auch bei Apple suchen. Wobei ich sagen muss, dass OpenAI für mich weniger rühmlich dabei wegkommt. Denn die sollten ja ebenfalls auf Datenschutz achten. Wie man bei der Entwicklung dann etwas für alle im Klartext auf dem Smartphone hinterlegt, ist mir schleierhaft. Das fällt bei der Entwicklung zu 100% auf.
Ich hab schon bei den Gesprächen mit Meta bezüglich AI sowie den Gespröchen mit China gesagt dass ich Apples AI-Zwang hier fragwürdig finde in Zusammenhang mit deren Datenschutz-Versprechen. Oh Wunder, ich lag goldrichtig..
Hat Apple eigentlich Ai dienste welche Offline arbeiten wie beim s24u? Kann man dort auch sagen das nur offline Ai funktionen ausgeführt werden? Falls nein, wo ist dann die angeblich so tolle Prvatsphäre?
So wie Apple mit den angesleicherten Fotos der Nutzer umgeht kann man doch nicht von einer guten Privatsphäre reden, da war doch etwas mit der Kinder Pornographie erkennung, welche ich als einen Deckmantel sehe. Bei Samsung kann ich meine Bilder wenigstens noch offline halten nicht so woe bei Apple, wo alle Bilder durch Server gejagt und analysiert werden.
Das ist doch das Gegenteil von einer guten Privatsphäre oder bin ich jetzt total bescheuert?
Mit Face Id traue ich denen auch mal überhaupt nicht, als ob der Kram nur zum enstperren ist.
Aber manche schwören ja trotzdem drauf und denken Ihr geistiges Eigentum wäre so gut Geschützt bei Apple, ich sehe das echt anders.