Bilder, die in KI-Chatbots hochgeladen werden, könnten über eine unbekannte Zeit gespeichert bleiben und könnten in falschen Händen zu Identitätsnachahmung, Betrug und gefälschten Social-Media-Konten führen.
Der von der künstlichen Intelligenz (KI) erzeugte Karikaturen-Trend, der alles zeigt, was ein Chatbot über eine Person weiß, in einem bunten Bild darstellt, kann laut Cybersicherheitsexperten ernsthafte Sicherheitsrisiken bergen.
Benutzer laden ein Foto von sich mit einem Firmenlogo oder Details über ihre Rolle hoch und bitten OpenAI’s ChatGPT, eine Karikatur von ihnen und ihrer Tätigkeit zu erstellen, basierend darauf, was der Chatbot über sie weiß.
Cybersicherheitsexperten sagten Euronews Next, dass Social-Media-Herausforderungen wie KI-Karikaturen Straftätern eine wahre Fundgrube wertvoller Informationen bieten können. Ein einziges Bild, gepaart mit persönlichen Details, kann aufschlussreicher sein, als Benutzer es vermuten.
„Du machst Betrügern deren Arbeit für sie – und gibst ihnen eine visuelle Darstellung davon, wer du bist“, sagte Bob Long, Vizepräsident des Identitätsauthentifizierungsunternehmens Daon.
Die Wortwahl an sich sollte laut ihm rote Flaggen aufwerfen, weil sie „klingt, als sei sie absichtlich von einem Betrüger gestartet worden, der die Arbeit erleichtern will.“
Was passiert mit Bildern, nachdem sie hochgeladen werden?
Wenn ein Nutzer ein Bild in einen KI-Chatbot hochlädt, verarbeitet das System das Bild, um Daten zu extrahieren, wie die Emotion der Person, die Umgebung oder Informationen, die ihren Standort offenbaren könnten, so der Cybersicherheitsberater Jake Moore. Diese Informationen könnten dann für eine unbekannte Zeit gespeichert werden.
Long sagte, die von Nutzern gesammelten Bilder könnten verwendet und aufbewahrt werden, um KI-Bilderzeuger im Rahmen ihrer Datensätze zu trainieren.
Ein Datenverstoß bei einem Unternehmen wie OpenAI könnte bedeuten, dass sensible Daten, wie hochgeladene Bilder und persönliche Informationen, die vom Chatbot gesammelt wurden, in die Hände von Kriminellen geraten könnten, die sie ausnutzen könnten.
In den falschen Händen könnte ein einziges, hochauflösendes Bild verwendet werden, um gefälschte Social-Media-Konten zu erstellen oder realistische KI-Deepfakes zu erzeugen, die dazu verwendet werden könnten, einen Betrug durchzuführen, so Charlotte Wilson, Leiterin des Enterprise-Bereichs bei Check Point, einem israelischen Cybersicherheitsunternehmen.
„Selfies helfen Kriminellen, sich von allgemeinen Betrugsmaschen zu personalisierten, überzeugenden Identitätsnachbildungen zu entwickeln“, sagte sie.
OpenAI’s Datenschutzeinstellungen besagen, dass hochgeladene Bilder zur Verbesserung des Modells verwendet werden können, was das Training einschließen kann. Auf Nachfrage zu den Datenschutzeinstellungen des Modells stellte ChatGPT klar, dass dies nicht bedeutet, dass jedes Foto in eine öffentliche Datenbank gestellt wird.
Stattdessen erklärte der Chatbot, dass er Muster aus Nutzungsinhalten verwendet, um zu verfeinern, wie das System Bilder erzeugt.
Was tun, wenn Sie an KI-Trends teilnehmen möchten
Für diejenigen, die dem Trend weiterhin folgen möchten, empfehlen Experten, zu begrenzen, was man teilt.
Wilson sagte, dass Nutzer vermeiden sollten, Bilder hochzuladen, die identifizierbare Informationen preisgeben.
„Schneiden Sie eng zu, halten Sie den Hintergrund schlicht, und vermeiden Sie Abzeichen, Uniformen, Arbeitsausweise, Standorthinweise oder alles, was Sie mit einem Arbeitgeber oder einer Routine verbindet“, sagte sie.
Wilson warnte davor, in den Aufforderungen zu viel persönliche Informationen preiszugeben, wie ihren Jobtitel, ihre Stadt oder ihren Arbeitgeber.
Unterdessen empfahl Moore, die Datenschutzeinstellungen vor der Teilnahme zu überprüfen, einschließlich der Option, Daten aus dem KI-Training zu entfernen.
OpenAI verfügt über ein Datenschutzportal, das es Nutzern ermöglicht, sich von der KI-Datenverarbeitung abzumelden, indem sie auf „mit meinen Inhalten nicht trainieren“ klicken.
Nutzer können sich auch vom Training durch ihre Textgespräche mit ChatGPT abmelden, indem sie die Einstellung „das Modell für alle verbessern“ ausschalten.
Nach EU-Recht können Nutzer die Löschung personenbezogener Daten beantragen, die vom Unternehmen erhoben wurden. OpenAI weist jedoch darauf hin, dass einige Informationen auch nach der Löschung behalten werden könnten, um Betrug, Missbrauch und Sicherheitsbedenken zu adressieren.