Ein KI-generiertes Bild, das auf Facebook kursiert, behauptet, dass deutsche Städte robotische Briefkästen installiert haben, die mit KI-Systemen ausgestattet sind und verlorene Gegenstände automatisch an ihre Eigentümer zurückgeben können. Die Pointe besteht darin, dass es sich um KI-Schrott handelt.
Ein Beitrag auf Facebook hat Verwirrung – und Unglauben – ausgelöst, nachdem behauptet wurde, dass deutsche Städte schicke Roboter-Briefkästen gebaut haben, in denen Einwohner verlorene Gegenstände wie Brieftaschen und Schlüssel versenden können, die von den Maschinen dann an ihre ursprünglichen Eigentümer zurückgegeben würden.
„Sobald sie hineingelegt werden, scannt der Briefkasten den Inhalt mit internen Kameras und KI-basierten Objekterkennungssystemen,“ heißt es in dem Beitrag.
„Das System vergleicht das Objekt dann mit lokalen Adressdatenbanken und initiiert eine automatisierte Rückgabe,“ fährt der Beitrag fort. „Gegenstände werden in manipulationssichere Umschläge verpackt und über bestehende Postnetze umgeleitet — oft erreichen sie den Eigentümer innerhalb von 48 Stunden.“
Mehrere Nutzer unter dem Beitrag berichten, dass sie trotz Wohnsitz in großen deutschen Städten nie auf solche Maschinen gestoßen seien. Das liegt daran, dass sie nicht existieren.
Während Deutschland Hunderte von „Fundbüros“ hat, in denen Einwohner und Besucher verlorene Gegenstände versenden können — und Eigentümer hoffen können, dass sie zurückgegeben werden — gibt es keinen Beleg dafür, dass Briefkästen mit der Technologie ausgestattet sind, den Eigentümer des Gegenstands zu registrieren und ihn zu kontaktieren.
Es gibt landesweite Online-Portale, auf denen Menschen verlorene Gegenstände melden können, obwohl diese keine Erwähnung von Briefkästen als legitime Methode zur Rückführung verlorener Gegenstände machen.
Eine genauere Untersuchung des Fotos zeigt mehrere Hinweise darauf, dass es sich um KI-generiert handelt. Die Beschilderung an den Boxen, die laut einer Rückwärtssuche vermutlich auf Parkuhren basiert, stimmt bei keinem der „Briefkästen“ überein.
Zusätzlich stimmt die Beschriftung der umliegenden Geschäfte nicht mit den echten Schriftzügen überein, ein häufiger Hinweis darauf, dass ein Bild oder Video KI-generiert ist.
Beim Zoomen geht die Hand der Frau im Bild durch den Briefkasten, und die Füße des Mannes berühren den Boden nicht. Außerdem hängt offenbar eine übergroße Brieftasche von einem der Eingänge der Maschine, obwohl niemand daneben steht.
Der Facebook-Account, der das Bild gepostet hat, Fact 27, soll laut Angaben in Indien ansässig sein und verbreitet eine Vielzahl von Botschaften mit Fotos, die bizarre Behauptungen verbreiten.
Zum Beispiel behauptet ein weiteres Foto, Opernhäuser in Italien würden hinter den Kulissen Dressingräume in temporäre Hostels umwandeln, obwohl es keine öffentlich zugänglichen Medienberichte gibt, die dies bestätigen.
Was ist KI-Schrott?
Obwohl mehrere Kommentare darauf hindeuten, dass Social-Media-Nutzer an die Möglichkeit von deutschen Brieftaschen-Austausch-Briefkästen glaubten, fallen die Mehrzahl der Beiträge von Fact 27 in die Kategorie „KI-Schrott“ — digitale Inhalte, die mit generativer künstlicher Intelligenz erstellt wurden, von geringer Qualität sind und offensichtlich falsch wirken.
Diese spezielle Kontoseite verbreitet fantastische Konzepte über verschiedene Länder, wie die Vorstellung, dass Finnland Balkone hat, die sich mit dem Sonnenlicht drehen, oder dass Deutschland Dächer von Bäckereien als Schlafdecks benutzt.
Diese Art von Inhalt verbreitete sich ursprünglich, weil Ersteller dazu angereizt wurden, viral zu gehen — sei es aus Ruhm oder aus Monetarisierung. Inhalte mit geringem Aufwand und schlecht erstellten Bildern wurden oft online viral, wodurch die Ersteller mit minimaler Arbeit Geld verdienen konnten.
Im Laufe der Zeit kursierten Berichte darüber, wie politische Bewegungen, zunehmend die rechtsgerichteten, solche Inhalte nutzen, um das Engagement in sozialen Medien zu erhöhen.
Dies wurde in den USA aufgegriffen, aber auch in Europa, wo das European Digital Media Observatory eine Zunahme der Zahl rechtsgerichteter politischer Parteien meldete, die KI-generierte Videos nutzen, um Wähler zu mobilisieren.
Meta verlangt keine Kennzeichnungen für unbezahlte KI-generierte Bilder
Letztes Jahr untersuchte die Stanford University mehr als 100 Facebook-Seiten, die regelmäßig KI-Inhalte posten. Ihre Forschung zeigte, dass Beiträge mit KI-generierten Bildern Hunderte von Millionen Interaktionen erzielten und zu den meistgesehenen Inhalten auf Facebook gehörten.
Die Ergebnisse dieser Forschung spiegeln die Äußerungen in einem 2024 geführten Interview mit dem damaligen Vizepräsidenten für Produkt bei generativer KI, Connor Hayes, wider, der der Financial Times sagte, dass das Unternehmen erwarte, dass KI-Systeme irgendwann auf seinen Plattformen in fast derselben Weise wie Benutzerkonten existieren.
Meta kennzeichnet unbezahlte Inhalte mit einem „AI Info“-Label, wenn ihre Systeme erkennen, dass der Inhalt mit Tools von Drittanbietern erstellt wurde. Inhalte, die durch KI modifiziert wurden, können weiterhin Informationen zur Modifikation anzeigen. Auch Nutzer können selbst ein Label hinzufügen.
Nach Angaben von Meta kann unbezahlter Inhalt auf Facebook, Instagram und Threads ein KI-Label benötigen, wenn er fotorealistische Videos oder realistisch klingende Audio enthält. Zum Beispiel ein Reel mit äußerst realistischer Stadtaufnahme, ein Song, der mit einer KI-generierten Stimme erstellt wurde, oder ein Reel mit einer überzeugenden KI-Sprachaufnahme.
Die Anforderung gilt jedoch nicht für Bilder, die in der Regel nicht gekennzeichnet werden, es sei denn, das System von Meta erkennt Indizien, dass sie mithilfe von KI modifiziert wurden.