Neben einer Palette von Trends, Begriffen und ‚Brain-Rot‘-Inhalten sahen sich Social-Media-Plattformen im Jahr 2025 mit Altersbeschränkungsgesetzen, KI-Inhalten und wachsendem Misstrauen der Nutzer konfrontiert.
Da sich ein weiteres Jahr dem Ende zuneigt, werden sich viele von uns auf einen Ansturm von reflektierenden Instagram Reels, gefilterten Errungenschaften – und Vorsätzen, weniger Doomscrolling zu betreiben – vorbereiten.
In der Tat bleibt Social Media eine dominante Kraft in unserem Leben; eine Art, wie wir unsere Erfolge messen, uns mit anderen verbinden und über Nachrichten und Trends auf dem Laufenden bleiben. Es hat sogar die Sprache, die wir verwenden, neu gestaltet, wobei viele der Wörter im Wörterbuch für 2025 von Social-Media-Begriffen geprägt sind: Wutfalle (rage bait), parasozial und KI-Schlamm (AI slop), um nur einige zu nennen.
Seit dem Aufstieg der künstlichen Intelligenz (KI) hat sich jedoch auch grundlegend verschoben, wie Menschen soziale Medien nutzen und betrachten. Zunehmende Fehlinformationen haben zu Misstrauen und einer Enttäuschung geführt, die sich in der Nutzung der Plattformen widerspiegelt.
Während Facebook laut der Suchmaschinenmarketing-Firma Semrush nach wie vor am beliebtesten ist, wachsen gemeinschaftsorientierte Apps wie Reddit und Discord weiter, weil Menschen nach sinnvolleren, intimeren und authentischeren Online-Räumen suchen.
Gleichzeitig navigieren Regulierungsbehörden weiterhin zwischen einem offenen Internet und Online-Sicherheit, was 2025 wie ein bedeutender Wendepunkt wirkt, wie Social-Media-Unternehmen künftig operieren.
Von Altersverifikationsgesetzen bis hin zu großen Kontroversen rund um Elon Musks Grok-KI-Chatbot – hier ist eine nähere Betrachtung einiger der wichtigsten Diskussionspunkte im Bereich Social Media dieses Jahres.
Verbot von sozialen Medien und Schutz Minderjähriger
Am 10. Dezember setzte Australien ein Weltneuheit: das Verbot sozialer Medien für Personen unter 16 Jahren. Das bedeutete, dass Kinder keinen Zugriff mehr auf Konten auf Plattformen wie Instagram, Snapchat, TikTok, YouTube, X und Facebook hatten, die alle mit hohen Geldstrafen belegt würden, wenn sie gegen das Gesetz verstoßen.
Während extrem, reflektiert dieser Schritt wachsende Bedenken darüber, dass soziale Medien die psychische Gesundheit junger Menschen schädigen. Die Weltgesundheitsorganisation (WHO) berichtet, dass 1 von 10 Jugendlichen negative Folgen durch die Nutzung erlebt hat.
Danach hat Dänemark Pläne angekündigt, diesem Beispiel zu folgen, und vorgeschlagen, dass jeder unter 15 Jahren vom Zugriff auf soziale Medien ausgeschlossen wird, es sei denn, Eltern füllen eine bestimmte Beurteilung aus. Andere Länder, darunter Spanien, Griechenland und Frankreich, haben ebenfalls ähnliche Schutzmaßnahmen gefordert.
Unterdessen wurden im Juli strenge Altersverifikationsgesetze im Rahmen des UK Online Safety Act eingeführt, die Minderjährigen das Ansehen von Inhalten für Erwachsene oder allem, was gefährliches Verhalten fördern könnte, verwehren.
Die Wirksamkeit dieser neuen Gesetze ist noch nicht vollständig geklärt, einige Experten äußern Skepsis, doch wir hören bereits von kreativen Wegen, wie Teenager versuchen, die Regeln zu umgehen. Viele wenden sich stattdessen Messenger-Apps wie WhatsApp zu oder kaufen sogar maskenartige Netze mit erwachsenem Aussehen, um die Gesichtserkennung zu täuschen.
KI-Schlamm, Deepfakes und die Verbreitung von Fehlinformationen
2025 war das Jahr, in dem der KI-Schlamm die Oberhand gewann. Ein Begriff, der sich auf die von generativen KI-Werkzeugen wie OpenAIs Sora erstellten Fake-Bildern und -Videos bezieht, hat unsere Social Feeds mit minderwertigen Absurditäten überschwemmt, wie Welpen, die sich in Zimtbrötchen verwandeln, Katzen, die verhaftet werden, oder die seltsam populären ‚Italienischer Gehirn-Rost‘-Memes.
Obwohl es harmlos erscheinen mag, hat es das Auffinden echter Inhalte, die von echten Menschen erstellt wurden, noch schwieriger gemacht. In einigen Fällen hat es auch zur Verbreitung von Betrug und Fehlinformationen geführt – sogar durch Politiker. US-Präsident Donald Trump bleibt einer der schlimmsten Verbreiter in dieser Hinsicht, indem er in einem Fall KI-generierte Bilder teilte, die die Sängerin Taylor Swift unterstützen würden.
KI wurde auch zur verstärkten Erstellung von Deepfakes genutzt, Videos, die das Gesicht, den Körper oder die Stimme einer Person nachahmen, um falsche Informationen zu verbreiten. Ein solches Beispiel war ein fabriziertes Video, das auf TikTok veröffentlicht wurde und eine Frau in einer Fernsehsendung zeigte, die gestanden habe, Sozialleistungsmissbrauch begangen zu haben, worüber Nachrichtenagenturen wie Fox News fälschlicherweise berichteten.
Um dem entgegenzuwirken, haben Plattformen wie Meta und TikTok damit begonnen, jegliche KI-generierte Inhalte zu kennzeichnen. Dennoch fällt es aufgrund des Ausmaßes der Content-Produktion schwer, dies konsequent durchzusetzen, wobei ein im Juni veröffentlichter Bericht des internen Aufsichtsorgans von Meta dessen Kennzeichnung als ‚inkonsistent‘ bezeichnete.
Elon Musks Chatbot und Hassrede
Viele der großen Social-Media-Plattformen haben KI-Assistenten in ihre Dienste integriert und bieten automatisierte Unterstützung bei der Inhaltserstellung, der Suche und Anfragen im Kundenservice. Es ist jedoch Elon Musks Grok-Chatbot, der in diesem Jahr die größte Kontroverse ausgelöst hat.
Erstellt von der Firma xAI des Tech-Milliardärs, sorgte Grok im Juli für Schlagzeilen, weil es Adolf Hitler lobte und einem Bot-Konto mit jüdischem Nachnamen vorwarf, die Toten weißer Kinder in den Überschwemmungen von Zentral-Texas zu feiern.
Zu dieser Zeit erklärte Musk, das KI-Werkzeug sei „zu eifrig, zu gefallen und manipuliert zu werden“, ein Problem, das „behoben wird“. Dennoch hat Grok weiterhin besorgniserregende Antworten geteilt, darunter antisemitische Verschwörungstheorien und Ratschläge, wie man Menschen stalkt.
Strengere Regulierung und algorithmische Verantwortlichkeit
Die strengere Regulierung von Online-Räumen nahm in diesem Jahr zu, als das UK’s Online Safety Act in Kraft trat und mehr Transparenz und Rechenschaftspflicht von Social-Media-Unternehmen forderte.
Der EU-Digital Services Act (DSA) verhängte zudem seine ersten Geldstrafen: Elon Musks X wurde mit €120 Millionen belegt. Die Werbepolitik der Plattform und die blauen Häkchen (die einst ein verifiziertes Konto signalisierten, jetzt aber an jeden verkauft werden) entsprachen nicht dem EU-Recht aufgrund mangelnder Klarheit.
TikTok wurde im Mai von der Irischen Datenschutzkommission (DPC) mit €530 Millionen belegt, weil es den Schutz der personenbezogenen Daten europäischer Nutzer bei einer Übermittlung nach China nicht gewährleistete.
Die enormen Mengen an Daten (und Macht), über die Social-Media-Plattformen verfügen, zusammen mit den oben genannten Bedenken über potenziell schädliche Auswirkungen, bedeuten, dass die gesetzliche Kontrolle voraussichtlich 2026 noch weiter zunehmen wird.