Worum es geht – und was dieser Text nicht ist

Dieser Text beschäftigt sich mit einer Frage, die in Familien, Schulen und politischen Debatten zunehmend Raum einnimmt: Was machen digitale Medien – soziale Netzwerke, Smartphones, algorithmisch gesteuerte Plattformen – mit uns? Mit Kindern, mit dem gesellschaftlichen Miteinander, mit unserer Fähigkeit, Informationen zu beurteilen?

Es ist kein Plädoyer gegen das Digitale. Das wäre weder ehrlich noch hilfreich. Es ist der Versuch, die Entwicklung nüchtern zu betrachten: was die Forschung wirklich weiß, was sie nicht weiß, wo berechtigte Sorge beginnt – und was Menschen, Familien und die Gesellschaft konkret tun können.

Zur Einordnung: Dieser Artikel stützt sich auf zugängliche Forschungsergebnisse, benennt deren Grenzen und unterscheidet zwischen dem, was belegt ist, und dem, was offen bleibt. Wo Meinungen geäußert werden, sind es solche – keine Fakten.

Wie sich Kindheit und Medien verändert haben

Die 70er und 80er Jahre in Deutschland: Das Fernsehprogramm bestand aus drei, später vier Sendern – ARD, ZDF, einem regionalen dritten Programm, ab 1984/85 kam RTL hinzu. Nachrichten kamen aus dem Radio oder dem Fernseher, gefiltert durch Redaktionen mit klarer Verantwortlichkeit. Wer Fehler machte, musste sie korrigieren. Der soziale Alltag spielte sich draußen ab – auf der Straße, dem Sportplatz, im Wald.

Hier ist eine ehrliche Anmerkung angebracht: Die Vergangenheit war keine heile Welt. Bullying, Ausgrenzung, Gewalt unter Kindern gab es auch damals. Familiäre Probleme wurden seltener öffentlich, nicht seltener erlebt. Der Rückblick neigt zur Verklärung. Trotzdem ist es sachlich richtig, dass soziale Kompetenz damals durch mehr unbeobachteten, direkten Kontakt mit anderen Menschen entstand – Konflikte mussten im echten Leben ausgetragen und überwunden werden, ohne Editier-Taste und ohne algorithmische Bestätigung.

In den 90er Jahren begann die Aufsplitterung: Privatfernsehen, erste Mobiltelefone. Die Auswahl wuchs, aber professionelle Redaktionen blieben die Gatekeeper.

Die 2000er Jahre brachten das Internet in die Haushalte. Erstmals konnte jeder publizieren. Das war ein echter Gewinn – und der Beginn eines strukturellen Problems.

In den 2010er Jahren wurde das Smartphone zum ständigen Begleiter für Menschen aller Altersgruppen, auch für Kinder. Eine Generation wuchs auf, für die das Gerät kein neues Werkzeug, sondern eine Selbstverständlichkeit war.

Die 2020er Jahre haben diese Entwicklung beschleunigt, verstärkt durch die Pandemie: Digitale Räume wurden in der Isolation noch wichtiger – und die Gewohnheiten aus dieser Zeit blieben teilweise bestehen. Algorithmen entscheiden heute weitgehend, was man sieht – nicht auf Basis von Wahrheit oder gesellschaftlichem Nutzen, sondern auf Basis von Aufmerksamkeit und Verweildauer.


Wer Nachrichten macht – und was das bedeutet

In Teilen der Bevölkerung gelten öffentlich-rechtliche Medien heute als Verbreiter von Propaganda. Woher kommt das?

Ein Teil der Antwort ist berechtigt: Öffentlich-rechtliche Sender sind nicht fehlerfrei und nicht immun gegen politische Nähe. Sie haben Fehler gemacht – die meisten davon jedoch transparent korrigiert. Berechtigte Kritik ist wichtig und sollte geäußert werden. Kein Medium, kein Mensch ist unfehlbar.

Ein anderer Teil der Antwort ist jedoch problematisch: Erhebliches Misstrauen entsteht durch Akteure ohne journalistische Ausbildung, ohne redaktionelle Verantwortung und ohne Korrekturroutinen – die aber mit zugespitzten Titeln, gezielter Empörung und einfachen Antworten auf komplexe Fragen Millionen von Klicks generieren. Oft aus Eigeninteresse: wirtschaftlich, ideologisch oder schlicht aus dem menschlichen Bedürfnis nach Aufmerksamkeit.

Was Journalistinnen und Journalisten unterscheidet: Sie unterliegen dem Pressekodex des Deutschen Presserates, müssen Quellen nennen, Gegendarstellungen ermöglichen und Fehler korrigieren. In vielen Teilen der Welt riskieren sie für freie Berichterstattung Freiheit und Gesundheit. Das ist kein perfektes System – aber es ist ein System mit Regeln und Verantwortung.

Wer dieses System pauschal gleichsetzt mit einem YouTube-Kanal ohne Impressum, ohne Quellenangaben und ohne Korrekturroutine, verwechselt Medienkritik mit Gleichmacherei. Das ist ein Unterschied, der gesellschaftlich zählt.


Filterblasen – real, aber komplexer als oft dargestellt

Der Begriff Filterblase wurde 2011 vom Internetaktivisten Eli Pariser geprägt: Algorithmen zeigen uns nur Inhalte, die unsere Vorlieben bestätigen – abweichende Ansichten werden ausgeblendet. Das Konzept ist einflussreich und hat einen wahren Kern. Algorithmen optimieren auf Engagement, und Empörung erzeugt mehr Klicks als Sachlichkeit.

Allerdings warnt die Forschung vor einer zu vereinfachten Lesart. Der Reuters Institute Digital News Report 2023 zeigt: Viele Menschen begegnen auf sozialen Medien durchaus diversen Meinungen. Und Wissenschaftler weisen darauf hin, dass das Phänomen, sich vor allem mit Gleichgesinnten zu umgeben, kein Produkt des Internets ist – es heißt in der Sozialwissenschaft soziale Homophilie und existiert seit jeher auch offline. Menschen umgeben sich tendenziell mit Menschen, die ähnlich denken wie sie – in der Nachbarschaft, im Verein, im Freundeskreis. Der Algorithmus verstärkt diesen Effekt, aber er hat ihn nicht erfunden.

Was jedoch neu ist: Die Geschwindigkeit der Verbreitung. Eine falsche Nachricht verbreitet sich in sozialen Netzwerken nachweislich schneller als eine Korrektur. Empörung und Vereinfachung funktionieren algorithmisch besser als Differenzierung. Das ist ein strukturelles Problem – unabhängig davon, ob jeder Nutzer vollständig in einer Blase lebt oder nicht.


Kinder und Jugendliche: Was die Forschung wirklich sagt

In den USA hat der Sozialpsychologe Jonathan Haidt mit seinem Buch „Generation Angst" (2024) eine intensive Debatte ausgelöst: Soziale Medien seien mitverantwortlich für eine Epidemie psychischer Erkrankungen unter Jugendlichen. Die These ist verbreitet und hat vieles für sich.

Allerdings ist sie nicht unkritisiert geblieben. Ein Team der Universität Würzburg schrieb 2024: Haidts Standpunkt sei „in seiner Einseitigkeit eher zu einer Vernebelung der Sachlage" beigeträgend. Die Hauptkritik: Der drastische Anstieg psychischer Erkrankungen, auf den Haidt sich bezieht, ist USA-spezifisch und lässt sich nicht einfach auf Deutschland übertragen. In Deutschland sind Suizide bei Kindern und Jugendlichen seit den 1980er Jahren erfreulicherweise seltener geworden. Und andere Faktoren – COVID-Folgen, gesellschaftliche Krisen, wirtschaftliche Unsicherheit – werden in der Diskussion oft unterschätzt.

Was trotzdem gilt: Die Zahlen für Deutschland sind nicht beruhigend. Die DAK-Studie 2024 (Universitätsklinikum Hamburg-Eppendorf) zeigt, dass knapp 25 Prozent der 10- bis 17-Jährigen in Deutschland soziale Medien riskant nutzen – dreimal so viele wie 2019. Sechs Prozent erfüllen die Kriterien pathologischer Nutzung, was hochgerechnet 360.000 Kindern und Jugendlichen entspricht. Kinder mit problematischer Social-Media-Nutzung zeigen häufiger depressive Symptome, Ängste und höheren Stress. Die WHO Europa meldet 2024: 11 Prozent der Jugendlichen in Europa zeigen Zeichen problematischer Nutzung sozialer Medien – gegenüber 7 Prozent im Jahr 2018.

Die Leopoldina – die deutsche Akademie der Wissenschaften – empfahl 2025 in einem Diskussionspapier das Vorsorgeprinzip: Auch wenn der kausale Zusammenhang zwischen Social-Media-Nutzung und psychischen Schäden noch nicht eindeutig belegt sei, rechtfertige die mögliche Irreversibilität solcher Schäden präventive Maßnahmen.

Das ist eine wichtige Unterscheidung: Korrelation (Kinder, die viel Social Media nutzen, berichten häufiger von psychischen Problemen) bedeutet nicht automatisch Kausalität (Social Media verursacht psychische Probleme). Psychisch belastete Jugendliche neigen nachweislich auch dazu, mehr Social Media zu nutzen – ein Kreislauf, kein einfaches Ursache-Wirkungs-Verhältnis. Die Wahrheit liegt irgendwo in der Mitte, und die Forschung arbeitet noch daran, sie zu verstehen.


Die Verantwortung der Plattformen

Die großen sozialen Plattformen – Instagram, TikTok, YouTube, X – sind primär Werbeunternehmen. Ihr Geschäftsmodell basiert auf Aufmerksamkeit. Je länger ein Nutzer scrollt, desto mehr Werbung wird ausgeliefert. Empörung hält länger als Sachlichkeit. Vereinfachung erzeugt mehr Klicks als Differenzierung.

Das führt zu einem Mechanismus, der keine böse Absicht braucht, um problematische Wirkung zu entfalten: Ein Algorithmus, der auf maximale Verweildauer optimiert, wird von Natur aus Inhalte bevorzugen, die starke Emotionen auslösen. Das können bewegende Tiervideos sein. Es können aber auch Verschwörungserzählungen, Wut-Content und politische Hetze sein.

Technisch wäre mehr Kontrolle möglich. Künstliche Intelligenz kann Muster erkennen, Quellen prüfen und Kontext analysieren. Aber KI ist auch fehleranfällig, und die Entscheidung, welche Inhalte eingeschränkt werden, ist eine politische und gesellschaftliche – nicht nur eine technische. Dass Inhalte, die vielfach als problematisch gemeldet wurden, trotzdem weiter kursieren, ist aber in vielen Fällen keine technische Unfähigkeit: Es ist eine wirtschaftliche Entscheidung.

Gleichzeitig sollte man fair sein: Nicht alles außerhalb klassischer Medien ist falsch oder böswillig. Es gibt ausgezeichneten unabhängigen Journalismus im Netz, sachkundige Bildungskanäle und wertvolle gesellschaftliche Diskussion. Das Internet hat Stimmen ermöglicht, die in klassischen Medien zu wenig Gehör fanden. Das strukturelle Problem liegt nicht im Einzelnen, der publiziert – sondern darin, wie Algorithmen entscheiden, was verbreitet wird.


Was Menschen, Familien und die Gesellschaft tun können

Das Folgende sind keine Verbote und keine Moralpredigten. Es sind Möglichkeiten – mit ehrlicher Einschätzung, was sie leisten können und wo ihre Grenzen liegen.

👨‍👩‍👧 Eltern und Familien

Vorleben, nicht nur verbieten. Kinder nehmen wahr, wenn Eltern selbst beim Essen auf das Smartphone schauen oder Gespräche mit dem Blick auf den Bildschirm führen. Das Wort dafür heißt Phubbing – und die DAK-Studie zeigt, dass Kinder, die dieses Verhalten ihrer Eltern häufig erleben, psychisch stärker belastet sind. Wer seinen Kindern einen bewussten Umgang mit Medien beibringen möchte, fängt bei sich selbst an.

Regeln vereinbaren, nicht verordnen. Mediennutzungsverträge – für jüngere Kinder schriftlich, für ältere als mündliche Absprache – legen gemeinsam fest: wann, wie lange, welche Plattformen, und was passiert, wenn die Vereinbarung nicht eingehalten wird. Solche Regeln funktionieren besser, wenn Kinder bei ihrer Entstehung mitgeredet haben.

Gemeinsam statt nebeneinander. Inhalte, die Kinder konsumieren, lassen sich gemeinsam anschauen und besprechen. Warum regt dieses Video so viele Menschen auf? Wer hat es hochgeladen? Stimmt das, was da behauptet wird? Medienkompetenz entsteht durch Übung, nicht durch Abschirmung.

Die WHO-Empfehlungen als Orientierung. Die Weltgesundheitsorganisation empfiehlt für Kinder unter zwei Jahren keine Bildschirmzeit außer Videotelefonaten; für Zwei- bis Fünfjährige maximal eine Stunde täglich hochwertiger Inhalte. Für ältere Kinder gibt es keine starre Stundenzahl – die Qualität der Nutzung und der Ausgleich durch Offline-Aktivitäten sind entscheidend.

Grenzen der elterlichen Kontrolle anerkennen. Filtersoft­ware und Überwachungs-Apps können helfen, jüngere Kinder zu schützen. Bei Jugendlichen stoßen sie schnell an Grenzen – technisch (Umgehung ist einfach) und pädagogisch (Kontrolle ersetzt keine Vertrauensbeziehung). Ab einem gewissen Alter ist Vertrauen und Gespräch wirkungsvoller als Überwachung.

🏫 Schulen und Bildungseinrichtungen

Medienkompetenz als eigenständiges Thema. Medienkompetenz ist in Deutschland offiziell Teil vieler Lehrpläne – in der Praxis wird sie oft als Querschnittsaufgabe behandelt und landet zwischen anderen Themen. Sie verdient mehr Gewicht: Wie erkenne ich eine verlässliche Quelle? Wie überprüfe ich eine Behauptung? Was bedeutet es, wenn ein Artikel keine Autorenangabe hat? Diese Fragen sind so grundlegend wie Lesen und Schreiben.

Faktencheck üben. Tools wie die Rückwärtssuche für Bilder (Google Bilder, TinEye), Faktencheck-Plattformen wie correctiv.org oder mimikama.org lassen sich im Unterricht praktisch üben. Das ist keine abstrakte Tugend – es ist eine konkrete Fähigkeit.

Das Handy-Verbots-Debatte. Frankreich hat 2023 Smartphones in Schulen verboten; mehrere deutsche Bundesländer diskutieren ähnliches. Ob ein Verbot hilft, ist wissenschaftlich umstritten – Studien aus Großbritannien zeigen positive Effekte auf Konzentrationsleistungen, andere sehen keinen eindeutigen Effekt. Ein pauschales Verbot ist kein Ersatz für Medienkompetenz, kann aber Unterrichtsräume schützen. Der Ansatz sollte zum konkreten Schulumfeld passen.

Lehrkräfte schulen. Viele Lehrerinnen und Lehrer fühlen sich beim Thema Medienkompetenz unsicher oder nicht ausreichend ausgebildet. Fortbildungsangebote – etwa von der Bundeszentrale für politische Bildung oder klicksafe.de (EU-gefördertes Medienkompetenzprojekt für Deutschland) – können hier helfen.

⚖️ Politik und Gesellschaft

Was schon existiert. Der Digital Services Act (DSA) der EU gilt seit Februar 2024 in allen Mitgliedstaaten. Artikel 28 verpflichtet Plattformen zu einem hohen Maß an Schutz für Minderjährige. Sehr große Plattformen wie Instagram oder TikTok werden direkt von der EU-Kommission reguliert. In Deutschland ist die Bundeszentrale für Kinder- und Jugendmedienschutz (BzKJ) mit der Umsetzung beauftragt; eine unabhängige „Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten" (KidD) nahm 2024 ihre Arbeit auf. Das Jugendschutzgesetz (JuSchG) wurde 2021 umfassend modernisiert.

Was noch fehlt. Regeln existieren – ihre Durchsetzung ist das Problem. Viele Plattformen mit Sitz außerhalb Deutschlands oder der EU lassen sich schwer in die Pflicht nehmen. Die EU-Kommission hat im Juli 2025 erstmals Leitlinien für den Schutz Minderjähriger unter dem DSA veröffentlicht – ein Schritt, der überfällig war.

Das australische Modell. Australien hat am 10. Dezember 2025 als erstes Land der Welt Social Media für unter 16-Jährige verboten. Die Pflicht zur Altersprüfung liegt bei den Plattformen. Das Gesetz ist umstritten: Befürworter sehen einen wichtigen Schutz, Kritiker bezweifeln die Wirksamkeit und befürchten, dass Jugendliche auf weniger regulierte Plattformen ausweichen. Ein pauschales Altersverbot beantwortet die grundlegendere Frage nicht: Wie macht man Plattformen insgesamt weniger schädlich – für alle?

Förderung von Medienkompetenz. klicksafe.de, die Bundeszentrale für politische Bildung und zahlreiche Landesmedienanstalten bieten kostenlose Materialien für Schulen, Eltern und Jugendliche. Diese Angebote sind vorhanden – sie müssen aber auch bekannt gemacht und genutzt werden.


Die Frage, die niemand gerne stellt

Und dann sind da wir alle. Menschen, die lesen, anschauen, sich empören, teilen – oft ohne innezuhalten und zu fragen: Stimmt das eigentlich? Wer hat das gesagt? Welches Interesse könnte dahinterstecken? Gibt es andere Quellen, die das bestätigen oder widerlegen?

Das ist keine Frage von Intelligenz. Es ist eine Frage von Gewohnheit und Haltung. Wer dauerhaft nur Inhalte konsumiert, die das eigene Weltbild bestätigen, verliert die Fähigkeit, es zu hinterfragen. Wer grundsätzlich misstrauisch gegenüber allem ist, was aus professionellen Quellen kommt, aber unkritisch teilt, was die eigene Überzeugung bestätigt, betreibt keine kritische Medienkompetenz – sondern das genaue Gegenteil.

Ein einfacher, aber wirkungsvoller Selbsttest: Wenn ein Inhalt starke Emotionen auslöst – Empörung, Angst, blinde Zustimmung – ist das der Moment, in dem man nicht teilen, sondern innehalten sollte. Nicht weil starke Gefühle immer ein Zeichen für Manipulation sind. Sondern weil sie es manchmal sind – und weil man es nur herausfindet, wenn man nachschaut.

Zu bedenken ist auch: Kein Kanal, kein Mensch, keine Institution ist ohne Fehler. Wer keine Fehler einräumt, ist nicht besonders zuverlässig – sondern besonders unglaubwürdig. Das gilt für Medien, für Politiker, für Influencer – und für uns selbst.


Wohin führt das?

Es wäre unseriös, diese Frage mit Gewissheit zu beantworten. Aber es ist berechtigt, sie zu stellen.

Eine Gesellschaft, in der immer mehr Menschen ihre Informationen aus Quellen beziehen, die primär auf Empörung und Bestätigung ausgelegt sind, wird anfälliger für Manipulation. Das ist kein Vorwurf an einzelne Menschen – es ist eine strukturelle Beobachtung. Ob mehr Social-Media-Konsum in der Kindheit zu einer geringeren Widerstandsfähigkeit gegenüber Manipulation führt, lässt sich wissenschaftlich noch nicht abschließend sagen. Aber es gibt begründeten Anlass, die Frage ernst zu nehmen.

Was nicht hilft: Nostalgie, Verbote ohne Bildung, oder die Überzeugung, dass die jeweils andere Generation das Problem ist. Was helfen kann: offene Gespräche in Familien, ehrliche Medienkompetenz in Schulen, durchsetzungsfähige Regeln für Plattformen – und die persönliche Bereitschaft, auch die eigenen Mediengewohnheiten kritisch zu betrachten.

Das ist kein Plädoyer für eine Rückkehr in die Vergangenheit. Es ist ein Plädoyer dafür, die Frage ernst zu nehmen – und anzufangen, sie ehrlich zu diskutieren. Eine Gesellschaft, in der Menschen trotz unterschiedlicher Meinungen respektvoll miteinander umgehen, sachlich argumentieren und sich gegenseitig nicht pauschalisieren, ist keine Utopie. Sie ist aber auch kein Selbstläufer.