#Alterskontrollen

2025-12-20

Willkommen zum netzpolitischen Wochenrückblick mit einem Gespräch über das Aufwachsen im Internet, Klassenchats und #Alterskontrollen im Netz, mit einer Analyse, wie die EU-Kommission daran scheitert, zu beweisen, dass freiwillige Massen-Scans der #Chatkontrolle verhältnismäßig sind und warum wir und unsere Chefredaktion als „unverzichtbar“ geehrt wurden netzpolitik.org/2025/kw-51-die

Verfassungklage@troet.cafeVerfassungklage@troet.cafe
2025-12-17

#Aufwachsen im #Internet:

„Die Verantwortung für alles, was auf dem #Kinderhandy passiert, liegt bei den #Eltern

Kinder wachsen in einer digitalen Umgebung auf, die sie oft überfordert und gefährdet, sagt der #Digitaltrainer Julian Bühler. Schärfere Gesetze und Verbote alleine würden das Problem allerdings nicht lösen. Ein Gespräch über #Klassenchats, #Alterskontrollen im #Netz und die Frage, was wirklich helfen kann.

netzpolitik.org/2025/aufwachse

Konstantin Macherpneutig@eupolicy.social
2025-11-26

Das Chaos in der UK hat außerdem zuletzt gezeigt, wie dieser Ansatz von verpflichtenden #Alterskontrollen das Internet kaputt machen würde ohne wirklich zu helfen.

Auch hier hat das Europäische Parlament eine andere Ansicht als die Position, welche der Rat der EU auf den Weg gebracht hat:

Die Abgeordneten wollten generell Vorgaben um den Einsatz von Alterskontrollen zu regeln und diese nur für Pornoseiten verpflichtend machen:
netzpolitik.org/2023/jenseits-

Konstantin Macherpneutig@eupolicy.social
2025-11-26

3. #Alterskontrollen:

Alle Dienste, welche potentielle Risiken bergen (letztlich effektiv alle relevanten Dienste) sollen zu technischen Alterskontrollen verpflichtet werden. Wir warnen schon seit Jahren vor diesem Vorschlag der EU-Kommission. Dieser würde Anonymität und Teilhabe im Internet grundlegend gefährden. Es gibt keine Mechanismen, die effektiv und grundrechtsschonend sind, siehe paper von @edri:
edri.org/our-work/policy-paper

Konstantin Macherpneutig@eupolicy.social
2025-11-26

Damit haben wir in langen, harten Kämpfen erfolgreich verhindert, dass im Rat die ursprünglich geplante Position nach einer verpflichtenden #Chatkontrolle für alle beschlossen wird!

Aber es gibt noch viele Probleme. (mehr dazu im 🧵)

Das Europäische Parlament hat schon vor zwei Jahren eine Position zu dem Gesetzesvorschlag beschlossen. Und die unterscheidet sich an vielen Stellen von der Fassung, welche im der Rat der EU nun eine Mehrheit hat, u.a. bei der #Chatkontrolle und #Alterskontrollen.

2025-11-23
Medienaufsicht: Pornofilter für Betriebssysteme kommt

https://netzpolitik.org/2025/medienaufsicht-pornofilter-fuer-betriebssysteme-kommt/

Mit Brandenburg hat auch das letzte Landesparlament für eine Reform des Jugendmedienschutzes gestimmt. Eltern sollen Geräte künftig mit einem Klick in einen Schutzmodus versetzen können. Außerdem wird es für die Medienaufsicht einfacher, Netzsperren zu verhängen.

#alterskontrollen #betriebssystem #dsa #eu_kommission #gesetzüberdigitaledienste #jugendmedienschutz_staatsvertrag #medienaufsicht #netzsperren #pornhub #pornofilter #pornografie #vpn #xhamster #netzpolitik

Credits: Gemeinfrei-ähnlich freigegeben durch unsplash.com Thomas Park
2025-10-20
Social Media ab 16: EU-Abgeordnete fordern strengere Regeln für Jugendschutz

https://netzpolitik.org/2025/social-media-ab-16-eu-abgeordnete-fordern-strengere-regeln-fuer-jugendschutz/

Der Ausschuss für Verbraucherschutz im EU-Parlament fordert Nachbesserung beim Jugendschutz im Netz. So soll die EU süchtig machende Designs für Minderjährige generell verbieten und soziale Medien erst ab 16 Jahren erlauben. Bei schweren Verstößen sollten zudem Plattform-Manager persönlich haften.

#alterskontrollen #digitalfairnessact #digitalservicesact #jugendmedienschutz #socialmedia #netzpolitik

Credits: Gemeinfrei-ähnlich freigegeben durch unsplash.com Marc Clinton Labiano
Sebastian Meineck - netzpolitikgastautor.in@extradienst.net
2025-10-14

Billig

Erklärung zu Alterskontrollen: 25 EU-Staaten wählen den billigen Weg

Mit der sogenannten Jütland-Erklärung stellt die Mehrheit der EU-Staaten ihre Beratungsresistenz unter Beweis. Gemeinsam fordern Regierungsvertreter*innen vor allem strengere Alterskontrollen zum Schutz von Jugendlichen. Fachleute haben das längst als Scheinlösung entlarvt. Ein Kommentar.

Vertreter*innen von 25 EU-Staaten sowie Norwegen und Island haben eine gemeinsame Erklärung unterzeichnet. Es geht um Maßnahmen zum Schutz von Minderjährigen im Netz. Nur von Estland und Belgien fehlt eine Unterschrift. Angestoßen hat die sogenannte Jütland-Erklärung die dänische Ratspräsidentschaft. Im Mittelpunkt stehen Forderungen nach neuen EU-Regeln. Sie sollen mehr strenge Alterskontrollen und ein Mindestalter für sozialen Medien vorschreiben.

Für die deutsche Regierung haben Digitalminister Karsten Wildberger (CDU) und Familienministerin Karin Prien (CDU) unterschrieben. Das irritiert, schließlich hatte sich das Kabinett im September darauf geeinigt, dass zunächst eine eigens eingesetzte Kommission aus Expert*innen ein Jahr lang Lösungen erarbeiten soll. Die Unterschriften der deutschen Minister*innen nehmen das Ergebnis der Kommission zwar nicht vorweg. Sie werfen aber die Frage auf, wie sehr sich die Regierung für die Arbeit der Kommission interessiert.

Die Illusion wirksamer Alterskontrollen

Die Jütland-Erklärung fügt sich ein in internationale Bestrebungen nach strengeren Alterskontrollen im Netz. Inhaltlich bringt sie die Debatte um Jugendmedienschutz jedoch nicht weiter, im Gegenteil. Der Fokus auf Alterskontrollen senkt das Niveau der Debatte. So heißt es in der Erklärung, aus dem Englischen übersetzt:

Es besteht die Notwendigkeit nach wirksamer und datenschutzfreundlicher Altersverifikation in sozialen Medien und anderen relevanten digitalen Diensten, die ein erhebliches Risiko für Minderjährige darstellen.

Mit diesen Worten beweisen die Unterzeichner*innen, das sie weiterhin einer Illusion erliegen. Es existiert nämlich keine Technologie, die Alterskontrollen wirksam und datenschutzfreundlich möglich macht. Um solche Kontrollen auszutricksen, genügen kostenlose Werkzeuge für digitale Selbstverteidigung, darunter VPN-Dienste, der Tor-Browser oder alternative DNS-Server. Das zeigt etwa der sprunghafte Anstieg der VPN-Nutzung in Großbritannien, wo Alterskontrollen jüngst auf Grundlage des Online Safety Acts verschärft wurden.

Datenschutzfreundliche Alterskontrollen sind zwar technisch denkbar, in der Praxis können sie aber nicht überzeugen. Selbst der als internationales Vorbild entworfene Prototyp der EU-Kommission setzt aktuell noch immer auf pseudonyme statt anonyme Kontrollen, und steht damit nicht im Dienst von Datenschutz und Privatsphäre. Bis Ende des Jahres will die Kommission allerdings nachbessern.

Zudem zeigt der jüngste Hack auf geschätzt 70.000 Ausweisdaten von Discord-Nutzer*innen, wie Alterskontrollen in der Praxis zum Datenschutz-Albtraum werden können. Ein frisches Gutachten aus Australien zeigt: Das ist kein Einzelfall. Wie sollen Nutzer*innen wissen, ob sie es gerade mit einem vertrauenswürdigen Kontrollsystem zu tun haben oder nicht?

Fachleute: Alterskontrollen kein Wundermittel

Hinzu kommt: Derzeit gibt es im EU-Recht kaum Spielraum für pauschale Alterskontrollen, wie sie den EU-Mitgliedstaaten offenbar vorschweben. Stattdessen bieten einschlägige Gesetze wie das Gesetz über digitale Dienste (DSA) und die Richtlinie über audiovisuelle Mediendienste (AVMD-RL) differenzierte Ansätze, je nach Art des Dienstes und des Risikos für Minderjährige.

Die Unterzeichner*innen der Jütland-Erklärung fordern deshalb neue und strengere EU-Gesetze. Konkret heißt es: „Es besteht Notwendigkeit zu prüfen, ob weitere Maßnahmen erforderlich sind, um den DSA zu ergänzen.“

Für das exakte Gegenteil argumentiert eine jüngst veröffentlichte Analyse der gemeinnützigen Denkfabrik Interface. „Denken Sie zweimal darüber nach, bevor Sie Alterskontrollen in verbindliches Recht auf EU-Ebene aufnehmen“, warnt darin Analystin Jessica Galissaire. Ihr Papier stellt die in der Jütland-Erklärung behauptete Notwendigkeit solcher Regeln in Frage.

Ausführlich beschreibt sie, dass selbst sehr große Plattformen wie Instagram, TikTok, Roblox oder YouTube bereits existierende Regeln schleifen lassen. Aufsichtsbehörden fehle es an Mitteln zur Durchsetzung, Zuständigkeiten seien unklar. Plattformen wiederum würden die rechtlichen Unschärfen ausnutzen, um weiter ihr eigenes Süppchen zu kochen. Alterskontrollen, warnt Interface, können und sollten nicht als Wundermittel („silver bullet“) behandelt werden.

Heiße Luft statt Argumente

Tatsächlich sind die Risiken für Kinder und Jugendliche zu vielfältig, um sie mit einer Maßnahme aus dem Weg räumen zu können. Zu nennen sind nicht nur potenziell verstörende Inhalte, sondern auch manipulative und süchtig machende Designs, Kontaktaufnahme durch böswillige Fremde oder Cybermobbing. Für diese und weitere Risiken braucht es spezifische Maßnahmen – und dafür wurden schon Grundlagen geschaffen.

So sieht das relativ junge Gesetz über digitale Dienste (DSA) vor, dass Dienste ihre jeweiligen Risiken einschätzen und eindämmen müssen, sonst drohen Strafen. Wie Maßnahmen aussehen können, hat die EU jüngst in DSA-Leitlinien ausbuchstabiert. Es geht etwa um Einschränkungen von unendlichem Scrollen und von Push-Benachrichtigungen und um sichere Voreinstellungen für Kontaktaufnahmen.

Diese Vielfalt der Risiken versucht die Jütland-Erklärung einzufangen, argumentiert jedoch unschlüssig. So seien „wirksame“ Alterskontrollen (die es wohlgemerkt nicht gibt) ein essentielles Werkzeug, „um die negativen Auswirkungen von illegalen und nicht altersgerechten Inhalten, schädlichen Geschäftspraktiken, süchtig machenden oder manipulativen Designs sowie übermäßiger Datenerhebung – insbesondere bei Minderjährigen – zu verringern.“

Das Zitat erweckt den Anschein einer Argumentation, entpuppt sich bei näherer Betrachtung jedoch als heiße Luft. So schützen Alterskontrollen nicht „insbesondere“ Minderjährige, nein, sie schützen, wenn überhaupt, ausschließlich Minderjährige. Denn wer eine Alterskontrolle überwindet, wird vor den aufgezählten Risiken ganz und gar nicht geschützt.

„Illegale“ Inhalte sind, wie das Wort es schon sagt, bereits illegal. Warum sollten Plattformen, die nicht konsequent gegen illegale Inhalte vorgehen, konsequent gegen Zugriff durch Minderjährige vorgehen? Ebenso sind Risiken wie süchtig machende und manipulative Designs und übermäßige Datenerhebung auf Grundlage anderer EU-Gesetze wie etwa dem DSA oder der DSGVO bereits reguliert.

Forderung ist Zeichen politischer Schwäche

Es scheint, als wollten die Mitgliedstaaten einmal großzügig Alterskontrollen über allerlei Missstände bügeln, gegen die es bereits Regeln gibt. Das ist weder angemessen noch erforderlich – und damit keine seriöse Grundlage für Gesetzgebung. Zugleich ist die Forderung nach Alterskontrollen ein Zeichen politischer Schwäche. Es ist teuer und mühsam, die Einhaltung bereits bestehender Gesetze durchzusetzen. Es ist dagegen bequem und billig, sich neue Gesetze auszudenken.

Behörden müssen oftmals vor Gericht ziehen, weil sich betroffene Unternehmen mit aller Macht gegen gesetzliche Einschränkungen wehren; vor allem, wenn sie deren Einnahmen schmälern könnten. Gerade bei Verbraucher- und Datenschutz müssen Aufsichtsbehörden oftmals für die Grundrechte der EU-Bürger*innen kämpfen.

Von echtem Kampfgeist ist in der Jütland-Erklärung jedoch keine Spur. Eher symbolisch merken die Vertreter*innen an, es sei „notwendig“, dass süchtig machende und manipulativen Designs „adressiert“ werden. Wie und von wem auch immer. Eltern solle man der Erklärung zufolge informieren, aber auch nicht in die Verantwortung nehmen. Dabei hätte niemand mehr Einfluss auf das Wohlbefinden von Kindern als Eltern und Aufsichtspersonen.

Strengere Regeln zu Alterskontrollen sollen es also richten, noch bevor die gerade erst geschaffenen Instrumente des DSA ihre Wirkung entfalten konnten. So sieht das aus, wenn Politiker*innen einen bequemen und billigen Weg einschlagen.

Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Sebastian Meinecksebmeineck
2025-10-14

In der Jütland-Erklärung fordern Vertreter*innen aus 25 EU-Staaten strengere Alterskontrollen zum Schutz von Jugendlichen. Damit stellen sie ihre Beratungsresistenz unter Beweis. Mein Kommentar für @netzpolitik_feed

netzpolitik.org/2025/erklaerun

Lasse Gismo (Friendica Antifa)lassegismo@lassegismo-social.dnsuser.info
2025-10-14

Ticker-News von Interface vom 14. 10. 2025

netzpolitik.org/ticker/ticker-…

In einer Analyse fasst die gemeinnützige Denkfabrik Interface die EU-Gesetze zusammen, die Minderjährige vor nicht altersgerechten Inhalten schützen sollen. Fazit: Statt neuer und strengerer Gesetze zu #Alterskontrollen sollten bestehende Regulierungen besser durchgesetzt werden.
2025-09-19
400 Schulen besucht: Was Kinder im Netz erleben, und was Politik daraus lernen kann

https://netzpolitik.org/2025/400-schulen-besucht-was-kinder-im-netz-erleben-und-was-politik-daraus-lernen-kann/

In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um Jugendmedienschutz auf ein neues Level. Eine netzpolitische Rezension.

#alterskontrollen #danielwolff #digitalservicesact #jugendmedienschutz #netzpolitik

Credits: Alle Rechte vorbehalten IMAGO/Shotshop; Bearbeitung: netzpolitik.org
Sebastian Meineck - netzpolitikgastautor.in@extradienst.net
2025-09-19

Kinder im Netz

400 Schulen besucht: Was Kinder im Netz erleben, und was Politik daraus lernen kann

In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um Jugendmedienschutz auf ein neues Level. Eine netzpolitische Rezension.

Kinder waren wir alle mal, auch wenn nicht alle eine digitale Kindheit hatten. Daran erinnert Autor Daniel Wolff die Leser*innen seines Buchs immer wieder, und er appelliert direkt an ihr Einfühlungsvermögen. „Stellen Sie sich bitte für einen Moment kurz vor, Sie wären heute noch mal jung“, schreibt er. „Würden Sie nicht auch versucht sein, unendlich viel Spaß und Anerkennung auf Social-Media-Plattformen zu suchen (und zu finden), die drei Viertel Ihrer Freunde täglich und nächtlich permanent nutzen?“

Das Zitat ist ein gutes Beispiel für die besondere Perspektive des Buchs. Als Digitaltrainer ist Wolff durch Hunderte Schulen gereist, darunter Grundschulen und weiterführende Schulen. Er hat mit Kindern, Jugendlichen, Eltern und Lehrer*innen gesprochen. Anschaulich gibt er wieder, wie Kinder etwa über Grusel-Videos oder aufdringliche Pädokriminelle erzählen. Über verlockende Smartphone-Spiele, die einem förmlich das Geld aus der Tasche ziehen; und über Tricks, um heimlich mit dem Handy im Bett die Nacht durchzumachen.

Die Wirren der Digitalgesetzgebung kümmern ihn ebenso wenig wie akademische Forschungsdesigns. „Ich bin kein Wissenschaftler, sondern Pragmatiker“, schreibt Wolff, und das merkt man seinem Buch an. Er teilt seine Erfahrungen aus dem direkten Austausch mit vielen Kindern und Eltern, und füllt damit eine wichtige Lücke in der Debatte um Jugendmedienschutz.

Sein Buch zeigt, wie die Mühen von Gesetzgebern und Aufsichtsbehörden oftmals weit entfernt von dem sind, was Kinder und Eltern in ihrem Alltag beschäftigt. Während Politiker*innen weltweit vor allem auf technische Lösungen hoffen, macht Wolff mit Nachdruck klar: Ohne intensive Anstrengungen von Eltern wird das nichts.

Einerseits kommt diese Rezension spät, denn das Buch ist bereits 2024 erschienen. Zugleich könnte sie kaum aktueller sein, denn Anfang September hat das Familienministerium eine neue Expert*innen-Kommission einberufen. Ein Jahr lang soll sie Empfehlungen entwickeln, um Kinder und Jugendliche im Netz besser zu schützen. Dabei sollen Fachleute aus mehreren Disziplinen zusammenkommen.

Auch diese Rezension will Verknüpfungen herstellen. Sie rückt acht im Buch besprochene Probleme in den Mittelpunkt und stellt die Frage: Was lässt sich daraus netzpolitisch lernen?

1. Smartphones fressen Schlafenszeit

🚧 Das Problem: Auf seiner Tour durch deutsche Schulen ist Digitaltrainer Wolff vielen auffällig müden Kindern begegnet. Er beschreibt ihre Augenringe, teils schon in dritten Klassen. Lehrkräfte und Eltern würden von „zunehmend unausgeschlafenen, fahrigen und/oder aggressiven Kindern“ berichten. Der mutmaßliche Grund: Mehr als die Hälfte der deutschen Kinder von 6 bis 13 Jahrenwürden ein Smartphone mit ins Bett nehmen.

„Vielen Eltern scheint nicht einmal im Ansatz klar zu sein, dass Kinder ein Gerät mit einem extrem hohen Aufforderungscharakter wie ein modernes Smartphone, das sich in ihrem Schlafzimmer befindet, tatsächlich nachts auch nutzen!“, schreibt Wolff. Kinder und Jugendlichen ein Smartphone mit ins Bett zu geben sei die mit Abstand „schädlichste Idee“ der Elterngeneration. In fast jeder Grundschule hätten bereits einzelne Kinder die Nacht vor einem neuen Schultag im Internet durchgemacht.

Wolffs Fazit:

Mit einer einzigen konzertierten Maßnahme könnten wir mit einem Schlag in kürzester Zeit den Bildungsstandard und alle schulischen Leistungen in ganz Deutschland positiver beeinflussen als mit allen milliardenschweren Schulreformen zusammen: KEIN SMARTPHONE INS KINDERBETT! Ausgeschlafene Kinder sind fröhlicher, konzentrierter, friedfertiger, freundlicher – und leistungsfähiger!

Damit das funktioniert, empfiehlt der Digitaltrainer, dass die ganze Familie mitmacht. „Keiner in der Familie nutzt abends nach dem Zähneputzen noch digitale Geräte – und morgens vor dem Zähneputzen auch nicht!“ Die Handys könnten in dieser Zeit etwa in ein Familienladegerät kommen, das an einem zentralen Punkt in der Wohnung steht.

🧭​ Die netzpolitische Perspektive: Aktuell kreist die Debatte in Politik und Nachrichtenmedien vor allem um Handys in der Schule und um soziale Medien. Es geht um Gesetze und Kontrollen. Wie eine Familie nachts mit ihren Handys umgeht, hat damit zunächst wenig zu tun. Das Beispiel zeigt aber: Jugendmedienschutz wird mit Gesetzen und Schulverboten allein nicht funktionieren. Man muss alles in den Blick nehmen, was Kinder mit ihren Handys machen. Wenn es um Schlafmangel geht, ist auch die Debatte um einen späteren Schulbeginn relevant, der einem gesunden Schlafrhythmus näher käme.

2. Messenger-Gruppen mit Kindern explodieren

🚧 Das Problem: Schon wenn die Schüler*innen einer Klasse nur miteinander einen Messenger nutzen, ist Jugendmedienschutz gefragt. Wolff berichtet von sprudelnden Nachrichten im Klassenchat, oftmals Sticker und Emojis. Hunderte Nachrichten pro Tag in fünften und sechsten Klassen, Tausende in siebten und achten Klassen, auch in der Nacht. „Selbst wenn wir Erwachsenen eine solche Nachrichtenflut innerhalb weniger Stunden nicht kennen – tut es so gut wie jeder Siebtklässler!“, schreibt Wolff.

Der meistgenutzte Messenger sei WhatsApp. „Ich habe noch keine Schule kennengelernt, bei der die Klassenchats am Ende nicht doch im Wesentlichen über WhatsApp gelaufen sind“, schreibt Wolff. Durch Klassenchats entstehe ein „nie endender 24-Stunden-Schultag“. Ab dem ersten Klassenchat werde WhatsApp „gefühlt sozial so unverzichtbar, dass nahezu alle Kinder unbedingt ein Smartphone haben wollen. Aus ihrer Sicht: müssen.“

Die Beschreibungen des Digitaltrainers zeigen: Klassenchats sind wie ein belebter Schulhof, aber die Große Pause auf diesem virtuellen Hof dauert den ganzen Tag. Und es sind meist keine Erwachsenen in Sicht. „Meiner ganz persönlichen, sehr groben Einschätzung nach findet etwa 70 Prozent des Cybermobbings an deutschen Schulen auf WhatsaApp statt“, warnt Wolff. Die letzten, die davon etwas mitbekämen, seien oft die Eltern.

Er rät deshalb zum engen Kontakt zwischen Eltern und Kindern, und zwar von Anfang an. „Erlauben Sie Ihrem Kind WhatsApp nur, wenn Sie bei Bedarf mitlesen dürfen“, schreibt er. Zum Beispiel könne man sagen:

Ich werde das nicht tun, um dich zu kontrollieren, sondern um dich zu schützen, weil ich als dein Elternteil auch im Internet verantwortlich für dich bin, solange du noch ein Kind bist. Ich werde dir aber immer vorher Bescheid sagen, immer mit dir gemeinsam reinsehen – und niemals alleine.

Das hätte sogar einen Effekt auf den ganzen Klassenchat. „Wenn in einer Klasse bekannt ist, dass es Eltern gibt, die ab und zu mal in den Klassenchat reinsehen, tauchen wundersamerweise von vornherein weder brutale Sachen dort auf – noch gruselige, eklige, nackige oder politisch zweifelhafte!“, schreibt Wolff.

🧭​ Die netzpolitische Perspektive: Die politische und mediale Debatte um Jugendmedienschutz beschreibt oftmals Gefahren von Außen, etwa durch schädliche Inhalte oder Kontaktaufnahme durch Fremde. Die damit verbundene Hoffnung ist, dass sich die meisten Gefahren durch Abschottung der Kinder mit technischen Mitteln abwenden lässt.

Dabei geriet zuletzt in den Hintergrund, was Kinder und Jugendliche erleben, wenn sie schlicht untereinander online kommunizieren. Wie der genutzte Messenger heißt oder welche Altersfreigabe er hat, ist dafür zweitrangig. Für dieses konkrete Szenario sind vor allem Eltern oder Aufsichtspersonen gefragt.

3. Kinder testen mit Gewalt und Horror ihre Grenzen

🚧 Das Problem: Ob aus Neugier oder Gruppendruck, als Mutprobe oder durch den Reiz des Verbotenen – Kinder suchen und finden mit dem Smartphone Inhalte für Erwachsene, etwa Horror und Grusel. „Gewaltdarstellungen sind auf Kinder-Smartphones unvermeidbar“, hält Digitaltrainer Wolff fest. Er schreibt:

In den 3. und 4. Klassen heben bei der Frage: ‚Habt ihr schon einmal etwas so Grausames, Blutiges oder Brutales gesehen, dass ihr nicht mehr schlafen konntet?‘, fast immer alle Kinder, die bereits ein eigenes Smartphone besitzen, die Hand.

Wer danach sucht, finde solche Videos auch auf YouTube und TikTok. Hinzu kommen Websites mit Sitz im Ausland, die gezielt verstörende Inhalte verbreiten. „Kinder, die WhatsApp auch in größeren Gruppen wie Klassenchats nutzen, können jederzeit Links für extrem brutale, grausame oder gruselige Videos geschickt bekommen“, warnt Wolff.

Der Digitaltrainer empfiehlt etwa YouTube nur in Hörweite der Eltern zu schauen. Allerdings rät Wolff auch: „Bereiten Sie Ihr Kind auf das Unvermeidliche vor“. Eltern sollten vorher über die vielen „schlimmen“ Sachen sprechen, die es gebe. „Dann ist Ihr Kind vorbereitet und weiß, dass Sie im Falle eines Falles ein kompetenter Ansprechpartner sind!“

🧭​ Die netzpolitische Perspektive: In Politik und Nachrichtenmedien werden vor allem Maßnahmen wie Filter und Alterskontrollen diskutiert. Sie sollen es Kindern schwerer machen, potenziell schädliche Inhalte zu finden. Dabei wird unterschätzt, wie gezielt Kinder solche Inhalte suchen, weil die Anreize dafür so stark sind, etwa Neugier und Gruppendruck. Deshalb muss Teil der Lösung sein, möglichst viele Kinder für das – wie Wolff es nennt – „Unvermeidbare“ zu rüsten.

4. Wo „für Kinder“ draufsteht, ist nicht „für Kinder“ drin

🚧 Das Problem: Online-Angebote mit Labels wie „ab 0 Jahren“ oder „ab 6 Jahren“ sind trügerisch. So würden zunächst kinderfreundliche Spielen oftmals nicht kinderfreundliche Werbeclips anzeigen, schreibt Wolff, darunter rassistische Werbung. „Hunderttausende Spiele-Apps spülen täglich millionenfach minderwertigen Mist auf die Bildschirme unserer Kinder“, kritisiert er.

Ein Knackpunkt ist die schiere Masse an Inhalten, wie aus dem Buch hervorgeht – und der mangelnde Wille, das angemessen zu prüfen. Zum Beispiel würden sogar auf einer dezidiert für Kinder vermarkteten Plattform wie YouTube Kids Inhalte landen, die nicht für Kinder geeignet sind. Das konnte netzpolitik.org mühelos bestätigen: Das oben abgebildete Zombie-Grusel-Video erschien über Empfehlungen auf YouTube Kids, selbst bei der niedrigsten Altersstufe bis 4 Jahre.

Möglich ist so etwas, weil große Plattformen die Massen an neuen Inhalten oftmals nur flüchtig prüfen, etwa anhand von Stichworten, auch wenn Uploads als kindgerecht gekennzeichnet wurden. Das ist kein Vergleich zur sorgfältigen, händischen Kuratierung von Sendungen, die etwa im klassischen Kinderfernsehen zu sehen sind.

🧭​ Die netzpolitische Perspektive: Schon jetzt gibt es Rechtsgrundlagen, die Plattformen zur Risikominderung für Minderjährige verpflichten, etwa das Gesetz über digitale Dienste (DSA). Das könnte etwa über Empfehlungssysteme oder Inhaltsmoderation passieren. Das Gesetz ist allerdings recht neu; die dazu gehörigen Aufsichtsbehörden nehmen erst langsam ihre Arbeit auf. Weil sorgfältiger Umgang mit hochgeladenen Inhalten teuer ist, dürften sich Online-Konzerne gegen alles wehren, das Geld kostet.

5. Die Sogwirkung optimierter Feeds ist unwiderstehlich

🚧 Das Problem: Werbefinanzierte Plattformen wie TikTok, Instagram oder YouTube haben ein Interesse daran, die Aufmerksamkeit ihrer Nutzer*innen zu binden. Mehr Nutzungszeit bedeutet mehr Werbung und mehr Geld. Inhalte, Features, Oberflächen und Algorithmen werden dahingehend optimiert. Digitaltrainer Wolff vergleicht etwa TikTok mit einem „Trommelfeuer der Sensationen“.

Mit Blick auf YouTube schreibt der Autor:

Stellen Sie sich aus Kindersicht einen Bildschirm mit einer Million Programmen vor, auf dem ganz einfach immer was Spannendes und Lustiges läuft! Und das Beste: Man kann diesen Bildschirm auch noch in die Hose stecken und dann heimlich auf dem Klo oder im Bett weitergucken!

Umso stärker sind die Anreize für Kinder und Jugendliche, das Gerät möglichst intensiv zu nutzen. Eltern rät Wolff: „Schaffen Sie Alternativen für Ihr Kind!“, also Aktivitäten, bei denen digitale Geräte stören.

🧭​ Die netzpolitische Perspektive: Die enorme Sogwirkung algorithmisch sortierter Feeds hat die EU-Kommission bereits auf dem Schirm, etwa in den Leitlinien zum Schutz von Minderjährigen auf Basis des Gesetzes über digitale Dienste (DSA). Demnach müssen Dienste Maßnahmen ergreifen, um Risiken zu mindern, zum Beispiel: kein unendliches Scrollen in einem Feed; keine Push-Benachrichtigungen, entschärfte Empfehlungssysteme. Auch in diesem Fall sind also Werkzeuge für Aufsichtsbehörden vorhanden, aber die Durchsetzung rollt erst an. Tech-Konzerne werden ihre finanziellen Interessen schützen wollen und sich dagegen wehren.

Die EU-Kommission sieht den Widerstand kommen. „Wenn es um die Sicherheit unserer Kinder im Internet geht, glaubt Europa an Eltern, nicht an Gewinne“, behauptete jüngst Kommissionspräsidentin Ursula von der Leyen (CDU) in ihrer Rede zur Lage der Union, in der sie vor allem Alterskontrollen befürwortete. In anderen Bereichen wie Datenschutz oder KI-Regulierung gibt es immer wieder Beispiele dafür, dass sich Lobby-Interessen am Ende doch durchsetzen.

6. Handy-Spiele nutzen alle Tricks, um an Taschengeld zu kommen

🚧 Das Problem: Begeisterte Kinder und Jugendliche lassen bei Anbietern von Smartphone-Spielen die Kassen klingeln. Per In-App-Kauf können Nutzer*innen zum Beispiel häufiger gewinnen oder seltene, virtuelle Gegenstände erwerben. Das ist für Kinder und Jugendliche nicht nur verlockend, weil es Spaß macht, sondern auch, weil es soziale Anerkennung bringt. „Vor allem für die Jungs wird es sehr schnell sehr kompetitiv, weil alle anderen immer sehen können, wie viel und wie gut man in letzter Zeit so gespielt hat“, schreibt Digitaltrainer Wolff.

Wenn sie dürfen oder können, machen manche Kinder ihr Lieblingsspiel „zum absoluten Lebensmittelpunkt“, schreibt Wolff. „Es gibt dann nichts anderes mehr auf der Welt als Brawl Stars (sehr beliebt in den Klassen 3 bis 7) oder Fortnite (meist ab den 5. Klassen aufwärts).“ Bereits Grundschulkinder würden Hunderte Euro für Smartphone-Games ausgeben.

Dabei würden Anbieter an allerlei Tricks nutzen, damit Kinder das Handy nicht mehr weglegen wollen und möglichst viel Geld ausgeben. Zum Beispiel Glücksspiel-ähnliche Lootboxen, also virtuelle Geschenkkartons, die man für echtes Geld kaufen muss. Meist ist nichts Interessantes drin, selten aber schon. Hinzu kommen manipulative Aufforderungen wie „Schnell dieses Special-Angebot kaufen: NUR HEUTE gibt es noch 45 Extra-Diamanten zum Preis von 10“, schreibt Wolff.

Die Gaming-Branche ist inzwischen das größte Segment der Unterhaltungsindustrie, noch vor Musik oder Filmen. Ein Teil der Einnahmen dürfte von Eltern kommen, die damit ihre Kinder glücklich machen wollen – oder einfach nur ruhigstellen. Wolff schlussfolgert:

Wir haben zugelassen, dass eine völlig unregulierte milliardenschwere Industrie mit allen Psycho-Tricks der Welt den Wunsch unserer Kinder nach Anerkennung industriell monetarisiert und täglich millionenfach aberntet – und haben noch nicht einmal begriffen, dass und wie das passiert.

🧭​ Die netzpolitische Perspektive: Abzocke und Manipulation durch Handy-Spiele ist in der öffentlichen Debatte um Jugendmedienschutz selten Thema. Dabei schadet das auch erwachsenen Gamer*innen. Mühen beispielsweise zur Regulierung von Lootboxen gibt es seit Jahren, allerdings mit wenig Erfolg. Zumindest im Gesetz über digitale Dienste (DSA) gibt es Ansätze, manipulative Designs bei Diensten einzudämmen.

Wie groß ist wohl der politische Wille, am Finanzierungsmodell einer Milliardenindustrie wie der Gaming-Branche zu rütteln? Eine Gelegenheit hätte die EU-Kommission: Mit dem geplanten Digital Fairness Act will sie Lücken im Online-Verbraucherschutz schließen.

7. Kinder haben Angst vor der Reaktion ihrer Eltern

🚧 Das Problem: „Millionen Kinder der Welt verschweigen eisern, was ihnen online tags und nachts so begegnet“, schreibt Digitaltrainer Wolff. „Die Eltern wiederum leben fröhlich vor sich hin und glauben, dass es bei der Internetnutzung ihrer Kinder keine wesentlichen Probleme gäbe“.

Der Grund für das Schweigen ist Wolff zufolge simpel: Kinder wollen ihr Smartphone behalten. Sie befürchten, dass Eltern ihnen das Gerät wegnehmen, wenn sie erfahren, welche schlimmen Dinge damit passiert sind. Wegnehmen aber ist aus Sicht der Kinder und Jugendlichen „die gefühlt härteste Strafe im digitalen Zeitalter“.

Wolff rückt hier etwas in den Mittelpunkt, das in Debatte um Jugendmedienschutz selten zur Sprache kommt: Vertrauen. „Denn nur wenn Ihr Kind Ihnen vertrauen kann, wird es sich eines Tages an Sie wenden – wenn es dagegen Angst vor Strafen oder Handy-Verbot hat, so gut wie nie“, schreibt Wolff. Deshalb appelliert er eindringlich an Eltern: „Teilen Sie Ihrem Kind möglichst frühzeitig (am besten schon bei der Handy-Übergabe) mit, dass Sie ihm das Smartphone wegen Inhalten aus dem Internet nicht wegnehmen werden.“

🧭​ Die netzpolitische Perspektive: Maßnahmen zum Jugendmedienschutz werden oftmals mit Blick auf die verschiedenen Grundrechte von Kindern und Jugendlichen diskutiert, etwa den Schutz vor entwicklungsbeeinträchtigenden Inhalten, Teilhabe, Privatsphäre und Datenschutz. Kaum diskutiert wird aber, wie sich das Vertrauensverhältnis zwischen Kindern und ihren Aufsichtspersonen bewahren und stärken lässt.

Relevant ist das gerade mit Blick auf das derzeit vieldiskutierte Social-Media-Verbot für Minderjährige. Ein solches Verbot könnte bewirken, dass Kinder die verbotenen Dienste heimlich weiternutzen – und entsprechend noch höhere Hürden sehen, sich bei Problemen vertrauensvoll an Erwachsene zu wenden. Immerhin müssten sie dann zugeben, dass sie etwas Verbotenes gemacht haben. Maßnahmen zum Jugendmedienschutz müssten sich daran messen lassen, was sie für das Vertrauen zwischen Kindern und Eltern bedeuten.

8. Digitale Medienerziehung ist harte Arbeit

🚧 Das Problem: Es gibt keine einfache technische Lösung für Jugendmedienschutz. „Stellen Sie sich darauf ein, dass die Einhaltung von Medienzeiten eine Ihrer zentralen Erziehungsaufgaben in den nächsten Jahren sein wird“, schreibt Digitaltrainer Wolff. „Es wird anstrengend, nervig und jeden Tag erneut ermüdend sein. Sie werden schreien, Ihr Kind wird weinen und/oder Sie hassen. Und es wird sich lohnen – alleine schon, weil es keine Alternative gibt!“

Zum Beispiel sollten sich Eltern ausführlich die Zeit für einen Mediennutzungsvertrag nehmen, bevor sie ihrem Kind ein Handy geben, rät Wolff. Vorlagen für dieses oftmals mehrseitige Dokument gibt es online. „Ja, einen Mediennutzungsvertrag auszuarbeiten ist aufwendig, mühsam und anstrengend“, schreibt er. „Aber: Wenn Sie keine klaren Regeln haben, wird es in den nächsten Jahren garantiert noch aufwendiger, mühsamer und anstrengender!“

🧭​ Die netzpolitische Perspektive: Weinende Kinder, die ihre schreienden Eltern hassen – solche Bilder zeichnen Politiker*innen nicht, wenn sie etwa Alterskontrollen fordern. Wer will sich schon gern sagen lassen, dass etwas „aufwendig, mühsam und anstrengend“ wird? Stattdessen stehen technische Maßnahmen im netzpolitischen Fokus, und zwar solche, die Sorgenfreiheit versprechen. Gegen sexualisierte Gewalt soll die Chatkontrolle helfen, also die Massenüberwachung vertraulicher Kommunikation. Gegen schädliche Inhalte sollen Alterskontrollen helfen, also das massenhafte Abfragen von Ausweisdaten und biometrischen Daten.

Aus dem Blick gerät dabei die zentrale Rolle von Eltern und Aufsichtspersonen. Hier fällt häufig das Argument, man könne den ohnehin überlasteten Eltern nicht noch mehr zumuten. Doch auch hier gibt es politische Ansätze. Wie viel möchte der Staat tun, um Eltern mehr Zeit und Energie für ihre Kinder zu gewähren – etwa durch mehr Kindergeld oder Regelungen für flexiblere Arbeitszeiten? Im Vergleich dazu sind Gesetze für mehr Überwachung und Kontrolle im Netz billig zu haben – und leider oft wertlos.

Und jetzt? Ein Ausblick

Auch Digitaltrainer Wolff nennt in seinem Buch konkrete, politische Ideen. „Was aus meiner Sicht alle Schulen baldmöglichst einführen sollten, ist ein ‚echtes‘ Smartphone-Verbot“, schreibt er. Genau das wird gerade kontrovers diskutiert – unter anderem das Kinderhilfswerk und der Bundeselternrat sind gegen pauschale Verbote. Stattdessen sollten Schüler*innen, Lehrer*innen und Eltern gemeinsame Regeln entwickeln.

Weiter plädiert Wolff in seinem Buch für eine verpflichtende Altersverifikation bei Social-Media-Plattformen. Fachleute aus den Bereichen Kinderschutz und digitale Grundrechte sehen das allerdings kritisch. Die Kritik reicht von der Warnung, dass Alterskontrollen allenfalls ein Baustein sein können bis hin zur generellen Ablehnung. Ein Problem: Solche Kontrollsysteme stellen nur eine trügerische Sicherheit her; zugleich schaffen sie neue Gefahren für Minderjährige und für Erwachsene, die sich massenhaft online verifizieren müssten.

Schließlich spricht sich Wolff für ein Schulfach „Digitalität“ aus. Zu viele Eltern würden sich dem Thema Medienkompetenz verweigern; die Erziehungsaufgabe bliebe an den Schulen hängen. Einen Blick auf Schulen hat auch die Wissenschaftsakademie Leopoldina in einem aktuellen Diskussionspapier geworfen. Demnach fehle es nicht an Materialien, sondern an Fachpersonal, Zeit und Fortbildungsmöglichkeiten.

Die Suche nach netzpolitischen Lösungen ist ein Thema für sich. „Allein mit dem Handy“ geht hier nicht in die Tiefe. Stattdessen überzeugt das Buch durch eine umfassende Problembeschreibung. Das gelingt, weil der Autor immer wieder die Perspektive einbringt, die er von den Kindern und Jugendlichen gelernt hat. Zum Beispiel, dass man auf das Thema Spaß nie verzichten sollte:

Wenn Sie mit Kindern und/ oder Jugendlichen über Smartphones und das Internet sprechen und dabei nicht auch über Spaß reden, hören sie Ihnen schon nach kürzester Zeit überhaupt nicht mehr zu!

Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Sebastian Meinecksebmeineck
2025-09-18

In seinem Buch „Allein mit dem Handy“ beschreibt Digitaltrainer Daniel Wolff lebhaft, was Kinder ihm beigebracht haben – über ihre Erlebnisse im Netz und ihre Angst vor den Eltern. Das Buch hebt die Debatte um auf ein neues Level.

Hier meine mit besonderem Blick darauf, was das netzpolitisch bedeutet. Debatte versachlichen, let's gooo 🚗 💨

netzpolitik.org/2025/400-schul

2025-09-11
Offener Brief: Hunderte Wissenschaftler:innen stellen sich gegen Chatkontrolle

https://netzpolitik.org/2025/offener-brief-hunderte-wissenschaftlerinnen-stellen-sich-gegen-chatkontrolle/

Renommierte Forscher:innen erinnern die Mitglieder des EU-Parlaments und des EU-Rates daran, dass die Chatkontrolle „beispiellose Möglichkeiten für Überwachung, Kontrolle und Zensur“ bieten würde. Sie fordern, die Ursachen von sexualisierter Gewalt an Kindern zu bekämpfen statt Hunderte Millionen Menschen zu überwachen.

#alterskontrollen #anlasslosemassenüberwachung #bildbasiertesexualisiertegewalt #chatkontrolle #cryptowars #csam #ende_zu_ende_verschlüsselung #eu #europäischeunion #messenger #offenerbrief #netzpolitik

Credits: Public Domain generiert mit Midjourney
Sebastian Meineck - netzpolitikgastautor.in@extradienst.net
2025-09-09

Gegen Chatkontrolle

Offener Brief: Hunderte Wissenschaftler:innen stellen sich gegen Chatkontrolle

Renommierte Forscher:innen erinnern die Mitglieder des EU-Parlaments und des EU-Rates daran, dass die Chatkontrolle „beispiellose Möglichkeiten für Überwachung, Kontrolle und Zensur“ bieten würde. Sie fordern, die Ursachen von sexualisierter Gewalt an Kindern zu bekämpfen statt Hunderte Millionen Menschen zu überwachen.

Mehr als 470 Wissenschaftler:innen aus 34 Ländern stellen sich gegen den aktuellen Vorschlag zur Chatkontrolle, den die dänische Ratspräsidentschaft am 24. Juli im EU-Rat eingebracht hat.

Die EU-Kommission versucht seit mehreren Jahren ein Vorhaben umzusetzen, das verschlüsselte Kommunikation in der EU durchleuchten würde, etwa auf Messengern wie Signal. Auf diesem Weg will sie nach Darstellungen von sexualisierter Gewalt an Kindern (CSAM) suchen.

Die EU-Staaten können sich bisher nicht auf eine gemeinsame Position zu dem umstrittenen Vorhaben einigen. Eine Mehrheit unterstützt die Pläne der EU-Kommission, eine Sperrminorität von Staaten blockiert jedoch und setzt sich für die überwachungskritische Position des Parlaments ein. Mehrere Präsidentschaften sind bislang daran gescheitert, eine Einigung im Rat zu organisieren– zuletzt Polen. Die Position Deutschlands könnte entscheidend sein für den Fortgang der Verhandlungen, weil Deutschland als bevölkerungsreiches Land die bislang vorhandene Sperrminorität alleine kippen kann.

In ihrem Brief begrüßen die Unterzeichnenden zwar die Aufnahme von Bestimmungen, die eine freiwillige Meldung illegaler Aktivitäten erleichtern, sowie die Forderung, die Bearbeitung dieser Meldungen zu beschleunigen. Sie richten sich aber entschieden gegen das Durchsuchen der Endgeräte sowie gegen Alterskontrollen im Netz.

„Beispiellose Möglichkeiten für Überwachung, Kontrolle und Zensur“

Es sei einfach nicht möglich, bekanntes und neues Bildmaterial von sexualisierter Gewalt (CSAM) für Hunderte Millionen Nutzer:innen mit einer akzeptablen Genauigkeit zu erkennen, unabhängig vom spezifischen Filter. Darüber hinaus untergrabe die Erkennung auf dem Gerät, unabhängig von ihrer technischen Umsetzung, den Schutz, den eine Ende-zu-Ende-Verschlüsselung gewährleisten soll. Die Änderungen im Vorschlag würden zudem die Abhängigkeit von technischen Mitteln erhöhen und so die Sicherheits- und Datenschutzrisiken für die Bürger:innen verschärfen, ohne dass eine Verbesserung des Schutzes für Kinder garantiert sei.

Im offenen Brief, der auf deutsch und englisch vorliegt, heißt es:

Der neue Vorschlag würde – ähnlich wie seine Vorgänger – beispiellose Möglichkeiten für Überwachung, Kontrolle und Zensur schaffen und birgt ein inhärentes Risiko für den Missbrauch durch weniger demokratische Regime. Das heute erreichte Sicherheits- und Datenschutzniveau in der digitalen Kommunikation und in IT-Systemen ist das Ergebnis jahrzehntelanger gemeinsamer Anstrengungen von Forschung, Industrie und Politik. Es besteht kein Zweifel, dass dieser Vorschlag diese Sicherheits- und Datenschutzmaßnahmen, die für den Schutz der digitalen Gesellschaft unerlässlich sind, vollständig untergräbt.

Weiterhin weist der Brief auf Widersprüche im neuen Vorschlag hin: Dort heißt es, dass die CSAM-Detektionstechnologie nicht zu einer „Schwächung des durch Verschlüsselung gebotenen Schutzes” führen dürfe.

Es sei jedoch unmöglich, Material zu erkennen und entsprechende Berichte zu übermitteln, ohne die Verschlüsselung zu unterminieren. Zu den zentralen Gestaltungsprinzipien eines sicheren Ende-zu-Ende-Verschlüsselungsschutzes (E2EE) gehöre nämlich die Gewährleistung, dass einerseits nur die beiden vorgesehenen Endpunkte auf die Daten zugreifen können, und zweitens die Vermeidung eines Single Point of Failure.

Zwangs-Detektion und Verschlüsselung schließen sich aus

Wenn aber ein Detektionsmechanismus die Daten vor ihrer Verschlüsselung scanne, wie der aktuelle Vorschlag der Dänen es vorsieht, mit der Möglichkeit, sie nach der Überprüfung an die Strafverfolgungsbehörden zu übermitteln – verstoße das gegen beide Grundsätze: Sie untergrabe die zentrale Kerneigenschaft von E2EE, indem sie über den Detektionsmechanismus auf die privaten Daten zugreife, und schaffe zugleich durch die erzwungene Detektion einen einzelnen Fehlerpunkt für alle sicheren E2EE-Systeme.

Ende-zu-Ende-Verschlüsselung sei aber unerlässlich, damit EU-Bürger:innen sicher und privat online kommunizieren können, insbesondere wenn man bedenke, dass Kernteile unserer Kommunikationsinfrastruktur von US-amerikanischen Big-Tech-Unternehmen kontrolliert würden. Verschlüsselung schütze nicht nur die Zivilgesellschaft, sondern auch EU-Politiker:innen, Entscheidungsträger, Strafverfolgungsbehörden und Verteidigungskräfte. Sie seien in hohem Maße auf Verschlüsselung angewiesen, um eine sichere Kommunikation gegen interne und externe Bedrohungen zu gewährleisten.

Mehr Aufklärung gegen Missbrauch gefordert

Weiterhin wenden sich die Forscher:innen auch gegen die Erzählung, dass CSAM-Darstellungen nur mit technischen Mitteln zu begegnen sei:

Wir erinnern daran, dass CSAM-Inhalte stets das Ergebnis von sexuellem Kindesmissbrauch sind. Ihre Beseitigung setzt daher die Bekämpfung des Missbrauchs selbst voraus, nicht alleine die Verhinderung der digitalen Verbreitung von Missbrauchsmaterial.

Deshalb solle die Politik nicht weiterhin auf Technologien mit zweifelhafter Wirksamkeit wie CSAM-Erkennungsalgorithmen und Altersüberprüfungen setzen, welche die Sicherheit und Privatsphäre erheblich schwächen. Stattdessen sollte sie den von den Vereinten Nationen empfohlenen Maßnahmen folgen. Zu diesen gehörten unter anderem Aufklärung über Einwilligung, Normen und Werte, digitale Kompetenz und Online-Sicherheit und umfassende Sexualaufklärung sowie Hotlines für Meldungen.

Markus Reuter recherchiert und schreibt zu Digitalpolitik, Desinformation, Zensur und Moderation sowie Überwachungstechnologien. Darüber hinaus beschäftigt er sich mit der Polizei, Grund- und Bürgerrechten sowie Protesten und sozialen Bewegungen. Für eine Recherchereihe zur Polizei auf Twitter erhielt er 2018 den Preis des Bayerischen Journalistenverbandes, für eine TikTok-Recherche 2020 den Journalismuspreis Informatik. Bei netzpolitik.org seit März 2016 als Redakteur dabei. Er ist erreichbar unter markus.reuter | ett | netzpolitik.org, sowie auf Mastodon und Bluesky. Kontakt: E-Mail (OpenPGP). Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Sebastian Meineck - netzpolitikgastautor.in@extradienst.net
2025-09-03

Biometrischer Datenschatz

Australisches Gutachten: Anbieter von Alterskontrollen horten biometrische Daten

Ein Gutachten im Auftrag der australischen Regierung hat Systeme für Alterskontrollen untersucht. Die zuständige Ministerin sieht sich in ihren Plänen bestätigt. Doch abseits einiger rosiger Formulierungen übt das Gutachten alarmierende Kritik. Ein Kommentar.

In der aktuell laufenden Debatte um Alterskontrollen im Netz lohnt sich der Blick nach Australien. Ab Dezember sollen dort Kontrollen gelten, wie sie derzeit verschiedene Politiker*innen auch in Deutschland fordern. Besucher*innen von Social-Media-Seiten sollen demnach ihren Ausweis vorlegen oder ihr Gesicht biometrisch scannen lassen.

Das bedeutet einen tiefen Eingriff in Grundrechte wie Datenschutz, Privatsphäre, Teilhabe und Informationsfreiheit. Was für eine Technologie will der australische Staat Millionen Nutzer*innen aufbrummen? Genau das sollte ein von der australischen Regierung in Auftrag gegebenes Gutachtenklären. Erstellt wurde es von einer Prüfstelle für Alterskontroll-Software, der Age Check Certification Scheme (ACCS).

Die australische Kommunikationsministerin sieht in dem Gutachten eine Bestätigung ihrer Regierungspläne: „Auch wenn es keine Patentlösung für Altersverifikation gibt, zeigt dieses Gutachten, dass es viele wirksame Möglichkeiten gibt – und vor allem, dass der Schutz der Privatsphäre der Nutzer gewährleistet werden kann“, zitiert sie die Nachrichtenagentur Reuters.

Gutachten umschifft kritische Aspekte gezielt

Zu dieser voreiligen Einschätzung kann man kommen, wenn man sich nur die farbenfroh gestalteten Zusammenfassungen des Gutachtens anschaut. Dort steht etwa: „Altersverifikation kann in Australien privat, effizient und effektiv durchgeführt werden“, und: „Die Branche für Altersverifikation in Australien ist dynamisch und innovativ“. Na, dann!

Erst bei näherer Betrachtung zeigt sich, wie das Gutachten kritische Aspekte von Alterskontrollen durch gezielte Priorisierung und Rahmensetzung umschifft. Auf diese Weise wird das Papier zur fadenscheinigen Argumentationshilfe für eine vor allem politisch gewollte Maßnahme.

  • Schon zu Beginn machen die Gutachter*innen klar, dass sie einen engen Rahmen setzen und kritische Aspekte ausblenden. Allerdings ist das äußerst sperrig formuliert – möglicherweise, damit es weniger auffällt: „Auch wenn der Bericht in politischen Fragen neutral ist und sich nicht auf ein spezifisches Regulierungssystem bezieht, bedeutet dies nicht, dass es in bestimmten politischen oder regulatorischen Kontexten nicht zusätzliche Komplexitäten, operative Herausforderungen oder Anforderungen geben wird.“
  • Eine zentrale Kritik am Einsatz strenger Alterskontrollen ist, dass sie das grundlegend falsche Mittel sind, um Jugendliche im Netz zu schützen. Das „Ob“ wird im Gutachten allerdings nicht thematisiert. „Der Bericht stellt weder eine Reihe von Handlungsempfehlungen noch eine Befürwortung bestimmter Technologien zur Alterskontrolle dar“, heißt es.
  • Eine weitere zentrale Kritik an Alterskontrollen ist, dass sich Nutzer*innen nicht auf die Datenschutz-Versprechen von Anbietern verlassen können. Woher soll man wissen, dass erfasste Ausweisdaten nicht missbraucht werden? Auch hierfür sieht sich das Gutachten nicht zuständig. „Im Gutachten geht es auch nicht darum, zu überprüfen, ob jedes einzelne Produkt wie behauptet funktioniert.“

Das wirft die Frage auf, was die Gutachter*innen eigentlich begutachtet haben. Hierzu heißt es: Sie haben „festgestellt, ob Technologien zur Alterskontrollen technisch machbar und operativ einsetzbar sind“. Außerdem haben sie geprüft, ob sich Anbieter dabei an Standards und Zertifizierungen halten.

Gutachten: Manche Anbieter horten biometrische Daten

Trotz ihres schmalspurigen Vorgehens haben die australischen Gutachter*innen alarmierende Funde gemacht. So berichten sie von „besorgniserregenden Hinweisen“, dass zumindest manche Anbieter in übermäßigem Eifer bereits Werkzeuge entwickeln, damit Aufsichtsbehörden und Polizei auf erhobene Daten zugreifen können. „Dies könnte zu einem erhöhten Risiko von Datenschutzverletzungen führen, da Daten unnötig und unverhältnismäßig gesammelt und gespeichert werden.“ Es mangele an Richtlinien.

Das Gutachten bestätigt damit eines der größten Bedenken der Kritiker*innen: Dass Alterskontrollen zum Datenschutz-Alptraum werden, weil Anbieter die erhobenen Daten horten und an Behörden weitergeben. Die Gutachter*innen schreiben: „Das beinhaltete die Speicherung vollständiger biometrischer Daten oder Dokumentendaten aller Nutzer*innen, selbst wenn eine solche Speicherung nicht erforderlich oder angefragt war.“

Der Vollständigkeit halber muss erwähnt werden: Datensparsame Alterskontrollen sind wohl technisch möglich, auch anonyme. Einen Praxistest in der Fläche haben solche Ansätze aber bislang nicht bestanden. Nutzer*innen bringt es nichts, wenn sie bei ihrer alltäglichen Nutzung dann doch Datenschluckern zum Opfer fallen. Die EU-Kommission arbeitet gerade selbst an einer datenschutzfreundlichen Lösung, hat es aber noch nicht über das unzureichende Niveau pseudonymer Verifikation hinaus geschafft.

Auffällig industriefreundliche Formulierungen

Wer einem Kontrollsystem keine Dokumente anvertrauen will, kann es auch mit biometrischen Daten versuchen. Dann soll eine Software anhand individueller Merkmale im Gesicht das Alter abschätzen, oftmals werden solche Systeme als KI bezeichnet. Dabei passieren Fehler, und diese Fehler treffen nicht alle Gesellschaftsgruppen gleich, wie auch das Gutachten feststellt. Falsche Ergebnisse gibt es etwa seltener bei weißen Männern, häufiger bei weiblich gelesenen Personen und People of Color.

Die Formulierungen im Gutachten sind an dieser Stelle auffällig industriefreundlich. So heißt es etwa: „Die Unterrepräsentation indigener Bevölkerungsgruppen in Trainingsdaten bleibt eine Herausforderung, insbesondere für die First Nations, wobei Anbieter diese Lücken anerkannten und sich zur Behebung durch Fairness-Audits und Diversifizierung der Datensätze verpflichteten.“

Es gehört zum Vokabular der Öffentlichkeitsarbeit, Mängel als „Herausforderung“ herunterzuspielen. Die angesprochene „Verpflichtung“ ist wohl eher freiwillig, und deshalb gar keine „Verpflichtung“. Bis wann genau die gelobten Besserungen in die Tat umgesetzt werden sollen, steht nicht im Gutachten – dabei sollen die Alterskontrollen schon ab Dezember gelten.

Weitere Probleme hat biometrische Alterserkennung ausgerechnet bei der Gesellschaftsgruppe, die das Ziel aller Maßnahmen sein soll: junge Menschen. Hierzu schreiben die Gutachter*innen: Es sei ein „fundamentales Missverständnis“, zu glauben, die Technologie könne das genaue Alter einer Person einschätzen. Fehleinschätzungen seien „unvermeidlich“; vielmehr brauche es Pufferzonen. Dabei ist das exakte Alter gerade der Knackpunkt, wenn Angebote etwa ab 13, ab 16 oder ab 18 Jahren sein sollen. Es gibt keinen Spielraum für Puffer.

Nachrichtenmedien sind auf Framing nicht hereingefallen

Dem Gutachten zufolge würden die „meisten“ Systeme mindestens 92 Prozent der Proband*innen über 19 Jahren korrekt als volljährig einschätzen. Aber schon Fehlerraten im einstelligen Prozentbereich betreffen bei 1 Million Nutzer*innen Zehntausende Menschen. In Australien leben rund 27 Millionen Menschen.

Der Einsatz biometrischer Alterskontrollen ergibt am ehesten für Erwachsene Sinn, die deutlich über 18 Jahre alt sind. In diesem Fall ist das exakte Alter zweitrangig; es genügt der Befund, dass eine Person nicht mehr minderjährig ist. Für Jugendliche dagegen ist die Technologie praktisch nutzlos. Ganz so deutlich formulieren das die Gutachter*innen allerdings nicht. Sie schreiben mit Blick auf junge Nutzer*innen, dass „alternative Methoden“ erforderlich sind.

Weiter schreiben sie, wenn die Technologie „verantwortungsvoll konfiguriert und in verhältnismäßigen, risikobasierten Szenarien eingesetzt wird, unterstützt sie Inklusion, verringert die Abhängigkeit von Ausweisdokumenten und erhöht die Privatsphäre der Nutzer*innen“. Die Betonung sollte hier auf dem Wörtchen „wenn“ liegen. Denn wenn all diese Bedingungen nicht zutreffen, richtet die Technologie breiten Schaden an.

Blumig verfasste Passagen wie diese legen den Verdacht nahe: Die nach eigenen Angaben „unabhängige“ australische Prüfstelle liefert mit ihren Formulierungen gezielt das, was der politisch motivierte Auftraggeber gern hören möchte. Die Kosten für das Gutachten betrugen laut Guardianumgerechnet rund 3,6 Millionen Euro.

Wir erinnern uns, Australiens Kommunikationsministerin äußerte sich zu dem Gutachten optimistisch. Nachrichtenmedien sind auf dieses Framing allerdings nicht hereingefallen. So haben etwa auch die Agentur Reuters und das deutsche Medium heise online in den Mittelpunkt gerückt, welche Bedenken das Gutachten untermauert.

Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Sebastian Meinecksebmeineck
2025-09-03

Noch ein Kommentar zu ?! Ja. Es passiert einfach zu viel Unfug.

Ein Gutachten im Auftrag der australischen Regierung hat Systeme für Alterskontrollen untersucht. Die zuständige Ministerin sieht sich in ihren Plänen bestätigt. Doch abseits einiger rosiger Formulierungen übt das Gutachten alarmierende Kritik.

für @netzpolitik_feed

netzpolitik.org/2025/australis

Sebastian Meineck - netzpolitikgastautor.in@extradienst.net
2025-08-29

Unsauber

Alterskontrollen im Netz: Drogenbeauftragter Streeck argumentiert unsauber – Ein Zitat des Drogenbeauftragten ging diese Woche durch große Nachrichtenmedien. Mit angeblich wissenschaftlicher Begründung sprach sich Hendrik Streeck (CDU) für Alterskontrollen im Netz aus. Doch an dem Zitat ist etwas faul. Ein Kommentar.

Forderungen nach Alterskontrollen im Netz sind gerade in Mode. Nach den Bundesministerinnen für Justiz (SPD) und Familie (CDU) sind jüngst auch die beiden Bundesbeauftragten für Missbrauch und Drogen dem Trend gefolgt. Nachrichtenmedien reagieren darauf routiniert mit Schlagzeilen.

Die Forderungen stehen jedoch weitgehend losgelöst von der juristischen und medienpädagogischen Debatte. Aus medienpädagogischer Perspektive sind pauschale Alterskontrollen wenig zielführend. Vielmehr plädieren Fachleute für verschiedene Maßnahmen, je nach Risiko für betroffene Minderjährige. Aus juristischer Perspektive wiederum sind die Spielräume für pauschale Alterskontrollen sehr klein, gerade auf nationaler Ebene. Vielmehr gibt es Rechtsgrundlagen für verschiedene Maßnahmen, je nach Risiko für betroffene Minderjährige.

Es gibt also eine Schnittmenge aus dem, was medienpädagogisch sinnvoll und juristisch möglich wäre. Das könnte die Grundlage für eine seriöse Debatte sein. Stand aktuell ist davon aber wenig zu sehen.

Bemerkenswert unseriös ist ein Zitat des Drogenbeauftragten der Bundesregierung, Hendrik Streeck. Im Interview mit der Rheinischen Post vom 25. August sagte der CDU-Politiker:

Ich bin dafür, dass es künftig strikt abgestufte Altersvorgaben für soziale Medien gibt und die Altersprüfungen auch wirklich wirksam stattfinden. Denn es ist wissenschaftlich nachgewiesen, dass Kinder und Jugendliche, die in hohem Maße nicht altersgerechte Inhalte konsumieren, anfälliger für riskantes Suchtverhalten und problematischen Drogenkonsum werden.

Renommierte Nachrichtenmedien von tagesschau.de bis n-tv haben dieses Zitat unkritisch übernommen. Es steht exemplarisch für die Oberflächlichkeit der aktuellen Debatte und ist deshalb einen genauen Blick wert. Für die Analyse braucht es zwei Schritte.

Erstens: Irreführender Bezug auf „nicht altersgerechte Inhalte“

Streeck spricht von nicht altersgerechten Inhalten. Das ist ein Sammelbegriff. Eine anschauliche Auffächerung bietet die Kommission für Jugendmedienschutz. Riskant für Minderjährige sind demnach unter anderem:

  • Darstellungen von Gewalt,
  • Darstellungen von Sexualität,
  • Angebote, die offen Diskriminierungen propagieren,
  • Angebote, die zu zu riskantem und selbstschädigendem Verhalten anregen,
  • Werbung, die Unerfahrenheit und Leichtgläubigkeit ausnutzt,
  • Werbung für Alkohol, Tabak und Glücksspiel.

Streeck zufolge sollen solche Inhalte also Suchtverhalten und Drogenkonsum fördern. Heißt das, Erotik macht Durst auf Bier? Und wer Werbung für Lootboxen sieht, greift vermehrt zum Bubatz?

Wir haben die Stelle um Erklärung gebeten: Auf welche wissenschaftlichen Quellen bezieht sich der Drogenbeauftragte? Geantwortet hat die Pressestelle mit Verweisen auf mehrere Studien. Diese beziehen sich aber nicht pauschal auf „nicht altersgerechte Inhalte“, sondern spezifisch auf Darstellung von Drogenkonsum. In diesem Fall lässt sich der Zusammenhang tatsächlich belegen: Mediale Darstellung von Drogen kann demnach deren Konsum fördern.

Wir halten fest: Der Bezug auf „nicht altersgerechte Inhalte“ im Streeck-Zitat ist zu pauschal – und deshalb irreführend.

Zweitens: Dünner Bezug zu Alterskontrollen

Im ersten Schritt der Analyse wurde geklärt, dass der Drogenbeauftragte seine Forderung nach Alterskontrollen auf Darstellung von Drogenkonsum stützt. Der zweite Schritt der Analyse zeigt: Darstellung von Drogenkonsum spielt in der Debatte um Alterskontrollen für soziale Medien nur eine untergeordnete Rolle.

  • Eine Grundlage für Alterskontrollen im Netz ist die EU-Richtlinie für audiovisuelle Mediendienste(AVMD-RL). Demnach sollen „grundlose Gewalttätigkeiten und Pornografie“ den „strengsten“ Maßnahmen wie Alterskontrollen unterliegen, weil sie als „schädlichste“ Inhalte gelten. Darstellungen von Drogenkonsum fallen nicht darunter.
  • Weiter reguliert die AVMD-RL Werbung für Tabak und Alkohol. So darf audiovisuelle Werbung für alkoholische Getränke „nicht speziell an Minderjährige gerichtet sein und darf nicht den übermäßigen Genuss solcher Getränke fördern“. Aber „strengste“ Maßnahmen wie Alterskontrollen sind hier nicht vorgesehen.
  • Auch das Gesetz über digitale Dienste (DSA) kann Grundlage für Alterskontrollen sein. Mehr dazu steht in den Leitlinien der EU-Kommission. Demnach können „Risiken im Zusammenhang mit dem Kauf und Gebrauch“ von Drogen durchaus Alterskontrollen begründen. Maßnahmen müssen jedoch für jeden betroffenen Dienst angemessen und verhältnismäßig sein.
  • In Deutschland sucht die Medienaufsicht mit der Software KIVI automatisch nach potenziell schädlichen Inhalten für Jugendliche im Netz. Darunter fällt auch die Verherrlichung von Drogen. Die meisten Funde lieferte das Tool, Stand 2022, allerdings für politischen Extremismus und Pornografie.

Wischi-waschi-Verweise

Völlig an den Haaren herbeigezogen ist die Verbindung zwischen sozialen Medien und der Darstellung von Drogenkonsum nicht. Im Jahr 2023 zeigte etwa eine Analyse im Auftrag des Gesundheitsministeriums, „dass Werbung für E-Zigaretten und Tabakerhitzer in sozialen Medien in Deutschland – trotz Verbots – weit verbreitet und für die meist jungen Nutzerinnen und Nutzer der Plattformen zugänglich ist“.

Mit viel Fantasie lässt sich im Streeck-Zitat zumindest das Anliegen erkennen, die Debatte um Alterskontrollen um eine bislang wenig beachtete Dimension zu erweitern, nämlich um die möglicherweise problematische Darstellung von Drogen in sozialen Medien. Auf dieser Grundlage ließe sich diskutieren, ob Alterskontrollen in diesem Fall geeignet, erforderlich und zweckmäßig wären – oder auch nicht. Und ob mildere Mittel einer drastischen Maßnahme wie Alterskontrollen nicht vorzuziehen wären.

Strenge Alterskontrollen bedeuten praktisch: Alle Menschen müssen sich ausweisen oder ihr Gesicht biometrisch scannen lassen. Die Auswirkungen auf Grundrechte sind enorm. Aus gutem Grund sind die gesetzlichen Hürden dafür sehr hoch. Der Dachverband europäischer Organisationen für digitale Freiheitsrechte, EDRi, lehnt die Maßnahme sogar gänzlich ab, auch im Sinne der betroffenen Kinder. Umso wichtiger ist es, Forderungen nach Alterskontrollen gut zu begründen. Mit schnoddrig formulierten Wischi-waschi-Verweisen auf wissenschaftliche Belege klappt das nicht.

Sebastian Meineck ist Journalist und seit 2021 Redakteur bei netzpolitik.org. Zu seinen aktuellen Schwerpunkten gehören digitale Gewalt, Databroker und Jugendmedienschutz. Er schreibt einen Newsletter über Online-Recherche und gibt Workshops an Universitäten. Das Medium Magazin hat ihn 2020 zu einem der Top 30 unter 30 im Journalismus gekürt. Seine Arbeit wurde mehrfach ausgezeichnet, unter anderem zweimal mit dem Grimme-Online-Award sowie dem European Press Prize. Kontakt: E-Mail (OpenPGP), Sebastian Hinweise schicken | Sebastian für O-Töne anfragen | Mastodon. Dieser Beitrag ist eine Übernahme von netzpolitik, gemäss Lizenz Creative Commons BY-NC-SA 4.0.

Lesen Sie ergänzend auch:

Esther Menhard/netzpolitik: Bildungs-ID: Bundesregierung will Schüler zentral erfassen – Die Bundesregierung will die zentrale Schüler-ID. Doch Datenschützer*innen, Wissenschaftler*innen und Gewerkschafter*innen sind sich einig: Die Privatsphäre Minderjähriger steht auf dem Spiel.”

und

Markus Reuter/netzpolitik: Schüler-ID: Magischer Glaube an die zentrale Datenbank – Politiker:innen verbinden mit der zentralen Schüler-ID große Hoffnungen. Doch primär entsteht ein großes Datenschutzproblem und noch mehr Überwachung. Investitionen in Bildung könnten ganz woanders gebraucht werden. Ein Kommentar.”

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst