#mochte

Dirk Bachhausendirk@www.bachhausen.de
2025-04-25

1. FC Nürnberg möchte als erster Bundesligaverein den Safe-Sport-Code in die Vereinssatzung aufnehmen

Dieser Artikel stammt von CORRECTIV.Faktencheck / Zur Quelle wechseln

Gewalt im Sport

1. FC Nürnberg möchte als erster Bundesligaverein den Safe-Sport-Code in die Vereinssatzung aufnehmen

Der 1. FC Nürnberg könnte zum Vorreiter für stärkere Maßnahmen gegen Gewalt im Fußball werden. Der Club plant den Safe-Sport-Code einzuführen, der Vergehen unterhalb der Strafrechtsschwelle ahndet. Auch der DFB arbeitet an einer Umsetzung.

von Finn Schöneck
, Miriam Lenz

25. April 2025

Möglicher Vorreiter für besseren Präventionsschutz interpersonaler Gewalt im Fußball: der 1. FC Nürnberg. Foto: picture alliance / Wagner | Ulrich Wagner

Vor fünf Monaten verabschiedete der deutsche Sport ein Regelwerk gegen Gewalt: Auf der Mitgliederversammlung des Deutschen Olympischen Sportbundes (DOSB) stimmten die Spitzensportverbände für die schrittweise Implementierung des Safe-Sport-Codes. Das neue Regelwerk sieht vor, auch gewalttätiges Verhalten unterhalb der Strafbarkeitsgrenze zu ahnden. Zum Beispiel bei sexualisierten Sprüchen. Oder wenn ein Trainer die Spieler permanent anschreit.

Der größte Sportverband, der Deutsche Fußball-Bund (DFB), stimmte bei der Tagung im Dezember 2024 mehreren Beschlussvorlagen zum Safe-Sport-Code zu, aber als einziger Spitzenverband gegen eine verbindliche Einführung bis Ende 2028. Das sei erst möglich, wenn eine finale Fassung des Schutz-Kodex vorliegen würde, argumentierte der DFB.

Seitdem stellt sich die Frage, wie ernst der Fußballverband mit seinen Millionen Kinder- und Jugendfußballern den Präventionsschutz nimmt. Wird eine Kultur für sicheren Sport ausreichend gelebt? Sieht der DFB keine Dringlichkeit für stärkeren Präventionsschutz? Und wie geht der DFB mit Spielerberatern um, die ihre Freiheit im Fußballsystem für Übergriffe ausnutzen?

Nun bewegt sich etwas, sowohl beim DFB als auch bei prominenten Fußballvereinen.

DFB kündigt an, den Safe-Sport-Code im Fußball umsetzen zu wollen

Der DFB arbeite gemeinsam „mit den relevanten Stakeholdern“ daran, eine tragfähige und verbindliche Umsetzung des Safe-Sport-Code im deutschen Fußball zu erreichen, schreibt die DFB-Presseabteilung an CORRECTIV.Lokal und 11FREUNDE. Bereits Anfang April hat der Fußballverband an einem vom DOSB organisierten Austausch mit mehr als 50 Sportverbänden teilgenommen.

Und der Fußballverband schreibt noch etwas: „Der DFB begrüßt es ausdrücklich, wenn sich Vereine frühzeitig und eigenständig mit den Inhalten des Safe Sport Code auseinandersetzen und mögliche Wege zur Implementierung prüfen.“

Nach Informationen von CORRECTIV.Lokal und 11FREUNDE gibt es tatsächlich einige Vereine, die dies aktuell tun. Die Redaktionen haben alle 36 Vereine aus der 1. und 2. Bundesliga zum Safe-Sport-Code befragt.

Mit dem 1. FC Nürnberg, aktuell in der 2. Bundesliga, kündigt einer der traditionsreichsten Fußballvereine in Deutschland an, den Safe-Sport-Code in die Vereinssatzung aufnehmen zu wollen. „Der 1. FC Nürnberg plant, den Antrag in die Vereinssatzung bei der nächsten Mitgliederversammlung im November 2025 auf die Agenda zu setzen“, schreibt eine Sprecherin des Vereins auf eine Anfrage von CORRECTIV.Lokal und 11FREUNDE. Die Mitglieder entscheiden im November, ob der Verein den Code zur Ahndung interpersonaler Gewalt implementiert.

Der Club könnte der erste Bundesligaverein in Deutschland werden, der den Schutz-Kodex des DOSB eigenständig einführt und nicht auf einen langatmigen, vom DFB gesteuerten Top-down-Prozess über die Verbandsebenen wartet. Weitere Vereine könnten folgen. Neben dem 1. Nürnberg sagen neun weitere Vereine, dass sie die Einführung des Regelwerks prüfen wollen. Darunter der FC Bayern München.

„Die Verabschiedung des Safe-Sport-Codes durch die Mitgliederversammlung des DOSB begrüßen wir und prüfen, wie wir diesen ergänzend zu unseren bestehenden Regelungen und Maßnahmen sinnvoll und zielführend in unsere Arbeit integrieren können“, antwortet die Presseabteilung des FC Bayern München auf Anfrage von CORRECTIV.Lokal und 11FREUNDE. Auch der FC St. Pauli und der SV Werder Bremen kündigen Prüfungen an.

Holstein Kiel und 1. FC Union wollen Safe-Sport-Code nicht einführen

Einzig die SV Elversberg antwortete nicht auf die Presseanfragen. Mit dem 1. FC Union Berlin und Holstein Kiel schreiben zwei Bundesligisten, dass sie den Safe-Sport-Code zum jetzigen Zeitpunkt nicht einführen wollen.

Holstein Kiel verweist auf bereits bestehende Schutzkonzepte zu interpersonaler Gewalt und begründet die Entscheidung gegen den Safe-Sport-Code mit praktischen Bedenken an der Umsetzung: Die Regelungen könnten dazu führen, „dass die Arbeit dieser Personen erheblich erschwert und eingeengt wird, was in letzter Konsequenz dafür sorgen kann, dass sich weniger Ehrenamtliche oder Eltern finden, die die Arbeit in den Sportvereinen unterstützen“, schreibt ein Sprecher des Vereins. Außerdem sei die Fassung des Safe-Sport-Codes widersprüchlich zu den Regelungen des DFB-Rechtssystems.

Diese Einwände kann Caroline Bechtel nur bedingt nachvollziehen. Sie ist stellvertretende Leiterin des Instituts für Sportrecht an der Deutschen Sporthochschule Köln. Gemeinsam mit Ihrem Kollegen Martin Nolte hat sie den 56-seitigen Schutzkodex verfasst. „Prinzipiell gilt, jeder Verein und jeder Verband kann den Safe-Sport-Code für sich einführen, unabhängig von irgendwelchen Vorgaben der Verbände“, sagt Bechtel.

Die Vereinsautonomie gibt jedem Verein das Recht, eigene Satzungen und Ordnungen zu erlassen, die für ihre Mitglieder verbindlich sind. Einen Konflikt mit dem DFB-Rechtssystem sieht Bechtel nicht: „Die Regelungen des Safe-Sport-Code gehen weiter als die des DFB und bieten damit einen viel umfassenderen Schutz vor interpersonaler Gewalt.“

Prävention von Gewalt im Fokus

In Zukunft solle mehr darauf geachtet werden, dass interpersonale Gewalt nicht geschehe. Ob sich dadurch weniger Ehrenamtliche oder Eltern finden, kann Bechtel nicht beurteilen. Sie glaube, die Eltern überlegen sich eher, ob sie dann ihre Kinder in einen Verein geben würden, der entsprechende Schutzmaßnahmen nicht vorhält.

Vor einem Monat haben CORRECTIV.Lokal und 11FREUNDE mit Lokalmedien ein Schwerpunktprojekt zu Gewalt im Jugendfußball gestartet. Die bisherigen Berichte behandeln zahlreiche Übergriffe, die neben einer strafrechtlichen Bewertung auch sportrechtliche Sanktionen und mangelnde Präventionsarbeit betreffen.

In einer Umfrage (Teilnahme ist bis zum 18. Mai möglich) durch die Redaktionen haben bereits mehr als 370 ehemalige und aktive Fußballerinnen und Fußballer ihre Erfahrungen geteilt. Darunter finden sich zahlreiche Vorwürfe zu Trainern und anderen Funktionsträgern aus dem Fußball, die womöglich ihre Macht missbraucht und Gewalt ausgeübt haben. Die Antworten werden nun redaktionell ausgewertet. Die Berichte machen jetzt schon deutlich, dass eine größere Debatte zu Strukturen für sicheren Sport in Fußballvereinen notwendig ist.

Redaktion: Jonathan Sachse, Alina Bach
Faktencheck: Pia Siber
Mitarbeit: Johann Nilius (11FREUNDE), Theo Borde (11FREUNDE)

Zur Quelle wechseln
Author: Finn Schöneck

#aufnehmen #bundesligaverein #erster #mochte #nurnberg #sport #vereinssatzung

Dirk Bachhausendirk@www.bachhausen.de
2025-04-11

HNA: Olivia Jones spricht über ihren Tod – Dragqueen möchte keine Beerdigung, sondern Blumendünger werden

Olivia Jones, die bekannte Dragqueen, hat ihre Vorstellungen für ihre letzte Ruhestätte enthüllt. Sie wählt eine ungewöhnliche Alternative zur Standardbestattung.

Direktlink

#dragqueen #ihren #jones #keine #mochte #olivia #spricht

Dirk Bachhausendirk@www.bachhausen.de
2025-01-16

Europäische Regeln für KI: Wo die Zivilgesellschaft nachjustieren möchte

Dieser Artikel stammt von Netzpolitik.org.

Europäische Regeln für KIWo die Zivilgesellschaft nachjustieren möchte

Sollen Polizeibehörden Gesichtserkennung einsetzen können, wenn sie mit einem Schild davor gewarnt haben? Macht es für Empfänger:innen von Sozialhilfe einen Unterschied, ob sie mit einem KI-System Probleme kriegen oder mit klassischer Software? Die Zivilgesellschaft hätte dazu gerne mehr Klarheit von der EU-Kommission.


16.01.2025 um 17:41 Uhr
Maximilian Henning – in Überwachungkeine Ergänzungen Es gibt noch eine Menge Stellschrauben. – Public Domain Pexels / picjumbo.com

Die EU-Kommission soll dafür sorgen, dass die Verbote aus der europäischen KI-Verordnung möglichst umfangreich ausgelegt werden. Das fordert eine Koalition aus zivilgesellschaftlichen Organisationen in einer heute veröffentlichten Stellungnahme. Sie bezieht sich auf Leitlinien, an denen die Kommission momentan noch arbeitet.

Diese Leitlinien sollen dafür sorgen, dass auch „einfachere“ Systeme von den Regeln der KI-Verordnung betroffen sind, fordern die Organisationen. Die Kommission soll auch klarstellen, welche Arten von Systemen die verbotenen „inakzeptablen“ Risiken für Grundrechte haben. Außerdem sollen Grundrechte die zentrale Basis dafür sein, wie die KI-Verordnung praktisch umgesetzt wird.

Arbeit an Details läuft weiter

Die Europäische Union hat lange an ihren Regeln für Künstliche Intelligenz gefeilt. Intensiv diskutiert wurde etwa die Frage, welche Einsätze von KI in Europa ganz verboten werden sollten. Dabei ging es etwa um die biometrische Gesichtserkennung oder das sogenannte „Predictive Policing“. Die fertige KI-Verordnung schränkt beide Praktiken zwar ein, verbietet sie aber nicht ganz.

Die Verordnung selbst ist seit bald einem Jahr beschlossen und trat auch schon vor einigen Monaten in Kraft. Aber Obacht: Bei EU-Gesetzen heißt das nicht, dass alle ihre Regeln auch direkt gelten.

Zuvor gibt es noch einiges fertigzustellen. Zum Beispiel die sogenannten „Praxisleitfäden“, die genaue Regeln für KI-Modelle mit allgemeinem Verwendungszweck wie GPT-4 festlegen sollen. An denen arbeiten gerade die Anbieter solcher Modelle, andere Unternehmen und Vertreter:innen der Zivilgesellschaft unter Aufsicht der EU-Kommission. Bis April soll es einen fertigen Text geben.

Die Verbote gelten ab dem 2. Februar. Bis dahin will die EU-Kommission noch Leitlinien veröffentlichen, die Unternehmen dabei helfen sollen, sie einzuhalten. Außerdem will sie noch klarstellen, was genau denn ein KI-System überhaupt ist – und welche Systeme deshalb von der KI-Verordnung betroffen sein werden.

Ergebnis soll zählen, nicht die Art der Software

Auf diese Leitlinien bezieht sich nun die zivilgesellschaftliche Koalition, an der unter anderem European Digital Rights (EDRi), Access Now, AlgorithmWatch und Article 19 beteiligt sind. Caterina Rodelli von Access Now hält die Leitlinien für ein „zentrales Werkzeug“, um mangelhafte Menschenrechtsregeln der Verordnung noch auszubessern.

Die erste Forderung der Koalition bezieht sich auf „einfachere“ Software. „Wir sind besorgt, dass Entwickler:innen vielleicht die Definition von KI und die Einstufung von Hochrisiko-KI-Systemen ausnutzen können, um die Verpflichtungen der KI-Verordnung zu umgehen“, schreiben die Organisation. Unternehmen könnten ihre KI-Systeme zu normaler, regelbasierter Software umwandeln und so nicht mehr vom Gesetz betroffen sein, obwohl es die gleichen Risiken geben würde.

Die Organisationen fordern deshalb, dass sich Gesetze an möglichem Schaden orientieren sollten, nicht an den genutzten technischen Mitteln. Sie beziehen sich auf das Beispiel des niederländischen SyRI-Systems. Dieses System beschuldigte Empfänger:innen von Sozialhilfe fälschlicherweise des Betrugs und beeinträchtigte so Tausende von Familien. Der Skandal führte 2021 zum Sturz der damaligen niederländischen Regierung.

Dabei wirkte das zugrundeliegende System einfach und erklärbar, betont das Statement. Die Auswirkungen auf eine Vielzahl an Personen waren trotzdem verheerend.

Mehr Systeme einbeziehen

Die Koalition fordert außerdem, dass die Leitlinien marginalisierte Gruppen besser schützen sollen. Dafür soll die Kommission ausdehnen, welche Fälle unter die verbotenen „inakzeptablen“ Risiken für die Grundrechte fallen.

So soll das Verbot von „Social Scoring“ etwa auf Anwendungen ausgedehnt werden, die heute in Europa schon gang und gäbe sind: Etwa für Empfänger:innen von Sozialhilfe, wie im niederländischen Fall, oder für Migrant:innen. Die Leitlinien sollten deshalb etwa Daten schützen, die über Bande Informationen wie die Ethnie oder den sozioökonomischen Status preisgeben könnten, wie zum Beispiel die Postleitzahl.

Das Verbot für „Predictive Policing“ soll eine weite Bandbreite an Systemen einbeziehen, die kriminalisiertes Verhalten vorhersagen sollen. Im Verbot des allgemeinen Scrapens von Gesichtsbildern sehen die Organisationen einige Schlupflöcher, die sie gerne geschlossen haben würden. Außerdem soll eine Definition einer Gesichtsbild-Datenbank gelöscht werden, weil durch diese Anbieter wie Pimeyes oder Clearview außen vor bleiben würden.

Löcher schließen bei der Gesichtserkennung

Bei den Verhandlungen zur KI-Verordnung wollte das Europäische Parlament ein umfassendes Verbot von Systemen zur Emotionserkennung durchsetzen, ist damit aber gescheitert. Die Leitlinien sollen nun zumindest klar zwischen echten medizinischen Geräten wie Herzmonitoren und Geräten wie „Aggressionsdetektoren“ unterscheiden, fordern die Organisationen – denn medizinische Geräte sind von den Verboten ausgenommen.

Außerdem sollen die Leitlinien die Regeln für automatisierte Gesichtserkennung verschärfen. Auch in Deutschland gab es schon Forderungen, einige der in der KI-Verordnung dafür offen gelassenen Schlupflöcher zu schließen. Auf europäischer Ebene fordert die zivilgesellschaftliche Koalition nun, dass die Entwicklung von Gesichtserkennungssystemen für den Export unter das Verbot fallen soll. Zudem soll es nicht ausreichen, wenn Behörden nur mit einem Schild auf Zonen hinweisen, in denen Gesichtserkennung genutzt wird. Videoaufzeichnungen sollen erst nach 24 Stunden biometrisch ausgewertet werden dürfen.

In Zukunft bitte mehr Zeit

Eine Menge Wünsche für die Leitlinien – die Koalition hat aber auch noch einige Kritik für deren Entstehen übrig. Der Prozess sei nicht vorher angekündigt worden, habe kurze Fristen gelassen, es sei kein Entwurf veröffentlicht worden, schreiben sie. Außerdem seien manche der Fragen suggestiv formuliert gewesen. So habe die Kommission etwa nur nach Systemen gefragt, die aus der Definition von KI ausgeschlossen werden sollten, und nicht nach Systemen, für die die Regeln gelten sollten, bemängeln die Organisationen.

Das Statement fordert deshalb die Kommission auf, in Zukunft die Zivilgesellschaft besser einzubeziehen. „Die EU-Kommission muss Interessengruppen mit begrenzten Ressourcen eine Stimme geben, und dafür muss sie längere Zeiträume für so umfassende Befragungen vorsehen“, so Nikolett Aszodi von AlgorithmWatch.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Maximilian Henning

#europaische #mochte #nachjustieren #regeln #zivilgesellschaft

Europäische Regeln für KI: Wo die Zivilgesellschaft nachjustieren möchte
2024-12-28

In letzter Zeit ist mir aufgefallen, dass #bestimmt​e #reich​e #Geschäftsleute vielleicht auch deswegen #geizig sind, weil die #Marge eines #Geschäft​es #selten #zulässt, #Gewinn #verschwenden zu #können, wenn man #Gewinn machen #muss oder #möchte. In diesem Sinne wäre #Geiz zu #erlernen.

#Andererseits, wenn man in #Gewinn und #Margen keine #Rolle #spielen, wäre #Verschwendung zumindest etwas #andere​s.

#zulassen #Gewinnmarge #Reiche #Spiel #anderes

Bui Huh das Nacktgespenst🇺🇦🇮🇱HailSatan@metalhead.club
2024-07-04

Ich #produziere #Etwas. #Nicht weil ich es #gebrauchen #kann oder es #haben #möchte sondern #weilicheskann. Und dann #verkaufe ich es nicht #teuer sondern #verschenke es. Der #kapitalismus #weint sich heute #indenSchlaf!

Dirk Bachhausendirk@www.bachhausen.de
2023-10-26

Dieser Artikel stammt von Netzpolitik.org.Der Autor ist…
Mit grundlegenden Änderungen und einigen neuen Ideen will das EU-Parlament in die Verhandlungen zur geplanten Chatkontrolle gehen. Fachleute reagieren verhalten positiv – und warnen vor faulen Kompromissen im Trilog.
Das Ruder herumreißen möchte das Parlament, aber ist das realistisch? – Gemeinfrei-ähnlich freigegeben durch unsplash.com Dmitrijs Safrans„Es war nicht einfach“, sagt der spanische Europa-Abgeordnete Javier Zarzalejo. „Es gab eine sehr streitlustige Amtosphäre.“ Dennoch habe sich das EU-Parlament auf eine Position für die bevorstehenden Verhandlungen geeinigt, erklärt der Christdemokrat am heutigen Donnerstag auf einer Pressekonferenz. Es geht um die Verordnung zur „Bekämpfung des sexuellen Missbrauchs von Kindern“, die Kritiker*innen wegen ihres umstrittensten Teils als „Chatkontrolle“ bezeichnen.
Zarzalejo ist Berichterstatter im federführenden Ausschuss für das Gesetz, dem Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE). Man habe sich über alle Fraktionen hinweg auf eine Position geeinigt, erklärt er. Am 13. oder 14. November werde darüber abgestimmt. Dann wäre zumindest das Parlament bereit für die Verhandlungen mit dem Ministerrat und der Kommission im sogenannten Trilog. Der Rat ist allerdings noch nicht soweit.
Am gestrigen Mittwoch haben wir bereits über den Vorschlag aus dem Ausschuss berichtet. Er soll die geplante Chatkontrolle begrenzen. Mit Chatkontrolle ist das automatische und verdachtsunabhängige Scannen nach Darstellungen sexualisierter Gewalt gegen Kinder gemeint, ein starker Eingriff in die Privatsphäre und das digitale Briefgeheimnis.
Geht es nach dem Parlament, dann soll es keine Chatkontrolle bei Ende-zu-Ende-verschlüsselter Kommunikation geben. Sonstige Scans dürften nur nach einem richterlichen Beschluss bei verdächtigen Einzelpersonen oder Gruppen stattfinden. Aus dem Vorschlag der EU-Kommission gingen deutlich umfassendere Scans in der Breite hervor.
Inzwischen sind weitere Details aus dem Parlaments-Vorschlag bekannt. Außerdem gibt es erste Einschätzungen von Organisationen, die sich für Grund- und Menschenrechte einsetzen. Der Überblick.
Mehr Pflichten zum Löschen
Hinweise auf Darstellungen sexualisierter Gewalt gegen Kinder im Netz häufen sich – aber Ermittler*innen lassen sie nicht systematisch löschen. In Deutschland befasst sich zum Beispiel das BKA mit Ermittlungen gegen sogenannte Missbrauchsdarstellungen. 2022 zeigte die Antwort der Bundesregierung auf eine Kleine Anfrage: Das BKA sei nicht dafür zuständig, die entdeckten Inhalte auch an die jeweiligen Provider zu melden oder löschen zu lassen. Im Fokus stehe die Suche nach Täter*innen.
Davor warnen Fachleute wie der Journalist Daniel Moßbrucker, der seit Jahren zur Bekämpfung von Missbrauchsdarstellungen im Netz recherchiert: Wenn Ermittlungsbehörden nicht einschreiten, schrieb Moßbrucker in einem Gastbeitrag auf netzpolitik.org, dann lassen sie Plattformen mit illegalen Aufnahmen unfreiwillig immer attraktiver werden, weil es dort immer mehr Inhalte zum Herunterladen gibt.
Galerien und Datenbanken mit Missbrauchmaterial werden zwar oft im Darknet gehandelt und verlinkt; die Inhalte selbst liegen aber oft bei Hosting-Anbietern im offenen Internet, wie Recherchen des NDR im Jahr 2021 anschaulich machten. Daraus geht hervor: Löschen kann die Verbreitung der Inhalte wirksam eindämmen.
Genau hier setzt das EU-Parlament an: Es will mit seinem Vorschlag mehr Löschungen erreichen. Demnach sollen nationale, zuständige Behörden die Löschung von Inhalten anfordern, wenn sie Missbrauchsmaterial bemerken. Hinweise dafür sollen sie von Europol bekommen, von örtlichen Ermittlungsbehörden und vom geplanten EU-Zentrum, dass die Bemühungen auf Europa-Ebene koordinieren soll. Der Entwurf sieht allerdings auch Ausnahmen vor, warum Inhalte zunächst online bleiben sollen – etwa um laufende Ermittlungen nicht zu gefährdern.
Netzsperren eingedampft
Bei der viel diskutierten Chatkontrolle ist ein weiterer Streitpunkt aus der geplanten Verordnung oft in den Hintergrund getreten: Der Entwurf der Kommission sieht auch sogenannte Netzsperren vor. In diesem Fall blockieren Internet-Anbieter in der Regel den Zugang zu bestimmten Domains, sodass Nutzer*innen sie ohne Tricks nichts mehr aufrufen können.
Das Problem bei Netzsperren ist allerdings, dass sie Inhalte in Wahrheit nur verstecken, nicht aber entfernen. In der Regel lassen sich Netzsperren mit Mitteln wie alternativen DNS-Servern, einem VPN oder dem Tor-Browser kinderleicht umgehen. Zugleich verhindern Netzsperren aus technischen Gründen in der Regel den Zugang zu gesamten Websites hinter einer Domain – und damit oft auch zu legalen Inhalten. Deshalb ist das Prinzip „Löschen statt Sperren“ entstanden. Es lehnt Netzsperren grundsätzlich ab und macht sich für das gezielte Entfernen von illegalen Inhalten stark, was laut BKA bei Missbrauchsdarstellungen auch in den meisten Fällen funktioniert.
Im Entwurf des Parlaments sind Netzsperren weiterhin enthalten – allerdings mit Einschränkungen. Demnach dürfen Behörden Netzsperren nur noch dann anordnen, wenn dadurch keine sonstigen legalen Inhalte blockiert werden. Außerdem sollten Netzsperren erst dann in Frage kommen, wenn Inhalte nicht gelöscht werden konnten. In der Praxis dürfte das bedeuten, dass Netzsperren auf dieser Grundlage selten vorkommen. Zudem müssen die zuständigen Behörden keine Sperren mehr anordnen, es bleibt ihnen freigestellt.
Alterskontrollen für Pornoseiten
Neben Netzsperren sind auch Alterskontrollen eine der geplanten Maßnahmen, die im Schatten der Chatkontrolle eher wenig diskutiert wurden. Mit Alterskontrollen ist die Hoffnung verbunden, minderjährige Nutzer*innen von Inhalten fernzuhalten, die ihnen schaden können. Zugleich droht mit der Alterskontrolle das Ende der anonymen Internet-Nutzung: Immerhin ist der naheliegendste Altersnachweis der eigene Pass, mit dem Nutzer*innen viele weitere sensible Daten preisgeben.
In seinem Vorschlag formuliert das Parlament strenge Bedingungen für mögliche Alterskontrollen: Sie sollen etwa keine anderen Daten als das bloße Alter umfassen und diese Daten nach einer Kontrolle wieder löschen. Anonyme Acounts sollten weiterhin möglich sein. Außerdem sollten Nutzer*innen keine biometrische Daten preisgeben müssen – offenkundig spielt diese Regel auf bereits verbreitete Alterskontroll-Systeme an, die das Alter einer Person per Gesichtserkennung abzuschätzen versuchen.
Alterskontrollen mit solchen Einschränkungen sind möglich, aber sehr selten. Zum Beispiel können Nutzer*innen mit einem deutschen Personalauweis durch die eID-Funktion in der Ausweis-App des Bundes ihre Volljährigkeit nachweisen. Derart datensparsame Methoden sind auf großen Websites kaum zufinden: Dort sollen Nutzer*innen in der Regel ihren gesamten Ausweis vor der Kamera zeigen oder fotografieren.
Für Pornoseiten sieht das Parlament eine spezielle Regel vor: Bei ihnen sollen Alterskontrollen nicht etwa freiwillige Maßnahme sein, um Risiken zu mindern, sondern eine Pflicht. Das ist in Deutschland bereits der Fall, Grundlage dafür ist unter anderem der Jugendmedienschutz-Staatsvertrag. Weil die meisten Pornoseiten sich nicht daran halten, geht die Medienaufsicht gegen die größten von ihnen vor.
Dennoch würde der Entwurf des Parlaments auch in Deutschland eine große Änderung für Pornoseiten mit sich bringen. Aktuell empfiehlt die zuständige Kommission für Jugendmedienschutz zahlreiche Kontroll-Systeme, bei denen Nutzer*innen ihren Ausweis scannen lassen müssen oder ihr Gesicht zeigen. Das stünde im Widerspruch zu den Anforderungen etwa an den Datenschutz, die das Parlament formuliert.
Keine Entwarnung: So reagiert die Zivilgesellschaft
Die ersten Reaktionen auf die bevorstehende Einigung im Parlament sind verhalten positiv. Die Kampagne „Chatkontrolle stoppen“ – schon dem Namen nach erklärte Gegnerin des Vorhabens – lobt den Ausschuss für „wichtige Verbesserungen“. Zum Beispiel hebt das Bündnis den ausdrücklichen Schutz von Ende-zu-Ende-Verschlüsselung hervor. „Es bleibt aber problematisch, dass das Gesetz von einer Kommission vorgeschlagen wurde, die Interessenkonflikte nicht ausräumen kann“, warnt die Initiative. Gemeint sind die Enthüllungen um Lobby-Verflechtungen von EU-Kommissarin Yvla Johansson. Es bestehe zudem die Gefahr, dass die Verbesserungen bei den Verhandlungen wieder verloren gehen.
Die gleiche Sorge hat Konstantin Macher vom Verein Digitalcourage. „Entwarnung kann es erst geben, wenn Rat und Parlament sich auf einen Stop der Chatkontrolle einigen.“ Auch Tom Jennissen vom Verein „Digitale Gesellschaft“ fürchtet, dass Verbesserungen in den Verhandlungen „deutlich verwässert“ werden könnten. „Insbesondere angesichts der jüngsten Skandale um die Innenkommissarin wäre das Parlament wohl besser beraten gewesen, den Gesetzentwurf in Gänze abzulehnen und von der Kommission einen neuen Vorschlag einzufordern.“
Besser gleich in den Papierkorb damit, statt weiter herumschrauben – diesen Tenor hat auch die Einschätzung von EDRi (European Digital Rights), dem Dachverband von fast 50 europäischen Organisationen für digitale Freiheitsrechte. Der gesamte Vorschlag beruhe auf einem „beunruhigenden tech-solutionistischen Glauben, dass Scannen komplexe gesellschaftliche Probleme lösen kann“. EDRi habe immer darauf hingewiesen, dass der Vorschlag komplett neu gestaltet werden muss, so EDRi-Sprecherin Ella Jakubowska.
So schwer werden die Verhandlungen
Den Wunsch nach einem völlig neuen Gesetzentwurf möchte das Parlament jedenfalls nicht erfüllen, das ist mit dem heutigen Auftritt der Ausschuss-Mitglieder deutlich geworden. Bei der Pressekonferenz lobten sich die Abgeordneten aus verschiedenen Parteien für den gemeinsamen Kompromiss, der zwar einiges ändert, aber dennoch auf dem Entwurf der Kommission basiert.
Wie zur Beschwichtigung weisen die Abgeordneten wiederholt darauf hin, wie deutlich sich ihr Vorschlag von dem der Kommission unterscheide. „Wir haben einen anderen, neuen Ansatz gewählt“, sagt der deutsche Abgeordnete Patrick Breyer (Piraten). Er spricht von einer „historischen Einigung“. Die Regierungen der EU-Länder müssten akzeptieren, dass der Gesetzentwurf „nur grundlegend umgestaltet oder überhaupt nicht beschlossen werden kann“.
Die deutsche Abgeordnete Cornelia Ernst (Linke) sagt: Der Ansatz der Kommission sei „grundsätzlich falsch“ gewesen. Sie habe nicht den Schutz von Kindern im Fokus gehabt, sondern Massenüberwachung. „Was auf dem Tisch liegt, ist eine Ohrfeige für die Kommission“, so Ernst. „Wir werden knallharte Kämpfe mit dem Rat im Trilog erleben.“
Der Rat hat seine Abstimmung bereits zwei Mal verschoben; die Mitgliedstaaten sind gespalten. Unabhängig davon, welche Position der Rat einnehmen wird: Alleine durch die konträren Positionen von Parlament und Kommission stehen schwere Verhandlungen bevor. Und noch etwas dürfte den Weg zu einem finalen Gesetzestext erschweren: Bald beginnt der Wahlkampf, schon im Juni 2024 wählen die Bürger*innen der EU ein neues Parlament. Breyer rechnet kaum damit, dass die Verhandlungen vor der Wahl zum Abschluss kommen; sein Parlamentskollege Zarzalejo sagt dagegen: Genau das sei das Ziel.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.
Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Sebastian Meineck

https://www.bachhausen.de/jenseits-der-chatkontrolle-wie-das-parlament-das-ruder-herumreissen-moechte/

#chatkontrolle #herumrei #jenseits #mochte #parlament #ruder

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst