#automatisierte

Dirk Bachhausendirk@www.bachhausen.de
2025-04-07

Automatisierte Rasterfahndung: Tür zu für Palantir und Co.

Dieser Artikel stammt von Netzpolitik.org.

Automatisierte RasterfahndungTür zu für Palantir und Co.

Die angehende Regierung befürwortet Polizeiarbeit mit automatisierten Black-Box-Systemen, um die riesigen Datenbestände der Polizeien zu rastern. Die Idee der Merzschen Union, die auch von den Sozialdemokraten unterstützt wird, mit Konzernen wie Palantir zusammenzuarbeiten, ist ethisch und rechtlich hochproblematisch.


07.04.2025 um 17:29 Uhr
Constanze, Stefan Ullrich – in Überwachungkeine Ergänzungen Palantir sammelte 2020 an der New Yorker Börse Milliarden ein. – Alle Rechte vorbehalten Real Fiction Filmverleih

Als vor ein paar Tagen erste Papiere den Verhandlungsstand der Arbeitsgruppen der angehenden Regierungskoalitionäre in der Innenpolitik aufzeigten, gab es wenige Überraschungen. Vieles erinnerte deutlich an die Lektüre der Wahlprogramme. Derzeit brütet eine 19-köpfige Verhandlungsgruppe aus CDU, CSU und SPD über den Ergebnissen der Arbeitsgruppen.

Ein Ergebnis war das Ziel, in Zukunft massenhaft vorhandene Polizeidaten zusammenzuführen und automatisiert auszuwerten: „Für bestimmte Zwecke sollen unsere Sicherheitsbehörden, unter Berücksichtigung verfassungsrechtlicher Vorgaben und digitaler Souveränität, die automatisierte Datenrecherche und -analyse […] vornehmen können.“ Bisher ist das nur in drei Bundesländern gängige Praxis und wird derzeit mit mehreren Verfassungsbeschwerden bekämpft.

Die Merzsche Union setzt sich schon länger offensiv für ein Produkt des Konzerns Palantir ein. Das börsennotierte militärnahe US-Tech-Unternehmen bietet eine proprietäre Software namens „Gotham“ an, die auf Beamtendeutsch „Bundes-VeRA“ heißt. Schon im Wahlprogramm hatte die Union versprochen, dass die Bundespolizei und das Bundeskriminalamt alsbald mit diesem Produkt ertüchtigt werden sollen.

Das Verhandlungspapier spricht nun von „Sicherheitsbehörden“, was eine Erweiterung zum bisher Geforderten darstellt. Denn neben Polizeien könnte das auch Geheimdienste umfassen, die im quasi rechtsfreien Raum schon mindestens seit 2014 mit solchen Werkzeugen arbeiten.

Palantir

Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!

Die Sozialdemokraten schrieben in ihr Wahlprogramm den Wunsch, der Bundespolizei „automatisierte (KI-basierte) Datenanalysen“ zu erlauben. Innenministerin und Sozialdemokratin Nancy Faeser hatte sich allerdings in ihrer Ampel-Amtszeit gegen die Nutzung von Palantir in Bundesbehörden ausgesprochen.

Etwas wahrhaft Magisches

Offenbar nehmen die Demnächst-Koalitionäre an, dass solche Software-Produkte für die Polizei einen hohen Nutzen haben. Das ist zwar bisher nicht wissenschaftlich belegt, aber das Marketing von Anbietern wie Palantir bei den Verantwortlichen in Politik und Polizei blieb wohl nicht ohne Wirkung. Früher beschrieb man es mit dem jetzt als unmodern geltenden Begriff „Data Mining“. Heute soll eine nicht näher spezifizierte „KI“ die Informationen aus lauter heterogenen polizeilichen Datenbanken zusammenbringen und dann diejenigen Menschen auf Knopfdruck herausfischen, die potentiell eine Gefahr darstellen.

Der Moment, einen solchen Produkteinsatz kräftig auszubauen, ist günstig: Alles, was auch nur im Entferntesten nach Künstlicher Intelligenz aussieht, wird gerade mit Innovation und Effizienzsteigerung gleichgesetzt. Es ist eine Variante des alten Versprechens von Big Tech, ungeachtet von Datenschutz- und Antidiskriminierungsgesetzen wahrhaft Magisches mit Hilfe von Daten zu vollbringen.

Verbunddateien, Datenbanken, Auskunftssysteme

Die teilweise schon Jahrzehnte bestehenden Datenbanken der Polizeien haben im Laufe ihrer Dienstjahre eine Vielzahl an unterschiedlichsten Daten angehäuft. Es gibt Verbunddateien, die der Personen- und Sachfahndung dienen, mit Kriminalakten und Haftinformationen, dazu Biometriedaten wie Fingerabdrücke, Gesichtsbilder oder gar DNA-Profile. Es gibt aber auch Fallbearbeitungssysteme oder auch erkennungsdienstliche Datenbanken, ebenfalls mit biometrischen Informationen. Nicht zu vergessen die großen Antiterror- und die Rechtsextremismusdateien, die seit vielen Jahren geführt werden. Dazu kommen noch Auskunfts- und Informationssysteme, die Fahndungen und Ermittlungen unterstützen sollen, außerdem riesige Vorgangsbearbeitungssysteme, die mit Daten aus dem polizeilichen Alltag wie Anzeigen oder Verkehrsunfällen befüllt sind.

Ein einziger Datenschatz, der gehoben werden muss, wenn es nach den Anbietern entsprechender Software wie Palantir und nach den Konservativen mit ihrem latenten Law-and-Order-Fetisch geht. Mit „KI“-Hilfe sollen neue Muster in großen Datensätzen gesucht werden: Informationsnuggets werden regelrecht „geschürft“. Dazu müssen vorliegende Daten automatisiert klassifiziert werden, auch hinsichtlich ihrer Verbindungen untereinander.

Ein unmittelbarer Nutzen für die Polizei scheint klar: Auch unbekannte Muster werden in bekannte Klassen überführt. Ein zweiter praktischer Nebeneffekt der Nutzung des nun in KI umgetauften Data Minings ist die Erkennung von „Ausreißern“. Das ist der Fachbegriff für Datenpunkte, die stark vom restlichen Vergleichsdatensatz abweichen. Je nach Einsatzzweck des IT-Systems können diese Ausreißer automatisch ignoriert werden, um beispielsweise schönere Info-Graphiken zu bekommen, oder aber – ganz im Gegenteil – genauer unter die Lupe genommen werden.

Ein in der Informatik lange bekanntes Problem von Data Mining ist die Sicherstellung des rechtskonformen Betriebs einer solchen Raster-Suchmaschine. Denn auch wenn personenbezogene Daten in einem System nicht direkt vorhanden sind oder aufwendig anonymisiert wurden, kann ein entsprechendes Data-Mining-System solche privaten Daten ableiten – gewollt oder ungewollt.

Informatikfachleute, die solche Systeme entwerfen, herstellen, betreiben oder verwenden, müssen daher große Sorgfalt an den Tag legen, um Datenschutzrechte einhalten zu können. Diese Sorgfalt ist teuer und führt im Extremfall sogar dazu, dass ein solches System rechtlich oder ethisch abzulehnen ist. Doch im Falle von Palantir steht alles auf dem Kopf: Aus den Polizeisystemen sollen ja gerade nicht direkt vorhandene Daten abgeleitet werden, um einen Personenbezug herzustellen. Entsprechend umfassend sind die ethischen Fragen, die im Raum stehen.

Der feisten Datenrallye stehen nicht nur ethische Bedenken, sondern auch ein Urteil des höchsten deutschen Gerichts im Weg. Das Bundesverfassungsgericht beschäftigte sich mit zwei Landesgesetzen, die den Polizeien das Palantir-Produkt genehmigt hatten. Die betroffenen Paragraphen des hessischen Sicherheits- und Ordnungsgesetzes und des hamburgischen Gesetzes über die Datenverarbeitung der Polizei wurden 2023 als verfassungswidrig befunden. Das Gericht kritisierte die enorm hohe Streubreite und Intensität der Grundrechtseingriffe.

Der Wilde Westen beim Data-Mining der Polizei ist vorbei

Profiling- und Diskriminierungsvorsorge

Seit den Zeiten von „Big Data“ suggeriert die These „Daten sind das neue Öl“, dass wir es mit einer ungenutzten sprudelnden Quelle zu tun hätten. Warum beschränken höchstrichterliche Urteile – vom Volkszählungsurteil bis zum jüngsten Palantir-Urteil – die Polizei darin, diesen Datenschatz zu heben? Der Grund erschließt sich leicht an typischen Beispielen: In Polizeidatenbanken dürfen zum Beispiel auch Merkmale über Menschen gespeichert werden, die eine „Volkszugehörigkeit“ oder einen „Phänotyp“, die „äußere Erscheinung“ oder Religionszugehörigkeit, verwendete Sprachen, Dialekte oder Mundarten festhalten. Das sind ohne Zweifel höchst sensible Daten, auch mit hohem Diskriminierungspotential.

Denn Datenschutz bedeutet auch Diskriminierungsvorsorge und beschränkt die Profilbildung über Menschen. Die europäische Datenschutzgrundverordnung und die begleitende Richtlinie zum Datenschutz für Justiz und Inneres sind in dieser Hinsicht eigentlich klar formuliert:

Profiling, das zur Folge hat, dass natürliche Personen auf Grundlage von besonderen Datenkategorien nach Artikel 10 [der Richtlinie] diskriminiert werden, ist nach dem Unionsrecht verboten.

Und das Profiling würde im konkreten Falle einer Palantir-Rasterfahndung nicht nur Beschuldigte betreffen, sondern auch eine Vielzahl anderer Personen. Das sind etwa Geschädigte oder Zeugen, sofern ihre Daten in den behördlichen Datenbanken gespeichert und verarbeitet werden.

Auch deswegen gilt der Grundsatz der Zweckbindung. Das bedeutet in einfachen Worten, dass Daten für einen bestimmten Zweck erhoben wurden und nicht einfach ins Blaue hinein umfunktioniert werden können. Also dürfen Personendaten aus Polizeidatenbanken nur dann für einen anderen Zweck verwendet werden, wenn dieser neue Zweck dem Schutz eines mindestens ebenso bedeutenden Rechtsguts dient wie der ursprüngliche Erhebungszweck.

Es bleibt aber eine Tür offen für Palantir und Co.: Denn für präventive Polizeiarbeit, die schwere Straftaten verhindern soll, ist diese Zweckbindung gelockert. Es ist allerdings verfassungsrechtlich umstritten, ob auch automatisierte Datenanalysen die Zweckbindung entkernen können. Immerhin gelten seit dem Palantir-Urteil vom Februar 2023 neue verfassungsrechtliche Anforderungen, die sowohl quantitative als auch qualitative Grenzen setzen, was die Art der Daten betrifft, die von der Software automatisiert ausgewertet werden darf. Es ist demnach nicht verfassungsgemäß, wenn die Polizei „mit einem Klick umfassende Profile von Personen, Gruppen und Milieus“ erstellt.

Bestehende Datenschutzrechte werden ad absurdum geführt

Palantir arbeitet schon heute mit den Polizeien in Hessen, Hamburg und Nordrhein-Westfalen eng zusammen. In welchem Ausmaß und mit welchen Palantir-Softwarefunktionen und wie genau dabei auch höchst sensible Informationen über Menschen verarbeitet werden, ist öffentlich nicht einsehbar und strukturell geheim. Wie die namensgebenden Palantíri in Tokiens „Der Herr der Ringe“ bleiben die Softwaresysteme des Konzerns in geheimen Räumen, nur konzerneigene Hüter haben echten Zugang. Der Konzern Palantir entzieht sich der öffentlichen Diskussion weitgehend und damit der Rechenschaft.

Diese Intransparenz der Polizeiarbeit mit Black-Box-Systemen macht Datenschutzverletzungen quasi über Bande unkenntlich und unkontrollierbar. Es führt zugleich bestehende Datenschutzrechte ad absurdum, die jeder Mensch eigentlich hat: beispielsweise das Recht zu erfahren, welche Daten über einen selbst vorliegen oder deren Löschung oder Berichtigung zu verlangen. Diese Rechte angemessen zu wahren, wird kaum machbar sein. Informationen über Menschen liegen ja dann nicht mehr nur in herkömmlicher Form vor, etwa in einer Datenbank, sondern werden auch innerhalb des „KI“-Systems gespeichert und verarbeitet. Ob und wie Konzerne wie Palantir personenbezogene Informationen in ihren „KI“-Systemen korrigieren oder löschen können, ist eine offene Frage.

Im konkreten Fall von Palantir verbinden sich mit dem Konzern auch noch problematische Motive und nationalistische Ideologien, die von den beiden prominenten Männern der Chefetage des Konzerns offen vertreten werden: Peter Thiel und Alexander Karp. Ausgerechnet diesem Konzern mit seiner undurchsichtigen Überwachungssoftware massenhaft Polizeidaten anzuvertrauen, scheint eine wirklich schlechte Idee.

Es ist daher nicht länger die Frage, ob die Systeme von Palantir und Co. ethisch und rechtlich problematisch sind und gesellschaftsfeindlich und demokratiezerstörend eingesetzt werden könnten, sondern wie dies verhindert werden kann.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Constanze

#automatisierte #palantir #rasterfahndung

Das Jahrbuch Datenschutzrecht 2024 ist soeben im Verlag Österreich erschienen. Madeleine Müller, Heidi Scheichenbauer und David M. Schneeberger haben dazu das Kapitel: "Der Auskunftsanspruch im Zeitalter KI-gestützter Entscheidungsprozesse" beigetragen. Wir wünschen viel Spaß beim Lesen!

#KI #Datenschutz #Auskunft #automatisierte #Entscheidungen #Weiterbildung

researchinstitute.at/neu-jahrb

Ein aufgezogener Vorhang, auf einem Podest steht gut beleuchtet das Jahrbuch Datenschutzrecht 2024 von Herausgeber Dietmar Jahnel

Automatisierte Entscheidungen und künstliche Intelligenz am 20. März: Erfahren Sie von Madeleine Müller und Christof Tschohl, wie Sie automatisierte Entscheidungen rechtskonform und transparent gestalten können – stets im Einklang mit den Vorgaben aus #DSGVO und #AI #Act.

Es gilt ein Early Bird Rabatt bis 2 Wochen vor dem Workshop.

Anmeldung:

researchinstitute.at/academy/2

#Research #Institute #Academy #künstliche #Intelligenz #KI #AI #automatisierte #Entscheidungen #Recht

20. März 2025 9-13:00 Research Institute Academy Seminar: Automatisierte Entscheidungen und Künstliche Intelligenz - Rechtskonformität in der Praxis, Wien, Preis 480€ exkl. UST - 10% Early Bird Rabatt. Nild: Ein Roboter drückt auf einen Button
2024-11-17

@Sebastian

Sodela, ich habe Zeit gefunden deinen Hinweis auszuprobieren und in #Nextcloud mit der Funktion „#Ablauf“ („#Flow“) eine #automatisierte #Benachrichtigung für genau EINE Datei nachzubauen 😍

Man kann Trigger festlegen (hier „Datei aktualisieren“) und gibt den exakten Dateinamen an auf den das angewendet werden soll.

Info kommt nicht als Mail, nur in Nextcloud (Glocke).
Reicht mir.

Clever: Wenn man selbst die Änderung durchführt, erhält man dazu keine Info.

#fedilz #bluelz

Dirk Bachhausendirk@www.bachhausen.de
2024-10-09

Dieser Artikel stammt von Netzpolitik.org.

Automatisierte GesichtserkennungWie das Vermummungsverbot Menschen und Grundrechte gefährdet

Es gibt gute Gründe, auf Versammlungen das Gesicht zu verhüllen. Filmende Neonazis und Polizist*innen zum Beispiel – und die wachsende Bedrohung durch automatisierte biometrische Identifikation. Amnesty International, die Gesellschaft für Freiheitsrechte und die Humanistische Union fordern ein Ende des pauschalen Vermummungsverbotes.


09.10.2024 um 15:56 Uhr
Martin Schwarzbeck – in Demokratiekeine Ergänzungen Die Menschen, die diese Person aufnimmt, dürfen sich nicht vermummen. Und mit aktueller Gesichtserkennungstechnologie lassen sie sich problemlos identifizieren. – Alle Rechte vorbehalten IMAGO / blickwinkel

An der „Packstation“ vor dem Bahnhof Oranienburg stehen Ende September etwa zwei Dutzend junge Menschen. Sie sind hauptsächlich schwarz gekleidet und akkurat frisiert. Dem Anschein nach weitestgehend Träger von Y-Chromosomen. Einer hält eine Flagge hoch, schwarz-weiß-rot mit Adler, zwei tragen ein Banner, auf dem steht: „Es gibt nur zwei, Geschlechter“.

Etwa fünf Meter vor dem Banner steht eine männlich gelesene Person im Minirock. Die ruft: „Ihr Nazis“. Die Angesprochenen antworten gut gelaunt „Ja“ und „Genau“ und grölen im Chor: „Wer Deutschland nicht liebt, soll Deutschland verlassen“. Einer der Nazis hält sein Handy in Brusthöhe auf den Mensch im Minirock gerichtet, er filmt scheinbar auch die fünf, sechs anderen Personen, die seiner Gruppe gegenüberstehen.

Beide Parteien sind wegen des CSD Oberhavel hier, einer Queer-Pride-Demo im brandenburgischen Oranienburg. Die Rechtsradikalen wollen dagegen protestieren. Ihnen gegenüber stehen Unterstützer*innen der Vielfaltsdemonstration. Einige tragen FFP2-Masken.

Feindesliste per Gesichtersuchmaschine

Nach dem Bundesversammlungsgesetz ist es verboten, zum Schutz der Identität auf Freiluftversammlungen das Gesicht zu verhüllen. Bis zu ein Jahr Haft droht der entsprechende Paragraf an. Allein das Mitführen von Vermummungsutensilien kann eine Geldbuße von bis zu 500 Euro nach sich ziehen. Das sogenannte Vermummungsverbot ist schon immer verfassungsrechtlich umstritten. Mit den neuen technischen Möglichkeiten zur biometrischen Identifikation wird es zur Gefahr für die Demokratie.

Frei zugängliche Gesichtersuchmaschinen verweisen, wenn man eine Aufnahme einer Person hochlädt, auf andere Bilder des gleichen Menschen im Internet. Und da steht dann oft auch der Name dabei, oder die Arbeitsstelle oder zum Beispiel ein Verein, in dem sich die Person bewegt. Extrem praktisch, wenn man eine Feindesliste aufbauen will, oder politische Gegner privat angreifen. Und extrem bedrohlich, wenn man gerade als männlich gelesene Person im Minirock einer Bande Neonazis gegenübersteht.

Lena Rohrbach, Expertin für Menschenrechte im digitalen Zeitalter bei Amnesty International, sagt: „Es gibt Bereiche in Deutschland, da muss man sehr viel Mut haben, noch auf eine queere Demo oder eine Demo gegen Rassismus zu gehen. Und es ist verständlich, wenn Menschen sich da lieber bedecken möchten. Es muss grundsätzlich möglich sein, anonym zu demonstrieren, um sich vor staatlicher Überwachung, aber auch vor Racheakten durch einzelne gesellschaftliche Gruppen wie zum Beispiel Rassistinnen und Rassisten zu schützen, insbesondere da wo menschenrechtsfeindliche Kräfte zunehmend an die Macht kommen.“

„Relikt überkommener Gesinnungspolitik“

Zum Problem könne auch die Identifizierung durch ausländische Geheimdienste werden. „Es gibt Fälle von Menschen, die bei der Heimreise in den Iran festgenommen wurden, weil sie hier auf einer Demonstration waren“, sagt Rohrbach.

David Werdermann, Jurist bei der Gesellschaft für Freiheitsrechte (GFF), sagt: „Da ist das Recht auf informationelle Selbstbestimmung berührt, wenn man nicht anonym an Versammlungen teilnehmen kann. Das berührt mittelbar auch die Versammlungsfreiheit, wenn man, sei es aus Angst vor Infektionen oder Repressalien sich gehindert sieht, an einer Versammlung teilzunehmen. Es ist in bestimmten Regionen und bestimmten Themen eine reale Bedrohung, dass nach einer Demonstration die Nazis vor der Tür stehen. Das kann Leute davon abhalten, von ihrem Grundrecht auf Versammlungsfreiheit Gebrauch zu machen.“

Philip Dingeldey von der Humanistischen Union sagt: „Das Recht auf Anonymität von Demonstrierenden oder Versammelten wiegt höher als etwaige polizeiliche Wünsche nach einer erleichterten Strafverfolgung. Der Zwang, auf einer Demo identifizierbar zu sein, ist ein Relikt überkommener Gesinnungspolitik und war schon im 20. Jahrhundert illegitim. Eine biometrische Identifizierung verschärft diesen Aspekt.“

„Eine provokative, ins aggressive kippende Stimmung“

An den Seiten des Oranienburger Bahnhofsvorplatzes stehen Polizist*innen. Auch sie filmen. Weil „sich mehrere Personen gegenüber der Gegendemo zum CSD aufgebaut hatten, lautstark in Richtung der Gegendemonstration riefen, Transparente hochhielten und sich eine provokative, ins Aggressive kippende, Stimmung aufbaute, sodass die Polizeibeamten den Anschein hatten, dass es hier zu Beleidigungen oder Körperverletzungen kommen konnte“, wie die zuständige Polizeipressestelle auf netzpolitik.org-Anfrage schreibt.

Seit 2008 nutzt das Bundeskriminalamt einen automatisierten biometrischen Abgleich mit Fotos aus erkennungsdienstlichen Behandlungen zur Ermittlung von Straftäter*innen. Künftig sollen Polizist*innen, so das „Sicherheitspaket“ der Bundesregierung, Bilder von Personen mit Fotos aus dem Internet abgleichen können, um Straftäter*innen, Zeug*innen oder Asylsuchende zu identifizieren.

David Werdermann von der Gesellschaft für Freiheitsrechte sagt: „Unter diesen Fotos können auch Bilder von Demonstrationen sein, das erhöht das Eingriffsgewicht des biometrischen Datenabgleichs.“ Eigentlich müsse der Staat gegen die privaten Datenbanken vorgehen, statt eigene aufbauen zu wollen. Da die Möglichkeiten zur biometrischen Identifikation aber immer zugänglicher würde, sei es umso wichtiger, eine Möglichkeit zu schaffen, sich anonym auf Versammlungen zu bewegen. „Das wäre das Mindeste. Es würde die Folgen des unverhältnismäßigen Eingriffs in die Grundrechte zumindest abmildern“, sagt Werdermann.

„Wir haben Sie videografiert“

Auch Lena Rohrbach von Amnesty International sieht „zahlreiche Punkte, die in Frage stellen, ob das Vermummungsverbot menschenrechtlich haltbar und zeitgemäß ist.“ Es sei ein wichtiger Teil von Versammlungen geworden, dass man sie online teilt. „Alleine auf der Straße kriegt man selten die ganze Aufmerksamkeit. Zivilgesellschaftliche Organisationen wie Amnesty teilen deshalb Fotos und Videos ihres Protestes auch auf Social Media. Und diese Materialien dürften nach dem jetzigen Entwurf künftig alle ausgewertet werden“, sagt sie.

Zurück bei der Queer-Pride-Parade: Eine Gruppe Polizist*innen geht auf die maskierten CSD-Unterstützer*innen zu und fordert sie auf, die Masken abzulegen. Der wortführende Polizist erwähnt das Vermummungsverbot und warnt: „Wir haben Sie videografiert.“

Die zuständige Polizeipressestelle schreibt auf netzpolitik.org-Anfrage: „Zu den Versammlungslagen lagen Erkenntnisse vor, dass es aus den Versammlungen zu Störungen – wie Beleidigungen, Körperverletzungen etc. – kommen könnte. Einige Personen verhielten sich gegenüber den Gegendemonstranten und auch den Polizeibeamten provokant und störend. Diese wurden auf ihr Verhalten angesprochen und darauf hingewiesen, dass das Tragen der Maske mit dem Ziel der Identitätsverschleierung verboten ist (…)“ Die CSD-Unterstützer*innen nehmen die Masken ab.

Das Vermummungsverbot sägt an wichtigen Säulen der Demokratie

Das Vermummungsverbot kann Menschen in Gefahr bringen, wenn sie ihre demokratischen Grundrechte auf Versammlungs- und Meinungsfreiheit ausüben. FFP2-Masken schützen Leben, auch als Anonymisierungsinstrument.

Lena Rohrbach von Amnesty International sagt: „Jede Restriktion der Versammlungs- und der Meinungsfreiheit ist ein Einschnitt in diese Menschenrechte. Das heißt, sie muss einem legitimen Ziel genügen und sie muss verhältnismäßig sein. Eine pauschale Einschränkung wie das Vermummungsverbot ist nicht verhältnismäßig.“

Jede Überwachungsmaßnahme gehe mit Einschüchterungseffekten einher, die Menschen davon abhalten können, ihre Grundrechte zu nutzen. „Und die Versammlungsfreiheit und die damit eng verbundene Meinungsfreiheit sind einfach total wichtige Säulen der Demokratie. Das sind jenseits von Kreuzchen machen die zentralen Möglichkeiten für Bürger*innen und Bürger ihre politische Meinung auszudrücken.“

Die Versammlungsfreiheit für die Zukunft schützen

In anderen Ländern würden Demonstrierende bereits per biometrischer Massenüberwachung identifiziert. „Meine Kollegin aus dem Bereich Russland sagt: ,Früher war das Risiko, bei einer Demonstration verprügelt zu werden. Heute ist das Risiko, dass die russischen Behörden Wochen nach einer Demonstration plötzlich bei dir vor der Tür stehen, weil sie dich mit biometrischer Technologie identifiziert haben.“ Auch in Deutschland gäbe es ein Erstarken menschenrechtsfeindlicher, populistischer Kräfte. „Deshalb ist es wichtig, das Recht auf Versammlungsfreiheit auch für die Zukunft zu schützen“, sagt Lena Rohrbach.

Das Vermummungsverbot wurde, gleichzeitig mit dem Verbot der „Schutzbewaffnung“ in den 80er-Jahren eingeführt, als Reaktion auf Autonome mit Motorradhelmen, die sich Straßenschlachten mit der Polizei lieferten. Zunächst galt es nur in gewalttätigen Menschenmengen und wenn die Polizei zuvor zum Ablegen der Vermummung aufgefordert hatte, dann wurde die Vermummung generell zur Straftat heraufgestuft.

Auch in der aktuellen Rechtsprechung gibt es die Annahme, dass das Auftreten Vermummter die Bereitschaft zur Gewalt und zur Begehung von Straftaten indiziere. David Werdermann von der Gesellschaft für Freiheitsrechte sieht das durch die Erfahrungen aus der Corona-Pandemie widerlegt: „Da gab es teilweise ein Vermummungsgebot. Alle mussten FFP2-Masken tragen. Und die Demonstrationen sind nicht regelmäßig eskaliert, obwohl die Leute vermummt und nicht identifizierbar waren“, sagt er. Die Corona-Pandemie habe gezeigt dass das Verbot in dieser Pauschalität nicht erforderlich sei.

Vermummt und trotzdem friedlich

Philip Dingeldey von der Humanistischen Union sagt: „Von Demonstrationen mit vermummten Personen geht nicht per se ein höheres Gefahrenpotenzial aus. So haben auch Demonstrationen während der Pandemiejahre gezeigt, dass Versammlungen nicht alleine durch die Vermummung, wie das Tragen einer Atemschutzmaske, gefährlich werden, sondern diese in der Regel friedlich ablaufen.“

Es ist es auch heute noch erlaubt, die Maske zum Schutz vor Infektionen auf Versammlungen zu tragen. „Bei Personen, die einer besonderen Gefährdung ausgesetzt sind, ist es total plausibel, dass man die aus gesundheitlichen Gründen trägt. Aber bei anderen Personen könnte ich mir vorstellen, dass Polizei und Justiz das als Schutzbehauptung zurückweisen“, sagt David Werdermann.

Bei Versammlungen unter freiem Himmel darf man sein Gesicht nicht mit dem Ziel unkenntlich machen, es unkenntlich zu machen. Aber es gibt viele Gründe, die bei guter Argumentation und im passenden Einzelfall von Polizei und Gerichten als Rechtfertigung für eine Vermummung auf Versammlungen akzeptiert werden.

Welche Masken wann erlaubt sind

Verschiedene Gerichte haben bereits als rechtmäßig anerkannt: Tiermasken gegen die Patentierung vom Leben, Totenkopfmasken gegen den Krieg, Strahlenschutzanzüge gegen Atomkraftwerke, Politiker*innen-Masken, Fetischmasken auf dem Christopher Street, Bettlaken, in die sich Aidskranke verhüllen um gegen ihre Registrierung zu demonstrieren und Guy-Fawkes-Masken bei Versammlungen gegen Telekommunikationsüberwachung. Es kann auch erlaubt sein, sein Gesicht vor dem Wetter zu schützen.

Vom Vermummungsverbot ausgenommen sind „Gottesdienste unter freiem Himmel, kirchliche Prozessionen, Bittgänge und Wallfahrten, gewöhnliche Leichenbegängnisse, Züge von Hochzeitsgesellschaften und hergebrachte Volksfeste.“ Also auch Fasching, beziehungsweise Karneval. Lena Rohrbach sagt: „Von der Religionsfreiheit abgedeckt ist auch das Tragen eines Hijab aus religiösen Gründen.“

Laut dem wissenschaftlichen Dienst des Bundestages gilt das Vermummungsverbot nicht, wenn sich jemand hinter einem Transparent verbirgt, es gilt nicht für Polizist*innnen, Passant*innen oder fliegende Händler*innen und auch nicht, wenn die Identität einer Person bereits bekannt ist.

Die Maske hilft auch gegen Angst vorm Arbeitgeber

Legal sei auch, sein Gesicht zu verhüllen, um seine Identität vor gewaltbereiten politischen Gegner*innen zu verschleiern, so der wissenschaftliche Dienst, oder auch gegenüber ausländischen Geheimdiensten. „Ein berechtigtes Interesse an der Feststellung der Identität eines Versammlungsteilnehmers haben nur die Polizei und die Versammlungsbehörde“, schreiben die Autor*innen.

Die Rechtsprechung sieht allerdings anders aus. Laut dem Oberlandesgericht Karlsruhe ist es unerheblich, ob die Identität gegenüber den Strafverfolgungsbehörden verschleiert werden soll oder gegenüber Gegendemonstrant*innen oder zum Beispiel auch dem Arbeitgeber. Lena Rohrbach von Amnesty International sagt: „Eine Freundin von mir arbeitet für einen SPD-Abgeordneten und hat an einer Demo teilgenommen, die sich explizit gegen eine SPD-Maßnahme richtete. Die wollte da verständlicherweise gerne unerkannt bleiben. Es gibt viele gute Gründe für eine Maskierung.“

In der Hälfte der Bundesländer gilt noch das Bundesversammlungsgesetz. Die andere Hälfte hat inzwischen eigene Versammlungsgesetze erlassen. Die meisten bilden das Bundesversammlungsgesetz sehr genau nach, einige haben das Vermummungsverbot so konkretisiert, dass es nur eine Vermummung verbietet, die das Ziel hat, die Identität gegenüber der Polizei zu verschleiern.

Wo man sich gegen Identifizierung durch Gegendemonstrant*innen maskieren darf

In Berlin sollte man heil davonkommen, wenn man eine Maske aufsetzt, wenn aus der Gegendemo heraus gefilmt wird. In Hessen ist die Vermummung ebenfalls nur illegal, wenn sie sich gegen die „hoheitliche“ Identifizierung richtet. „Zielrichtung ist also die Verhinderung der Identifizierung durch die Behörden, nicht durch Dritte“, schreibt das hessische Innenministerium auf netzpolitik.org-Anfrage.

In Schleswig-Holstein ist die Vermummung nur eine Ordnungswidrigkeit, die mit maximal 1.500 Euro geahndet wird.

Nordrhein-Westfalen schränkt das Vermummungsverbot so ein, dass eine Vermummung nur illegal ist, wenn sie eine Identitätsermittlung zum Zwecke der Strafverfolgung verhindern soll. Dabei ist allerdings die Maskierung strafbewehrt ohne dass vorher per Anordnung konkretisiert wird, was denn nun alles unter Vermummung fällt.

Die Liste der verbotenen Gegenstände

Die GFF hält das für verfassungswidrig und beruft sich dafür auf einen Beschluss zu Ordnungswidrigkeiten im Landesversammlungsgesetz von Bayern. Sie hat Verfassungsbeschwerde gegen das Versammlungsgesetz von Nordrhein-Westfalen eingelegt. Und diese Beschwerde sei nur beispielhaft, so David Werdermann. Alle acht Bundesländer, in denen noch das Bundesversammlungsgesetz gilt, hätten das gleiche verfassungsrechtliche Problem und müssten deshalb dringend verfassungskonformes Landesrecht schaffen, so Werdermann.

Hessen und Berlin fordern mit ihren Landesversammlungsgesetzen eine konkrete Liste der verbotenen Gegenstände von der Versammlungsbehörde. Der entsprechende „Beschränkungsbescheid“ wird, so die Polizei Berlin auf netzpolitik.org-Anfrage, meist vor der jeweiligen Versammlung der Versammlungsleitung zugestellt, könne aber auch spontan angepasst werden. Einen beispielhaften Beschränkungsbescheid wollte die Polizei Berlin nicht herausgeben.

Das hessische Innenministerium schreibt: „Die behördliche Anordnung gibt der von ihr betroffenen Person die Möglichkeit, die davon erfassten Gegenstände abzulegen oder auf andere Weise der Vollziehung der Anordnung zuvorzukommen.“ Das ist schon ein Fortschritt.

Vermummungsverbot nur im begründeten Einzelfall

Die für diesen Text interviewten zivilgesellschaftlichen Organisationen fordern, das Vermummungsverbot noch weiter zurück zu nehmen. Lena Rohrbach von Amnesty International sagt: „Es darf kein pauschales Vermummungsverbot geben. Es müsste so geregelt sein, dass ein Vermummungsverbot nur im Einzelfall angeordnet werden kann, wenn es wirklich unerlässlich ist zur Abwendung von Gefahren für die öffentliche Sicherheit und Ordnung – wenn es seitens der Personen zu Straftaten gekommen ist oder mit sehr guten Gründen davon ausgegangen werden kann, dass erhebliche Straftaten auf dieser Demonstration begangen werden.“

David Werdermann von der Gesellschaft für Freiheitsrechte unterstützt die Position. Er sagt: „Vernünftig wäre es, das Vermummungsverbot so auszulegen, dass es nur gilt, wenn Straftaten begangen werden oder drohen. Im Idealfall müsste es vorher von der Polizei angeordnet werden. Dann kann man sich entscheiden, ob man die Maske abnimmt oder die Versammlung verlässt, weil man seine Anonymität nicht aufgeben will. In jedem Fall hätte man die Sicherheit, dass man sich vor der polizeilichen Anordnung nicht strafbar macht.“

Die Humanistische Union würde das Vermummungsverbot abschaffen. Ein Kommentar des UN-Menschenrechtsausschuss zur Versammlungsfreiheit fordert ebenfalls ein Recht auf einen anonymen Versammlungs-Besuch.

Die einen Videos werden umgehend gelöscht, die anderen vielleicht nie

Laut Oberlandesgericht Karlsruhe steht das Vermummungsverbot all den vernünftigen Gründen zur Maskierung allerdings gar nicht entgegen. Denn Versammlungsleitende dürfen Ausnahmen vom Vermummungsverbot bei der Versammlungsbehörde beantragen. Das ist dann so ziemlich das Gegenteil vom Grundrecht auf anonymen Versammlungsbesuch.

Ein derartiger Antrag wird wohl in den allermeisten Fällen abgewehrt. Vielleicht hätten es die antifaschistisch orientierten CSD-Unterstützer*innen in Oranienburg dennoch mal versuchen sollen, einen Vermummungsantrag zu stellen. Jetzt müssen sie mit der Unsicherheit leben, ob die politischen Gegner später Fotos und Videos durch Biometriesysteme jagen und irgendwann mal zum Hausbesuch vorbeikommen.

Zumindest von der Polizei haben sie nichts zu befürchten. „Die Situation beruhigte sich, ohne dass Straftaten begangen wurden“, schreibt die zuständige Polizeipressestelle. Die polizeilichen Videoaufnahmen seien umgehend gelöscht worden.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Martin Schwarzbeck

https://www.bachhausen.de/automatisierte-gesichtserkennung-wie-das-vermummungsverbot-menschen-und-grundrechte-gefaehrdet/

#automatisierte #gefahrdet #gesichtserkennung #grundrechte #menschen #vermummungsverbot

Automatisierte Gesichtserkennung: Wie das Vermummungsverbot Menschen und Grundrechte gefährdet
Dirk Bachhausendirk@www.bachhausen.de
2024-09-25

Dieser Artikel stammt von Netzpolitik.org.

Automatisierte GesichtserkennungDatenschutzkonferenz fordert Beschränkungen

Die Datenschutzkonferenz warnt vor Grundrechtsverletzungen durch automatisierte Gesichtserkennungssysteme und fordert zusätzliche Schutzmechanismen. Dem Einsatz der Systeme müssten juristisch enge Grenzen gesetzt werden.


25.09.2024 um 15:54 Uhr
Lilly Pursch – in Überwachungkeine Ergänzungen Auch in Videos kann sogenannte KI automatisiert Gesichter erkennen. – Alle Rechte vorbehalten IMAGO / Manfred Segerer

Deutsche Behörden nutzen ohne konkrete Rechtsgrundlage vielfach automatisierte Gesichtserkennung. Nun will die Ampel-Regierung biometrische Fahndung erlauben. Die Datenschutzkonferenz (DSK) warnt vor den tiefen Grundrechtseingriffen.

Die DSK sieht den Einsatz von Gesichtserkennungssystemen, insbesondere im öffentlichen Raum, als Gefahr für die Grundrechte an, auch weil zahlreiche Personen erfasst werden, „die dafür keinerlei Anlass gegeben haben“.

Alexander Roßnagel, Vorsitzender der DSK, sagt: „Maßnahmen, die so tief in Grundrechte vieler Menschen eingreifen, setzen eine spezifische gesetzliche Grundlage voraus.“ Der Ausgestaltung einer solchen Rechtsgrundlage seien durch europäisches und deutsches Recht enge Grenzen gesetzt. Roßnagel nennt die EU-KI-Verordnung und EU-Grundrechtecharta, sowie das deutsche Grundgesetz und die Landesverfassungen als juristische Leitplanken.

„Schutz hochrangiger Rechtsgüter“

Der Einsatz von automatisierter Gesichtserkennung müsse, sofern er überhaupt zulässig sei, „zum Schutz hochrangiger Rechtsgüter zwingend erforderlich und je nach Einsatzszenario und Eingriffsintensität an angemessene Voraussetzungen gebunden sein.“ Die Rechtsgrundlage für den Einsatz müsse ausreichende Anforderungen an den Grundrechtsschutz und zusätzliche Schutzmechanismen vorsehen.

In der DSK tagen die Datenschutzbehörden der Länder und des Bundes. Ihre Mission: die Datenschutzgrundrechte wahren und das Datenschutzrecht weiterentwickeln. In halbjährlichen Entschließungen veröffentlichen sie datenschutzrechtliche Empfehlungen und Stellungnahmen, die nicht rechtlich bindend sind. Die Entschließungen werden stets einstimmig verabschiedet.

Diese Entschließung ist besonders aktuell, denn gerade wird das sogenannte „Sicherheitspaket“ der Bundesregierung heiß verhandelt. Um die Identifizierung von Tatverdächtigen oder gesuchten Personen zu vereinfachen, soll die Polizei in Zukunft Fotos und Stimmdaten mit öffentlich zugänglichen Internetdaten abgleichen können. Und das Bundesamt für Migration und Flüchtlinge (BAMF) soll durch einen biometrischen Abgleich von Internetdaten Identitäten von Asylsuchenden ermitteln.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Lilly Pursch

https://www.bachhausen.de/automatisierte-gesichtserkennung-datenschutzkonferenz-fordert-beschraenkungen/

#automatisierte #beschrankungen #datenschutzkonferenz #fordert #gesichtserkennung

Automatisierte Gesichtserkennung: Datenschutzkonferenz fordert Beschränkungen
Dirk Bachhausendirk@www.bachhausen.de
2024-09-12

Dieser Artikel stammt von Netzpolitik.org.

Big Data bei den GeheimdienstenDie Ampel muss automatisierte Analysen begrenzen

Über den Einsatz automatisierter Datenanalysesoftware durch Bundespolizei und BKA wird intensiv gestritten. Die Nachrichtendienste bleiben bei dieser Debatte außen vor. Dabei nutzen sie solche Werkzeuge seit vielen Jahren ohne ausreichende rechtliche Beschränkungen – mit potenziell schweren Folgen für unsere Grundrechte.


12.09.2024 um 16:17 Uhr
Gastbeitrag, Corbinian Ruckerbauer und Lilly Goll – in Überwachungkeine Ergänzungen Geheimdienstmitarbeiter bei der Big-Data-Analyse. Symbolbild. – Public Domain Midjourney

Corbinian Ruckerbauer und Lilly Goll arbeiten für den Berliner Think Tank interface (ehemals Stiftung Neue Verantwortung). Im Programm Digitale Grundrechte, Überwachung und Demokratie beschäftigen sie sich mit der rechtsstaatlichen Kontrolle von Nachrichtendiensten. Im Rahmen einer Impulsreihe zur anstehenden Reform des Nachrichtendienstrechts, haben sie kürzlich ein Papier zur Nutzung von Big Data durch Geheimdienste erstellt.

Die Ampelkoalition will BKA und Bundespolizei zukünftig erlauben, Programme zur automatisierten Datenanalyse einzusetzen. Der wahrscheinlich bekannteste Anbieter für solche Software, die von Sicherheitsbehörden zur Auswertung großer Datenmengen genutzt wird, ist das US-Unternehmen Palantir. Mehrere Bundesländer nutzen Software dieses Unternehmens – für die Bundesebene soll Berichten zufolge eine andere Lösung bevorzugt werden.

Aber nicht nur Polizeibehörden nutzen in Deutschland solche Tools. Auch deutsche Nachrichtendienste setzen sie ein, um aus großen Datenmengen relevante Informationen herauszufiltern. Warum sie das tun, ist erst einmal einleuchtend: Ihre Arbeit kann dadurch effektiver werden, bisher verborgene Informationen über Gefährdungslagen sind im Zweifelsfall schneller sichtbar.

Doch der Einsatz hochpotenter Analysetools hat seinen Preis. Wer sie einsetzt, kann sensible Informationen zu Tage fördern, die tiefe Einblicke in die Privatsphäre von Menschen erlauben. Ein Grundsatz unseres demokratischen Rechtsstaats lautet: Solche schwerwiegenden Eingriffe in unsere Privatsphäre und in andere Grundrechte sind nur dann rechtens, wenn sie in einem angemessenen Verhältnis zum verfolgten Ziel stehen. Es ist Aufgabe des Gesetzgebers, hierfür die notwendigen Sicherungsmaßnahmen zu schaffen.

Deutsche Nachrichtendienste arbeiten seit 2014 mit solchen Werkzeugen

Der Gesetzesentwurf über den Einsatz solcher Analysetools bei der Polizei ist umstritten. Kritische Stimmen bemängeln unter anderem die weit gefasste Befugnis, die viele Anwendungsfälle und immense Datensammlungen umfasst, die niedrigen Eingriffsschwellen, sowie die mangelhafte datenschutzrechtliche Kontrolle. So umstritten dieser Gesetzesentwurf ist: Er erkennt zumindest grundsätzlich an, dass solche schweren Grundrechtseingriffe eine gesetzliche Grundlage und bestimmte Sicherungsmaßnahmen benötigen.

Blickt man auf die Nachrichtendienste, ergibt sich ein völlig anderes Bild. Der Gesetzgeber verschließt die Augen vor der Tatsache, dass die Anwendung solcher Analysetools tief in Grundrechte eingreift. Und das, obwohl deutsche Dienste schon mindestens seit 2014 mit solchen Werkzeugen arbeiten.

Rechtsextreme Kräfte sind auf dem Vormarsch.

Wir halten mit unserer Arbeit dagegen.

Jetzt spenden

Im Jahr 2015 berichtete netzpolitik.org über interne Haushaltspläne des Bundesverfassungsschutzes. Demnach richtete der Dienst Referate ein, die diese Fähigkeiten aufbauen sollten. Beispielsweise sollte ermöglicht werden, anhand von Verkehrsdaten aus der Fernmeldeaufklärung detaillierte Kommunikations- und Beziehungsnetzwerke zu erstellen.

Verkehrsdaten ermöglichen Bewegungs-, Persönlichkeits-, und Verhaltensprofile

Solche Verkehrsdaten genießen einen deutlich geringeren rechtlichen Schutz als die Inhalte der erfassten Kommunikationsvorgänge. Sie enthalten aber mitunter genauso sensible Informationen – vor allem wenn die Behörden leistungsfähige Technologien einsetzen, mit denen sie aus großen Datenmengen neue personenbezogene Informationen generieren können.

Die Nachrichtendienste können solche Technologien nicht nur zum Erstellen von Kommunikations- und Beziehungsnetzwerken, sondern auch für andere Zwecke nutzen. Abhängig von den vorhandenen Daten können die Dienste beispielsweise auch Bewegungs-, Persönlichkeits- oder Verhaltensprofile erstellen. Auch könnten solche Anwendungen eingesetzt werden, um statistische Besonderheiten zu erkennen oder Prognosen über das Verhalten von Personen zu treffen.

Zur Veranschaulichung: Kaufen Nachrichtendienste große Mengen von Bewegungsdaten, wie sie von Datenhändlern angeboten werden, können Sie mit der geeigneten Software sensible Informationen daraus generieren. Welche Menschen hat die beobachtete Person getroffen, an welchen Demonstrationen nimmt sie teil und welche Ärzt:innen sucht sie auf. Betroffen sind meist nicht nur einzelne Personen. Wegen der großen Datenmengen, die moderne Analysetools bewältigen können, ist eine große Anzahl von Menschen berührt, deren Verhalten dazu keinerlei Anlass gegeben hat. Damit erhöht sich der Überwachungsdruck.

Potenzielle Einschüchterung

Das kann einschüchternd wirken – so sehr, dass Menschen möglicherweise davor zurückschrecken, ihre Freiheitsrechte wahrzunehmen. Es liegt auf der Hand, dass ein solches Gefühl allgegenwärtig möglicher Überwachung sich negativ auf demokratische Prozesse und das Vertrauen der Bürger:innen in den Staat auswirkt.

×

20 Euro für 20 Jahre

Zudem wächst die Menge an verfügbaren Daten immer weiter, je mehr digitale Technologien in alle Lebensbereiche vordringen. Und die Nachrichtendienste erschließen neue Quellen zur Beschaffung großer Datenmengen.

Blackbox selbstlernende Algorithmen

So kaufen sie zum Beispiel Daten aus dem Werbemarkt oder erfassen systematisch öffentlich zugängliche Daten – ohne dass die gleichen Voraussetzungen gelten wie für traditionelle Erhebungsmethoden wie die Fernmeldeaufklärung. Außerdem steigt auch die Leistungsfähigkeit der Datenanalysetools und die verfügbare Rechenkraft.

Und noch etwas kommt beim Einsatz automatisierten Datenanalysetools hinzu: Je komplexer die Analyse, desto schwerer lässt sich nachvollziehen, was da eigentlich wie analysiert wurde. Das gilt insbesondere dann, wenn selbstlernende Algorithmen zum Einsatz kommen. Dieser Blackbox-Effekt erschwert die Kontrolle durch unabhängige Stellen und den Zugang zu effektivem Rechtsschutz gegen den missbräuchlichen Einsatz für die Betroffenen.

All diese Faktoren verschärfen die Grundrechtseingriffe, die mit dem Einsatz solcher Technologien verbunden sind. So sah es im vergangenen Jahr auch das Bundesverfassungsgericht in seinem Urteil zum Einsatz von Big Data durch Landespolizeien. Damit der Einsatz dennoch mit dem Grundgesetz vereinbar ist, sind zwei Dinge nötig: Zunächst einmal braucht es eine spezifische gesetzliche Ermächtigungsgrundlage. Darüber hinaus müssen Vorkehrungen getroffen werden, die sicherstellen, dass der Eingriff verhältnismäßig bleibt.

Es braucht eine verfassungskonforme rechtliche Grundlage

Dass die Nachrichtendienste danach streben, ihre Fähigkeiten zur Informationsbeschaffung immer weiter zu verbessern, ist nachvollziehbar. Es ist gewissermaßen Teil ihres Arbeitsauftrags. Doch auch dem Gesetzgeber kommt in diesem Zusammenhang ein Auftrag zu: Er muss den gesetzlichen Rahmen weiterentwickeln, um zu gewährleisten, dass die Arbeit der Nachrichtendienste mit dem Grundgesetz vereinbar ist.

Genau das ist der Gesetzgeber den Bürger:innen aber bisher schuldig geblieben. Das Recht hinkt der Realität des Einsatzes hinterher. Hier muss die Ampelkoalition deshalb dringend handeln: Sie sollte die anstehende Reform des Nachrichtendienstrechts nutzen und die Praxis der automatisierten Datenanalyse endlich auf eine verfassungskonforme rechtliche Grundlage stellen.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Gastbeitrag

https://www.bachhausen.de/big-data-bei-den-geheimdiensten-die-ampel-muss-automatisierte-analysen-begrenzen/

#ampel #analysen #automatisierte #begrenzen #geheimdiensten

Big Data bei den Geheimdiensten: Die Ampel muss automatisierte Analysen begrenzen
Dirk Bachhausendirk@www.bachhausen.de
2024-03-19

Dieser Artikel stammt von Netzpolitik.org.

Der Polizei in Bayern fehlt eine Rechtsgrundlage für den aktuellen Testeinsatz von Palantir-Software. Der bayerische Datenschutzbeauftragte fordert, den Test der Analyse-Software einzustellen. Auch die Wissenschaftlichen Dienste des Bundestags begründen nun, warum sie die Erprobung mit Daten echter Menschen für rechtswidrig halten.

Die Palantir-Software soll Polizeidatenbanken miteinander verbinden. Der Testbetrieb läuft mit Daten echter Menschen. (Diffusion Bee)

Schon seit März 2023 nutzt die bayerische Polizei Palantir, eine automatisierte Analysesoftware, die Polizei-Datenbanken miteinander verknüpft. Nun gibt es Widerstand gegen den Testbetrieb der Software, die tief in Grundrechte eingreift. Wie vergangene Woche der Bayerische Rundfunk (BR) berichtete, soll das Bayerische Landeskriminalamt den Testbetrieb stoppen, weil er rechtswidrig sei.

Der zuständige bayerische Landesdatenschutzbeauftragte Thomas Petri hatte durch eine journalistische Recherche erfahren, dass ein Testbetrieb mit Echtdaten tatsächlicher Menschen läuft. Er kündigte im November 2023 an, das Vorgehen des Landeskriminalamtes rechtlich zu prüfen. Er kam nun zu dem Ergebnis, dass eine Rechtsgrundlage fehle und daher der Testeinsatz enden müsse.

Darüber hinaus verweist der BR auch auf eine aktuelle Ausarbeitung der Wissenschaftlichen Dienste des Bundestags vom 17. Januar 2024, die nun öffentlich zugänglich ist. Darin geht es auch um die Testbetrieb der Palantir-Software in Bayern, die mit einem Zugriff auf Echtdaten von Menschen stattfindet. Die Wissenschaftlichen Dienste prüfen in der Ausarbeitung mögliche Rechtsgrundlagen und kommen ebenfalls zu dem Ergebnis, dass der Testbetrieb der Datenanalysesoftware nicht legitimiert ist.

Karlsruhe warnt, Bayern testet trotzdem

Seit 2022 verfügt das Bayerische Landeskriminalamt über die Software des US-Konzerns, der in Deutschland durch die Palantir Technologies GmbH vertreten wird. Die Behörde hat der Software den Namen „Verfahrensübergreifendes Recherche- und Analysesystem“ (VeRA) gegeben. Nach einer europaweiten Ausschreibung war der Zuschlag an Palantir erteilt worden. Das auf Überwachung und Datenanalyse spezialisierte Unternehmen soll mit VeRA verschiedene Datenbanken der Polizei verknüpfen.

Beim Einsatz solcher Software kommt es zu erheblichen Grundrechtseingriffen, wie das Bundesverfassungsgericht in seiner Palantir-Entscheidung vom 16. Februar 2023 unterstrichen hat. Der Gesetzgeber in Bayern hat dennoch vor dem Test keine Rechtsgrundlage geschaffen. Es liegt bisher im Freistaat noch nicht einmal ein entsprechender Entwurf vor. Dabei müsste sich die heimliche Überwachungsmaßnahme an den neuen Vorgaben aus Karlsruhe messen.

Das Urteil macht detailreiche verfassungsrechtliche Vorgaben für den Einsatz von Software wie Palantir beziehungsweise VeRA, an die Gesetzgeber gebunden sind. Das Gericht wird zudem auch in naher Zukunft im Streit um die automatisierte polizeiliche Datenanalyse wieder angerufen werden, denn die GFF hat bereits eine neuerliche Verfassungsbeschwerde angekündigt. In diesem Fall geht es um ein anderes Bundesland: Aus Sicht der GFF missachtet eine Neuregelung in Hessen nach dem Urteil aus Karlsruhe die grundrechtlichen Vorgaben. Zusätzlich läuft bereits eine weitere Verfassungsbeschwerde gegen die gesetzliche Regelung zur automatisierten Datenanalyse im Bundesland Nordrhein-Westfalen.

Die anderen Bundesländer blicken nach Bayern

Die Wissenschaftlichen Dienste schreiben in ihrer Ausarbeitung, dass die neuen Anforderungen aus dem Karlsruher Urteil auch für einen Testbetrieb gelten müssen, wenn die Erprobung mit Echtdaten läuft. Das ist in Bayern unbestritten der Fall. „Der Testbetrieb ist an den gleichen rechtlichen Voraussetzungen zu messen wie der Einsatz von Datenanalyseinstrumenten in der Polizeiarbeit.“ Die Begründung dafür sind die schweren Grundrechtseingriffe, die echte Menschen betreffen. In welche Grundrechte bei einer automatisierten polizeilichen Auswertung von Datenbanken wie eingegriffen wird, hatten die Wissenschaftlichen Dienste bereits 2020 analysiert.

Das aktuelle bayerische Polizeiaufgabengesetz genüge als Rechtsgrundlage nicht, halten die Wissenschaftlichen Dienste nun fest. Zwar könne das Gesetz eine Zweckänderung der gespeicherten Daten rechtfertigen, aber das sei hier nicht gegeben: Da es sich um einen Testbetrieb handele, kämen keine konkreten polizeilichen Tätigkeiten zur Gefahrenabwehr in Frage, die eine solche Umwidmung von Daten begründen könnten.

Aus der Ausarbeitung der Wissenschaftlichen Dienste geht hervor, dass auch das bayerische Datenschutzgesetz kaum als Rechtsgrundlage für den Palantir-Einsatz taugen könnte. Darauf hatte sich die Landesregierung ausdrücklich berufen. Es könne aber laut Wissenschaftlicher Dienste „mangels Kenntnis der Details des Testbetriebs hier nicht beurteilt werden“, ob diese Datenverarbeitung „erforderlich und verhältnismäßig“ sei und die „zahlreichen Kriterien, die das Bundesverfassungsgericht hinsichtlich der Eingriffsintensität aufgestellt hat“, berücksichtigt worden sind.

Bundesländer nicht scharf auf Palantir

Der Streit um den Testbetrieb dürfte auch jenseits des Freistaates Beachtung finden. Denn der Rahmenvertrag, den Bayern mit Palantir geschlossen hat, ermöglicht es anderen Polizeibehörden der Länder und auch des Bundes, VeRA zu nutzen. Nicht alle Bundesländer haben bereits eine Entscheidung gefällt, ob sie ebenfalls Palantir-Software nutzen wollen. Der Idee besonders zugeneigt sind bisher nur wenige Länder. Ein rechtswidriger Testbetrieb in Bayern dürfte Palantirs bundesweite Chancen nicht gerade verbessern.

Offenlegung: Ich war technische Sachverständige in dem Beschwerdeverfahren, das zum Palantir-Urteil des Bundesverfassungsgerichts im Februar 2023 führte.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Zur Quelle wechseln
Zur CC-Lizenz für diesen Artikel

Author: Constanze

https://www.bachhausen.de/automatisierte-polizeidatenanalyse-bayern-testet-rechtswidrig-palantir-software/

#automatisierte #bayern #palantir #polizeidatenanalyse #rechtswidrig #software #testet

ıpuɐɯznʞkuzmandi
2023-05-05

@apangona Ich hoffe ehrlich gesagt sehr auf durch -Bildanalyse. Dann würden Bildinhalte verlässlich, zumindest oberflächlich, beschrieben werden und man bräuchte diese nur im Bedarfsfall ergänzen. 2/2

#Automatisierte #Propaganda im #Netz soll erkennbar werden ...

Die Justizminister der deutschen Bundesländer wollen auf ihrer bevorstehenden Konferenz unter anderem über eine mögliche Kennzeichnungspflicht für sogenannte Social Bots debattieren.

m.heise.de/newsticker/meldung/

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst