Falsche Richtung
Interview mit der Bundesdatenschutzbeauftragten: âDie aktuelle Debatte geht in die falsche Richtungâ
Louisa Specht-Riemenschneider erklĂ€rt, warum KI und Datenschutz so schlecht zusammengehen und die Datenpolitik ein gesellschaftspolitisches Ziel braucht. AuĂerdem nennt sie eine ĂŒberraschend niedrige Zahl neuer Mitarbeitender, falls ihre Behörde die zentrale Wirtschaftsaufsicht erhĂ€lt.
Seit gut einem Jahr ist Louisa Specht-Riemenschneider Bundesbeauftragte fĂŒr den Datenschutz und die Informationsfreiheit (BfDI). Nicht nur die schwarz-rote Bundesregierung hat sich mittlerweile weitreichende Reformen beim Datenschutz vorgenommen, sondern auch die EU-Kommission will die Datenschutzgrundverordnung erstmalig schleifen.
Wir haben Specht-Riemenschneider in ihrem Berliner BĂŒro getroffen und sie gefragt, wo sie in der hitzig gefĂŒhrten Reformdebatte steht. Sie kritisiert Teile der PlĂ€ne der EU-Kommission, spricht sich aber auch selbst entschieden fĂŒr eine Reform aus. Der datenschutzrechtliche Rahmen erfĂŒlle seine Funktion nicht, allerdings laufe die aktuelle Debatte in die falsche Richtung. Vor VerĂ€nderungen in der Datenpolitik mĂŒsse eine gesellschaftspolitische Zielsetzung stehen, so die Forderung der Datenschutzbeauftragten.
Auch zu den umstrittenen Themen Gesundheitsdigitalisierung und Reform der Datenschutzaufsicht in Deutschland haben wir die Juristin befragt.
âAn jeder Ecke fehlen Daten fĂŒr gemeinwohlorientierte Zweckeâ
Sie haben als Rechtswissenschaftlerin immer die Bedeutung von Daten fĂŒr Innovation betont und einen Ausgleich zwischen Datennutzung und Datenschutz gesucht. FĂŒr viele bedeutet das momentan vor allem, den Datenschutz zurĂŒckzubauen. Auf dem Digitale-SouverĂ€nitĂ€ts-Gipfel in Berlin lautete die neue Leitlinie âProduct First, Regulation Secondâ. Ihre Behörde soll den Zusatz âBeauftragte fĂŒr Datennutzungâ erhalten. Geht die Entwicklung also in die richtige Richtung?
FĂŒr mich stand nie zur Debatte, ob Datenschutz und Datennutzung zusammengehen. Die DSGVO soll genau das erreichen. Sie will ja nicht Datennutzung um jeden Preis verhindern, sondern gewĂ€hrleisten, dass dabei Grundrechte gewahrt bleiben. Gleichzeitig gibt es andere Grundrechte wie den Schutz der Gesundheit, die es notwendig machen, dass Daten verarbeitet werden. Beides muss man in Einklang bringen.
In der öffentlichen Debatte wird derzeit allerdings versucht, diese zwei Positionen gegeneinander auszuspielen. Wir sind an einem Punkt, wo wir eine entscheidende Weichenstellung machen können. Und ich wĂŒrde mir eine viel stĂ€rker gesellschaftspolitische Diskussion darĂŒber wĂŒnschen, wo wir eigentlich hin wollen.
Also fĂŒr welche Zwecke Daten genutzt werden sollen und fĂŒr welche nicht?
Ja, wollen wir als Gesellschaft etwa Daten fĂŒr verbesserte Krebstherapien nutzen? Oder wollen wir verbesserte Datennutzbarkeit fĂŒr rein kommerzielle Interessen? Das beantwortet mir momentan politisch niemand.
Wir haben zwar 1.000 Strategien, aber es fehlt ein Leitbild, an dem wir die Datenpolitik und auch die Regulierung ausrichten. Gerade jetzt wĂ€re die Gelegenheit, in der wir in Europa â anders als die USA oder China â eine Datennutzungsagenda entwickeln könnten, die Grundrechte, Demokratie und Freiheit mitdenkt.
Bei der Gesundheitsdigitalisierung heiĂt es, der Datenschutz gefĂ€hrde Leben. In der Wirtschaft gefĂ€hrde er Europas WettbewerbsfĂ€higkeit. SpĂŒren Sie diesen Gegenwind?
Ja, und ich finde es unheimlich schade, dass die Diskussion in die falsche Richtung geht. Der Rechtsrahmen fĂŒr Datenschutz und Datennutzung funktioniert offensichtlich nicht so, wie er eigentlich funktionieren sollte. Einerseits haben wir eine unglaubliche Masse an Daten, die rechtswidrig genutzt werden, wie etwa die âDatabroker Filesâ gezeigt haben. Andererseits fehlen an jeder Ecke Daten fĂŒr gemeinwohlorientierte Zwecke.
Diese Gemengelage fĂŒhrt dazu, dass der Datenschutz zum Buhmann fĂŒr alles gemacht wird. Vergangenes Jahr habe ich gelesen, dass in einem Seniorenheim keine WeckmĂ€nner verteilt werden konnten, wegen des Datenschutzes. Das ist natĂŒrlich groĂer Quatsch, aber diese MissverstĂ€ndnisse werden unter anderem dadurch hervorgerufen, dass der Rechtsrahmen sehr komplex ist.
âEs gibt im Omnibus auch Aspekte, die ich begrĂŒĂeâ
Mit ihrem âDigitalen Omnibusâ fĂ€hrt die EU-Kommission aktuell in die andere Richtung. Sie schlĂ€gt erstmals weitreichende Ănderungen an der DSGVO vor. Verbraucher- und Datenschutzorganisationen sowie Teile des EU-Parlaments sprechen von einem Angriff auf die Grundlagen des europĂ€ischen Datenschutzes.
Ich halte nichts davon, die Welt in Schwarz und WeiĂ einzuteilen. Die Kommission schlĂ€gt Regelungen vor, von denen einige datenschutzrechtlich ganz klar kritisch zu werten sind. Wenn ich zum Beispiel meine Betroffenenrechte nur noch fĂŒr datenschutzrechtliche Zwecke ausĂŒben darf, dann schrĂ€nkt mich das in meinen Rechten elementar ein. Gegen einen Missbrauchseinwand spricht nichts, aber er muss richtig formuliert sein.
Es gibt im Omnibus jedoch auch Aspekte, die ich begrĂŒĂe. Die Vereinheitlichung von Digitalrechtsakten zum Beispiel, also die Zusammenfassung von Datennutzungsgesetzen im Data Act. Auch die VorschlĂ€ge zu Cookie-Bannern sind in ihrer Grundrichtung zu begrĂŒĂen.
FĂŒr Kritik sorgt auch der Plan, die Definition personenbezogener Daten deutlich enger zu fassen und pseudonymisierte Daten unter bestimmten UmstĂ€nden von der DSGVO auszunehmen. Man folge da nur der Rechtsprechung des EuropĂ€ischen Gerichtshofs, heiĂt es von der Kommission. Der Jurist und Datenschutzexperte Max Schrems und andere sagen, das geht weit darĂŒber hinaus. Wer hat Recht?
Man kann das Urteil so oder so lesen. Ich frage mich, ob die geplanten Ănderungen â wenn man genau hinschaut â tatsĂ€chlich eine Abweichung vom derzeitigen Standard darstellen. Dazu berate ich mich gerade noch mit meinen Kolleg:innen in der Datenschutzkonferenz und möchte dem ungern vorgreifen.
Ein weiterer Streitpunkt sind KI-Systeme. Die Kommission will klarstellen, dass diese auch ohne Einwilligung, auf Basis des legitimen Interesses, mit personenbezogenen Daten trainiert und betrieben werden dĂŒrfen.
Die Kommission folgt hier einer Empfehlung des EuropĂ€ischen Datenschutzausschusses, bei der jedoch leider nicht genau ausformuliert wurde, unter welchen Bedingungen KI auf das berechtigte Interesse gestĂŒtzt werden kann. Der Omnibus unterscheidet hier leider auch nicht zwischen KI-Training zu kommerziellen oder zu gemeinwohlorientierten Zwecken oder zur AusĂŒbung anderer Grundrechte.
Sie ist offenbar getrieben von der Sorge, Europa könne im sogenannten KI-Wettrennen verlieren. Gehen Datenschutz und KI einfach nicht zusammen?
Ja, der geltende Datenschutz-Rechtsrahmen und KI gehen ganz schlecht zusammen. Das Hauptproblem ist, dass unklar ist, wie man Betroffenenrechte geltend machen soll, wenn KI-Systeme sich einzelne Daten merken. Wie sollen LöschansprĂŒche ausgeĂŒbt werden? Wie soll der Berichtigungsanspruch praktisch umgesetzt werden? Diese Fragen beantwortet auch der Digitale Omnibus nicht. Es wĂ€re klug, wenn sich der europĂ€ische Gesetzgeber die Zeit nehmen wĂŒrde, ĂŒber diese Frage etwas intensiver nachzudenken.
Da sind wir auch wieder bei der Gretchenfrage: FĂŒr welche Zwecke wollen wir als Gesellschaft KI und fĂŒr welche nicht? Das scheint mir wirklich eine Grundsatzdiskussion zu sein, die wir dringend fĂŒhren und dann gesetzgeberisch entsprechend handeln mĂŒssen. Entwicklung und Einsatz von KI fĂŒr gemeinwohlorientierte Zwecke oder zur AusĂŒbung von Grundrechten wĂŒrde ich gern gesetzlich privilegiert sehen, fĂŒr andere Zwecke ist das meines Erachtens weniger erforderlich. GroĂe Player, die kommerzielle KI-Modelle anbieten, können mit der Rechtsunsicherheit gut umgehen.
Wo eine Reform ansetzen sollte
Viele DatenschĂŒtzer:innen warnen davor, im aktuellen politischen Klima solche Grundsatzfragen zu stellen und das groĂe Fass DSGVO ĂŒberhaupt aufzumachen.
Ich möchte eine Grundsatzdebatte sogar vehement einfordern. Der bestehende Rechtsrahmen funktioniert nicht so, wie er funktionieren soll. NatĂŒrlich will ich die DSGVO nicht insgesamt nochmal zur Abstimmung stellen. Aber wir sollten ĂŒber Nachbesserungen im geltenden Rechtsrahmen sprechen. Das Interessante am Omnibus ist ja nicht nur das, was drinsteht, sondern vor allem das, was nicht drin steht.
Was fehlt Ihnen?
Wie bekomme ich zum Beispiel eine Databroker-Regelung in die DSGVO? Wie schaffen wir es, dass Selbstbestimmung nicht nur auf dem Papier existiert?
Das Grundproblem ist die Einwilligung. Wir hatten in den 1960er- und 1970er-Jahren eine Ă€hnliche Diskussion zu Selbstbestimmung im Verbraucherschutzrecht. Schon damals war klar, dass Verbraucher:innen Entscheidungen treffen, die manchmal nicht selbstbestimmt sind, weil es Machtasymmetrien gibt. Also mĂŒssen wir dafĂŒr sorgen, dass wir die Vertragsparteien auf Augenhöhe bekommen, damit Verbraucher:innen gleichberechtigt entscheiden können.
Warum fĂŒhren wir diese Diskussion nicht auch bei der DSGVO? DafĂŒr mĂŒssen wir deren GrundsĂ€tze nicht anfassen, sondern an die Frage der Einwilligung ran. Und wir mĂŒssen dafĂŒr sorgen, dass die DSGVO besser in der Praxis umgesetzt wird. Das ist nur vordergrĂŒndig eine Frage des BĂŒrokratieabbaus.
Sondern?
Ich höre oft von Unternehmer:innen, dass sie Datenschutz beachten wollen, aber nicht wissen, wie sie dabei am besten vorgehen. Wenn wir also am Ende mehr Rechtsklarheit in die Verordnung hineinbekommen, dann ist das auch ein Weg, um Betroffene besser zu schĂŒtzen, weil die Regeln besser umgesetzt können. Auch der risikobasierte Ansatz der DSGVO sollte weiter ausdifferenziert werden. Also dass nicht alle die gleichen Pflichten haben, sondern Ă€hnlich wie bei der KI-Verordnung die Verantwortung gröĂer ist, wenn das Risiko der Datenverarbeitung zunimmt.
Wie man das Problem der Databroker lösen könnte
Erst kĂŒrzlich konnten wir mit den gerade schon angesprochenen Databroker-Recherchen zeigen, wie sich selbst hochrangiges EU-Personal ausspionieren lĂ€sst â mit Daten aus dem Ăkosystem der Online-Werbung, die wir kostenfrei von Databrokern bekommen haben. Wie löst man dieses Problem?
Das ist nicht trivial, weil Werbe-Tracking mit Einwilligung zulĂ€ssig sein kann, in vielen FĂ€llen wohl aber Zweifel an der RechtsgĂŒltigkeit der Einwilligungen bestehen. Deshalb mĂŒssen wir uns zunĂ€chst anschauen, wie die Datenströme verlaufen: Ich habe ein EndgerĂ€t mit der Werbe-ID, von dem Daten an einen Databroker gehen, der hĂ€ufig in einem Drittstaat sitzt, beispielsweise in den USA. Und dann habe ich einen DatenankĂ€ufer, der etwa in einem anderen europĂ€ischen Staat sitzt.
Den Databroker in den USA kriegt man aufsichtsrechtlich sehr schwer zu fassen, da brÀuchte man Amtshilfe von US-Behörden. Beim DatenankÀufer ist es einfacher, wenn er in einem EU-Mitgliedstaat sitzt. Er ist aber das letzte Glied in der Kette. Selbst wenn wir nachweisen können, dass er sich datenschutzwidrig verhÀlt, beendet das noch nicht den Datenhandel.
Daher wĂ€re es am sinnvollsten, die Apps ins Visier zu nehmen, die die Werbe-ID weitergeben. Wir sollten darĂŒber nachdenken, ob die Ausleitung der Werbe-ID grundsĂ€tzlich beschrĂ€nkt werden sollte â auch wenn Nutzer:innen âeinwilligenâ. Das könnte man ĂŒbrigens auch in einem Omnibus regeln.
Um die KomplexitĂ€t noch zu erhöhen, gibt es auch noch das Teilproblem der DatenmarktplĂ€tze. Das sind die Plattformen, auf denen Interessierte und Anbieter von Daten zusammenkommen. Der gröĂte Marktplatz hat seinen Sitz in Berlin, die Berliner Datenschutzaufsicht kam zu dem Schluss, dass die DSGVO nicht anwendbar ist, weil er nur Kontakte vermittelt und selbst die DatensĂ€tze nicht verarbeitet.
Wir hatten eine Ă€hnliche Situation schon mal beim geistigen Eigentum. Filesharing-Clients hatten einst auch argumentiert, dass sie nur den Kontakt zwischen Person A und Person B herstellen, die dann MusikstĂŒcke austauschen. Damals haben die Gerichte die Vermittlungsplattform mit dem TĂ€ter quasi gleichgestellt. Eine solche Störerhaftung könnte man auch im Datenschutzrecht vorsehen.
Ich weiĂ, dass es die Rechtsauffassung gibt, dass die TĂ€tigkeiten von DatenmarktplĂ€tzen heute schon eine VerarbeitungstĂ€tigkeit sind. Aber selbst dann wĂ€re es hilfreich, dies explizit ins Gesetz zu schreiben, um Rechtsklarheit zu schaffen. Das könnte man gegebenenfalls sogar auf nationaler Ebene lösen, ohne den Weg ĂŒber die EU.
âEine Verpflichtung wĂ€re eine groĂer Schrittâ
Ăberraschenderweise hat die EU-Kommission auch einen neuen Rechtsrahmen fĂŒr Consent-Manager fĂŒr Cookies in den Omnibus aufgenommen, obwohl dieser ja eigentlich nur eine technische Anpassung sein sollte. In Deutschland gibt es die Möglichkeit schon lĂ€nger, Ihre Behörde hat neulich den ersten Cookie-Manager fĂŒr Deutschland anerkannt. WĂŒrde das das Databroker-Problem lösen?
Nein, aber es löst ein anderes Problem.
Wenn ich das Ziel verfolge, Cookie-Banner zu reduzieren, dann habe ich dafĂŒr verschiedene Möglichkeiten. Eine besteht darin, den Verbraucher:innen die Möglichkeit zu geben, vorab generell zu erklĂ€ren, fĂŒr welche Zwecke Cookies bei ihnen gesetzt werden dĂŒrfen und fĂŒr welche nicht. Und die Website-Betreiber zugleich dazu zu verpflichten, diese Entscheidung auch zu akzeptieren.
Das ist auch der Punkt, den ich beim Omnibus einigermaĂen positiv sehe. Da steht drin, dass Website-Betreiber die Cookie-Einstellung akzeptieren sollten. Wenn die Vorgabe so zu lesen ist, dass sie dazu verpflichtet sind, dann wĂ€re das ein groĂer Schritt. Denn diese Pflicht sieht die deutsche Rechtslage derzeit nicht vor. Das ist ja der groĂe Kritikpunkt an den Einwilligungsmanagementsystemen, wie sie in Deutschland gegenwĂ€rtig vorgesehen sind.
âHundertprozentige Sicherheit gibt es nichtâ
Sie sprachen eingangs das Grundrecht auf Schutz der Gesundheit an. Die elektronische Patientenakte hat ein ereignisreiches Jahr hinter sich. Auf SicherheitslĂŒcken in der ePA angesprochen, haben Sie mal den Vergleich gezogen, dass in ein Haus auch eingebrochen werden kann â âganz gleich, wie gut die Alarmanlage istâ. Ist das nicht eine schrĂ€ge Analogie?
Was ich damit sagen wollte, ist, dass wir nie eine hundertprozentige Sicherheit im technischen System haben können. Eine solche Sicherheit gibt es nicht.
Wir mĂŒssen allerdings alles tun, um SicherheitslĂŒcken so frĂŒh wie möglich zu erkennen, zu schlieĂen und deren Zahl so gering wie möglich zu halten. Das sind die drei Dinge, die wahnsinnig wichtig sind.
Allerdings ist bei der Sicherheit der ePA das Bundesamt fĂŒr Sicherheit in der Informationstechnik (BSI) der primĂ€re Ansprechpartner. Wir als Datenschutzaufsicht schauen uns vor allem die Datenverarbeitung an, die in der ePA stattfindet. Das BSI ist dafĂŒr zustĂ€ndig, im Dialog mit dem Bundesgesundheitsministerium und der Gematik, die SicherheitslĂŒcken zu schlieĂen. Wir werden dann darĂŒber informiert und dĂŒrfen uns dazu Ă€uĂern.
Das war ja mal anders.
FrĂŒher mussten Spezifikation der Gematik von uns âfreigebenâ werden, sie musste also Einvernehmen mit uns herstellen. Jetzt muss sie uns nur noch ins Benehmen setzen. Ich darf jetzt zwar etwas sagen, aber man muss mir theoretisch nicht mehr zuhören.
In ihren Vorversionen verfĂŒgte die ePA noch ĂŒber zahlreiche Möglichkeiten, mit denen Versicherte genauer einstellen konnten, welche Dokumente Behandelnde sehen dĂŒrfen und welche nicht. Davon ist heute nicht mehr viel ĂŒbrig. Ist das Versprechen einer patientenzenterierten ePA ĂŒberhaupt noch zu halten?
Es kommt darauf an, was man als patientenzentriert definiert. Die Einstellungen in der ePA 2.0 waren dokumentengenauer. Das wurde ein StĂŒck weit zurĂŒckgeschraubt. Wir werden allerdings mit dem EuropĂ€ischen Gesundheitsdatenraum (EHDS) bald eine Rechtslage bekommen, die möglicherweise wieder feinere Einstellungen vorsieht. Die Details dazu werden derzeit noch ausgearbeitet.
Ein groĂes Problem in der ePA war, dass Leistungserbringer immer auch die Abrechnungsdaten zu sehen bekamen, die die Krankenkasse in die Patientenakte einstellt. Selbst wenn ich eingestellt hatte, dass bestimmte Leistungserbringer Dokumente nicht sehen sollen. Ărzte hĂ€tten dann trotzdem sehen können, dass man schon bei einem anderen Arzt war und wie die Diagnose lautete. Das ist zumindest abgestellt worden und das ist ein Fortschritt.
âFĂŒr eine patientenztentrierte ePA ist es noch nicht zu spĂ€tâ
Dennoch bleibt die Frage, ob die Chance vertan wurde, ein groĂes Digitalisierungsprojekt datenschutzorientiert auf die Beine zu stellen?
Ich muss selbst entscheiden können, welche Daten in meine ePA hineinkommen. Das kann ich aber nur tun, wenn ich vernĂŒnftig informiert werde. Bislang wird Ă€uĂerst wenig dafĂŒr getan, dass Informationen auch bei den Menschen ankommen.
Und das vor allem deswegen, weil das Gesetz ĂŒberall Informationserteilungspflichten vorsieht, aber nicht fordert, dass die Information von den Patient:innen auch wahrgenommen wird. Erst jetzt startet eine breit angelegte Werbekampagne des BMG. Insgesamt wurde aus meiner Sicht viel zu spĂ€t und mit viel zu geringer PrioritĂ€t informiert. Wir haben dazu gerade eine groĂe Umfrage durchgefĂŒhrt und veröffentlichen die Ergebnisse bald in unserem Datenschutzbarometer.
Wir haben unzĂ€hlige Beratungsschreiben an die Krankenkassen geschrieben, damit die Informationen möglichst gut verstanden werden. Damit Menschen sich wirklich befĂ€higt fĂŒhlen, informierte Entscheidungen zu treffen, muss ich anders informieren als in einem fĂŒnfseitigen Brief, den Versicherte bekommen und dann achtlos in den MĂŒll schmeiĂen, weil sie denken, das es eine weitere Beitragsanpassung ist. Ich sehe die Verantwortung aber hier wie gesagt auch beim Gesetzgeber.
Ist die Chance vertan, dass die ePA dem Anspruch an Information und Selbstbestimmung gerecht wird? Ich glaube nicht. Aber es ist verdammt spÀt.
âDas wĂŒrde meine Behörde und mich sehr schmerzenâ
Lassen Sie uns zum Schluss ĂŒber eine weitere Datenschutz-Baustelle sprechen: die Verteilung der Aufsichtskompetenz in Deutschland. Ihre Behörde könnte die Aufsicht ĂŒber die Geheimdienste verlieren.
Das ist fĂŒr mich eine ganz schwierige Situation. Der Verlust der Aufsicht ĂŒber die Nachrichtendienste wĂŒrde meine Behörde und mich sehr schmerzen. Nicht weil wir dann zwanzig Mitarbeiter weniger hĂ€tten. Sondern weil wir die einzige Stelle sind, die eine komplette Ăbersicht ĂŒber die Sicherheitsbehörden insgesamt hat und darĂŒber, wie sie Daten von BĂŒrgerinnen und BĂŒrgern nutzen.
Die aktuelle politische Diskussion geht klar in die Richtung, dass Nachrichtendienste mehr Befugnisse erhalten sollen. Ein solcher Machtzuwachs lĂ€sst sich aber nur dann rechtfertigen, wenn gleichzeitig ein vernĂŒnftiges Aufsichtsregime gewĂ€hrleistet wird.
Die PlÀne kÀmen einer Entmachtung Ihrer Behörde gleich.
Teile der Aufsicht, die wir bisher ausgeĂŒbt haben, sollen in einen unabhĂ€ngigen Kontrollrat verlagert werden. Das wĂ€re eine Zerfaserung der Aufsicht, die GesamtĂŒbersicht ĂŒber die Sicherheitsbehörden wĂ€re nicht mehr gegeben. Das finde ich bedenklich. Wir sind nĂ€mlich auch die einzige Stelle, die die Gesamtheit des Ăberwachungsdrucks im Blick behalten kann.
Wir haben derzeit eine Haushaltssituation, wo alle sparen sollen. Ich frage mich, wieso da eine neue Stelle geschaffen werden soll, die Aufgaben ĂŒbernimmt, fĂŒr die eine andere Behörde jahrelang Kompetenz aufgebaut hat. Haben wir vielleicht zu genau hingeschaut in den vergangenen Jahren?
An anderer Stelle könnte Ihre Behörde an Bedeutung gewinnen. Der Koalitionsvertrag sieht eine BĂŒndelung der ZustĂ€ndigkeiten und Kompetenzen bei der Aufsicht ĂŒber Wirtschaft und Vereine bei Ihnen vor. DafĂŒr kursieren unterschiedliche Modelle.
Auch diese Situation ist fĂŒr mich persönlich nicht ganz leicht, weil ich meine Kolleg:innen aus der Datenschutzkonferenz (DSK) sehr schĂ€tze. Die Landesdatenschutzaufsichtsbehörden machen hervorragende Arbeit.
Gleichwohl glaube ich, dass 18 Aufsichtsbehörden zwangslĂ€ufig auch mal unterschiedliche Rechtsauffassungen vertreten. Wir können nicht alles auf DSK-Ebene diskutieren und gemeinsam entscheiden. Es gibt daher gute Argumente fĂŒr eine BĂŒndelung. Ich glaube auch, dass man Aufsicht und Beratung dann besser skalieren könnte.
UnabhĂ€ngig davon, welches Modell es am Ende wird, muss die Datenschutzkonferenz fĂŒr die Aufsicht ĂŒber öffentliche Stellen eine eigene GeschĂ€ftsstelle bekommen, weil durch den wechselnden Vorsitz zu viele KapazitĂ€ten in Organisationsfragen gebunden werden.
Zum Abschluss die Preisfrage: Wie viele neue Stellen brÀuchten Sie, wenn es zu einer Zentralisierung kommen sollte, also einer vollstÀndigen Verlagerung der Wirtschaftsaufsicht von den LÀnderbehörden zu Ihnen?
Wir gehen je nach Ausgestaltung von einer hohen zweistelligen bis niedrigen dreistelligen Zahl aus.
Ihre LÀnderkolleg:innen rechnen mit deutlich höheren Zahlen.
Wir haben das intern durchgerechnet und gehen von Skalierungseffekten aus. Insofern kommen wir mit deutlich weniger Stellen aus, als derzeit in der öffentlichen Diskussion angenommen wird.
Ingo Dachwitz ist Journalist und Kommunikationswissenschaftler. Seit 2016 ist er Redakteur bei netzpolitik.org und u.a. Ko-Host des Podcasts Off/On. Er schreibt hĂ€ufig ĂŒber Datenmissbrauch und Datenschutz, Big Tech, Plattformregulierung, Transparenz, Lobbyismus, Online-Werbung, WahlkĂ€mpfe und die Polizei. 2024 wurde er mit dem Alternativen Medienpreis und dem Grimme-Online-Award ausgezeichnet. Ingo ist Mitglied des Vereins Digitale Gesellschaft sowie der Evangelischen Kirche. Seit 02/2025 ist sein Buch erhĂ€ltlich: âDigitaler Kolonialismus: Wie Tech-Konzerne und GroĂmĂ€chte die Welt unter sich aufteilenâ. Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, FragDenStaat
Daniel Leisegang ist Politikwissenschaftler und Co-Chefredakteur bei netzpolitik.org. Zu seinen Schwerpunkten zĂ€hlen die Gesundheitsdigitalisierung, Digital Public Infrastructure und die sogenannte KĂŒnstliche Intelligenz. Daniel war einst Redakteur bei den »BlĂ€ttern fĂŒr deutsche und internationale Politik«. 2014 erschien von ihm das Buch »Amazon â Das Buch als Beute«; 2016 erhielt er den Alternativen Medienpreis in der Rubrik »Medienkritik«. Er gehört dem Board of Trustees von Eurozine an. Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, Threema ENU3SC7K, Telefon: +49-â30-5771482-28⏠(Montag bis Freitag, jeweils 8 bis 18 Uhr). Dieser Beitrag ist eine Ăbernahme von netzpolitik, gemĂ€ss Lizenz Creative Commons BY-NC-SA 4.0.