#onlinetracking

Linux Professional InstituteLPI@fosstodon.org
2026-02-25

Your browser leaves a hidden trail of data. 👣

Websites can learn about your device, location, and unique settings, and use that info for marketing purposes.

Read the latest Andrew Oram article to learn more: lpi.org/7g9a

@LPI #LPI #dataprivacy #privacy #browsertracking #cybersecurity #digitalprivacy #onlinetracking

Nachrichten aus aller Weltwirinformieren
2026-02-12

TikTok kann Nutzer auch ohne App oder Account ĂŒber Tracking-Pixel erfassen.

Viele Menschen gehen davon aus, ohne TikTok-Account oder installierte App vor Datenerfassung sicher zu sein. Doch genau hier liegt das Problem. Recherchen zeigen, dass die Plattform offenbar auch dann Informationen sammelt, wenn Nutzer nie aktiv bei TikTok angemeldet waren.

t1p.de/d7h2a

How Meta Connected Browsing Activity to Real People on Android

1,747 words, 9 minutes read time.

You think you’re invisible online when you’re in private browsing mode or after clearing cookies, right? I used to think the same thing. But the reality is a little harsher: Meta found ways to keep tabs on Android users even when they were trying to hide. I’m not here to scare you. I’m here to explain exactly how it worked, why it happened, and what you can realistically do about it.

We’ve all had the experience: you browse a few sites, check a couple of things in private, and later see ads that feel almost “too personalized.” You think, How did they know? This Meta case makes it clear that your standard privacy tools — incognito mode, cookie clearing — aren’t always enough. What Meta discovered, and what researchers exposed, is that the ecosystem itself is leaking information, whether you like it or not.

It’s tempting to blame yourself, but you’re not doing anything wrong. In reality, the way apps and browsers interact on Android is complex, and the rules were never designed to make users completely invisible. Meta simply found a way to connect dots that were already there. Understanding how this happened can help you make smarter decisions online — without panicking or quitting your favorite apps.

Tracking Isn’t Just About Cookies

For years, online tracking seemed simple. Websites dropped cookies — little snippets of data that said, “Hello, I recognize you.” Delete them, and the site forgets you. Go incognito, and you think you’re invisible. But modern tracking doesn’t rely solely on cookies. That’s old-school thinking. The industry has gotten smarter, and the methods have evolved to follow you even when you try to hide.

Meta’s approach is a prime example. They didn’t just rely on cookies or logins. Instead, they leveraged patterns of behavior and signals coming from apps and browsers. Think of cookies as leaving a name tag at a party. Take it off, and the host can’t read the name anymore — but they can still notice your face, how you walk, or the drinks you order. Those subtle identifiers are enough for someone skilled to link your behavior back to a real person.

The problem is compounded because these signals are baked into the operating system and how apps communicate. Every tap, every page load, every app interaction produces a tiny “footprint.” When a company like Meta has access to enough footprints, connecting them to accounts becomes almost trivial. In other words, tracking today isn’t about a single cookie — it’s about pattern recognition at scale.

Most people don’t realize how much of this happens behind the scenes. You clear cookies, turn on privacy features, and feel safe. But the ecosystem doesn’t just disappear your digital fingerprints. Understanding that tracking has moved beyond the old tools is the first step toward realistic, practical privacy.

The Android Ecosystem and Its Blind Spots

Android isn’t a sealed system. It’s more like a neighborhood where everyone’s got thin walls, and neighbors sometimes talk over the fences. Apps, browsers, and the operating system constantly exchange small pieces of information — often for legitimate purposes like syncing data or improving app performance. But those same mechanisms can be abused to identify and link users across services.

Think of your apps as apartments in a building. Each apartment is supposed to be private, but thin walls, shared utilities, and building-wide notices mean some information leaks. Meta’s method exploited these subtle leaks — the equivalent of overhearing conversations, noticing repeated patterns, or recognizing footprints in a shared courtyard. These aren’t security flaws in the traditional sense; they’re structural features of how Android is built to allow apps and services to communicate.

Even if you’re careful — you only use trusted apps, you clear cookies, you use incognito mode — the system itself can reveal patterns. Android provides some privacy protections, but they aren’t foolproof. Signals like app activity, device identifiers, and browsing behavior can still combine to form a recognizable profile. Meta’s approach took advantage of these natural “communication channels” between apps and browsers.

The lesson here isn’t to panic or quit Android. It’s to understand that privacy is about controlling what you can, not believing you can erase every trace. The Android ecosystem is complex, and awareness is the best tool you have. Knowing where data flows helps you make smarter choices.

Meta’s New Tracking Method

So, what exactly did Meta do? They didn’t hack your phone. They didn’t exploit a vulnerability that required a patch. Instead, they used existing communication pathways — the way apps and browsers naturally interact — to link browsing activity to real accounts. In plain terms, they stitched together patterns that already existed.

Imagine leaving faint footprints in the sand. On their own, each print is meaningless. But if someone tracks the pattern of steps, the gait, and the direction, they can identify the person walking. Meta’s system worked similarly: it looked at how users moved through apps and web pages and matched those patterns to known accounts. This method bypassed cookie protections and even incognito mode because it didn’t rely on those traditional mechanisms.

It’s also worth noting the scale here. Doing this effectively requires processing millions of data points across users and devices. That’s why most small apps don’t have this capability — but big platforms with massive infrastructure, like Meta, can. This isn’t a single exploit; it’s leveraging the architecture of Android itself to achieve tracking that feels invisible to the user.

For everyday users, the takeaway is clear: your actions, even in “private” modes, can leave a pattern that sophisticated systems can recognize. Understanding this doesn’t make you paranoid; it makes you informed. And informed users make smarter choices.

Why Your Privacy Tools Didn’t Stop It

Let’s address the obvious question: why didn’t incognito mode, cookie clearing, or app sandboxing stop this? The short answer is: because these tools aren’t designed to protect against this type of tracking. They protect specific areas — cookies, stored data, or app isolation — but not the broader patterns of behavior.

Analogy: locking your front door is great, but it doesn’t stop someone from watching the windows. Your privacy tools are doors and locks. Meta found ways to look through the windows, study your movement in the yard, and figure out whose house it was. That’s not a failure on your part; it’s a feature of the system.

Android does have protections against inter-app data sharing, but these are partial and often complicated to configure correctly. Even when you do everything “right,” sophisticated trackers can combine signals to make educated guesses about user identities. It’s frustrating, but it’s also a reminder that privacy isn’t binary.

The realistic takeaway is to understand limitations, not to assume invisibility. Privacy tools reduce exposure, slow down trackers, and add friction to data collection. They are your armor, not a magic shield. Understanding how far that armor stretches helps you make smarter decisions.

What This Means for Everyday Users

Here’s the bottom line: complete invisibility online is nearly impossible if you’re using mainstream apps. Platforms are designed to connect behavior to real users. Meta’s method is a case study in how this works, but it’s not unique. Google, Apple, and other companies also have ways to track activity across services and devices.

That doesn’t mean you’re powerless. The key is being aware. Awareness allows you to make deliberate choices about which apps to use, what permissions to grant, and how to navigate the ecosystem. You don’t need to quit Facebook or Instagram, but understanding their incentives and methods can guide smarter habits.

It also means adjusting expectations. Privacy isn’t a switch you flip; it’s a spectrum you navigate. You can reduce exposure and make tracking harder, but expecting perfect invisibility sets you up for disappointment. Instead, think strategically: what do you want to protect, and which tools realistically help?

Finally, this awareness empowers conversation. When companies expose privacy challenges, informed users can ask better questions, demand better policies, and make more conscious decisions about their digital lives.

Practical Steps You Can Take

Let’s get practical. Here are steps that actually help — no snake oil, no miracle fixes:

  1. Limit app permissions. Only grant what’s necessary. Many apps ask for access to your contacts, camera, or location unnecessarily. Review and prune these regularly.
  2. Use privacy-conscious browsers. Browsers like Firefox Focus, DuckDuckGo, or Brave block trackers better than default Chrome or Samsung Internet.
  3. Restrict inter-app data sharing. Android settings allow you to limit cross-app data access. It won’t stop everything, but it reduces signals available to trackers.
  4. Think before installing apps. Each new app is another potential tracker. Fewer apps mean fewer signals to stitch together.
  5. Separate identities when needed. Some users create dedicated profiles or devices for certain types of browsing or app usage to minimize linking patterns.

The goal is realistic protection, not illusionary invisibility. Awareness, restraint, and intentional choices are your best defense.

Bigger Picture Lessons

Meta’s tracking isn’t an isolated incident — it’s representative of how modern tech handles user data. Privacy tools are often playing catch-up with the incentives of platforms that want to link activity to identities.

For users, the lesson is simple: understand the system, don’t assume safety, and act consciously. For the industry, it’s a reminder that structural protections are often more effective than user-facing features alone. Privacy isn’t something you turn on; it’s something you manage.

Knowing this, you can approach the digital world with less anxiety and more strategy. That’s far more effective than panic or avoidance.

Conclusion

Here’s what you need to remember:

  • Modern tracking isn’t just about cookies — it’s about behavior patterns and cross-app signals.
  • Privacy tools reduce exposure but can’t make you invisible.
  • Awareness and informed choices are your best defense.

I’m not telling you to quit your apps or abandon your devices. I’m telling you how the game is played, so you can play smarter. The best armor in today’s ecosystem isn’t fear — it’s knowledge.

Call to Action

If this breakdown helped you think a little clearer about the threats out there, don’t just click away. Subscribe for more no-nonsense security insights, drop a comment with your thoughts or questions, or reach out if there’s a topic you want me to tackle next. Stay sharp out there.

D. Bryan King

Sources

The New York Times – Meta’s Android Tracking Loophole
CNBC – How Meta Tracked Users on Android
CyberScoop – Meta’s Tracking Method on Android
KrebsOnSecurity – Tracking and Privacy Insights
Schneier on Security – Practical Privacy Analysis
Mandiant Threat Intelligence Reports
MITRE ATT&CK Framework
NIST Publications on Security and Privacy
Verizon Data Breach Investigations Report
Black Hat Conference Materials

Disclaimer:

The views and opinions expressed in this post are solely those of the author. The information provided is based on personal research, experience, and understanding of the subject matter at the time of writing. Readers should consult relevant experts or authorities for specific guidance related to their unique situations.

#AndroidBehaviorTracking #AndroidDataPrivacy #AndroidPrivacy #AndroidPrivacyAwareness #AndroidPrivacyGuide #androidSecurity #AndroidSignalTracking #AndroidSurveillance #AndroidUserPrivacy #appPermissions #appTrackingAndroid #appTrackingPrevention #crossAppTracking #digitalFootprint #digitalFootprintReduction #digitalIdentityAndroid #digitalPrivacyForMen #digitalPrivacyTips #everydayAndroidSecurity #incognitoModeTracking #interAppDataSharing #limitTrackingAndroid #MetaAndroidPrivacy #MetaAndroidTracking #MetaCookiesBypass #MetaDataTracking #MetaPrivacyExplained #MetaPrivacyIssue #MetaPrivacyLoophole #MetaPrivacyRisks #MetaTrackingAndroidUsers #MetaTrackingExplained #MetaTrackingLoophole #MetaTrackingMethod #MetaTrackingSolution #MetaUserTracking #mobilePrivacy #mobileTrackingTips #onlinePrivacyGuide #onlineSafetyAndroid #onlineTracking #privacyAwareness #privacyBestPractices #privacyHabitsAndroid #privacySettingsAndroid #privacyToolsAndroid #protectAndroidData #reduceAppTracking #reduceTrackingAndroid #secureAppUsage #secureBrowsingAndroid #smartphonePrivacy #smartphoneSecurityTips #stopMetaTracking #trackingMethods #trackingPatterns #trackingPrevention #userBehaviorTracking

Smartphone surrounded by app icons and browser windows with digital footprints connecting them, illustrating how Meta tracks Android users.
Dr. Clarissa Voglergastautor.in@extradienst.net
2025-12-04

Falsche Richtung

Interview mit der Bundesdatenschutzbeauftragten: â€žDie aktuelle Debatte geht in die falsche Richtung“

Louisa Specht-Riemenschneider erklĂ€rt, warum KI und Datenschutz so schlecht zusammengehen und die Datenpolitik ein gesellschaftspolitisches Ziel braucht. Außerdem nennt sie eine ĂŒberraschend niedrige Zahl neuer Mitarbeitender, falls ihre Behörde die zentrale Wirtschaftsaufsicht erhĂ€lt.

Seit gut einem Jahr ist Louisa Specht-Riemenschneider Bundesbeauftragte fĂŒr den Datenschutz und die Informationsfreiheit (BfDI). Nicht nur die schwarz-rote Bundesregierung hat sich mittlerweile weitreichende Reformen beim Datenschutz vorgenommen, sondern auch die EU-Kommission will die Datenschutzgrundverordnung erstmalig schleifen.

Wir haben Specht-Riemenschneider in ihrem Berliner BĂŒro getroffen und sie gefragt, wo sie in der hitzig gefĂŒhrten Reformdebatte steht. Sie kritisiert Teile der PlĂ€ne der EU-Kommission, spricht sich aber auch selbst entschieden fĂŒr eine Reform aus. Der datenschutzrechtliche Rahmen erfĂŒlle seine Funktion nicht, allerdings laufe die aktuelle Debatte in die falsche Richtung. Vor VerĂ€nderungen in der Datenpolitik mĂŒsse eine gesellschaftspolitische Zielsetzung stehen, so die Forderung der Datenschutzbeauftragten.

Auch zu den umstrittenen Themen Gesundheitsdigitalisierung und Reform der Datenschutzaufsicht in Deutschland haben wir die Juristin befragt.

„An jeder Ecke fehlen Daten fĂŒr gemeinwohlorientierte Zwecke“

Sie haben als Rechtswissenschaftlerin immer die Bedeutung von Daten fĂŒr Innovation betont und einen Ausgleich zwischen Datennutzung und Datenschutz gesucht. FĂŒr viele bedeutet das momentan vor allem, den Datenschutz zurĂŒckzubauen. Auf dem Digitale-SouverĂ€nitĂ€ts-Gipfel in Berlin lautete die neue Leitlinie „Product First, Regulation Second“. Ihre Behörde soll den Zusatz „Beauftragte fĂŒr Datennutzung“ erhalten. Geht die Entwicklung also in die richtige Richtung?

FĂŒr mich stand nie zur Debatte, ob Datenschutz und Datennutzung zusammengehen. Die DSGVO soll genau das erreichen. Sie will ja nicht Datennutzung um jeden Preis verhindern, sondern gewĂ€hrleisten, dass dabei Grundrechte gewahrt bleiben. Gleichzeitig gibt es andere Grundrechte wie den Schutz der Gesundheit, die es notwendig machen, dass Daten verarbeitet werden. Beides muss man in Einklang bringen.

In der öffentlichen Debatte wird derzeit allerdings versucht, diese zwei Positionen gegeneinander auszuspielen. Wir sind an einem Punkt, wo wir eine entscheidende Weichenstellung machen können. Und ich wĂŒrde mir eine viel stĂ€rker gesellschaftspolitische Diskussion darĂŒber wĂŒnschen, wo wir eigentlich hin wollen.

Also fĂŒr welche Zwecke Daten genutzt werden sollen und fĂŒr welche nicht?

Ja, wollen wir als Gesellschaft etwa Daten fĂŒr verbesserte Krebstherapien nutzen? Oder wollen wir verbesserte Datennutzbarkeit fĂŒr rein kommerzielle Interessen? Das beantwortet mir momentan politisch niemand.

Wir haben zwar 1.000 Strategien, aber es fehlt ein Leitbild, an dem wir die Datenpolitik und auch die Regulierung ausrichten. Gerade jetzt wĂ€re die Gelegenheit, in der wir in Europa – anders als die USA oder China – eine Datennutzungsagenda entwickeln könnten, die Grundrechte, Demokratie und Freiheit mitdenkt.

Bei der Gesundheitsdigitalisierung heißt es, der Datenschutz gefĂ€hrde Leben. In der Wirtschaft gefĂ€hrde er Europas WettbewerbsfĂ€higkeit. SpĂŒren Sie diesen Gegenwind?

Ja, und ich finde es unheimlich schade, dass die Diskussion in die falsche Richtung geht. Der Rechtsrahmen fĂŒr Datenschutz und Datennutzung funktioniert offensichtlich nicht so, wie er eigentlich funktionieren sollte. Einerseits haben wir eine unglaubliche Masse an Daten, die rechtswidrig genutzt werden, wie etwa die „Databroker Files“ gezeigt haben. Andererseits fehlen an jeder Ecke Daten fĂŒr gemeinwohlorientierte Zwecke.

Diese Gemengelage fĂŒhrt dazu, dass der Datenschutz zum Buhmann fĂŒr alles gemacht wird. Vergangenes Jahr habe ich gelesen, dass in einem Seniorenheim keine WeckmĂ€nner verteilt werden konnten, wegen des Datenschutzes. Das ist natĂŒrlich großer Quatsch, aber diese MissverstĂ€ndnisse werden unter anderem dadurch hervorgerufen, dass der Rechtsrahmen sehr komplex ist.

„Es gibt im Omnibus auch Aspekte, die ich begrĂŒĂŸe“

Mit ihrem „Digitalen Omnibus“ fĂ€hrt die EU-Kommission aktuell in die andere Richtung. Sie schlĂ€gt erstmals weitreichende Änderungen an der DSGVO vor. Verbraucher- und Datenschutzorganisationen sowie Teile des EU-Parlaments sprechen von einem Angriff auf die Grundlagen des europĂ€ischen Datenschutzes.

Ich halte nichts davon, die Welt in Schwarz und Weiß einzuteilen. Die Kommission schlĂ€gt Regelungen vor, von denen einige datenschutzrechtlich ganz klar kritisch zu werten sind. Wenn ich zum Beispiel meine Betroffenenrechte nur noch fĂŒr datenschutzrechtliche Zwecke ausĂŒben darf, dann schrĂ€nkt mich das in meinen Rechten elementar ein. Gegen einen Missbrauchseinwand spricht nichts, aber er muss richtig formuliert sein.

Es gibt im Omnibus jedoch auch Aspekte, die ich begrĂŒĂŸe. Die Vereinheitlichung von Digitalrechtsakten zum Beispiel, also die Zusammenfassung von Datennutzungsgesetzen im Data Act. Auch die VorschlĂ€ge zu Cookie-Bannern sind in ihrer Grundrichtung zu begrĂŒĂŸen.

FĂŒr Kritik sorgt auch der Plan, die Definition personenbezogener Daten deutlich enger zu fassen und pseudonymisierte Daten unter bestimmten UmstĂ€nden von der DSGVO auszunehmen. Man folge da nur der Rechtsprechung des EuropĂ€ischen Gerichtshofs, heißt es von der Kommission. Der Jurist und Datenschutzexperte Max Schrems und andere sagen, das geht weit darĂŒber hinaus. Wer hat Recht?

Man kann das Urteil so oder so lesen. Ich frage mich, ob die geplanten Änderungen – wenn man genau hinschaut – tatsĂ€chlich eine Abweichung vom derzeitigen Standard darstellen. Dazu berate ich mich gerade noch mit meinen Kolleg:innen in der Datenschutzkonferenz und möchte dem ungern vorgreifen.

Ein weiterer Streitpunkt sind KI-Systeme. Die Kommission will klarstellen, dass diese auch ohne Einwilligung, auf Basis des legitimen Interesses, mit personenbezogenen Daten trainiert und betrieben werden dĂŒrfen.

Die Kommission folgt hier einer Empfehlung des EuropĂ€ischen Datenschutzausschusses, bei der jedoch leider nicht genau ausformuliert wurde, unter welchen Bedingungen KI auf das berechtigte Interesse gestĂŒtzt werden kann. Der Omnibus unterscheidet hier leider auch nicht zwischen KI-Training zu kommerziellen oder zu gemeinwohlorientierten Zwecken oder zur AusĂŒbung anderer Grundrechte.

Sie ist offenbar getrieben von der Sorge, Europa könne im sogenannten KI-Wettrennen verlieren. Gehen Datenschutz und KI einfach nicht zusammen?

Ja, der geltende Datenschutz-Rechtsrahmen und KI gehen ganz schlecht zusammen. Das Hauptproblem ist, dass unklar ist, wie man Betroffenenrechte geltend machen soll, wenn KI-Systeme sich einzelne Daten merken. Wie sollen LöschansprĂŒche ausgeĂŒbt werden? Wie soll der Berichtigungsanspruch praktisch umgesetzt werden? Diese Fragen beantwortet auch der Digitale Omnibus nicht. Es wĂ€re klug, wenn sich der europĂ€ische Gesetzgeber die Zeit nehmen wĂŒrde, ĂŒber diese Frage etwas intensiver nachzudenken.

Da sind wir auch wieder bei der Gretchenfrage: FĂŒr welche Zwecke wollen wir als Gesellschaft KI und fĂŒr welche nicht? Das scheint mir wirklich eine Grundsatzdiskussion zu sein, die wir dringend fĂŒhren und dann gesetzgeberisch entsprechend handeln mĂŒssen. Entwicklung und Einsatz von KI fĂŒr gemeinwohlorientierte Zwecke oder zur AusĂŒbung von Grundrechten wĂŒrde ich gern gesetzlich privilegiert sehen, fĂŒr andere Zwecke ist das meines Erachtens weniger erforderlich. Große Player, die kommerzielle KI-Modelle anbieten, können mit der Rechtsunsicherheit gut umgehen.

Wo eine Reform ansetzen sollte

Viele DatenschĂŒtzer:innen warnen davor, im aktuellen politischen Klima solche Grundsatzfragen zu stellen und das große Fass DSGVO ĂŒberhaupt aufzumachen.

Ich möchte eine Grundsatzdebatte sogar vehement einfordern. Der bestehende Rechtsrahmen funktioniert nicht so, wie er funktionieren soll. NatĂŒrlich will ich die DSGVO nicht insgesamt nochmal zur Abstimmung stellen. Aber wir sollten ĂŒber Nachbesserungen im geltenden Rechtsrahmen sprechen. Das Interessante am Omnibus ist ja nicht nur das, was drinsteht, sondern vor allem das, was nicht drin steht.

Was fehlt Ihnen?

Wie bekomme ich zum Beispiel eine Databroker-Regelung in die DSGVO? Wie schaffen wir es, dass Selbstbestimmung nicht nur auf dem Papier existiert?

Das Grundproblem ist die Einwilligung. Wir hatten in den 1960er- und 1970er-Jahren eine Ă€hnliche Diskussion zu Selbstbestimmung im Verbraucherschutzrecht. Schon damals war klar, dass Verbraucher:innen Entscheidungen treffen, die manchmal nicht selbstbestimmt sind, weil es Machtasymmetrien gibt. Also mĂŒssen wir dafĂŒr sorgen, dass wir die Vertragsparteien auf Augenhöhe bekommen, damit Verbraucher:innen gleichberechtigt entscheiden können.

Warum fĂŒhren wir diese Diskussion nicht auch bei der DSGVO? DafĂŒr mĂŒssen wir deren GrundsĂ€tze nicht anfassen, sondern an die Frage der Einwilligung ran. Und wir mĂŒssen dafĂŒr sorgen, dass die DSGVO besser in der Praxis umgesetzt wird. Das ist nur vordergrĂŒndig eine Frage des BĂŒrokratieabbaus.

Sondern?

Ich höre oft von Unternehmer:innen, dass sie Datenschutz beachten wollen, aber nicht wissen, wie sie dabei am besten vorgehen. Wenn wir also am Ende mehr Rechtsklarheit in die Verordnung hineinbekommen, dann ist das auch ein Weg, um Betroffene besser zu schĂŒtzen, weil die Regeln besser umgesetzt können. Auch der risikobasierte Ansatz der DSGVO sollte weiter ausdifferenziert werden. Also dass nicht alle die gleichen Pflichten haben, sondern Ă€hnlich wie bei der KI-Verordnung die Verantwortung grĂ¶ĂŸer ist, wenn das Risiko der Datenverarbeitung zunimmt.

Wie man das Problem der Databroker lösen könnte

Erst kĂŒrzlich konnten wir mit den gerade schon angesprochenen Databroker-Recherchen zeigen, wie sich selbst hochrangiges EU-Personal ausspionieren lĂ€sst – mit Daten aus dem Ökosystem der Online-Werbung, die wir kostenfrei von Databrokern bekommen haben. Wie löst man dieses Problem?

Das ist nicht trivial, weil Werbe-Tracking mit Einwilligung zulĂ€ssig sein kann, in vielen FĂ€llen wohl aber Zweifel an der RechtsgĂŒltigkeit der Einwilligungen bestehen. Deshalb mĂŒssen wir uns zunĂ€chst anschauen, wie die Datenströme verlaufen: Ich habe ein EndgerĂ€t mit der Werbe-ID, von dem Daten an einen Databroker gehen, der hĂ€ufig in einem Drittstaat sitzt, beispielsweise in den USA. Und dann habe ich einen DatenankĂ€ufer, der etwa in einem anderen europĂ€ischen Staat sitzt.

Den Databroker in den USA kriegt man aufsichtsrechtlich sehr schwer zu fassen, da brÀuchte man Amtshilfe von US-Behörden. Beim DatenankÀufer ist es einfacher, wenn er in einem EU-Mitgliedstaat sitzt. Er ist aber das letzte Glied in der Kette. Selbst wenn wir nachweisen können, dass er sich datenschutzwidrig verhÀlt, beendet das noch nicht den Datenhandel.

Daher wĂ€re es am sinnvollsten, die Apps ins Visier zu nehmen, die die Werbe-ID weitergeben. Wir sollten darĂŒber nachdenken, ob die Ausleitung der Werbe-ID grundsĂ€tzlich beschrĂ€nkt werden sollte – auch wenn Nutzer:innen „einwilligen“. Das könnte man ĂŒbrigens auch in einem Omnibus regeln.

Um die KomplexitĂ€t noch zu erhöhen, gibt es auch noch das Teilproblem der DatenmarktplĂ€tze. Das sind die Plattformen, auf denen Interessierte und Anbieter von Daten zusammenkommen. Der grĂ¶ĂŸte Marktplatz hat seinen Sitz in Berlin, die Berliner Datenschutzaufsicht kam zu dem Schluss, dass die DSGVO nicht anwendbar ist, weil er nur Kontakte vermittelt und selbst die DatensĂ€tze nicht verarbeitet.

Wir hatten eine Ă€hnliche Situation schon mal beim geistigen Eigentum. Filesharing-Clients hatten einst auch argumentiert, dass sie nur den Kontakt zwischen Person A und Person B herstellen, die dann MusikstĂŒcke austauschen. Damals haben die Gerichte die Vermittlungsplattform mit dem TĂ€ter quasi gleichgestellt. Eine solche Störerhaftung könnte man auch im Datenschutzrecht vorsehen.

Ich weiß, dass es die Rechtsauffassung gibt, dass die TĂ€tigkeiten von DatenmarktplĂ€tzen heute schon eine VerarbeitungstĂ€tigkeit sind. Aber selbst dann wĂ€re es hilfreich, dies explizit ins Gesetz zu schreiben, um Rechtsklarheit zu schaffen. Das könnte man gegebenenfalls sogar auf nationaler Ebene lösen, ohne den Weg ĂŒber die EU.

„Eine Verpflichtung wĂ€re eine großer Schritt“

Überraschenderweise hat die EU-Kommission auch einen neuen Rechtsrahmen fĂŒr Consent-Manager fĂŒr Cookies in den Omnibus aufgenommen, obwohl dieser ja eigentlich nur eine technische Anpassung sein sollte. In Deutschland gibt es die Möglichkeit schon lĂ€nger, Ihre Behörde hat neulich den ersten Cookie-Manager fĂŒr Deutschland anerkannt. WĂŒrde das das Databroker-Problem lösen?

Nein, aber es löst ein anderes Problem.

Wenn ich das Ziel verfolge, Cookie-Banner zu reduzieren, dann habe ich dafĂŒr verschiedene Möglichkeiten. Eine besteht darin, den Verbraucher:innen die Möglichkeit zu geben, vorab generell zu erklĂ€ren, fĂŒr welche Zwecke Cookies bei ihnen gesetzt werden dĂŒrfen und fĂŒr welche nicht. Und die Website-Betreiber zugleich dazu zu verpflichten, diese Entscheidung auch zu akzeptieren.

Das ist auch der Punkt, den ich beim Omnibus einigermaßen positiv sehe. Da steht drin, dass Website-Betreiber die Cookie-Einstellung akzeptieren sollten. Wenn die Vorgabe so zu lesen ist, dass sie dazu verpflichtet sind, dann wĂ€re das ein großer Schritt. Denn diese Pflicht sieht die deutsche Rechtslage derzeit nicht vor. Das ist ja der große Kritikpunkt an den Einwilligungsmanagementsystemen, wie sie in Deutschland gegenwĂ€rtig vorgesehen sind.

„Hundertprozentige Sicherheit gibt es nicht“

Sie sprachen eingangs das Grundrecht auf Schutz der Gesundheit an. Die elektronische Patientenakte hat ein ereignisreiches Jahr hinter sich. Auf SicherheitslĂŒcken in der ePA angesprochen, haben Sie mal den Vergleich gezogen, dass in ein Haus auch eingebrochen werden kann – „ganz gleich, wie gut die Alarmanlage ist“. Ist das nicht eine schrĂ€ge Analogie?

Was ich damit sagen wollte, ist, dass wir nie eine hundertprozentige Sicherheit im technischen System haben können. Eine solche Sicherheit gibt es nicht.

Wir mĂŒssen allerdings alles tun, um SicherheitslĂŒcken so frĂŒh wie möglich zu erkennen, zu schließen und deren Zahl so gering wie möglich zu halten. Das sind die drei Dinge, die wahnsinnig wichtig sind.

Allerdings ist bei der Sicherheit der ePA das Bundesamt fĂŒr Sicherheit in der Informationstechnik (BSI) der primĂ€re Ansprechpartner. Wir als Datenschutzaufsicht schauen uns vor allem die Datenverarbeitung an, die in der ePA stattfindet. Das BSI ist dafĂŒr zustĂ€ndig, im Dialog mit dem Bundesgesundheitsministerium und der Gematik, die SicherheitslĂŒcken zu schließen. Wir werden dann darĂŒber informiert und dĂŒrfen uns dazu Ă€ußern.

Das war ja mal anders.

FrĂŒher mussten Spezifikation der Gematik von uns „freigeben“ werden, sie musste also Einvernehmen mit uns herstellen. Jetzt muss sie uns nur noch ins Benehmen setzen. Ich darf jetzt zwar etwas sagen, aber man muss mir theoretisch nicht mehr zuhören.

In ihren Vorversionen verfĂŒgte die ePA noch ĂŒber zahlreiche Möglichkeiten, mit denen Versicherte genauer einstellen konnten, welche Dokumente Behandelnde sehen dĂŒrfen und welche nicht. Davon ist heute nicht mehr viel ĂŒbrig. Ist das Versprechen einer patientenzenterierten ePA ĂŒberhaupt noch zu halten?

Es kommt darauf an, was man als patientenzentriert definiert. Die Einstellungen in der ePA 2.0 waren dokumentengenauer. Das wurde ein StĂŒck weit zurĂŒckgeschraubt. Wir werden allerdings mit dem EuropĂ€ischen Gesundheitsdatenraum (EHDS) bald eine Rechtslage bekommen, die möglicherweise wieder feinere Einstellungen vorsieht. Die Details dazu werden derzeit noch ausgearbeitet.

Ein großes Problem in der ePA war, dass Leistungserbringer immer auch die Abrechnungsdaten zu sehen bekamen, die die Krankenkasse in die Patientenakte einstellt. Selbst wenn ich eingestellt hatte, dass bestimmte Leistungserbringer Dokumente nicht sehen sollen. Ärzte hĂ€tten dann trotzdem sehen können, dass man schon bei einem anderen Arzt war und wie die Diagnose lautete. Das ist zumindest abgestellt worden und das ist ein Fortschritt.

„FĂŒr eine patientenztentrierte ePA ist es noch nicht zu spĂ€t“

Dennoch bleibt die Frage, ob die Chance vertan wurde, ein großes Digitalisierungsprojekt datenschutzorientiert auf die Beine zu stellen?

Ich muss selbst entscheiden können, welche Daten in meine ePA hineinkommen. Das kann ich aber nur tun, wenn ich vernĂŒnftig informiert werde. Bislang wird Ă€ußerst wenig dafĂŒr getan, dass Informationen auch bei den Menschen ankommen.

Und das vor allem deswegen, weil das Gesetz ĂŒberall Informationserteilungspflichten vorsieht, aber nicht fordert, dass die Information von den Patient:innen auch wahrgenommen wird. Erst jetzt startet eine breit angelegte Werbekampagne des BMG. Insgesamt wurde aus meiner Sicht viel zu spĂ€t und mit viel zu geringer PrioritĂ€t informiert. Wir haben dazu gerade eine große Umfrage durchgefĂŒhrt und veröffentlichen die Ergebnisse bald in unserem Datenschutzbarometer.

Wir haben unzĂ€hlige Beratungsschreiben an die Krankenkassen geschrieben, damit die Informationen möglichst gut verstanden werden. Damit Menschen sich wirklich befĂ€higt fĂŒhlen, informierte Entscheidungen zu treffen, muss ich anders informieren als in einem fĂŒnfseitigen Brief, den Versicherte bekommen und dann achtlos in den MĂŒll schmeißen, weil sie denken, das es eine weitere Beitragsanpassung ist. Ich sehe die Verantwortung aber hier wie gesagt auch beim Gesetzgeber.

Ist die Chance vertan, dass die ePA dem Anspruch an Information und Selbstbestimmung gerecht wird? Ich glaube nicht. Aber es ist verdammt spÀt.

„Das wĂŒrde meine Behörde und mich sehr schmerzen“

Lassen Sie uns zum Schluss ĂŒber eine weitere Datenschutz-Baustelle sprechen: die Verteilung der Aufsichtskompetenz in Deutschland. Ihre Behörde könnte die Aufsicht ĂŒber die Geheimdienste verlieren.

Das ist fĂŒr mich eine ganz schwierige Situation. Der Verlust der Aufsicht ĂŒber die Nachrichtendienste wĂŒrde meine Behörde und mich sehr schmerzen. Nicht weil wir dann zwanzig Mitarbeiter weniger hĂ€tten. Sondern weil wir die einzige Stelle sind, die eine komplette Übersicht ĂŒber die Sicherheitsbehörden insgesamt hat und darĂŒber, wie sie Daten von BĂŒrgerinnen und BĂŒrgern nutzen.

Die aktuelle politische Diskussion geht klar in die Richtung, dass Nachrichtendienste mehr Befugnisse erhalten sollen. Ein solcher Machtzuwachs lĂ€sst sich aber nur dann rechtfertigen, wenn gleichzeitig ein vernĂŒnftiges Aufsichtsregime gewĂ€hrleistet wird.

Die PlÀne kÀmen einer Entmachtung Ihrer Behörde gleich.

Teile der Aufsicht, die wir bisher ausgeĂŒbt haben, sollen in einen unabhĂ€ngigen Kontrollrat verlagert werden. Das wĂ€re eine Zerfaserung der Aufsicht, die GesamtĂŒbersicht ĂŒber die Sicherheitsbehörden wĂ€re nicht mehr gegeben. Das finde ich bedenklich. Wir sind nĂ€mlich auch die einzige Stelle, die die Gesamtheit des Überwachungsdrucks im Blick behalten kann.

Wir haben derzeit eine Haushaltssituation, wo alle sparen sollen. Ich frage mich, wieso da eine neue Stelle geschaffen werden soll, die Aufgaben ĂŒbernimmt, fĂŒr die eine andere Behörde jahrelang Kompetenz aufgebaut hat. Haben wir vielleicht zu genau hingeschaut in den vergangenen Jahren?

An anderer Stelle könnte Ihre Behörde an Bedeutung gewinnen. Der Koalitionsvertrag sieht eine BĂŒndelung der ZustĂ€ndigkeiten und Kompetenzen bei der Aufsicht ĂŒber Wirtschaft und Vereine bei Ihnen vor. DafĂŒr kursieren unterschiedliche Modelle.

Auch diese Situation ist fĂŒr mich persönlich nicht ganz leicht, weil ich meine Kolleg:innen aus der Datenschutzkonferenz (DSK) sehr schĂ€tze. Die Landesdatenschutzaufsichtsbehörden machen hervorragende Arbeit.

Gleichwohl glaube ich, dass 18 Aufsichtsbehörden zwangslĂ€ufig auch mal unterschiedliche Rechtsauffassungen vertreten. Wir können nicht alles auf DSK-Ebene diskutieren und gemeinsam entscheiden. Es gibt daher gute Argumente fĂŒr eine BĂŒndelung. Ich glaube auch, dass man Aufsicht und Beratung dann besser skalieren könnte.

UnabhĂ€ngig davon, welches Modell es am Ende wird, muss die Datenschutzkonferenz fĂŒr die Aufsicht ĂŒber öffentliche Stellen eine eigene GeschĂ€ftsstelle bekommen, weil durch den wechselnden Vorsitz zu viele KapazitĂ€ten in Organisationsfragen gebunden werden.

Zum Abschluss die Preisfrage: Wie viele neue Stellen brÀuchten Sie, wenn es zu einer Zentralisierung kommen sollte, also einer vollstÀndigen Verlagerung der Wirtschaftsaufsicht von den LÀnderbehörden zu Ihnen?

Wir gehen je nach Ausgestaltung von einer hohen zweistelligen bis niedrigen dreistelligen Zahl aus.

Ihre LÀnderkolleg:innen rechnen mit deutlich höheren Zahlen.

Wir haben das intern durchgerechnet und gehen von Skalierungseffekten aus. Insofern kommen wir mit deutlich weniger Stellen aus, als derzeit in der öffentlichen Diskussion angenommen wird.

Ingo  Dachwitz ist Journalist und Kommunikationswissenschaftler. Seit 2016 ist er Redakteur bei netzpolitik.org und u.a. Ko-Host des Podcasts Off/On. Er schreibt hĂ€ufig ĂŒber Datenmissbrauch und Datenschutz, Big Tech, Plattformregulierung, Transparenz, Lobbyismus, Online-Werbung, WahlkĂ€mpfe und die Polizei. 2024 wurde er mit dem Alternativen Medienpreis und dem Grimme-Online-Award ausgezeichnet. Ingo ist Mitglied des Vereins Digitale Gesellschaft sowie der Evangelischen Kirche. Seit 02/2025 ist sein Buch erhĂ€ltlich: “Digitaler Kolonialismus: Wie Tech-Konzerne und GroßmĂ€chte die Welt unter sich aufteilen”. Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, FragDenStaat

Daniel Leisegang ist Politikwissenschaftler und Co-Chefredakteur bei netzpolitik.org. Zu seinen Schwerpunkten zĂ€hlen die Gesundheitsdigitalisierung, Digital Public Infrastructure und die sogenannte KĂŒnstliche Intelligenz. Daniel war einst Redakteur bei den »BlĂ€ttern fĂŒr deutsche und internationale Politik«. 2014 erschien von ihm das Buch »Amazon – Das Buch als Beute«; 2016 erhielt er den Alternativen Medienpreis in der Rubrik »Medienkritik«. Er gehört dem Board of Trustees von Eurozine an. Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, Threema ENU3SC7K, Telefon: +49-‭30-5771482-28‬ (Montag bis Freitag, jeweils 8 bis 18 Uhr). Dieser Beitrag ist eine Übernahme von netzpolitik, gemĂ€ss Lizenz Creative Commons BY-NC-SA 4.0.

2025-11-10

#DoNotTrack in Kalifornien:

#Gesetz566 verpflichtet #Browser-Anbieter ab 2027 zu einer Opt-out-Funktion, "die Websites automatisch darĂŒber informiert, dass persönliche Daten nicht an Dritte weitergegeben werden dĂŒrfen."

heise.de/news/Kalifornien-stae

#CookieBanner #Cookies #Tracking #Werbetracking #OnlineTracking #DSGVO #Datenschutz

2025-07-26

Your Phone Isn’t Spying on You to Show You Ads (It’s Worse Than That).

An excellent article that explains how adcetisere and data broker companies are knowing all about you without listening to your microphone.

lifehacker.com/what-people-are

#privacy #android #ios #windows #google #amazon #facebook #ads #onlinetracking #onlineprivacy

Brian Greenberg :verified:brian_greenberg@infosec.exchange
2025-03-29

đŸ›Ąïž Online Tracking Is Out of Control — Here’s How You Can Fight Back — The Electronic Frontier Foundation (EFF) is taking aim at online surveillance with Privacy Badger, a free, open-source browser extension designed to block trackers and disrupt the business model of behavioral advertising.

🔍 Here’s how it protects your privacy:
đŸ”č Blocks third-party trackers and cookies from loading on websites.
đŸ”č Sends Global Privacy Control (GPC) signals to opt out of data sharing (legally binding in several U.S. states).
đŸ”č Neutralizes social media trackers by replacing embedded content with click-to-activate placeholders.
đŸ”č Disrupts adtech profits by denying them access to your data — weakening the surveillance economy.

📱 Until we have strong federal privacy laws, tools like Privacy Badger offer real, immediate protection.

#Privacy #CyberSecurity #EFF #DigitalRights #AdTech #OnlineTracking
@eff@mastodon.social
@eff@twitter.oksocial.net

eff.org/deeplinks/2025/03/onli

Miguel Afonso Caetanoremixtures@tldr.nettime.org
2025-03-28

"Online tracking is pervasive because it’s profitable. Tech companies earn enormous profits by targeting ads based on your online activity—a practice called “online behavioral advertising.” In fact, Big Tech giants like Google, Meta, and Amazon are among the top companies tracking you across the web. By automatically blocking their trackers, Privacy Badger makes it harder for Big Tech companies to profit from your personal information.

Online behavioral advertising has made surveillance the business model of the internet. Companies are incentivized to collect as much of our data as possible, then share it widely through ad networks with no oversight. This not only exposes our sensitive information to bad actors, but also fuels government surveillance. Ending surveillance-based advertising is essential for building a safer, more private web.

While strong federal privacy legislation is the ideal solution—and one that we continue to advocate for—Privacy Badger gives you a way to take action today.

Privacy Badger fights for a better web by incentivizing companies to respect your privacy. Privacy Badger sends the Global Privacy Control and Do Not Track signals to tell companies not to track you or share your data. If they ignore these signals, Privacy Badger will block them, whether they are advertisers or trackers of other kinds. By withholding your browsing data from advertisers, data brokers, and Big Tech companies, you can help make online surveillance less profitable."

eff.org/deeplinks/2025/03/onli

#Surveillance #OnlineTracking #AdTech #Privacy #DataProtection #BigTech #PrivacyBadger

Google is again collecting data like IP addresses and browser info to identify unique users. This raises privacy concerns as it's harder to detect and block than cookies #googletracking #digitalfingerprinting #userprivacy #onlinetracking #adtech #mashable

Google is tracking your digita...

Der BrĂŒsseler đŸ‡ȘđŸ‡șderbruesseler@chaos.social
2024-05-29

SchĂŒtzt der neue deutsche #Tracking-Service #Utiq unsere Daten? Jain. Es ist ein interessantes Angebot, aber mich ĂŒberzeugt das Konzept nicht. #rp24 #Datenschutz #D64 #OnlineTracking #BigBrother

Susanne Klausing und Torben Dzillak (beide D64) stehen auf der BĂŒhne der re:publica 24 und halten einen Talk ĂŒber "Big Brother made in Germany".
Miguel Afonso Caetanoremixtures@tldr.nettime.org
2024-03-29

#EU #CJEU #GDPR #DataProtection #BigTech #AdTech #TargetedAds #OnlineTracking: "In a landmark decision on 7 March 2023, the Court of Justice of the European Union (CJEU) issued a groundbreaking judgment against online targeted ads prohibited by the General Data Protection Regulation (GDPR). This ruling has far-reaching implications for major platforms, including giants like Google and TikTok, that rely on the online personalised advertising industry as part of their business model. The Court recognised that invasive tracking and profiling cannot be sanctioned through ‘consent’ pop-ups, responding to a complaint that focused on the mechanisms facilitating the covert profiling and monitoring of the private activities of a majority of individuals across the digital realm. The court’s decision emphasised the need for stricter controls on the online tracking and advertising industry." edri.org/our-work/europes-high

2024-02-07
Home » TechnoMansing » Is Big Data Spying On You?

Alright, folks, let’s chop it up on how we all dwell in this digital cosmos, cluttered with ads like it’s some kind of constellation out here. Is Big Data Spying on you? You know what it’s like—you’re scrolling, minding your own, and bam! An ad for them kicks you saw two weeks ago pops up. Coincidence? I think not. Lemme lay it on ya: this is about whether you crave that custom ad experience or you’d rather get bombarded by randomness, like the stars above.

Now peep this, we’re living in a world where our clicks and likes are like breadcrumbs we drop on the Internet’s forest floor. Ad wizards pick up on these clues and before you know it, they’re serving you a platter of “stuff you might like.” On the real, it feels kinda flattering, like somebody out there understands you, gets your taste. But hold up – ain’t that the same as having a big brother peering over your shoulder, taking notes of your every move?

Sequence after sequence, them algorithms dissect your digital DNA, serving up ads so personalized, it’s like they know your shoe size and the exact shade of blue you dig. It’s a modern-day crystal ball, promoters seeing into your soul—or so they think. Don’t sleep on this, ’cause that’s how they keep you coming back, tapping ‘n’ swiping.

Now, picture the flipside; instead of a curated selection, you’re out here facing the randomness of ads like you’re gazing at stars. One second it’s a telescope for stargazing, next thing it’s diapers—even if you ain’t got a baby. It’s wild, right? It could be like avoiding spoilers for your favorite series; no chance of getting pigeonholed or tempted if what’s put in front of you is totally outta left field. Unpredictable, unexpected, the randomness keeps your browsing experience as fresh as your kicks straight out the box.

But real talk, where’s the middle ground? That’s like searching for an oasis in the digital desert, no cap.

And what about dodging ads altogether? Let’s not play ourselves, thinking there’s a free lunch out here. You want a clean social media experience, no ads crowding your view? Brace yourself to throw some coins at those premium versions – ‘cause ain’t nothing free in the land of 1s and 0s.

You’ve gotta wonder, do these mythical ad-free social spaces exist? Not in the kingdom of mainstream, they don’t. The biggest playas in the game thrive on ad revenue. That’s their bread and butter. Without ads, the giants would be hustling for coins like arcade games in a now-digital world.

Think on this: it ain’t always about the ads themselves. It’s the principle, the freedom to choose whether you want your digital journey to be yours truly or some AI’s idea of who you are. We ain’t just passive consumers no more. We’re players in this game, and it’s about time we started setting some rules up in here.

So the million-dollar question is: do you want to take control like a maestro, conducting your online orchestra? Or are you cool with rolling dice, leaving it to chance like a Universe full of wild stars? Both paths got their own brand of crazy—choose your own adventure.

And here’s the kicker: talk is cheap; we all vent about wanting change, the kind that shakes the ground we stand on. But that’s usually where the hustle stops. Too often we just rant and keep it moving, scrolling, and consuming without hitting the brakes, without challenging the norms. It’s time we stepped it up a notch – demand the change we’re shouting about.

Maybe the real game-changer is reimagining the landscape, crafting spaces where we decide the role ads play in our digital lives. This ain’t wishful thinking; it’s about stirring the pot until we cook up some new recipes. C’mon, imagine social platforms that roll like community gardens, cultivated by us, for us—no outside ads raining on our parade. Sound utopian? Maybe. But every high-rise in the skyline starts with a blueprint, some architect’s dream. So why not dream big on this?

Sure, ads serve up the goods, might even hook you up with that shirt you’ve been eyeing. But at what cost? Your digital soul on a silver platter? Your inner space cluttered with billboards? We gotta demand the freedom to curate our own experiences without compromise. Gotta rise up so high that when you look down, ads look like fleeting stars, not like nets trying to catch you.

At the end of the cybernetic day, it’s about choice and about change; we can’t be out here playing checkers while the ad game’s playing 3D chess. Let’s put the power back in our thumbs, scrolling on our terms, in spaces that reflect our vibe, spacious and ad-free.

Lessons from the stars, lessons from the streets—it’s all the same groove. It’s about staying woke in the digital universe, whether you’re gliding through the hood or gliding through the web. And always, always keep it 100: demand more, scroll intentionally, and shape this world—both online and off—into the vision that pulses in our collective heartbeat.

ThunkDeep, y’all. Keep asking the real questions in this ad-infested landscape. Choose whether to be targeted or random. But more importantly, stay on top of your game, advance the change you wanna see. Make them premium app dreams a reality. And remember, stay dope ’cause you wouldn’t have it any other way.

Disclaimer: “Heads up! This blog’s a think piece, a brain jogger. Ain’t no solid facts, just perspectives to make you question the norm. Big Data Spying – real or paranoia? ThunkDeep is where we explore, not where we claim the truth. Dive in, but always double-check with your own research. Stay sharp!”

Recent Posts

https://thunkdeep.com/is-big-data-spying-on-you/

#AfroFuturism #BigData #dataSecurity #digitalFootprint #internetPrivacy #onlineTracking #privacy #surveillance #techInsights #ThunkDeep #userData

Big Data spying robot, big mechanical eye
Shared Security Podcast :verified:sharedsecurity@infosec.exchange
2023-01-02

👋​ In our first episode of the year, Tom Eston (@agent0x0) discusses one of the biggest privacy concerns people have today: online tracking by companies and advertisers. Tom will cover the following topics, tips, and new techniques to help you stop being tracked online:

đŸ€”â€‹ Why should we be concerned about online tracking?
👍​How to enable and configure the privacy settings in your web browser
😍​How your smartphone has privacy settings to block online tracking
🔎​Using a privacy focused search engine

Watch on YouTube:
youtu.be/EoITB1oZ114

Listen direct from our website:
sharedsecurity.net/2023/01/02/

Subscribe wherever you like to get your podcasts:
sharedsecurity.net/subscribe

#cybersecurity #infosec #privacy #podcast #onlinetracking

2022-12-27

Stumbled upon this incredible web comic by @leah that breaks down how Google Chrome slowly turned into the world's most widely used surveillance tool. A must-read for anyone concerned about privacy:

contrachrome.com/

#google #chrome #surveillance #privacy #onlinetracking #privacyrights #googlechrome

James House-Lantto (He/Him)Theeo123
2022-12-24

reviewgeek.com/140559/duckduck

The short and skinny is that is you use "sign in with Google" on a site, any site, the rest of your privacy settings and choices no longer matter, you've essentially given Google full access to whatever you do on that site. DDG is looking at ways to stop this.

##DDG

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst