#contenus

solenoïdsolenoid
2025-06-17

(6/6)
Conformément aux attentes, on observe une différence considérable entre ce qu'une personne regarde “spontanément" en suivant ses pulsions instantanées et les recommandations de YouTube, et ce qu'il juge utile de regarder et de recommander lorsque la question lui est posée. Là où l'onglet de YouTube empile des aptes à capter l'attention sans aucune considération fiable ou utile, Tournesol joint l'utile à l'agréable.

Poujol 𝖱𝗈𝗌𝗍 ✅poujolrost@mstdn.jp
2025-06-04

De la part de politiciens, marketeux, institutions,
les forçages à utiliser / subir des #IA_génératives me fatiguent.

Ces gens sont à 2 doigts de nous traiter d'Amish du Numérique, parce qu'on refuse des #technos ou logiciels...

- opaques (algos internes inconnus ou incontrolables),
- créés par des riches occidentaux (nombreux #biais),
- entrainés sur des #contenus sans l'accord des auteur-e-s,
- corrigés par des #esclaves (souvent en Afrique),
- dont on se passait très bien jusque là.

SNES-FSU ToulouseSNES_FSU_Toulouse
2025-05-06

Plus d’une centaine de au stage organisé par le @SNES_FSU_Toulouse
animé par @CCailleaux du secteur du @SNESFSU national !
Faire le point sur leur développement en , leur impact sur nos , débattre ensemble !

Rod2ik 🇪🇺 🇨🇵 🇪🇸 🇺🇦 🇨🇦 🇩🇰 🇬🇱rod2ik.bsky.social@bsky.brid.gy
2025-03-02
Rod2ik 🇪🇺 🇨🇵 🇪🇸 🇺🇦 🇨🇦 🇩🇰 🇬🇱rod2ik
2025-01-28
Rod2ik 🇪🇺 🇨🇵 🇪🇸 🇺🇦 🇨🇦 🇩🇰 🇬🇱rod2ik
2025-01-06

a annoncé il y a peu une refonte de l’algorithme de , qui vise à privilégier les et au détriment de ceux jugés " " .
Question : Mais qu'est-ce qu'un " " pour ?
Telle est la question ..

cointribune.com/musk-veut-limi

Les vidéos stupides des réseaux sociaux sont source de perte d’attention et même de matière grise

Le verdict est sans appel. Notre addiction aux réseaux sociaux ne se limite pas à une simple perte de temps : elle détruit littéralement nos capacités cognitives. Une série d’études scientifiques menées par des institutions prestigieuses comme Harvard Medical School et l’Université d’Oxford révèle que la consommation compulsive de contenus en ligne réduit la matière grise de notre cerveau. Un constat alarmant qui transforme l’expression familière qui caractérise les vidéos les plus stupides des réseaux appelées « brain rot » en une réalité scientifique mesurable.

Le scrolling infini, une arme de destruction massive pour notre cerveau

Les réseaux sociaux ont parfaitement compris comment exploiter les faiblesses de notre cerveau. Le scrolling infini, cette fonctionnalité qui permet de faire défiler sans fin les contenus, n’est pas un hasard. Le Dr Michoel Moshel de l’Université Macquarie explique que cette fonction tire profit de notre tendance naturelle à rechercher la nouveauté, particulièrement quand il s’agit d’informations potentiellement dangereuses ou alarmantes. Un mécanisme qui, ironiquement, servait autrefois à notre survie.

Cette surstimulation constante provoque des dégâts considérables. Les études en neuroimagerie montrent une diminution du volume de matière grise dans les régions cérébrales responsables du traitement des récompenses, du contrôle des impulsions et de la prise de décision. Plus inquiétant encore, ces modifications ressemblent étrangement aux effets observés chez les personnes souffrant d’addictions aux substances comme la méthamphétamine ou l’alcool.

Une génération entière menacée par le « doomscrolling »

Le phénomène touche particulièrement les adolescents, à un moment crucial de leur développement. Les changements neuroanatomiques observés perturbent la formation de leur identité et leurs capacités de cognition sociale. Une étude publiée dans Nature en novembre dernier souligne un cercle vicieux particulièrement pervers : les personnes souffrant déjà de problèmes de santé mentale sont plus susceptibles de s’engager dans la consommation de contenus nocifs, ce qui aggrave encore leurs symptômes.

Eduardo Fernández Jiménez, psychologue clinicien à l’hôpital La Paz de Madrid, met en lumière un autre aspect du problème. L’exposition continue aux stimuli variables des réseaux sociaux force notre cerveau à constamment changer de focus. Cette gymnastique mentale épuisante détruit progressivement notre capacité à maintenir une attention soutenue, celle-là même qui est essentielle aux processus d’apprentissage.

Des solutions existent, mais nécessitent une prise de conscience collective

Le problème n’est pas nouveau. Dès 2005, des scientifiques de l’Université de Londres avaient observé une baisse de 10 points de QI chez les personnes consultant leurs emails de manière compulsive. Un impact plus néfaste que la consommation de cannabis. Aujourd’hui, avec la multiplication des plateformes et des formats courts, la situation est devenue critique.

Face à ce constat, les experts recommandent une approche équilibrée. Le Dr Moshel insiste sur l’importance de privilégier des contenus éducatifs et d’établir des limites claires d’utilisation quotidienne. Le psychologue Carlos Losada préconise quant à lui un retour aux activités physiques et aux interactions sociales en personne, essentielles pour contrebalancer les effets néfastes de la consommation de contenu rapide.

En bref…

  • La consommation excessive de contenus en ligne réduit physiquement la matière grise du cerveau

  • Les adolescents sont particulièrement vulnérables aux effets néfastes du « doomscrolling »

  • Une limitation du temps d’écran et un retour aux activités physiques sont essentiels pour préserver notre santé mentale

Source : Par Robin Sabbadini via Presse-Citron

#addictions #adolescents #attention #études #brainRot #contenus #enfants #mentale #réseauxSociaux #Santé #scrolling #vidéos

L’Association e-Enfance désignée premier signaleur de confiance par l’ARCOM

Comprendre en quelques points comment cette nomination nous permet de mieux protéger les mineurs.

Le RSN c’est quoi ?

Le Règlement sur les Services Numériques (RSN), aussi connu sous son appellation anglaise Digital Services Act (DSA), est la législation européenne qui impose aux plateformes en ligne et aux moteurs de recherche opérant sur le marché européen, des obligations afin de protéger les utilisateurs, et de mieux encadrer leur activité.

Le RSN s’applique, depuis le mois de février 2024, à l’ensemble des plateformes en ligne proposant leurs services au sein de l’Union européenne, incluant notamment, les réseaux sociaux, les marketplaces, les moteurs de recherche, les plateformes de contenu.

Quels sont ses objectifs ?

Le RSN fixe un cadre réglementaire destiné à responsabiliser les plateformes numériques et à limiter la propagation de contenus illicites ou nuisibles ainsi que la vente de produits illégaux.

Il s’attaque notamment à des dérives de plus en plus répandues en ligne telles que les discours haineux, la manipulation, la désinformation, le racisme, la diffusion d’images pédopornographiques, ou encore la vente de drogues et de contrefaçons.

Comment le RSN est-il appliqué ?

Dans chaque État membre de l’Union européenne, un coordinateur pour les services numériques a été nommé pour veiller à l’application de ce règlement au niveau national.

En France, cette mission est confiée à l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique). Ces coordinateurs ont également la responsabilité de désigner des Signaleurs de Confiance. Ceux-ci peuvent être des associations, des entités et organisations, reconnues pour leurs compétences et expertises sur leur sujet.

C’est dans ce cadre que l’Association e-Enfance/3018 a été choisie comme premier Signaleur de Confiance dans la lutte contre le harcèlement et les cyberviolences faites aux mineurs.

Quelles obligations pour les plateformes ?

Le règlement impose désormais aux plateformes de :

  • Intervenir rapidement pour supprimer ou bloquer l’accès à ces contenus préjudiciables. C’est dans ce cadre que les plateformes collaborent avec des Signaleurs de Confiance dont elles sont tenues de traiter en priorité les signalements.
  • Renforcer leur transparence concernant leurs politiques de modération, de récolte de données et le fonctionnement des algorithmes utilisés pour recommander des contenus publicitaires en fonction des profils des utilisateurs.

En cas de non respect de ce cadre réglementaire, les plateformes encourent des sanctions pouvant atteindre jusqu’à 6% de leur chiffre d’affaire mondial, ou une interdiction d’exercer sur le marché européen.

Quel est notre rôle en tant que Signaleur de Confiance ?

Les Signaleurs de Confiance, ont pour mission de notifier aux plateformes en ligne les contenus qu’ils estiment illégaux. Ces signalements doivent être étayés et les plateformes sont tenues de les traiter en priorité. Si la plateforme valide le signalement, elle se doit de retirer ou bloquer l’accès aux contenus signalés.

Jusqu’à présent l’Association e-Enfance/3018 coopérait déjà avec 18 plateformes, engagées volontairement dans cette démarche : réseaux sociaux, messageries instantanées, sites de jeux vidéo, plateformes médias payantes, sites pornographiques.

Ce nouveau statut nous permet d’élargir notre champ d’action en intervenant désormais sur l’ensemble des plateformes en ligne accessibles en France.

Par ailleurs, les Signaleurs de Confiance et les plateformes sont tenus de publier un rapport annuel de transparence, détaillant leurs actions respectives en matière de signalement et de modération de contenus.

Ensuite transmis par l’Arcom à l’échelle européenne, ces rapports servent de référence pour évaluer le respect des obligations par les plateformes et, si nécessaire, appliquer des sanctions.

Source : Par e-Enfance/3018 via sa newsletter du 11 déc 2024

#algorithmes #arcom #contenus #DigitalServicesAct #DSA #eEnfance #harcèlement #mineurs #modération #outils #pédopornographie #plateformes #réseauxSociaux #RSN #UnionEuropéenne #utilisateurs

Apple poursuivie pour inaction contre les contenus illégaux

Une femme de 27 ans, victime d’abus sexuels dans son enfance, vient d’intenter une action en justice contre Apple. Le géant technologique est accusé d’avoir failli à sa promesse de protéger les victimes en abandonnant son outil de détection d’images pédopornographiques, laissant ainsi proliférer des contenus illégaux sur ses serveurs. L’entreprise, déjà secouée par plusieurs procès cette année (l’affaire Spotify et l’amende salée punissant le fonctionnement de l’App Store) se retrouve cette fois dans une toute autre dimension juridique.

L’iCloud, refuge d’images illégales

L’histoire commence dès la naissance de la plaignante, victime d’abus perpétrés par un membre de sa famille qui photographiait ses actes et partageait les clichés en ligne. L’homme fut arrêté après avoir proposé ces images dans un salon de discussion, puis condamné à la prison. Toutefois, le calvaire de la victime ne s’arrête pas là. Depuis plus d’une décennie, elle reçoit quotidiennement des notifications l’informant que ses photos ont été découvertes sur de nouveaux appareils grâce à iCloud.

En 2021, un nouveau signalement l’informe que ses images ont été retrouvées sur le MacBook d’un homme dans le Vermont, stockées également sur iCloud. Cette découverte est intervenue peu après qu’Apple ait annoncé puis abandonné NeuralHash, son système de détection d’images pédopornographiques. Ce dernier devait scanner les photos stockées sur iCloud et les comparer à une base de données d’images référencées par le National Center for Missing & Exploited Children (NCMEC). Une organisation américaine qui lutte contre les disparitions et l’exploitation sexuelle des enfants, en garantissant une assistance aux familles, en collaborant avec la police et en sensibilisant le public.

Néanmoins, les spécialistes en cybersécurité avaient alors soulevé le spectre d’une potentielle instrumentalisation de cette technologie à des fins de surveillance étatique. Apple a donc suspendu le déploiement de NeuralHash, estimant impossible de concilier l’analyse systématique des contenus avec la préservation absolue de la confidentialité des utilisateurs.

Des milliers de victimes présumées

Le cabinet Marsh Law, fort de 17 ans d’expérience dans la défense des victimes d’abus sexuels, mène la charge. Margaret E. Mabie, associée du cabinet, a documenté plus de 80 cas impliquant les produits Apple, dont celui d’un homme de la région de San Francisco possédant plus de 2 000 images et vidéos illégales sur iCloud.

Les chiffres ne sont pas à la faveur de la marque à la pomme : tandis que Google et Facebook signalent chacun plus d’un million de cas au NCMEC, Apple n’en déclare que 267. Cette disparité avait d’ailleurs alerté Eric Friedman, cadre d’Apple chargé de la protection contre la fraude, qui avait admis en 2020 :

« Nous sommes la plus grande plateforme de distribution de contenus pédopornographiques »

Une déclaration choquante qui indique que la protection des données primerait donc sur la sécurité chez Apple.

La plainte, déposée devant le tribunal fédéral de Californie du Nord, pourrait représenter 2 680 victimes. Avec des dommages et intérêts minimum de 150 000 dollars par victime, potentiellement triplés, l’addition pourrait dépasser 1,2 milliard de dollars si Apple est coupable. Fred Sainz, porte-parole d’Apple, a défendu ainsi la position de l’entreprise :

« Nous condamnons fermement les contenus concernant les abus sexuels sur mineurs et nous nous engageons à lutter contre les prédateurs qui s’en prennent aux enfants. Nous développons sans cesse de nouvelles solutions pour combattre ces crimes, tout en respectant la vie privée et la sécurité de tous nos utilisateurs »

Pour la plaignante, qui vit dans le Nord-Est des États-Unis, cette action en justice représente un risque personnel considérable puisque la médiatisation du procès pourrait provoquer une recrudescence du partage de ses images. Néanmoins, elle persiste, estimant qu’Apple doit assumer ses responsabilités après avoir donné de faux espoirs aux victimes en introduisant puis en abandonnant NeuralHash. Cette affaire, si elle est avérée, pourrait contraindre Apple à repenser fondamentalement son approche de l’équilibre entre protection de la vie privée et lutte contre les contenus illégaux.

En bref…

  • Une femme poursuit Apple pour avoir abandonné son outil NeuralHash, laissant proliférer des images d’abus sexuels sur iCloud.

  • Apple a signalé bien moins de contenus illégaux que Google ou Facebook, suscitant des critiques sur ses priorités entre vie privée et sécurité.

  • La plainte pourrait représenter 2 680 victimes et coûter à Apple plus de 1,2 milliard de dollars en dommages et intérêts.

#apple #contenus #Cybersécurité #enfants #justice #NeuralHash #outils #pédopornographie #ViePrivée

Sept familles françaises accusent TikTok d’avoir exposé leurs enfants à des contenus dangereux, menant à des conséquences dramatiques. Le puissant algorithme de la plateforme est au cœur de l’affaire.

TikTok a empiré le mal-être des adolescentes, selon les parents

« TikTok, l’image que j’en avais, c’était des vidéos de danse, ou des tutos de maquillage, mais à aucun moment je me suis dit qu’il allait y avoir des vidéos qui allaient expliquer comment démonter une lame sur un taille-crayon pour se faire des scarifications. Ça me paraissait inconcevable », témoigne Jérémy au micro de Franceinfo. Sa fille, Charlize, s’est suicidée en 2023 à l’âge de 15 ans.

Au total, ce sont les familles de sept adolescentes, regroupées au sein du collectif « Algos Victima », qui assignent le réseau social en justice devant le tribunal judiciaire de Créteil. Une première en Europe. Parmi les victimes, deux ont mis fin à leur jour, tandis que quatre autres ont tenté de se suicider, les parents de l’une d’entre elles ont d’ailleurs porté plainte contre la plateforme l’année dernière. La dernière adolescente, elle, a rencontré des problèmes d’anorexie.

Selon les plaignants, TikTok a empiré le mal-être des jeunes filles, non seulement en raison de l’addiction provoquée par son modèle, mais également en les exposant à des contenus promouvant des comportements à risque. « L’algorithme a capté le style de ses recherches, et lui a proposé d’autres contenus, qui ont été de pire en pire, sur la dépression, ou encore les scarifications. TikTok a amplifié son malaise, à force de l’abreuver de contenus que les ados de son âge ne devraient jamais voir », dénonce Delphine, la mère de Charlize.

Les plaignants veulent que la responsabilité de TikTok soit reconnue

Pourtant, TikTok explique dans sa politique d’utilisation « proposer un environnement sûr et bienveillant », ainsi que « fournir aux adolescents et aux familles des outils et des ressources pour aider chacun dans son parcours de bien-être numérique ». L’application déploie souvent des mesures qui, selon ses dires, permettent de protéger les mineurs.

Mais la réalité est toute autre. Il est prouvé que TikTok rend les jeunes accros, notamment en générant une excitation constante grâce au renouvellement permanent des vidéos proposées. L’adaptation très fine de l’algorithme aux goûts et comportements des utilisateurs accentue ce phénomène. Et visiblement, cela se produit même lorsqu’il s’agit de contenus dangereux qui devraient être modérés.

Outre-Atlantique, des spécialistes de la santé mentale ont déjà tiré la sonnette d’alarme contre la plateforme, affirmant qu’elle pouvait être directement à l’origine de divers maux comme la dépression ou encore l’automutilation, et pourrait même pousser les jeunes utilisateurs les plus vulnérables au suicide.

« La responsabilité de TikTok doit être reconnue par les juges français du fait de la conception délibérément addictive de l’application et d’un algorithme défaillant dans la régulation et la modération des contenus faisant la promotion de l’automutilation, du suicide et des troubles alimentaires. Ces contenus enferment les jeunes qui y sont exposés dans l’idée que ces pratiques sont anodines et bénéfiques portant ainsi atteinte directement à leur santé », assure Laure Boutron-Marmion, avocate des familles du collectif Algos Victima, dans un communiqué de presse.

En bref…

Source : Par Mathilde Rochefort via Presse-Citron

https://hygiene2surf.wordpress.com/2024/11/06/suicide-mutilation-tiktok-poursuivi-par-des-parents-francais-pour-son-effet-devastateur-sur-leurs-enfants/

#addictions #adolescents #algorithmes #contenus #dépression #enfants #europe #jeunes #justice #mentale #mineurs #parents #plateformes #réseauxSociaux #Santé #suicides #tiktok

Renaud Lifchitz :verified:nono2357@infosec.exchange
2024-11-04
2024-10-29

#TELEVISION "Moments": la nouvelle fonctionnalité Netflix pour partager ses scènes préférées

#Netflix facilite le partage de ses moments #cultes avec « #Moments », une #fonctionnalité #innovante permettant de #sauvegarder et #partager des #extraits de #films et #séries. Actuellement disponible pour les utilisateurs iOS, Moments simplifie l’expérience de partage et pourrait transformer la manière dont les #abonnés interagissent avec leurs #contenus favoris. ActuaNews…

actuanews.fr/2024/10/29/moment

Translator @ TRADCOKoritsi@c.im
2024-07-28

Grâce au partage de connaissances d’une trentaine d’expert(e)s du #Québec et de la #France, vous aurez l’opportunité d’améliorer la #visibilité de vos #contenus en apprenant à identifier les enjeux liés aux #données, en comprenant le potentiel de la recommandation en #culture et en améliorant votre propre stratégie de #communication.

cultive.ca/mooc/

Rod2ik 🇪🇺 🇨🇵 🇪🇸 🇺🇦 🇨🇦 🇩🇰 🇬🇱rod2ik
2024-07-01
Poujol 𝖱𝗈𝗌𝗍 ✅poujolrost@mstdn.jp
2024-04-28

Le #porno audio, ou comment prendre son #pied avec les oreilles

lemonde.fr/m-perso/article/202

> De nouvelles plates-formes donnent accès à des #contenus #X axés sur le plaisir féminin, le consentement, l’inclusivité… Face aux assauts visuels du porno « #mainstream », #productrices, #militantes et #chercheuses l’assurent : l’ouïe offre un refuge excitant.

The quick flashthequickfl
2024-04-17

En cliquant sur « J’accepte », les cookies et autres traceurs seront déposés et vous pourrez visualiser les contenus (plus d'informations). En cliquant sur « J’accepte tous les cookies », vous autorisez des dépôts de cookies et autres

Guerre en Ukraine. Centrale de Zaporijjia: on s'approche « dangereusement d'un accident nucléaire », selon l'AIEA

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst