#Disinformazione

2025-11-04

📰 I consigli dell’economista radicale Jeffrey Sachs all’Ue: «Deve mollare Trump, non il Green Deal. Calenda? Sull’Ucraina è lui disinformato» – L’intervista

#️⃣ #ECONOMIALAVORO #CarloCalenda #Disinformazione #DonaldTrump #EUtopia #GreenDeal #GreenMonitor #Interviste #Russia #Ucraina #Unioneeuropea #USA #OpenOnline #TheLabSocial #News #Notizie #Italia

🔗 open.online/2025/11/04/intervi

2025-10-29

Quando il video mente: deepfake, politica e nuove regole
Scopri il pericolo dei deepfake: video falsi che sembrano veri. Come riconoscerli, le nuove regole e casi recenti. Non sottovalutare, educati al dubbio! Leggi subito.

ATTENZIONE!!! Il video contiene un grosso spoiler

staipa.it/blog/quando-il-video

#AI #Deepfake #Disinformazione #FactChecking #Privacy 

2025-10-29

Quando il video mente: deepfake, politica e nuove regole

Spoiler: non basta dire “l’ho visto con i miei occhi”. Nel 2025 gli occhi si ingannano benissimo.

I deepfake non sono più una curiosità da smanettoni: sbucano nelle chat di famiglia, fanno capolino nei telegiornali locali, entrano nei talk show come se nulla fosse. Un volto noto dice cose mai dette, una voce familiare confessa, un video sembra “vero perché lo è”. E invece no. Il punto non è la perfezione tecnica: è la verosimiglianza. Basta che giri abbastanza in fretta da superare la smentita, e il danno è fatto: consenso spostato, reputazioni ammaccate, fiducia erosa. In politica, dove la percezione vale voti, una manipolazione ben piazzata è un megafono.

A tal proposito vi lascio un piccolo e interessante Deep Fake che vi consiglio di visionare attentamente.

https://www.youtube.com/watch?v=6WIlMuy5a_I

Cos’è, davvero, un deepfake? È un contenuto —video, audio, immagine— creato o alterato con intelligenza artificiale per far sembrare reale qualcosa che reale non è. Ne avevo parlato anche in passato qui short.staipa.it/ipuxa, quello che è cambiato è che oggi servono pochi minuti di voce o una manciata di foto per addestrare una copia plausibile. Non occorre l’effetto speciale hollywoodiano: è sufficiente un buon “quasi vero” e un pubblico distratto e polarizzato. Se conferma il nostro pregiudizio, è facile prenderlo per vero senza farci domande. La satira e la parodia esistono da sempre e stanno bene dove stanno, purché non si travestano da informazione. Il confine cambia con il contesto: un meme che dichiara il proprio gioco è un sorriso; un finto comizio spacciato per autentico è manipolazione.

Come si riconosce un deepfake senza diventare tecnici? Si parte dalle orecchie. Gli audio “clonati” hanno spesso micro‑pause bizzarre, risate fuori tempo, consonanti che scivolano: le s che fischiano troppo, le r che sembrano di un’altra regione. Gli occhi a volte battono le ciglia come se il regista avesse dimenticato un fotogramma; le labbra non chiudono bene su p, b, m e i denti hanno quell’aria da “ceramica perfetta” pure quando non dovrebbe. Poi c’è la luce: ombre che non tornano, orecchie e capelli che tremano ai bordi come un green screen impazzito. Infine i segnali sociali: Chi l’ha pubblicato per primo? È un profilo nuovo di zecca? I commenti sono disattivati? Il link è accorciato verso un posto sospetto? Non servono superpoteri: serve tempo. Se un video ci fa arrabbiare o esultare all’istante, la cosa migliore da fare — lo so, è rivoluzionario — è non condividerlo all’istante.

E le regole? Senza trasformare questo pezzo in un esame di diritto, lo spirito è semplice: trasparenza, responsabilità, tutele. La trasparenza chiede di dichiarare quando un contenuto è sintetico o alterato: etichette, watermark, avvisi chiari, soprattutto se si parla di politica o pubblicità. Inciso pratico: negli ultimi mesi i video generati con Sora e rilanciati nel social collegato sono spesso estremamente realistici ma, per fortuna, riportano un watermark: vale la pena cercarlo (e diffidare quando manca, perché potrebbe essere stato ritagliato o coperto nei re‑upload). La responsabilità riguarda chi crea e chi diffonde: se un deepfake causa un danno, se ne risponde, anche civilmente o penalmente; e le piattaforme, quando ricevono segnalazioni circostanziate, non possono far finta di niente. Le tutele servono a chi subisce: rimozione rapida, rettifica, contraddittorio; nei casi gravi (pornografia non consensuale, istigazione all’odio, frode) non è una cortesia, è un dovere.

Cosa sta cambiando nelle regole (UE e Italia), in parole semplici

Non serve un manuale di diritto, bastano tre coordinate. In Italia, dal 10 ottobre 2025, è in vigore la Legge 132/2025 che introduce il nuovo art. 612-quater c.p. sul deepfake non consensuale.

  • AI Act (UE): approvato e in applicazione graduale dal 2025. L’idea è chiara: chi genera o pubblica contenuti sintetici deve renderlo evidente (etichette, watermark, avvisi), soprattutto quando il contenuto può incidere su informazione e politica. Per i sistemi che creano video/immagini/audio realistici si richiede anche la documentazione tecnica e misure per evitare abusi.
  • DSA – Digital Services Act (UE): impone alle piattaforme meccanismi di segnalazione e rimozione efficaci e valutazioni dei rischi sistemici (manipolazione del discorso pubblico inclusa). In pratica: se segnali bene un deepfake, la piattaforma deve muoversi e dimostrare come limita l’impatto.
  • Italia: strumenti già applicabili: non esiste “la legge sul deepfake” come bacchetta magica, ma si applicano norme già in vigore: diffamazione, truffa/frode, diffusione illecita di immagini sessualmente esplicite (art. 612‑ter c.p., vale anche per contenuti sintetici), protezione dati e provvedimenti del Garante Privacy. Tradotto: se c’è un danno, non siamo nel Far West.

Cronaca recente (esempi reali, con fonti)

  • 2 luglio 2024 — Giorgia Meloni: udienza a Sassari nel processo contro due imputati per deepfake pornografici a suo danno; richiesta di danni simbolici da destinare a un fondo per le vittime. Fonte: AP News.
  • 30 novembre 2024 — Giornalisti SkyTG24 (Mariangela Pira, Lorenzo Borga): volto e voce clonati in video‑truffe d’investimento diffuse sui social. Fonte: SkyTG24.
  • 22 maggio 2024 e 22 novembre 2024 — Banca d’Italia: avvisi ufficiali su videomessaggi deepfake che imitano esponenti dell’Istituto per spingere frodi finanziarie. Fonti: Bankitalia 22/05/2024 · Bankitalia 22/11/2024.
  • 20 ottobre 2025 — Ilaria Salis: video deepfake politico diffuso sui social e poi rimosso; smentita e ricostruzione dei fact‑checker. Fonte: Facta.news.

“Ma io non uso i social.” Ottimo, ma il deepfake non chiede l’amicizia: arriva lo stesso, inoltrato dallo zio nel gruppo di famiglia, rilanciato dal giornalino locale, raccontato al bar. Qui nasce la tentazione del cinismo: “se è tutto falso, allora vale tutto”. No. È precisamente il momento in cui serve educazione al dubbio: non diventare esperti di forensics, ma imparare a rallentare, a chiedere contesto, a cercare l’origine. È una competenza civica come guardare a destra e a sinistra prima di attraversare.

Cosa possiamo fare, subito, senza strumenti esoterici? Rallentare, appunto. Cercare la fonte: chi l’ha pubblicato, quando, dove; esiste una versione precedente dello stesso video? Controllare un canale ufficiale, un’agenzia, una testata affidabile. Se abbiamo un dubbio sensato, chiediamo aiuto a chi fa fact‑checking: non è un’umiliazione, è manutenzione del dibattito pubblico. E se il contenuto è grave, usiamo gli strumenti di segnalazione, conserviamo prove (URL, screenshot, data e ora) e facciamo i passi necessari con le autorità. Non è per fare i giustizieri della tastiera: è per non fare da amplificatore.

Le tecnologie che generano deepfake non spariranno: miglioreranno. La risposta non è la nostalgia del “si stava meglio quando i video erano sgranati”, ma una cittadinanza digitale capace di guardare una clip e chiedersi: chi me lo sta dicendo, perché adesso, a chi giova? Se una storia è troppo perfetta per essere vera, a volte è perché perfetta lo è, vera un po’ meno. Sta a noi insegnarlo — con pazienza — ogni volta che serve.

#AI #Deepfake #Disinformazione #FactChecking #Privacy

"Propaganda che s’infila ovunque" "Un compendio di propaganda filo- #russa diffuso senza fare una mezza verifica..." #ucraina #disinformazione www.butac.it/propaganda-r...

Propaganda che s'infila ovunqu...

Futuro Prossimo :verified:futuroprossimo@mastodon.uno
2025-10-24

Chiamatela "difesa planetaria segreta", "minaccia aliena nascosta" o "attivazione di protocolli". Tanto fa audience. La verità sulla cometa 3I/ATLAS? Un bollettino tecnico trasformato in thriller da testate che vendono clickbait mascherato da divulgazione. I titoli acchiappa-clic vendono meglio dei fatti. Già, i fatti: casomai interessassero ancora a qualcuno, ve li espongo qui.

futuroprossimo.it/2025/10/una-

#futuroprossimo #3IATLAS #clickbait #disinformazione #spazio #cometa #CometaAtlas #Atlas

Chiamatela "difesa planetaria segreta", "minaccia aliena nascosta" o "attivazione di protocolli". Tanto fa audience. La verità sulla cometa 3I/ATLAS? Un bollettino tecnico trasformato in thriller da testate che vendono clickbait mascherato da divulgazione. Mentre internet specula su complotti inesistenti, la NASA resta ferma per shutdown e perde l'occasione del secolo: studiare la terza cometa interstellare della storia. Ma i titoli acchiappa-clic vendono meglio dei fatti. Già, i fatti: casomai interessassero ancora a qualcuno, ve li espongo qui.
Associazione Peacelinkpeacelink@sociale.network
2025-10-05

#disinformazione
Un po' di risposte su tutti questi #droni e attacchi russi in #Europa - Il Post
ilpost.it/2025/10/03/droni-rus

#disinformazione

Lo Sherlock del Fediversofrancal@mastodon.uno
2025-10-04

Nonostante una massiccia campagna filo-russa di disinformazione per indebolire i risultati elettorali filo-europei della Moldavia, la presidente Maia Sandu e il partito PAS hanno ottenuto una chiara vittoria, irrobustendone la direzione europea.
La Russia accusa (con quale fondamento?) l'UE di pianificare l'occupazione della Moldavia.
#Moldavia #Russia #Disinformazione #UE #geopolitica
it.euronews.com/2025/09/29/ele
@attualita

Daily Mastodon :idle:infinity999@mastodon.uno
2025-09-24

"Violenza".
"Distruzione".
"Terroristi".

STRONZATE!

ECCO qui i "danni" apocalittici ed inenarrabili di cui vaneggiavano i media, ieri. :-/

ilfattoquotidiano.it/2025/09/2

#VERGOGNA #DISINFORMAZIONE #scioperogeneraleperGaza #sapevatelo

Ma come fa un cazzaro del calibro di #gracis ad avere tutto il seguito che vedo su #facebook?! 🤦🏽 Spero che metà di like e commenti siano bot, lo spero per i bot. #disinformazione #fakenews www.butac.it/tag/matteo-g...

matteo gracis | Butac - Bufale...

2025-09-20

Ma come fa un cazzaro del calibro di #gracis ad avere tutto il seguito che vedo su #facebook?! 🤦🏽

Spero che metà di like e commenti siano bot, lo spero per i bot.

#disinformazione #fakenews

butac.it/tag/matteo-gracis/

Bufale.net :verified:factcheck@mastodon.uno
2025-08-22

Politici europei in ginocchio davanti a Trump? 🤦‍♂️ No, è un fake partorito dai soliti canali russi. La realtà è già abbastanza teatrale senza Photoshop. 🎭 #bufale #disinformazione
bufale.net/limmagine-dei-polit

Bufale.net :verified:factcheck@mastodon.uno
2025-08-20

Odessa invasa da bandiere russe? No, è solo l’ennesimo fotomontaggio per fanatici della tastiera. Putin può aspettare… la verità no. 🪄🚫 #bufale #disinformazione
bufale.net/no-questa-non-e-uni

Claudio Rancaticlaudiorancati
2025-08-04

QUANDO TUTTO SEMBRA COLLEGATO: LA TRAPPOLA DELL'APOFENIA

Apofenia: quando la mente vede connessioni dove non ce ne sono. Un meccanismo affascinante… ma anche il carburante ideale per i complotti.
Scopri come funziona:
🔗 storieblog.net/2025/08/04/quan

gualdo :privacypride: :cc:gualdo@mastodon.uno
2025-07-15

Per alcuni gli #LLM sono gli oracoli digitali: si chiede e si hanno risposte

Uno studio di AI4TRUST ha dimostrato che #GPT-4o, #Gemini, #Llama e #Grok hanno fornito il 100% di risposte sbagliate a domande relative alla salute

I prompt erano costruiti per favorire l’errore, ma gli LLM non hanno applicato sistemi di controllo e verifica, rivelandosi inattendibili

Uno scenario ideale per gli agenti della #disinformazione

#AI #Bigtech #disinformation #misinformation

Vincenzo Donvito Maxiavdonvito@mastodon.uno
2025-07-13

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst