#deepfake

Grub :verified:Grub_09@mastodon.uno
2025-06-22

Deepfake in Zoom per distribuire malware sui Mac.
I cybercriminali del gruppo nordcoreano BlueNoroff usano deepfake video dei dirigenti aziendali durante le chiamate con Zoom per ingannare i dipendenti e distribuire malware per macOS. Gli attacchi più recenti sono iniziati a metà giugno, come hanno scoperto i ricercatori di Huntress.
#macos #malware #cybersecurity #deepfake #zoom
punto-informatico.it/deepfake-

nickbeardednickbearded
2025-06-22

@githubprojects 🤣🤣🤣🤣🤣

2025-06-22

#YouTube is showing me a very poorly made #deepfake #advert of #MarkCarney selling some scammy shite... #Google is losing it.

I could only catch the tail end, it wouldn't let me rewind it.

#AI #Scam #Video #Canada

2025-06-20

Instagram ads are being used to impersonate Canadian financial institutions

The ads impersonate brands such as EQ Bank and Bank of Montreal. In one case, the ad takes the victim to an attacker-controlled phishing website. In another case, the ad impersonates the Chief Investment Strategist of BMO, and asks the victim to submit info.

Users are advised to be vigilant of fake ads, and to not provide their info

#cybersecurity #scam #deepfake #Canada #Instagram

bleepingcomputer.com/news/secu

Prof. Dr. Dennis-Kenji Kipkerkenji@chaos.social
2025-06-20

Better know your boss: #CEO Fraud mittels #Deepfake-Videos in Webkonferenzen sind ein alter Hut - der neueste Trend geht jedoch dahin, die Angestellten in Videocalls mit Fake-Vorgesetzten dazu zu verleiten, sich freiwillig #Malware auf ihre Rechner zu installieren.

Ziel der Cyberkriminellen aus #Nordkorea ist dann einerseits die Ausspähung des Unternehmens mit Keylogger und Co., andererseits das Abgreifen von Cryptowallets für das staatliche Atomprogramm:

uk.pcmag.com/security/158663/z #cybersecurity

SnowshadowII :maple:SnowshadowII@beige.party
2025-06-19

👋 Ok Fedi hive mind I need help please

For many reasons, I hate AI but, is it effective, I mean, does it work to use AI to detect AI deep fakes ?
Asking because I came across this website: 👇 Check it out

#Fediverse #Tech #Mastodon
#SocialMedia #Video #DeepFake
#Computer #Art

usefulai.com/tools/ai-video-de

SoyArmeniosoyarmernio
2025-06-19

La red de bots pro‑Kremlin Matryoshka lanzó una campaña de desinformación contra Pashinyan, acusándolo falsamente de encubrir el genocidio armenio y de usar tranquilizantes; Armenia lo califica como una guerra híbrida. soyarmenio.com/noticias-de-arm

2025-06-18

excellent video on how to approach deep fakes and the "seems fake but is real" paradox for content online
youtube.com/watch?v=qO0WvudbO04
#ai #computerGenerated #howtown #c2pa #deepfake

2025-06-18

L’intelligenza artificiale, i video realistici e la verità che scegliamo di vedere

Negli ultimi giorni, l’attenzione si è concentrata su Veo 3, il nuovo modello di intelligenza artificiale sviluppato da Google DeepMind. Presentato durante l’evento Google I/O 2025, Veo 3 rappresenta un significativo passo avanti nella generazione di contenuti video tramite IA. Questo strumento è in grado di creare video ad alta definizione a partire da semplici prompt testuali o immagini, integrando elementi come dialoghi sincronizzati, effetti sonori e musiche di sottofondo.

Le capacità di Veo 3 non si limitano alla generazione di immagini in movimento; il modello comprende e riproduce la fisica del mondo reale, garantendo movimenti fluidi e coerenti, e può interpretare complesse descrizioni per creare scene cinematografiche dettagliate. Questa tecnologia è attualmente accessibile attraverso l’app Gemini per gli abbonati Ultra negli Stati Uniti e tramite la piattaforma Vertex AI per le aziende.

Le preoccupazioni sollevate da Veo 3

L’introduzione di Veo 3 ha suscitato un mix di entusiasmo e preoccupazione. Da un lato, offre nuove opportunità per creatori di contenuti, educatori e professionisti del marketing, democratizzando la produzione video di alta qualità. Dall’altro, emergono timori legati alla possibilità di creare contenuti ingannevoli o manipolati con estrema facilità.

La capacità di generare video realistici con dialoghi e ambientazioni credibili solleva interrogativi sull’autenticità dei contenuti online. Inoltre, la potenziale sostituzione di ruoli creativi tradizionali, come attori e registi, con soluzioni automatizzate alimenta il dibattito sull’impatto dell’IA nel settore dell’intrattenimento e dei media.

Ma siamo sicuri che sia davvero questo il problema?

La verità è che da anni non distinguiamo più il vero dal falso — e non abbiamo certo avuto bisogno dei video creati dall’IA per perderci.
Le fake news circolano da molto prima dell’intelligenza artificiale generativa. I titoli acchiappa-click, le notizie inventate o distorte, le foto decontestualizzate… tutto questo esiste già. E funziona.

Non servono video falsi per crederci

Le fake news, prima e dopo l’avvento di tecnologie come Veo 3, continuano ad avere caratteristiche ricorrenti che non dipendono dallo strumento utilizzato ma dal modo in cui sono costruite: fanno leva su emozioni forti (paura, rabbia, indignazione), confermano idee già presenti in chi legge, sono spesso confezionate in modo sensazionalistico, e hanno titoli o contenuti volutamente ambigui. Tutti elementi che abbiamo già visto analizzando i meccanismi classici della disinformazione.

Come spiegato in dettaglio nella guida su come riconoscere una fake news (https://www.staipa.it/blog/come-riconoscere-una-fake-news-parte-3/), queste notizie false raramente si presentano come completamente inventate: più spesso distorcono, esagerano o rimescolano contenuti veri per ottenere un effetto specifico. E anche con strumenti di nuova generazione, il principio resta lo stesso: se non siamo allenati a riconoscerle, ci cascheremo comunque.

Il meccanismo è noto e ha un nome preciso: bias di conferma.
Tendiamo a dare più credito alle notizie che confermano le nostre opinioni, e a ignorare (o attaccare) quelle che le mettono in discussione. È un filtro mentale che ci fa credere a ciò che vogliamo sia vero.

A questo si aggiungono altri bias cognitivi:

  • Effetto di verità illusoria: più sentiamo ripetere una notizia, più ci sembra vera.
  • Bias dell’autorità: se lo dice una figura autorevole (o che consideriamo tale), ci fidiamo.
  • Effetto Dunning-Kruger: più ne sappiamo poco, più crediamo di capirci qualcosa.

Il problema, insomma, non sono (solo) gli strumenti. È l’uso che ne facciamo.
E soprattutto, è l’atteggiamento con cui ci avviciniamo all’informazione.

I canali inaffidabili useranno l’IA, quelli seri faranno debunking

Non c’è dubbio che i canali inaffidabili useranno questa tecnologia per rafforzare le proprie narrazioni. Lo fanno già oggi, con mezzi più grezzi: immagini modificate, titoli distorti, contenuti presi fuori contesto.
L’intelligenza artificiale generativa darà loro un’arma in più. Ma non è questo a doverci spaventare.

Perché anche i canali affidabili continueranno a fare ciò che fanno: verificare, contestualizzare, debunkare.
E soprattutto, continueranno a basarsi su un principio tanto semplice quanto cruciale: la responsabilità dell’informazione.

È una questione di scelta (come lo è sempre stata)

Alla fine, tutto si riduce a questo: la scelta delle fonti.
Oggi più che mai, serve esercitare il pensiero critico.
Serve sapere che il nostro cervello può ingannarci.
Serve riconoscere che a volte ci fidiamo non perché qualcosa è vero, ma perché ci fa comodo pensarlo.

I video falsi sono solo l’ultima evoluzione di un problema antico: la tendenza umana a credere a ciò che ci rassicura, che ci scandalizza, che conferma il nostro mondo.

Non serve avere paura dell’intelligenza artificiale. Serve avere consapevolezza di noi stessi.

#Deepfake #FakeNews #IA #PensieroCritico #Veo3 #VideoFake

Veille FramamIAframamia@framapiaf.org
2025-06-18

> Des journalistes, manipulés par de « faux experts » boostés à l’IA, pour tromper Google - Next

next.ink/188604/des-journalist

Retrouvez toute notre veille sur l'IA sur curation.framamia.org
#Framasoft #ia_generative #journalisme #deepfake

2025-06-18

📢 Arnaques par phishing via publicités Instagram ciblant les Canadiens
📝 Selon un article de Bleeping Computer, des **publicités Instagram** se font passer pour des institutions financières telles...
📖 cyberveille : cyberveille.ch/posts/2025-06-1
🌐 source : bleepingcomputer.com/news/secu
#Instagram #deepfake #Cyberveille

2025-06-17

Kangaroos don’t have opposable thumbs!!!

https://youtube.com/shorts/HnO4OFNHvIA?si=uA3WcQmXftadk3kg

Saving this for next year’s digital literacy class, even though I’m a bit disturbed how many people don’t immediately see the way the kangaroo is holding the ticket as obviously unreal.

(Credit to the actual producer of the video here, even though it’s circulated everywhere by now)

Edit to add: I’m suddenly struck by the fact that’s what stood out to me, rather than the way the kangaroo is staring patiently at a camera in an airport while its human becomes increasingly distressed.

#AI #deepfake #veo #video

Futuro Prossimo :verified:futuroprossimo@mastodon.uno
2025-06-17

Un veterano ucciso nel 2021 "torna" in tribunale per perdonare il suo assassino. Christopher Pelkey ha testimoniato tramite un avatar AI creato dalla famiglia, scatenando il primo caso di testimonianza postuma nella storia giudiziaria americana. Che ne pensate?

#futuroprossimo #intelligenzaartificiale #deepfake

futuroprossimo.it/2025/06/trib

Prima testimonianza postuma via AI
2025-06-16

Das hat der #Papst so nicht gepredigt! Seit seiner Wahl kursieren im Netz #Deepfake- Videos des neuen Heiligen Vaters. Wie groß ist das Problem?

KI-Fakes von Leo XIV. - Das ha...

pimba angelical :angel_penis:hugu@masto.donte.com.br
2025-06-13
2025-06-13

Defenders are seeing a dramatic escalation of AI-powered fraud and deepfakes.

#AI #deepfake #cybersecurity

cnews.link/cyber-pros-spooked-

Erik Chendo TegonErikcht
2025-06-13

O que a PL previa sobre remoção de conteúdo?
1. Justificativa detalhada – As plataformas teriam que explicar os motivos concretos e materiais para a remoção, citando qual regra foi violada (ex.: , desinformação, ).

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst