L’intelligenza artificiale, i video realistici e la verità che scegliamo di vedere
Negli ultimi giorni, l’attenzione si è concentrata su Veo 3, il nuovo modello di intelligenza artificiale sviluppato da Google DeepMind. Presentato durante l’evento Google I/O 2025, Veo 3 rappresenta un significativo passo avanti nella generazione di contenuti video tramite IA. Questo strumento è in grado di creare video ad alta definizione a partire da semplici prompt testuali o immagini, integrando elementi come dialoghi sincronizzati, effetti sonori e musiche di sottofondo.
Le capacità di Veo 3 non si limitano alla generazione di immagini in movimento; il modello comprende e riproduce la fisica del mondo reale, garantendo movimenti fluidi e coerenti, e può interpretare complesse descrizioni per creare scene cinematografiche dettagliate. Questa tecnologia è attualmente accessibile attraverso l’app Gemini per gli abbonati Ultra negli Stati Uniti e tramite la piattaforma Vertex AI per le aziende.
Le preoccupazioni sollevate da Veo 3
L’introduzione di Veo 3 ha suscitato un mix di entusiasmo e preoccupazione. Da un lato, offre nuove opportunità per creatori di contenuti, educatori e professionisti del marketing, democratizzando la produzione video di alta qualità. Dall’altro, emergono timori legati alla possibilità di creare contenuti ingannevoli o manipolati con estrema facilità.
La capacità di generare video realistici con dialoghi e ambientazioni credibili solleva interrogativi sull’autenticità dei contenuti online. Inoltre, la potenziale sostituzione di ruoli creativi tradizionali, come attori e registi, con soluzioni automatizzate alimenta il dibattito sull’impatto dell’IA nel settore dell’intrattenimento e dei media.
Ma siamo sicuri che sia davvero questo il problema?
La verità è che da anni non distinguiamo più il vero dal falso — e non abbiamo certo avuto bisogno dei video creati dall’IA per perderci.
Le fake news circolano da molto prima dell’intelligenza artificiale generativa. I titoli acchiappa-click, le notizie inventate o distorte, le foto decontestualizzate… tutto questo esiste già. E funziona.
Non servono video falsi per crederci
Le fake news, prima e dopo l’avvento di tecnologie come Veo 3, continuano ad avere caratteristiche ricorrenti che non dipendono dallo strumento utilizzato ma dal modo in cui sono costruite: fanno leva su emozioni forti (paura, rabbia, indignazione), confermano idee già presenti in chi legge, sono spesso confezionate in modo sensazionalistico, e hanno titoli o contenuti volutamente ambigui. Tutti elementi che abbiamo già visto analizzando i meccanismi classici della disinformazione.
Come spiegato in dettaglio nella guida su come riconoscere una fake news (https://www.staipa.it/blog/come-riconoscere-una-fake-news-parte-3/), queste notizie false raramente si presentano come completamente inventate: più spesso distorcono, esagerano o rimescolano contenuti veri per ottenere un effetto specifico. E anche con strumenti di nuova generazione, il principio resta lo stesso: se non siamo allenati a riconoscerle, ci cascheremo comunque.
Il meccanismo è noto e ha un nome preciso: bias di conferma.
Tendiamo a dare più credito alle notizie che confermano le nostre opinioni, e a ignorare (o attaccare) quelle che le mettono in discussione. È un filtro mentale che ci fa credere a ciò che vogliamo sia vero.
A questo si aggiungono altri bias cognitivi:
- Effetto di verità illusoria: più sentiamo ripetere una notizia, più ci sembra vera.
- Bias dell’autorità: se lo dice una figura autorevole (o che consideriamo tale), ci fidiamo.
- Effetto Dunning-Kruger: più ne sappiamo poco, più crediamo di capirci qualcosa.
Il problema, insomma, non sono (solo) gli strumenti. È l’uso che ne facciamo.
E soprattutto, è l’atteggiamento con cui ci avviciniamo all’informazione.
I canali inaffidabili useranno l’IA, quelli seri faranno debunking
Non c’è dubbio che i canali inaffidabili useranno questa tecnologia per rafforzare le proprie narrazioni. Lo fanno già oggi, con mezzi più grezzi: immagini modificate, titoli distorti, contenuti presi fuori contesto.
L’intelligenza artificiale generativa darà loro un’arma in più. Ma non è questo a doverci spaventare.
Perché anche i canali affidabili continueranno a fare ciò che fanno: verificare, contestualizzare, debunkare.
E soprattutto, continueranno a basarsi su un principio tanto semplice quanto cruciale: la responsabilità dell’informazione.
È una questione di scelta (come lo è sempre stata)
Alla fine, tutto si riduce a questo: la scelta delle fonti.
Oggi più che mai, serve esercitare il pensiero critico.
Serve sapere che il nostro cervello può ingannarci.
Serve riconoscere che a volte ci fidiamo non perché qualcosa è vero, ma perché ci fa comodo pensarlo.
I video falsi sono solo l’ultima evoluzione di un problema antico: la tendenza umana a credere a ciò che ci rassicura, che ci scandalizza, che conferma il nostro mondo.
Non serve avere paura dell’intelligenza artificiale. Serve avere consapevolezza di noi stessi.
#Deepfake #FakeNews #IA #PensieroCritico #Veo3 #VideoFake