Un video incriminatorio comincia a seminare il panico in azienda. Mostra il capo alle prese con comportamenti spiacevoli o aggressivi, oppure un dipendente che si comporta male. Ancora peggio, un filmato osé pubblicato online da qualche malintenzionato. C’è un problema, però: quel video è contraffatto, manipolato digitalmente per inserirvi il volto e le espressioni della vittima. Questo tipo di filmato si chiama deepfake e rappresenta una frontiera tecnologica in avanzata e preoccupante, potenzialmente capace di stravolgere per sempre il nostro rapporto con la realtà. Con i documenti, le foto, i video, tutto ciò che diamo per scontato e siamo abituati a trattare come “prova”.
Se tutto può essere finto, del resto, a cosa si può credere? Che ne è della fiducia nei confronti del nostro condiviso? È una discussione in corso da qualche anno, da quando i deepfake hanno fatto capolino online per poi diffondersi, grazie a software sempre più alla portata di tutti.
Un enorme problema anche per il mondo del lavoro: immaginate di ricevere una chiamata urgente dal vostro CEO in cui vi dice di fare qualcosa al più presto, per poi scoprire che la conversazione era stata manipolata ad hoc. Sta già succedendo, nonostante la tecnologia sia ancora agli albori. Questo tipo di truffe esiste ovviamente da tempo, forse da sempre. Corrono tra le mail, le telefonate e gli annunci online; ora possono avere la voce e l’aspetto di un vostro caro. O capo. O collega. Altro che fake news, quindi.
Esistono anche applicazioni positive dei deepfake. Pensiamo a WWP, agenzia pubblicitaria che ha deciso di usarla per i video di formazione interni pensati per i suoi dipendenti. Invece del casting di un presentatore, le prove e le registrazioni, insomma, basta scrivere il testo e usare una intelligenza artificiale per “generare” il video desiderato. I primi tentativi sperimentali sono stati limitati ma di successo. Chissà, magari i prossimi testimonial pubblicitari non saranno nemmeno del tutto reali. I pericoli che rappresentano per alcune aziende, però, lo sono. Eccome.