!function(f,b,e,v,n,t,s) {if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)}; if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)}(window,document,'script', 'https://connect.facebook.net/en_US/fbevents.js'); fbq('init', '327020651892823'); fbq('track', 'PageView');
naviga tra gli articoli
privacy
Condividi l'articolo
17 Dicembre 2020

Deep fake – caso TELEGRAM

“La promessa dell’intelligenza artificiale è quella di una grande efficienza, automazione e autonomia. Nel momento in cui il grande pubblico è sempre più preoccupato sull’utilizzo di questa tecnologia, però, dobbiamo essere completamente trasparenti circa le possibili minacce, non focalizzarci solo sui benefici che ci può portare. Questo studio ci aiuterà ad anticipare i possibili utilizzi malevoli dell’intelligenza artificiale ma anche a prevenire e mitigare le minacce in maniera proattiva. In questo modo possiamo sfruttare il potenziale dell’intelligenza artificiale e trarre benefici” (vedi allegato).

Queste sono le parole con cui si è espresso Edvardas Sileris, capo del Centro Europeo per la criminalità informatica di Europol (EC3).

Per tutti noi cittadini, l’intelligenza artificiale (di seguito “IA”) potrebbe significare migliore assistenza sanitaria, sistemi di trasporto più sicuri, prodotti e servizi su misura. Svariati benefici sono previsti anche in capo alle imprese, poiché l’IA può facilitare lo sviluppo di una nuova generazione di prodotti e servizi, migliorare e ottimizzare la manutenzione dei macchinari, aumentare sia la produzione che la qualità. Uno studio del Parlamento europeo afferma che, entro il 2035, potrebbe esservi un aumento stimato della produttività del lavoro grazie all’intelligenza artificiale dall’11% al 37%. Pertanto, sulle possibili efficienze dell’intelligenza artificiale, nulla quaestio.

A fronte, però, degli innumerevoli e sopracitati benefici, dobbiamo essere consapevoli delle minacce che l’IA può comportare, poiché i cd. cybercriminali utilizzano questa disciplina di avvicinamento tra funzionamento dei computer e intelligenza umana, sia come vettore che come superficie di attacco. Proprio a tal proposito, i “deep fake” (riproduzione virtuale, ad esempio un video o un’immagine, creata attraverso app che consentono di trasformare il volto, la voce e il corpo delle persone, con l’intento di rappresentare falsamente la realtà, e mediante mezzi quali, appunto, l’IA) sono stati considerati dal Rapporto Clusit 2020 come “la maggiore minaccia attuale e futura”.

Ed è proprio l’attualità a presentarci il caso di alcune ragazze vittime di deep fake che si sono ritrovate, a loro insaputa, “spogliate” sul social Telegram dopo che alcuni utenti avevano manipolato le loro foto usando un programma informatico – derivato da un software chiamato “DeepNude” – disponibile sul canale social e che impiega l’intelligenza artificiale per ricostruire l’aspetto che avrebbe il corpo sotto gli indumenti.

Tale notizia ha suscitato, inevitabilmente, la preoccupazione del Garante per la protezione dei dati personali il quale, in data 23 ottobre 2020, ha deciso di aprire un’istruttoria nei confronti di Telegram, social già oggetto di un’attività di verifica da parte dell’Autorità (si ricordi come tale app fosse già stata presa di mira non troppo tempo fa a causa della diffusione illegale dei PDF dei principali quotidiani nazionali. Ciò aveva comportato la chiusura di 300 canali Telegram in seguito alle denunce pervenute da FIEG e AGCOM.). Il Garante ha precisato che “le gravi lesioni alla dignità e alla privacy a cui l’uso di un software simile espone le persone, soprattutto se minori, sono evidenti, considerati anche il rischio che tali immagini vengano usate a fini estorsivi o di revenge porn e tenuto conto dei danni irreparabili a cui potrebbe portare una incontrollata circolazione delle immagini, fino a forme di vera e propria viralizzazione” (vedi allegato). Non si trascuri, inoltre, il dato sconcertante in merito al fatto che la facilità di utilizzo di questo programma possa rendere potenzialmente vittime di deep fake chiunque abbia una foto sul web.

Ciò è il motivo per il quale l’Autorità chiederà a Telegram di fornire informazioni, al fine di verificare il rispetto delle norme sulla protezione dei dati nella messa a disposizione agli utenti del programma informatico, nonché di accertare l’eventuale conservazione delle immagini manipolate e le finalità di una tale conservazione.

In ultimo, visto e considerato l’interesse da parte di molti Comuni di utilizzare i social di comunicazione per essere più vicini ai cittadini, (e oggi, più che mai, al fine di contrastare la diffusione di fake news e garantire comportamenti corretti per contenere il contagio da Covid-19) si raccomanda la massima attenzione nella fruizione di Telegram, e degli altri social media.

Di Alessandra Totaro

Articoli correlati

Scorri i documenti