Intervista all’etico dell’IA, il dott. Benjamin Lange

Embed

EUvsDisinfo: Lei è un etico che si occupa, tra le altre cose, di IA e disinformazione. Che cosa significa in pratica? Cosa fa un etico che lavora su questi temi?

Dott. Benjamin Lange: In quanto etico, ricopro due ruoli. Innanzitutto, ricopro un ruolo accademico. La mia ricerca in quanto filosofo si concentra sulla disinformazione e sull’IA. Ad esempio, esamino i vari rischi etici di danni che la lotta alla disinformazione può comportare. Sebbene tutti siano d’accordo sul fatto che la disinformazione, soprattutto a livello dei grandi attori statali, debba essere contenuta e limitata, dal punto di vista dell’etica esistono maniere migliori e peggiori per farlo.

In un altro filone di ricerca, esamino come possiamo concettualizzare al meglio cosa sia la disinformazione, soprattutto nell’ottica di rendere operativi i nostri meccanismi di identificazione. In questo caso, lo strumento filosofico dell’analisi concettuale può essere molto utile e contribuire alla nostra conoscenza.

Il mio secondo ruolo è più operativo. In veste di consulente etico, ho aiutato le organizzazioni coinvolte nel debunking, nel contenimento o nella lotta alla disinformazione a operare in una maniera che fosse basata su solidi principi etici e che potesse concretamente aiutare gli analisti a risolvere i casi di “zona grigia” in cui è richiesto un giudizio critico. Ciò potrebbe comportare lo sviluppo di quadri decisionali o deliberativi e di strumenti per gestire casi complessi, l’assistenza nella concettualizzazione della disinformazione e della maniera in cui questa è integrata nelle catene di rilevamento, oppure lo sviluppo di un processo che ci consenta di valutare meglio la proporzionalità delle misure impiegate per combattere la disinformazione.

EUvsDisinfo: Negli anni a venire, l’IA avrà effetti di ogni tipo sulle nostre società. Abbiamo già sperimentato alcuni di questi impatti, ad esempio l’utilizzo di generatori di testi o immagini dell’IA nei lavori creativi e in altri settori, ma la maggior parte, soprattutto quelli più fondamentali, li possiamo soltanto immaginare. Qui, a EUvsDisinfo, siamo interessati soprattutto all’interazione tra l’IA e la manipolazione delle informazioni. Potrebbe illustrare ai nostri lettori le ultime novità in materia? Di cosa dovremmo preoccuparci? A cosa dovremmo prestare attenzione?

BL: Ritengo che, come ha detto, l’impatto dell’IA generativa, sotto forma di generatori di testo-testo o testo-immagine, sia sulla bocca di tutti quest’anno. Si tratta ancora di un campo in via di sviluppo, con molti aspetti in evoluzione, ma una delle principali preoccupazioni qui è di sicuro l’effetto catalizzatore che l’IA generativa può avere sulla diffusione di massa di informazioni errate e di disinformazione, sia sotto forma di immagine che di testo.

Si tratta quindi di un’area su cui concentrarsi. In particolare, vorrei invitare tutti a prestare attenzione a comprendere meglio il funzionamento di alcuni di questi modelli, su come, ad esempio, generano testo o immagini e su come si può imparare meglio a individuare i risultati dell’IA generativa. Esistono indizi che ci aiutano a farlo, come i modelli sintattici del testo (ad esempio, gli ordini di parole che possono essere accettati all’interno delle frasi, le strutture stesse delle frasi) o alcuni elementi delle immagini che l’IA non riesce ancora a creare (ad esempio, le mani, le proporzioni logiche, le proporzioni relative tra alcuni elementi, gli sfondi dettagliati). Questo significa che le tecniche collaudate di verifica dei fatti, come la verifica delle fonti, diventano ancora più importanti.

C’è anche una buona notizia: con l’aumento delle nostre capacità tecniche, aumentano anche quelle dell’IA di individuare la disinformazione, ad esempio il rilevamento del deepfake, sebbene ci siano prove allarmanti sul fatto che i modelli attuali incontrino delle difficoltà con la cattiva informazione generata dall’IA. Tutto sommato, resta da vedere se, a questo punto, saremo presto sommersi dalla disinformazione prodotta dall’IA generativa.

EUvsDisinfo: Secondo lei, quali sono i modi più immediati per limitare le minacce che l’IA rappresenta nel nostro ambiente informativo? Inoltre, intravede qualche idea improbabile che potrebbe richiedere più tempo e denaro, ma che potrebbe dare ottimi risultati sul lungo termine?

BL: Ciò fa parte di un dibattito più ampio sulla governance responsabile dell’IA, ma necessitiamo di una risposta olistica elaborata di concerto con tutte le parti interessate, tra cui la politica, l’industria, la ricerca e la società in generale. Dato che, nello specifico, siamo preoccupati per le minacce rappresentate dall’IA nei confronti del nostro ambiente informativo, dobbiamo assicurarci di disporre di barriere di protezione adeguate per l’utilizzo di queste tecnologie, sia attraverso l’autoregolamentazione che attraverso una legislazione rigorosa. Ciò potrebbe comportare l’obbligo di includere delle barriere di protezione tecniche, ad esempio delle filigrane digitali, alle interfaccia di programmazione delle applicazioni (API) utilizzate nei software basati sull’IA, così da limitare il rischio di abuso e manipolazione delle informazioni.

Inoltre, e forse sul versante dell’idea improbabile, potremmo allontanarci dalla limitazione reattiva delle minacce, che rimane comunque necessaria, e aumentare in maniera significativa i nostri sforzi di formazione del grande pubblico sull’IA e sulla sua relazione con le nostre abitudini di consumo e la creazione di informazione, a partire dalle scuole. Sviluppare la resilienza e il senso critico su vasta scala, per poter navigare all’interno del nostro ambiente informativo nell’era dell’IA, mi sembra molto più proficuo rispetto ad affidarsi del tutto a misure reattive.

EUvsDisinfo: Quali sono alcuni dei possibili casi d’utilizzo positivo dell’IA nel lavoro contro la manipolazione delle informazioni?

BL: Ritengo che i casi di utilizzo positivo abbiano a che fare con l’individuazione di casi facili di manipolazione delle informazioni. Tuttavia, come ho già detto, una ricerca recente indica che l’IA generativa sembri di sicuro complicare tali sforzi di individuazione automatica. Ciò potrebbe includere l’individuazione di account falsi o bot che diffondono determinate storie su vasta scala, o l’individuazione automatica di video, testi e immagini che sono stati segnalati, in precedenza, come contenenti informazioni errate o disinformazione e che sono stati soltanto leggermente alterati. Ad esempio, in alcuni casi è possibile comunque rilevare con successo lievi modifiche sintattiche nel modello di un testo segnalato, in precedenza, come contenuto di disinformazione da un analista umano. Tecniche simili esistono per i deepfake o per la disinformazione basata sulle immagini, che rappresentano un numero superiore di casi di manipolazione delle informazioni. Si pensi, ad esempio, alle infografiche, alle foto, alle immagini satellitari ritoccate. Anche le loro variazioni e modifiche possono, in un certo senso, essere rilevate in maniera automatica.

Categorie

CLAUSOLA DI ESCLUSIONE DELLA RESPONSABILITÀ

I casi presenti nella banca dati di EUvsDisinfo si concentrano sui messaggi nello spazio informativo internazionale nei quali è stata individuata una rappresentazione parziale, distorta o falsa della realtà, nonché la diffusione di messaggi pro-Cremlino. Ciò non implica necessariamente che un determinato canale sia collegato al Cremlino o sia editorialmente pro-Cremlino, oppure che abbia intenzionalmente cercato di disinformare. Le pubblicazioni di EUvsDisinfo non rappresentano la posizione ufficiale dell’UE, poiché le informazioni e le opinioni espresse si basano sui resoconti dei media e sull’analisi della task force East Stratcom.

    CONDIVIDI LE TUE OPINIONI

    Informazioni sulla protezione dei dati *

      Subscribe to the Disinfo Review

      Your weekly update on pro-Kremlin disinformation

      Data Protection Information *

      The Disinformation Review is sent through Mailchimp.com. See Mailchimp’s privacy policy and find out more on how EEAS protects your personal data.