Interviu cu dr. Benjamin Lange, etician în domeniul inteligenței artificiale
EUvsDisinfo: Sunteți un etician specializat în inteligență artificială și dezinformare, printre altele. Ce înseamnă aceasta în practică? Ce face un etician care se ocupă de aceste subiecte?
Dr. Benjamin Lange: În calitate de etician, am două roluri. Primul este rolul academic. Cercetările mele în calitate de filosof se concentrează asupra dezinformării și IA. De exemplu, examinez diferitele riscuri etice de prejudicii pe care lupta împotriva dezinformării le poate cauza. Deși toată lumea este de acord, firește, că dezinformarea trebuie prevenită și atenuată, mai ales la nivelul mai amplu al protagoniștilor statali, există modalități mai bune sau mai proaste de a proceda din punct de vedere etic.
Într-o altă componentă a cercetărilor mele, examinez cum se poate conceptualiza mai bine semnificația dezinformării, în special în vederea operaționalizării mecanismelor noastre de detecție. În acest sens, instrumentul filosofic de analiză conceptuală poate fi foarte util și poate contribui la înțelegerea acestui fenomen.
Al doilea rol al meu este mai aplicat. În calitate de consultant de etică, am ajutat organizații implicate în demontarea, stăvilirea sau combaterea dezinformării să efectueze această muncă pe baza unor principii etice sănătoase și care să ajute eficient analiștii să rezolve cazuri încadrate într-o zonă gri, care necesită multă judecată critică. Acest lucru ar putea implica elaborarea unor cadre și seturi de instrumente pentru deliberări sau luarea deciziilor în ceea ce privește cazurile dificile, acordarea de asistență pentru conceptualizarea dezinformării și integrarea acestui concept în lanțurile de detectare sau dezvoltarea unui proces care să ne ajute să evaluăm mai bine proporționalitatea măsurilor luate pentru combaterea dezinformării.
EUvsDisinfo: IA va avea tot felul de efecte asupra societăților în anii care vor urma. Ne confruntăm deja cu o parte dintre acestea – de exemplu, se folosesc generatoare de text sau imagini cu ajutorul IA în activitățile creative și nu numai – dar multe dintre efecte le putem doar ghici, mai ales cele fundamentale. Aici, la EUvsDisinfo, ne interesează îndeosebi interacțiunea IA cu manipularea informațiilor. Le puteți prezenta cititorilor noștri cele mai noi considerații despre acest subiect? Ce ar trebui să ne îngrijoreze? La ce ar trebui să fim atenți?
BL: Așa cum menționați, cred că toată lumea a fost preocupată anul acesta de IA generativă, fie că vorbim despre generatoarele text-text sau imagine-text. Acesta este încă un domeniu emergent, cu numeroase aspecte nestabilite, dar principala îngrijorare este efectul catalizator pe care IA generativă îl poate avea asupra diseminării în masă a dezinformării, atât sub formă de imagini, cât și de text.
Deci, cu siguranță, este un domeniu pe care trebuie să ne concentrăm. Aș încuraja pe toată lumea să caute să înțeleagă mai bine cum funcționează unele dintre aceste modele, de exemplu, cum generează text sau imagini, și cum să identifice mai bine produsele IA generative. Există indicii care ne ajută să facem acest lucru, cum ar fi schemele sintactice de text (și anume, ordinea acceptabilă a cuvintelor în propoziții, structurile propozițiilor) sau anumite elemente de imagini pe care IA nu se pricepe atât de bine încă să le creeze (de ex. mâinile, proporțiile logice, proporțiile relative între elemente, fundalurile detaliate). Acest lucru înseamnă, de asemenea, că tehnicile dovedite de verificare a veridicității informațiilor, cum ar fi verificarea materialelor-sursă, devin cu atât mai importante.
Există și vești bune: pe măsură ce capacitățile noastre tehnice cresc, se dezvoltă și capacitățile de detectare a dezinformării cu ajutorul IA. De exemplu, detectarea materialelor deepfake – deși există unele dovezi alarmante că modelele actuale au dificultăți în ceea ce privește dezinformarea generată de IA. Dar rămâne de văzut dacă, în momentul de față, ținând seama de toate aceste elemente, vom fi inundați în curând de dezinformare prin intermediul IA generativă.
EUvsDisinfo: În opinia dumneavoastră, care sunt câteva modalități imediate de atenuare a amenințărilor reprezentate de IA la adresa mediului informațional? De asemenea, aveți idei foarte ambițioase care ar putea fi costisitoare ca timp și bani, dar ar putea aduce mari beneficii pe termen mai lung?
BL: Această chestiune se înscrie într-o dezbatere mai amplă despre guvernanța responsabilă a IA, dar avem nevoie de un răspuns holistic, elaborat împreună de toate părțile interesate relevante, inclusiv domeniul politic, industria, cercetarea și societatea în general. În măsura în care suntem îngrijorați de pericolele IA în special pentru mediul informațional, trebuie să ne asigurăm că avem implementate mecanismele de protecție adecvate pentru utilizarea acestor tehnologii, prin autoreglementare și instrumente juridice obligatorii. De exemplu, ar putea fi impusă adăugarea de mecanisme tehnice de protecție, precum filigranele digitale, la interfețele de programare a aplicațiilor (API) utilizate în software bazat pe IA, pentru a atenua riscul de abuz și de manipulare a informațiilor.
În plus, și probabil că acest deziderat este ambițios, am putea trece de la atenuarea reactivă a amenințărilor, care rămâne în continuare necesară, la intensificarea considerabilă a eforturilor de educare a publicului general cu privire la IA și la relația sa cu obiceiurile de consum și creare de informații, începând din școli. În epoca IA, consolidarea rezilienței și a gândirii critice la scară largă pentru a ne putea descurca în mediul informațional mi se pare mai fructuoasă decât să ne bazăm în întregime pe măsuri reactive.
EUvsDisinfo: Ne puteți spune câteva situații de utilizare pozitivă a IA în activitatea împotriva manipulării informațiilor?
BL: În opinia mea, situațiile de utilizare pozitivă vizează detectarea cazurilor ușoare de manipulare a informațiilor. Deși, așa cum am menționat, cercetările recente arată că IA generativă pare să îngreuneze categoric aceste eforturi de detectare automată. Aceste cazuri ar putea include detectarea conturilor false sau de boți, care diseminează masiv anumite povești, sau detectarea automată a videoclipurilor, textelor și imaginilor marcate anterior deoarece conțin informații false sau dezinformări și care au fost doar puțin modificate. De exemplu, în anumite cazuri, micile modificări sintactice dintr-o schemă de text care au fost marcate anterior ca dezinformare de către un analist uman pot fi în continuare detectate. Există tehnici similare pentru deepfake sau dezinformări bazate pe informații, care reprezintă un număr mai mare de cazuri de manipulare a informațiilor. Gândiți-vă la infograficele, fotografiile sau imaginile din satelit manipulate. Variațiile și modificările acestora pot fi detectate, de asemenea, în mod automat, într-o anumită măsură.