Wywiad z etykiem AI, dr. Benjaminem Lange
EUvsDisinfo: Jest Pan etykiem zajmującym się między innymi zagadnieniami sztucznej inteligencji i dezinformacji. Co to oznacza w praktyce? Co robi etyk zajmujący się tymi zagadnieniami?
Dr Benjamin Lange: Moja praca, jako etyka, obejmuje dwa obszary. Pierwszy obszar mojej działalności to praca naukowa. Jako filozof, prowadzę badania w dziedzinie dezinformacji i sztucznej inteligencji. Na przykład badam różne ryzyka etyczne negatywnych aspektów walki z dezinformacją. Oczywiście wszyscy są zgodni co do tego, że dezinformację, zwłaszcza na szerszym poziomie państwowym, należy powstrzymywać i ograniczać, ale można to robić lepszymi lub gorszymi metodami z etycznego punktu widzenia.
Inne moje badania dotyczą tego, jak możemy najlepiej skonceptualizować to, czym jest dezinformacja, zwłaszcza pod kątem operacjonalizacji naszych mechanizmów jej wykrywania. Filozoficzne narzędzie analizy konceptualnej może być tutaj bardzo pomocne i może przyczynić się do lepszego rozumienia tego zjawiska.
Druga część mojej działalności jest bardziej praktyczna. Jako konsultant ds. etycznych pomagam organizacjom zajmującym się ujawnianiem, powstrzymywaniem i zwalczaniem dezinformacji w robieniu tego w oparciu o solidne zasady etyczne. Może to stanowić skuteczną pomoc dla analityków w opracowywaniu niejednoznacznych przypadków, wymagających dużego stopnia krytycznej oceny. Może to polegać na opracowywaniu schematów lub narzędzi do podejmowania decyzji lub analizy trudnych przypadków, pomocy w konceptualizacji dezinformacji oraz tego, jak jest ona osadzona w łańcuchach wykrywania lub opracowywaniu procesu, który pomaga nam lepiej ocenić proporcjonalność środków stosowanych do zwalczania dezinformacji.
EUvsDisinfo: Sztuczna inteligencja będzie w nadchodzących latach wywierać na nasze społeczeństwa różnego rodzaju wpływ. Już dziś odczuwamy niektóre skutki tego wpływu – na przykład generatory tekstu lub obrazów na bazie sztucznej inteligencji są wykorzystywane w działalności twórczej i innych miejscach – jednak wielu z nich, zwłaszcza tych bardziej zasadniczych, możemy się jedynie domyślać. Tutaj, w EUvs Disinfo, interesują nas szczególnie związki między sztuczną inteligencją i manipulowaniem informacjami. Czy może Pan podzielić się z naszymi czytelnikami najnowszymi koncepcjami dotyczącymi tego zagadnienia? Co powinno nas niepokoić? Na co powinniśmy uważać?
BL: Myślę, że tak jak wspomniano, w tym roku wszyscy interesowali się wpływem generatywnej sztucznej inteligencji – czy to w formie generatorów tekstu, czy to przetwarzających tekst na obraz. To wciąż nowa dziedzina, w której wiele elementów się zmienia, ale głównym powodem do obaw jest z pewnością wpływ, jaki generatywna sztuczna inteligencja może wywierać na masowe rozpowszechnianie dezinformacji i nieprawdziwych informacji, zarówno w formie obrazów, jak i tekstu.
Dlatego na pewno jest to obszar, na którym trzeba się skupić. W szczególności zachęcałbym wszystkich do tego, by spróbować lepiej zrozumieć działanie niektórych z tych modeli, na przykład, jak generują one tekst lub obrazy i jak możemy nauczyć się lepiej rozpoznawać materiały wygenerowane przez sztuczną inteligencję. Są pewne wskazówki, które pomagają nam to robić, na przykład wzorce składniowe tekstu (tj. przyjęta kolejność słów w zdaniach, struktura zdań) lub pewne elementy obrazów, których sztuczna inteligencja jeszcze nie potrafi dobrze tworzyć (np. ręce, logiczne proporcje, względne proporcje między niektórymi elementami, szczegóły tła). Oznacza to także, że sprawdzone techniki weryfikacji faktów, takie jak sprawdzanie materiałów źródłowych stają się jeszcze ważniejsze.
Jest też dobra wiadomość: w miarę jak poprawiają się nasze możliwości techniczne, zwiększają się także nasze możliwości wykrywania dezinformacji przy pomocy sztucznej inteligencji, np. materiałów deepfake – choć są pewne niepokojące dowody, które pokazują, że obecne modele mają problem z generowanymi przez sztuczną inteligencję nieprawdziwymi informacjami. Na obecnym etapie trudno jest jednak przewidzieć, czy zostaniemy wkrótce zalani dezinformacją generowaną przez sztuczną inteligencję.
EUvsDisinfo: Jakie są Pana zdaniem obecnie dostępne sposoby zmniejszania zagrożeń, jakie stwarza sztuczna inteligencja w otoczeniu informacyjnym? I jeszcze, czy widzi Pan jakieś rewolucyjne pomysły, które wymagałyby dużych nakładów czasu i pieniędzy, ale które mogłyby się opłacać w dłuższej perspektywie?
BL: To część szerszej debaty na temat odpowiedzialnego zarządzania sztuczną inteligencją, ale potrzebujemy kompleksowych działań, przygotowanych wspólnie przez wszystkie zainteresowane strony: polityków, społeczność biznesową, naukowców i szeroko pojęte społeczeństwo. Jako że obawiamy się dziś zagrożeń dotyczących wpływu sztucznej inteligencji, zwłaszcza na otoczenie informacyjne, musimy zapewnić, że zostaną wprowadzone odpowiednie zabezpieczenia w stosowaniu tych technologii, zarówno w wyniku samoregulacji, jak i poprzez przepisy prawa. Może to polegać na dodawaniu technicznych elementów zabezpieczających, takich jak cyfrowe znaki wodne, do interfejsów API stosowanych w oprogramowaniu na bazie sztucznej inteligencji, aby ograniczyć ryzyko ich nadużywania i manipulowania informacjami.
Ponadto, i to prawdopodobnie jest jeden z takich rewolucyjnych pomysłów, moglibyśmy przejść od działań reaktywnych, które wciąż pozostają konieczne, i znacząco zwiększyć działania polegające na edukowaniu ogółu społeczeństwa na temat sztucznej inteligencji i jej wpływu na proces konsumpcji informacji i nawyki tworzenia, zaczynając od szkół. Budowanie odporności i krytycznego podejścia na szeroką skalę, aby móc poruszać się po otoczeniu informacyjnym w erze AI, wydaje mi się znacznie skuteczniejsze niż poleganie tylko i wyłącznie na działaniach reaktywnych.
EUvsDisinfo: Jakie są możliwe przykłady pozytywnego zastosowania AI w zwalczaniu manipulacji informacjami?
BL: Myślę, że przykłady pozytywnego zastosowania dotyczą wykrywania łatwych przypadków manipulowania informacjami. Choć, jak powiedziałem, ostatnie badania pokazują, że generatywna sztuczna inteligencja z pewnością utrudnia takie zautomatyzowane wykrywanie. Może to polegać na wykrywaniu fałszywych kont lub botów, które na szeroką skalę rozpowszechniają pewne historie lub automatyczne wykrywanie filmów, tekstów i obrazów, które zostały wcześniej zgłoszone, jako zawierające nieprawdziwe informacje lub dezinformację, a które zostały tylko nieznacznie zmodyfikowane. Na przykład, w niektórych przypadkach pewne niewielkie zmiany składniowe we wzorcu tekstu, który był wcześniej oznaczony przez analityka jako dezinformacja, mogą być z powodzeniem wykrywane. Podobne techniki stosuje się do wykrywania materiałów deepfake i dezinformacji wykorzystującej obrazy, które stanowią większą część przypadków manipulowania informacjami – wystarczy pomyśleć o zmanipulowanych infografikach, zdjęciach czy obrazach satelitarnych. Zmiany lub modyfikacje tego typu materiałów także mogą, do pewnego stopnia, być automatycznie wykrywane.