Prawda na technologicznym zakręcie

Prawda na technologicznym zakręcie

Kiedy mowa o postprawdzie, rozumiem co ludzie mają na myśli. Osobiście wolę jednak dzielić fakty i informacje na prawdę i kłamstwo. Kłamstwo jest jedną ze strategii, która może pozwolić odnieść określone korzyści, jednak zazwyczaj przez krótki okres czasu w niepowtarzalnych interakcjach. Nic więc dziwnego, że człowiek od zamierzchłych czasów doskonalił sztukę oszukiwania. Dla odbiorców, wiarygodność informacji zawsze stanowiła problem, choć kilka wieków a nawet jeszcze kilka dekad temu, zupełnie inny niż obecnie. Dzisiaj, choć można by się spodziewać, że dzięki postępującej demokratyzacji społeczeństw informacje są bardziej przejrzyste, ich autentyczność coraz częściej budzi nasze obawy. Masowo opisywane przypadki fałszywych doniesień lub celowych dezinformacji, otwierają nam oczy na skalę zjawiska. W coraz większej ilości dziedzin, fake-newsy wpływają na nasze decyzje, podsycając nasze emocje i osobiste przekonania. Te zaś leżą u podstaw panoszącej się wokół nas postprawdy. Skuteczne kłamstwo potrzebuje dzisiaj technologii. Technologia wychodzi mu naprzeciw.

W momencie gdy zyskaliśmy możliwość informowania niemal wszystkich o niemal wszystkim, ilość informacji, które do nas docierają, przekroczyła o rzędy wielkości możliwości naszej percepcji. Jednak człowiek uzależniony jest od dopływu wiadomości. Bez nich nie może skutecznie funkcjonować w dzisiejszych, zagmatwanych labiryntach cywilizacji. Korzystając z osiągnięć techniki, pakujemy więc informacje w coraz bardziej skompresowane pakiety, przesyłamy je przy pomocy coraz szybszych łączy i odczytujemy poświęcając im coraz mniej czasu i uwagi. Kiedy niczym w kalejdoskopie, przewijają nam się na ekranie kolejne gospodarcze doniesienia, polityczne sensacje, czy pozornie zwyczajne informacje od znajomych i krewnych, oczekujemy, że ich forma dopasuje się w ułamku sekundy do naszej, coraz bardziej niecierpliwej natury odbiorcy. Mając coraz więcej do przyswojenia, nie możemy sobie pozwolić na stratę czasu. Chcemy więc informacji w jak najmniejszej pigułce. Zadawala nas raport z lotu na Księżyc nie dłuższy niż 140 znaków, 10-sekundowy film streszczający trzęsieni ziemi na Filipinach, podcast o kilkuletniej pracy autora nad nagrodzoną książką, który trwa nie dłużej niż wypicie napoju energetyzującego. Zadawalają nas oczywiście obrazy. Wiele obrazów. Nasz zmysł wzroku przyswaja zamrożone na nich historie niezwykle szybko. Przeglądając tysiące zdjęć niemal automatycznie zatrzymujemy nasz wzrok na tych, które w ułamku sekundy uderzają w najczulsze struny naszych emocji, które potwierdzają wyznawane przez nas poglądy.

W ostatnich tygodniach mogliśmy przeczytać o nowej wersji algorytmu GAN firmy Nvidia, który potrafi generować niezwykle wysokiej jakości obrazy fikcyjnych twarzy. Choć nie jest może jeszcze doskonały, to firma i tak dokonała w 4 lata gigantycznego przeskoku od poprzedniej wersji czarno-białych portretów, posiadających małą ilość szczegółów (*1). Fałszywe twarze generowane przez algorytm Nvidia są bez dwóch zdań wspaniałe. Rodzi się jednak pytanie, jak i do czego wykorzystamy taką technologię? Czy będziemy ją stosować do upiększania własnych portretów na portalach społecznościowych lub dla zabawy, chcąc zobaczyć jak możemy wyglądać za ileś lat? A może jednak istnieje ryzyko, że algorytm ten ułatwi tworzenie doskonalszych fikcyjnych kont w social media, które będą zabiegać o naszą uwagę, rozsyłając kolejne emocjonalne obrazy. Oczywiście fikcyjne konta można zakładać już teraz, jednak przygotowywanie realistycznie wyglądających portretów wymaga czasu. Korzystając – zapewne już niedługo – z takich narzędzi, dowolna ilość fikcyjnych twarzy będzie mogła powstawać niezwykle szybko i automatycznie. A ilość fałszywych kont przy rozpowszechnianiu fake newsów ma kolosalne znaczenie. Dodatkowo, jeśli algorytmy będą generować dowolną twarz z oddaniem najmniejszych jej szczegółów, w twarzach takich będą mogły być zaszyte potrzebne twórcom emocje, na które jesteśmy szczególnie mało odporni. Zamieszczony poniżej film pokazuje trochę więcej efektów nowego algorytmu, generującego “zmyślone” twarze.

Cóż, technologia nie pierwszy raz może przyjść z pomocą oszukującym. Przecież produkcja fałszywych informacji jest dzisiaj możliwa przede wszystkim dzięki zaawansowanej technice. Kiedy najprzeróżniejsze odmiany cyfrowych bytów uprowadziły nas do swojego królestwa, jako ludzie okazujemy się zbyt niedoskonali, aby współpracować z nimi na równych zasadach. Cyfrowy świat, który staje się naszym światem równoległym, pozbawiony jest ludzkich emocji i etyki, jest nieprzewidywalnie zmienny i niewyobrażalnie szybki. Internetowe boty, które odpowiadają za szerzenie nieprawdziwych faktów, dostrojone są dokładnie do informacji, które najchętniej przeczytamy, do informacji popularnych w naszych kręgach. Naukowcy z Indiana University, którzy badali 14 milionów tweetów z okresu jednego roku, odkryli, że dzięki automatyzacji i masowości, tylko 6% kont kwalifikowanych jako boty, generuje 31% informacji uznawanych za mało wiarygodne. Dzięki masowo powtarzanym treściom, użytkownikom wydaje się, że dana opinia jest bardziej powszechna. Dodatkowo, tempo rozprzestrzeniania się niewiarygodnych wiadomości maleje wraz ze zmniejszaniem liczby botów (*2). Nie jesteśmy więc w stanie stawiać czoła ilości w wydaniu cyfrowym. Nie potrafimy również rywalizować na czas. Jak pokazują badania naukowców z MIT, którzy badali około 4,5 miliona tweetów zamieszczonych przez 3 miliony użytkowników, fałszywa informacja dociera do około 1.500 odbiorców około 6 razy szybciej niż informacja prawdziwa. Jeszcze bardziej wprawia mnie w osłupienie konkluzja, mówiąca, że nieprawdziwe historie mają o 70% większe szanse na ponowne udostępnienia przez użytkowników (*3). Nie powinniśmy więc chyba mówić o przypadku.

Spora część krążących w sieci fake newsów to złe wieści, choć oczywiście bywają też dobre. To dodatkowy dowód na to, że powinniśmy włączyć naszą czujność, kiedy widzimy informacje złe. Ludzie lubią złe wiadomości i nie ma w tym nic szczególnego. Złe wieści znacznie bardziej przyciągają naszą uwagę niż doniesienia dobre czy obojętne. Ewolucyjnie zostaliśmy przygotowani aby chętniej przyswajać wszelkie informacje o rzeczach, które mogą nam zagrażać. Informacje dobre, mówiące np., że dolina za wzgórzem jest szczególnie piękna o zachodzie słońca, nie miały zapewne aż tak dużego znaczenia w drodze naszego gatunku na ewolucyjny szczyt. W porę przyswojone złe wiadomości, mogły nas natomiast uchronić np. przed śmiercią lub zmniejszyć ryzyko niekorzystnych zdarzeń. Gdy rozpamiętujemy nasz czas przeszły, przywołujemy w pamięci raczej same dobre wiadomości. Budujemy własną pozytywną tożsamość. Kiedy angażujemy nasz umysł w filtrowanie wiadomości dotyczących naszej przyszłości, wielu z nas wyczulonych jest na bardziej czarne scenariusze. Tych prostych reguł można łatwo nauczyć boty. Nam trudno się przed nimi chronić.

W maju b.r. w Belgii krążył w internecie film, na którym Donald Trump pouczał Belgów jak powinni postępować w sprawie klimatu. Film ten okazał się zamówioną przez jedną z belgijskich partii politycznych mistyfikacją, do którego oficjalnie przyznała się partia. Miała zamiar dzięki temu zwrócić uwagę obywateli na większe zaangażowanie się w sprawy klimatu (*4). Film ten został przygotowany przy użyciu zaawansowanych algorytmów wspomaganych AI. Film został celowo niedopracowany, aby zwrócić uwagę odbiorców, że jest fałszywym obrazem. Nie dopasowano na przykład ruchu warg do wypowiadanych słów a cały film był dosyć nieostry. Niestety wielu oglądających nie zrozumiało żartu, uwierzyli w tak prymitywnie przygotowaną mistyfikację. Rozsądek części użytkowników został odrobinę przeceniony. Co jednak, kiedy technologia i wygenerowany przez nią przekaz będzie znacznie doskonalszy? Na początku tego roku Reddit zabronił rozpowszechniania jakiejkolwiek formy pornografii, bez zgody osób w niej zamieszczonych, po tym, jak właśnie dzięki zaawansowanym algorytmom pojawiła się plaga filmów porno, w których na twarze rzeczywistych aktorów nałożono twarze najbardziej znanych celebrytów (*5). Ponieważ proceder zastępowania twarzy w dowolnych filmach stał się już powszechny, zyskał nawet swoją własną nazwę głębokich podróbek (deep fakes). Technologia edycji obrazu i głosu jest coraz doskonalsza. Dziewięć miesięcy temu, reżyser Jordan Peele i BuzzFeed, udostępnili w celach poprawy świadomości społecznej, krótki film z głęboko podrobionym Barackiem Obamą w roli głównej. Warto przypomnieć sobie ten film, aby zdać sobie sprawę z faktu, że człowiek nie jest w stanie zmieniać się tak szybko jak cyfrowa rzeczywistość. Nie ulega więc wątpliwości, że o pomoc w rozpoznawaniu prawdy, musimy zwrócić się do cyfrowych maszyn.

Tradycyjna obrona przed fałszywymi informacjami przestaje wystarczać. To oczywiście ważne aby czytając wiadomości – zwłaszcza te sensacyjne – sprawdzać kto je napisał, sięgać do dodatkowych źródeł o ile je zamieszczono, szukać więcej informacji na ten temat na własną rękę, sprawdzać daty publikacji, zwracać uwagę na stronniczość przekazywanych treści i nie poprzestawać na samych nagłówkach. Podobnie ważne moim zdaniem jest czytanie tekstów dłuższych, które zazwyczaj pozwalają na wyrobienie sobie bardziej obiektywnego spojrzenia na temat. Jednak czy nam się to podoba czy nie, już lada moment, człowiek nie będzie w stanie odróżniać części informacji prawdziwych od fałszywych. Musimy zatrudnić do tego boty i sztuczną inteligencję, które dorównają możliwościami i prędkością technologiom stosowanym przez oszustów. Już dzisiaj używamy przecież filtrów antyspamowych, którym próbujemy zaufać, bo nie mamy innego wyjścia. Już dzisiaj zdajemy się na podpowiedzi gigantów e-commerce, kupując to co kupili inni, wierzymy proponowanym przez systemy trasom przejazdu, mamy zaufanie do znalezionych przez wyszukiwarkę informacji. Już wkrótce będą nam potrzebni sztuczni asystenci, ograniczający dopływ informacji nieprawdziwych. Wiele wskazuje jednak na to, że nie będą to osobiście dopasowywani personalni doradcy, a raczej ogólnodostępne systemy, które na wzór wyszukiwarki Google’a, będą rozpoznawać algorytmy fałszujące wiadomości, stosując jedynie sobie znane kontralgorytmy. Po raz kolejny w wyborze będą musieć nas wyręczyć inni. Tylko kim z czasem dzięki technologii stanie się sam człowiek i społeczeństwo?

Wraz z pojawieniem się internetu i wszelkich cyfrowych odmian rozpowszechniania informacji, wielu z nas uwierzyło w szybszą demokratyzację społeczeństw i życia. Jednak z czasem okazuje się, że nie jest to takie oczywiste. Rozwój technologii powoduje, że coraz więcej przynależnych naszemu gatunkowi przywilejów i obowiązków, przenosimy na sieciowe systemy informatyczne. Coraz więcej decyzji oddajemy w ręce algorytmów. Człowiek może być dumny ze swojej wolności tak długo, jak długo podejmuje swoje decyzje samodzielnie. Całe nasze życie jest właściwie wielką przygodą wybierania. Ryzykując wybieramy szkołę, kierunek studiów, partnera, samochód, miejsce na spędzenie wakacji. Podejmujemy również szereg prostszych, codziennych wyborów, jak rodzaj pieczywa, sklep ze spodniami, restaurację czy portal, na którym przeczytamy aktualne wiadomości. W jaki sposób oddanie dużej części z tych wyborów algorytmom komputerowym wpłynie na naszą świadomość? Co czeka gospodarkę wolnorynkową, która również opiera się na wielu autonomicznych wyborach? Jak długo demokratyczne społeczności będą wynikiem indywidualnych decyzji, a nie pochodną konkurujących ze sobą w czasie rzeczywistym algorytmów? Sukces liberalnej demokracji zawdzięczamy w dużej części zaawansowanym technologiom, podobnie jak obecnie zawdzięczamy technologii znaczące ryzyko osłabiania demokracji. Narastająca dyktatura algorytmów w świecie medialnym, pozostawiona samej sobie, może sięgnąć po naprawdę mało ciekawe scenariusze.

Będąc dalekim od kreślenia najczarniejszych scenariuszy, myślę, że jeśli nie zajmiemy się tym problemem na poważnie, to pierwszym prawdopodobnym skutkiem ingerencji algorytmów w informacje, będzie masowa społeczna nieufność do mediów. Być może nawet nie jakiś konkretny przykład udowodnionego oszustwa okaże się najgorszy w skutkach, co nieufność sama w sobie. Ryzyko, że wszyscy będą uważali niemal każde doniesienie publiczne za zmanipulowane. Brak zaufania może rodzić z kolei szereg innych poważnych problemów. Kiedy prawie wszystko co do nas dociera z masowych kanałów uznawalibyśmy za fałsz, tym łatwiej mogłyby się szerzyć lokalne kłamstwa w przebraniu prawdy. Demokracji, w tym liberalnej, musi więc zależeć na prawdzie. Wiem, że to łatwiej powiedzieć, niż wykonać, jednak jeśli państwa demokratyczne doceniają siłę prawdy, same muszą stanąć w obronie obywateli i pomóc im oddzielać medialne fakty od fałszu. Obecny postęp technologii powoduje, że zadanie to jest poza zasięgiem zwykłego człowieka, a zwłaszcza poza zasięgiem ludzi mniej starannych w doborze informacji. Zadanie to jest trudne i wielowątkowe. Trzeba jednak zapewne zacząć od wielu fundamentalnych zmian w prawie, które do dziś nie nadąża za światem bitów i bajtów. Być może wartym rozważenia jest np. utrzymywanie na zasadach otwartych publicznej biblioteki wszelkich algorytmów, które demaskują przejawy fałszowania informacji. Wspieranie takich działań powinny przejmować na siebie rządy. Dzisiaj jednak w działaniach wielu rządów, zdecydowanie za mało czasu poświęcamy technologiom. A to właśnie technologia coraz bardziej decyduje o naszej przyszłości. To technologia kawałek po kawałku próbuje odebrać nam naszą dotychczasowość. Czy potrafimy stać się dla technologii tak przebiegłym, jak ona sama, partnerem?

W artykule wykorzystano następujące źródła:
Zostaw swój email aby otrzymywać informacje o nowych wpisach.
Poleć innym
Share on linkedin
LinkedIn
Share on facebook
Facebook
Share on twitter
Twitter

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Aktualna strona w strukturze bloga:

Informuj mnie o nowych wpisach.
Najnowsze artykuły

Najnowsze recenzje książek

Informuj mnie o nowych wpisach

Social media - Kanał RSS