O tym, że w przyszłości sztuczna inteligencja musi doskonale oszukiwać, jestem przekonany. Być może w chwili kiedy równocześnie będzie istnieć wiele różnych sztucznych inteligencji, któreś z nich nie będą oszukiwać, ale pozostałe na pewno tak. SI musi opanować sztukę doskonałego oszukiwania z kilku oczywistych powodów. Po pierwsze rozwijana jest przez człowieka i w dużej mierze na jego podobieństwo. Uczymy ją więc rozumieć świat w znacznym stopniu przez nasz pryzmat. Drugą przyczyną jest rozwój SI w takich dziedzinach, które mniejszego lub większego kalibru oszustwa mają wpisane w swoje zasady. Trudno przecież pojąć, dlaczego mielibyśmy konstruować wyposażonego w zaawansowaną SI robota-żołnierza, który otwarcie manifestowałby wrogom swoje plany. Nie inaczej mają się sprawy w sporcie czy grach zręcznościowych, w których również SI musi się nauczyć wielu blefów i oszustw. Trzecim powodem jest fakt, że jeżeli SI ma być od człowieka doskonalsza, to musi wykazać się przewagą w stosunku do większości ludzkich zdolności, a więc również umiejętności oszukiwania. Na drobne oszustwa ze strony wyposażonych w sztuczną inteligencję robotów nie musimy już czekać. Teoretycy i praktycy zabrali się za to już jakiś czas temu. Świadczą o tym choćby doniesienia o wygranych przez komputer Libratus pojedynkach, z najlepszymi graczami w pokera. W pokerze nie decydują o wygranej ruchy optymalne. Znacznie ważniejsza jest spostrzegawczość i sztuka blefowania. W wielu miejscach na świecie zajmujących się SI, rozwijane są dzisiaj algorytmy zachowań opartych o oszukiwanie. Aby sztuczna inteligencja szybko przyniosła człowiekowi pokładane w niej nadzieje, SI zaczęła się uczyć, jak oszukać najdoskonalszego chyba oszusta na tej planecie, czyli człowieka. Oszukiwanie, nawet jeżeli nie do końca świadome, to jedna z naszych naturalnych umiejętności. SI musi więc oszukiwać w sposób doskonalszy od człowieka, aby być od niego lepsza.
Człowiek udoskonalił oszukiwanie w różnych okolicznościach i z różnych powodów. Kłamać potrafimy od najmłodszych lat. Psycholodzy mówią o dwóch rodzajach kłamstw: białym i strategicznym. Białe kłamstwo umożliwia człowiekowi utrzymanie odpowiedniego statusu społecznego, podbudowę własnego wizerunku. Kłamstwo strategiczne pozwala odnieść osobisty zysk. Ludzie kłamią aby ukryć swoje złe zachowanie, wykreować lepszy wizerunek, zdobyć prestiż, odnieść zwycięstwo, zakamuflować swoje niedoskonałości, chronić najbliższych lub kiedy szukają usprawiedliwienia. Ludzie potrafią oszukiwać w celu uspokojenia ofiar wypadku, przekonania kogoś do współpracy w panice ale również wtedy, kiedy nie zadziałała uczciwość. Drobne kłamstwa umożliwiają człowiekowi utrzymywanie społecznych relacji. Na szczęście, o ile Dan Ariely ma rację, oszukujemy tylko w takich granicach, aby sami przed sobą wyglądać nadal wiarygodnie. Wszyscy oszukujemy z różną intensywnością, choć zdarzają się osoby pod tym względem patologiczne. Naukowcy odkryli, że osoby wybitnie oszukujące, posiadały około 20 procent objętościowo więcej neurytów w swojej korze przedczołowej, co sugeruje, że nałogowi kłamcy mają lepiej rozwiniętą łączność w swoich mózgach. Możliwe, że właśnie to predysponuje ich do oszustw, ponieważ kłamstwo mogą sobie wyobrazić łatwiej niż inni. Jednak obserwacja ta może również świadczyć, że jest to efekt wielokrotnego oszukiwania. Inne badania mózgów prowadzone przy użyciu techniki fMRI pozwoliły stwierdzić, że ci, którzy działali nieuczciwie, wykazywali większą aktywność mózgu w jądrze półleżącym. Struktura ta odgrywa kluczową rolę w procesie nagradzania. Naukowcy tłumaczą, że im bardziej pobudzony jest system nagradzania możliwością zarobienia pieniędzy, nawet w zupełnie uczciwy sposób, tym bardziej prawdopodobne jest oszukiwanie. Chciwość może więc zwiększyć predyspozycję do kłamstwa. Jeżeli zatem chciwość oraz lepiej rozwinięta sieć połączeń neurytowych mogą zwiększyć nasze skłonności do oszustw, to czy w przyszłości doskonale rozwinięty “mózg” sztucznej inteligencji, nie zyska większego niż ludzki potencjału do oszukiwania?
Jeżeli uznalibyśmy, że SI nie będzie potrafić oszukiwać lepiej od człowieka, to automatycznie wypadałoby stwierdzić, że raczej nie będzie dysponować większą inteligencją niż człowiek. W to jednak wątpię. To raczej jedynie kwestia czasu. Prawdopodobieństwo szybkiego doskonalenia zdolności oszukiwania przez SI jest duże, choćby z tego względu, że SI rozwijana jest przez człowieka między innymi po to, aby konkurował z innym człowiekiem. W dziedzinach, w których wyniki konkurowania różnych SI w imieniu firm lub ludzi, różnić się będą jedynie o jakieś umowne ułamki, wygrana w oparciu o oszukiwanie może być bardzo kuszącym i łatwym rozwiązaniem. Dopóki sztuczna inteligencja będzie na usługach człowieka, będzie musieć z czasem oszukiwać coraz lepiej. Oszukiwać zarówno człowieka jak i inną SI. Nie wiem jak SI zechce wykorzystać zdolność do oszukiwania w dalszej przyszłości, kiedy przestanie być naszym niewolnikiem i rozpocznie rozwijać się niezależnie, o ile to kiedyś rzeczywiście nastąpi. Czy podobnie jak my wykształci oszukiwanie samej siebie? Czy samooszukiwanie mogłoby się jej do czegoś przydać?
Człowiek w wielu codziennych interakcjach nie jest nastawiony na to, że ktoś kłamie. Drugiego człowieka darzymy raczej domniemanym zaufaniem, przynajmniej tak długo, jak nie złapiemy go na oszustwie. Ale taka domyślna forma zaufania w stosunku do robotów i sztucznej inteligencji może być naszą dodatkową bolączką. Dysponująca olbrzymią bazą wiedzy o człowieku SI będzie przecież wiedzieć również i o tej słabości. Człowiek poza tym jest bardzo podatny na kłamstwa, które potwierdzają jego światopogląd, a to kolejny bardzo łatwy wytrych do naszej świadomości. Czy potrafimy więc zmienić z czasem nasze nastawienie tak, aby wyzbyć się w stosunku do SI domniemanego zaufania oraz obronić się przed kłamstwami, które mogą paść na podatny grunt naszych przekonań? Takie zmiany oznaczałyby, że mózg człowieka musi reagować bardziej matematycznie, pozbywając się wręcz części uczuć. Czy jesteśmy zdolni do tego, aby wyeliminować z naszego życia określone emocje?
To wszystko nie ułatwia próby zrozumienia jednego zaledwie aspektu związanego ze sztuczną inteligencją, jakim jest zdolność oszukiwania. Wiemy, że sami do perfekcji opanowaliśmy sztukę kłamstw. Czujemy się jednak trochę zaniepokojeni, kiedy to my możemy być okłamywani, a co gorsza, nie mając szans rozpoznać kiedy. Czy silna rywalizacja w oszukiwaniu między inteligentnymi robotami a człowiekiem zaprowadzi do nas do jeszcze większej perfekcji w oszukiwaniu, czy raczej jako mający mniejsze szanse na wygraną w tej dyscyplinie, przyjmiemy strategię bycia bardziej uczciwymi? Jeżeli dzięki SI, w sytuacjach, w których dzisiaj nie do końca gramy fair play stalibyśmy się bardziej uczciwymi, oznaczałoby to, że warto doskonalić oszukiwanie przez SI. Oczywiście pod warunkiem, że uznajemy uczciwość za cechę pożądaną. Jeżeli przyjmiemy we wzajemnym oszukiwaniu strategię silnie konfrontacyjną, to czy możemy przyszłym robotom – przynajmniej w drobnych kłamstwach – dotrzymywać kroku? Czy którakolwiek z tych dwóch opcji daje nam większe szanse na utrzymanie przez człowieka dominującej nad SI pozycji? Czy człowiek chce jeszcze przy dzisiejszej przewadze pozostać? Czy jest mu to jeszcze potrzebne?
Nawet wiedząc jak niewiele wiemy o zdolności oszukiwania przyszłej SI, rozwijamy ją niezwykle szybko, ponieważ fascynuje nas robienie rzeczy nowych, niezwykłych, których nikt inny jeszcze nie stworzył, które dają szansę dominacji nad resztą. Nie możemy być oczywiście pewni, czy wszystko pójdzie po dobrej myśli, ale czy w związku z tym powinniśmy w zdecydowany sposób zaostrzyć reguły rozwoju tej dziedziny? Czy powinniśmy obwarować mocnymi regulacjami badania nad zdolnością do oszukiwania przez SI? To chyba niemożliwe. Wprowadzenie bardzo ostrych przepisów nie jest w stanie zbyt wiele zmienić. Przecież zdolny do oszukiwania człowiek, nie zabezpieczy się sam przed sobą jakimś kawałkiem instrukcji, w kwestii rozwijania jeszcze inteligentniejszych kłamstw. Pozostaje nam więc chyba jedynie doraźne reagowanie tam, gdzie zagrożenia okażą się nagłe i wielkie, a my będziemy jeszcze mieć szansę na obronę przed nimi lub na odwrót od obranego kierunku. Czy to jednak nasze jedyne, wymarzone i wystarczające zabezpieczenie?
Choć stawianie trafnych pytań często bywa pierwszym krokiem w rozumieniu nowych realiów i rozwiązywaniu problemów, to w przypadku SI mam wrażenie, że liczba ważnych pytań, jakie możemy dzisiaj usłyszeć, nieporównywalnie przewyższa liczbę sensownych odpowiedzi. Niekiedy wydaje mi się wręcz, że w tym zakresie istnieją same pytania. Po co nam więc zadawać tak wiele pytań? Jak długo przyjdzie człowiekowi czekać na odpowiedzi dotyczące przynajmniej części tych najważniejszych kwestii? Czy na niektóre z nich odpowie nam dopiero sama sztuczna inteligencja? Czy będą to wtedy odpowiedzi w naszym rozumieniu bliższe prawdy, bardziej logiczne, czy może zawierające kłamstwa i na dodatek sprofilowane pod mentalność oraz światopogląd zadającego te pytania?