To dziwne uczucie kiedy wiesz, co dzisiaj czytają roboty.

To dziwne uczucie kiedy wiesz, co dzisiaj czytają roboty.
to-dziwne-uczucie-kiedy-wiesz-co-dzisiaj-czytaja-roboty-featured

Wszystkie szczęśliwe roboty mają szansę być szczęśliwe po swojemu. Skoro już dzisiaj wspomagają człowieka pracą dostosowaną do naszych indywidualnych emocji, to wcześniej czy później, będą udoskonalać swoją wiedzę na temat wszelkich stanów poruszenia naszego umysłu. Nie widzę powodu, dla którego mielibyśmy ograniczyć aktywność robotów i sztucznej inteligencji wyłącznie do zadań manualnych, o ile tylko odpowiednio długo poeksperymentujemy. Zdobywając kolejne poziomy umiejętności, zarezerwowane do tej pory wyłącznie dla człowieka oraz angażując najnowszą wiedzę z wielu dziedzin, wcześniej czy później sztuczna inteligencja zbliży się zapewne do pełnego “rozumienia” ludzkich emocji. Jeżeli już dzisiaj rozpoczynamy przygodę z systemami, które potrafią generować teksty dopasowane treścią do emocji czytelnika, to z czasem zechcemy je udoskonalić na tyle, aby stany emocjonalne człowieka rozróżniać bardzo dokładnie, a może nawet je przewidywać. To czy ogarnia nas smutek, żal, radość czy szczęście, będzie decydować o treści, którą dla nas robot pisarz przygotuje. A może na wzór Homo sapiens, który aby podczas oszukiwania innych być bardziej wiarygodnym więc sam wykształcił umiejętność samooszukiwania, u robotów również będzie musiała pojawić się umiejętność “odczuwania” emocji? Umiejętność taka pozwoliłaby im jeszcze lepiej dopasować tworzone treści do stanów emocjonalnych odbiorców. Te z nich, które zajmowałyby się analizą i generowaniem tekstów, potrafiłyby same decydować po jaką lekturę sięgają, aby czuć się bardziej doskonałe w swojej dziedzinie i zarazem bardziej szczęśliwe. Każdy z nich miałby szansę być szczęśliwym po swojemu, każdy na podstawie “własnoręcznie” wybranych tekstów.

Wiek niemowlęcy już chyba za nami
Licząca w tym roku 170 lat Associated Press, produkuje obecnie przy pomocy zaawansowanego oprogramowania komputerowego około 1.000 artykułów prasowych miesięcznie, które opisują historyczne wyniki osiągane przez firmy (*1). Nie jest to jednak odosobniony przypadek, ponieważ przetwarzanie języka naturalnego (natural language generation [processing] – NLG [P]) to jedna z dynamiczniej rozwijających się obecnie technologii poznawczych. Już w 2010 roku po NLG zaczęły sięgać The Big Ten Network oraz Fox Networks (*2). Na treści, które pojawiają się na stronach Huffington Post, Gawker czy Forbes, większy wpływ ma analiza aktualnych danych niż opinia konkretnego redaktora (*3). Liczba firm, które sięgają dzisiaj po systemy wspomagające generowanie treści, rośnie bardzo szybko. Narrative Science, jedna z najbardziej rozpoznawalnych firm w dziedzinie zaawansowanych systemów NLG, dostarcza swoje rozwiązania kilkudziesięciu dużym podmiotom. Wśród jej klientów możemy znaleźć nie tylko Forbes’a ale również takie organizacje jak Deloitte, Master Card, Credit Suisse, American Century Investments, Nuveen, IQT czy USAA (*4). Komputery Narrative Science zapewniają codzienne raporty rynkowe i sportowe dla wielu renomowanych serwisów medialnych. Dzisiaj systemy komputerowe coraz lepiej przetwarzają teksty zgodnie z wyobrażeniami człowieka, generując treść, która jest dla człowieka zrozumiała i na dodatek stylistycznie i gramatycznie poprawna.

Historie ukryte w danych
Narrative Science to jedna z firm, które łączą ogromne doświadczenie w tworzeniu oprogramowania do rozpoznawania wzorców z błyskawicznie rozwijającą się dziedziną przetwarzania języka naturalnego. Wynikiem tego połączenia są algorytmy, których wyniki działania przypominają pracę pisarza (*5). Oprogramowanie Narrative Science potrafi dzisiaj generować teksty dla wielu różnych dziedzin, takich jak wiadomości sportowe, sprawozdania finansowe, analizy rynku nieruchomości, treści dotyczące lokalnych społeczności, kampanie reklamowe, raporty operacyjne sprzedaży, czy raporty z badań rynkowych (*6). Choć nie jest to może jeszcze dzisiaj najwyższych lotów publicystyka, to nie zapominajmy, że to niezwykle młoda dziedzina, która mimo swojego wieku wspiera już komercyjnie działania wielu wielkich firm. Narrative Science przyświeca jednak jeszcze jeden cel. Chcą, aby ich systemy zamieniały zalewający nas ogrom suchych danych w formę opowiadań, które my ludzie tak bardzo lubimy. Firma doskonali więc kolejną innowacyjną dziedzinę, jaką jest data storytelling (opowiadanie historii ukrytych w danych). Ich sztandarowym produktem jest system Quill. Potrafi on przekształcać dane w posiadające znaczenie historie, które ludzie mogą czytać z zainteresowaniem. Tworzone teksty mogą być dodatkowo dopasowywane do potrzeb klienta.

Rewolucja nabiera tempa
Narrativ Science to nie jedyna firma, która działa na styku analizy wielkich zbiorów danych, przetwarzania języka naturalnego czy data storytelling. Automated Insights rozwija system Wordsmith, również należący do narzędzi NLG. Automated Insights chwali się na swoich stronach, że posiada setki klientów, a wśród nich między innymi Greatcall, Allstate, Samsung czy Yahoo (*7). Zresztą samo Yahoo w 2013 roku przejęło Summly, które dwa lata wcześniej rozpoczęło przygodę ze sztuczną inteligencją w dziedzinie agregacji tekstów (*8). Innym przykładem jest firma Yseop (czytaj: Easy-Op), która rozwija systemy sztucznej inteligencji, tworzące teksty niczym człowiek (*9). Jeżeli Wikipedia ma rację, Yseop generuje tekstowe raporty i sprawozdania, ale na podstawie danych może również generować historie do czasopism, które tłumaczą kontekst jaki posiadają dane liczbowe. Nie można wreszcie nie wspomnieć o firmie Arria, która na swojej stronie w gronie klientów wymienia MeteoGroup, Genpact, Met Office a nawet IBM Watson (*10). Sięgając po olbrzymią ilość danych z różnych źródeł, Arria potrafi generować około 5.000 raportów pogodowych w ciągu niespełna minuty. Sama siebie nazywa liderem rynkowym, w opowiadaniu w czasie rzeczywistym historii ukrytych w danych. Firm zajmujących się NLG będzie przybywać i to w zastraszającym tempie. Z pomocą przyjdzie im zapewne również samouczenie się maszyn (uczenie maszynowe), (machine learning). Podejście, które znacznie szybciej niż narzędzia budowane w oparciu o dotychczasowe algorytmy skutkowo-przyczynowe, odpowiada potrzebom chwili. Za przykład niech posłuży nam choćby firma Deep Mind, która w 2014 roku została przejęta przez Google, za drobne kieszonkowe rzędu kilkuset milionów dolarów. Obecnie nosi nazwę Google Deep Mind (*11). Ten założony w Londynie w 2010 roku startup, wykorzystuje sztuczną inteligencję w celu samodoskonalenia się systemów. Stworzony przez nich system nauczył się grać w 49 gier wideo, bez zakodowania w nim zasad tych gier, a jedynie bazując na algorytmach sieci neuronowych, które pozwalały ustalać aktualny stan gry w każdym punkcie (*12). Aż w 23 grach z tej listy, system pokonał najlepszych graczy. W chwili kiedy piszę ten artykuł, media masowo informują, że Lee-Sedol, trzykrotny mistrz świata w GO, przegrał w tej trudnej grze właśnie z systemem AlphaGo od Google Depp Mind. W ubiegłym roku Google dodatkowo podgrzało ten tygiel. Licząc zapewne na zdecydowane przyspieszenie rozwoju sztucznej inteligencji, Google udostępniło za darmo dla wszystkich, na zasadach licencji Apache 2.0, bibliotekę sztucznej inteligencji TensorFlow wraz z częścią modeli sieci neuronowych (*13). Biblioteka i modele te stosowane są między innymi do rozpoznawania mowy, obrazów, maszynowych tłumaczeń oraz rozpoznawania pisma odręcznego. Kiedy komponenty te zaczną przynosić korzyści setkom firm na całym świecie, rewolucja nabierze olbrzymiego tempa. Możemy włączyć więc na chwilę naszą wyobraźnie i pomyśleć, co się stanie, kiedy te wszystkie technologie po kilku latach udoskonalania spotkają się w jednym robocie.

Dziennikarzu czujnym bądź
W piętnastej edycji raportu Global TMT Predictions publikowanego przez firmę Deloitte, autorzy sugerują, że do końca 2016 roku, ponad 80 procent podmiotów z listy 100 firm softwareowych o największych dochodach, będzie wykorzystywać w swoich produktach technologie kognitywne. To 25 procentowy wzrost w ciągu roku. Do roku 2020 autorzy spodziewają się, że techniki poznawcze będą wykorzystywane przez 95 procent tych firm (*14). Twórcy raportu oczekują, że w 2016 roku najważniejsze technologie poznawcze w obrębie oprogramowania dla przedsiębiorstw, to właśnie samouczenie się maszyn (machine learning), przetwarzanie języka naturalnego (natural language processing – NLP) oraz rozpoznawanie mowy (speech recognition – SR). Patrząc na to, czego już dokonano, nie mam wątpliwości, że to nieuniknione kierunki, w których zmierzamy. Kris Hammond, jedna z kluczowych postaci w Narrative Science, a zarazem profesor Northwestern University sugeruje, że już w 2030 roku, 90% tekstów dziennikarskich będzie generowanych przez komputery (*5). No cóż. Dlaczego miałoby być inaczej? Przecież każda dziedzina, wcześniej czy później, musi pogodzić się z nowymi narzędziami i technologiami. Musi pogodzić się ze zmianami a niekiedy nawet ze śmiercią.

Wiem dla kogo piszę
Zostawmy jednak w spokoju przepowiednie tego, co czeka nas w 2020 czy 2030 roku. Finału wielu rewolucyjnych zmian, kiedy już o nich usłyszeliśmy, spodziewaliśmy się zazwyczaj znacznie wcześniej niż rzeczywiście następowały. Czy masowe zastąpienie dziennikarzy sztuczną inteligencją nastąpi za 10, 25 czy 50 lat, nie jest aż tak bardzo istotne. Ważne jest to, że zmiany te nadejdą wcześniej czy później. Być może nie wyeliminujemy w 100% żywych dziennikarzy nigdy, a NLP opanuje bardzo konkretną niszę i tylko w niej, będzie w stosunku do ludzi bezkonkurencyjne. Tempo w jakim udoskonalana jest technika generowania treści przez roboty, nie wprawia mnie zatem w nadzwyczajne zdziwienie. To, co wywołuje w mojej głowie lawinę najprzeróżniejszych pytań, to doniesienia, że systemy przetwarzania języka naturalnego już dzisiaj zaczynają generować treści, w sposób indywidualnie dopasowany do konkretnych odbiorców. To moim zdaniem zmienia nie tylko narzędzia, które służą do produkowania treści, ale przede wszystkim sposób w jaki treść wpływa na odbiorców. To już nie tyle błyskawicznie stworzone przez roboty treści, ale zarazem treści, które dokładnie uwzględnią moje czy twoje cechy charakteru, upodobania a wkrótce pewnie i aktualny nastrój. Pani lub pan robot, pracując dla banku i przygotowując dla nas ofertę na lokatę bankową, uwzględni w mailu skierowanym indywidualnie do nas, najlepszą z możliwych opcji jaka wynika z analiz bezkresnego oceanu danych. Równocześnie nie zapomni zaznaczyć, że skoro uwielbiamy zwiedzać południe Europy, to w ramach zachęty wysyła nam butelkę naszej ulubionej apelacji Côtes du Rhône. Ale czy zawszę będzie to tak proste połączenie wiedzy o produkcie z informacjami o nas? Raczej wątpię. Tego typu oferty Yseop potrafi już przygotowywać dzisiaj. Narrative Science również testuje indywidualne podejście w produkowanych treściach sportowych i biznesowych. Rozwija systemy tak, aby potrafiły przekazać określone sprawozdanie sportowe dopasowane do tego, czy czytelnik jest kibicem określonej drużyny czy nie. Podobnie w przypadku raportów firmowych, tworzonych w oparciu o te same dane. Quill potrafi położyć nacisk na inne elementy teksu, w zależności od tego czy “pisze” dla klientów czy dla pracowników danej firmy.

Równoległe światy
Czy mając do czynienia z tak daleko idącą indywidualizacją treści, będziemy mogli jeszcze używać określenia przekaz niezależny? Tak, wiem! Media tradycyjne również mogą wpływać na zawartość przekazu. Wszyscy wiemy jak trudna jest niezależność mediów. Jednak zakładając, że określona treść była w jakimś zakresie poddana inżynierii, to nadal w dokładnie takiej samej formie dociera ona do wszystkich. Czytelnicy zachwyceni daną wiadomością lub nią oburzeni, mogą na jej temat wymieniać poglądy, bazując na dokładnie tej samej treści. Ale jak będziemy reagować na teksty, które dla każdego zaczną być przygotowywana indywidualnie? Czy jeżeli systemy namierzą moją słabość do ciasteczek z marmoladą, to ciastka te będą droższe w specjalnie przygotowywanej dla mnie ofercie? A co kiedy robotom w sieci uda się wygrzebać, że nie specjalnie sympatyzuję z partią x? Czy jeżeli polityk z tej partii zupełnie niechcąco przeskrobie coś na całego, to informacja ta w moich wiadomościach zostanie złagodzona lub zmieniona? Czy zupełnie zniknie? Być może przyszłe media będą tak zaawansowane, skomplikowane i drogie, że znajdą się w rękach kilku magnatów tego świata. A może technologie AI będą tak powszechne i łatwo dostępne, że podobnie jak dzisiaj będziemy mieć do wyboru kilka różnych, konkurujących ze sobą spersonalizowanych źródeł medialnych. Ale co jeżeli dojdzie do totalnej personalizacji wszystkiego co nas otacza i ma nam służyć?  Czy zaczniemy żyć w równoległych światach, mieszkając na tej samej ulicy lub nawet w tym samym budynku? A może to tylko forma przejściowa i nie warto się tym przejmować. Zanim udoskonalimy sztuczną inteligencję do formy, której należałoby się bardzo obawiać, to z odkryć, potrzeb i zabaw naszego gatunku wyłoni się zupełnie inny kierunek, w którym cywilizacja zacznie zmierzać. Porzućmy jednak kolejne pytania o tę bardzo odległą przyszłość, których tak wiele plącze się po mojej głowie. Dzisiaj, kiedy wiem że część informacji, które do nas docierają, dopasowywana jest do potrzeb odbiorców, czuję się uprawniony do postawienia bardziej przyziemnego pytania. Na ile tak przygotowywanym informacjom powinniśmy ufać?

Zaufanie nie jedno ma imię
Podstawą zaufania jest wiarygodność. Wiarygodność względem kogoś lub czegoś wymaga zazwyczaj czasu. Wiarygodne źródło informacji wymaga wielu dowodów, przykładów, które możemy zweryfikować. Ale czy dzisiaj, kiedy informacje generowane są w tak zastraszających ilościach, tak szybko oraz kiedy przygotowywane są celowo pod nasz profil osobowy, mamy jakąkolwiek szansę na sprawdzenie lub choćby przemyślenie ich wiarygodności? Szwedzki znawca mediów, profesor Christel Clerwall z Uniwersytetu Karlstad, opublikował w 2014 roku wyniki badań, w których porównywał cechy wiadomości sportowych tworzonych przez dziennikarzy oraz przez roboty. Uczestnicy musieli ocenić wartość jednego z kilkunastu atrybutów dla każdego tekstu. Choć próba nie należy do olbrzymich, uzyskane wyniki zmuszają do zastanowienia. Okazało się bowiem, że sprawozdania napisane przez żywego dziennikarza są przyjemniejsze w odbiorze, ciekawiej napisane i bardziej spójne niż pisane przez roboty. Sprawozdania, które wyszły spod ręki robota, uznane zostały za bardziej nudne. Jednak równocześnie badani ocenili, że treści wygenerowane przez systemy, są bardziej przydatne, zawierają większą wartość informacyjną, są dokładniejsze, bardziej obiektywne – i co najciekawsze – są bardziej wiarygodne dla odbiorców (*15). Jeżeli więc po kilku latach od rozpoczęcia przygody z NLP, testowani czytelnicy tak oceniają osiągnięcia tej dyscypliny, to trudno mi uwierzyć w to, że jeszcze bardzo długo roboty będą mniej doskonałe od pisarza z krwi i kości. Jeżeli rzeczywiście teksty robotów będą tworzone pod kątem większej wiarygodności w mniemaniu człowieka, to podświadomie zaczniemy je preferować, marginalizując słowo pisane przez ludzi. Czy będzie to oznaczać, że z czasem będziemy informacjom generowanym przez systemy sztucznej inteligencji ufać coraz bardziej? Czy będziemy im z czasem ufać automatycznie? Czy przestaniemy zaprzątać sobie głowę wiarygodnością treści, wiedząc że sprawdzenie tego będzie dla wielu z nas praktycznie niemożliwe? A może pozostając podejrzliwi, będziemy akceptować docierające do nas informacje, będąc zarazem coraz mniej szczęśliwymi w wyniku zrozumienia nierównowagi sił. Czy wyścig ten zacznie z nami wygrywać sztuczna inteligencja i bardziej szczęśliwe okażą się roboty.

Dylemat jutra
Aby jak najszybciej zbliżyć sztuczną inteligencję do naszej własnej, “inteligentne” roboty “czytają” dzisiaj niewyobrażalne ilości tekstów zamieszkujących internet oraz inne miejsca. Analizy prowadzone są w oparciu o coraz doskonalsze algorytmy, przy pomocy coraz wydajniejszych narzędzi. Internet rzeczy generuje niewyobrażalną wprost ilość danych, które stanowią kolejne cenne źródła wiedzy o zwyczajach i potrzebach człowieka dla samouczących się maszyn. Roboty doskonalące się w przetwarzaniu języka naturalnego, przeczesują dzisiaj miliony maili, wiadomości na portalach, wpisów w mediach społecznościowych, treści zeskanowanych książek i dziesiątki innych źródeł. Na szczęście nie rozumieją jeszcze tego co jest w nich napisane, w sposób, w jaki my ludzie odbieramy te treści. Ale czy ludzki sposób percepcji będzie im w ogóle potrzebny? Z przepracowanych tekstów na swój sposób wyciągną to, czego my myśląc inaczej i wolniej nie potrafimy zrobić sami. Będą to robić błyskawicznie, pracując na olbrzymiej próbie danych, których nasz mózg nie potrafi obrabiać w tak krótkim czasie. Będą to robić inaczej niż my, rozwijając się w kierunku uzupełnienia naszych ludzkich niedoskonałości, a nie w kierunku wyeliminowania czy pokonania człowieka. Na swój sposób będą analizować świat i na swój sposób będą go rozumieć. Według trochę innych kryteriów niż nasze ludzkie, będą go również oceniać. Będą uzupełnieniem naszych braków i wsparciem naszych słabości. Będą to robić dla naszego dobra. Czy nie powinniśmy dać sztucznej inteligencji medialnej kredytu zaufania, skoro istnieje szansa że może nam pomóc? Czy raczej zdecydowanie powinniśmy jej nie ufać, ponieważ może nam odebrać możliwość oceny wiarygodności informacji. Pytanie o zaufanie do kreowanej przez roboty rzeczywistości medialnej, rodzi w mojej głowie spory dylemat. Z jednej strony, bardzo się obawiam totalnej indywidualizacji treści. Z drugiej, zdaję sobie sprawę, że jako cywilizacja zabrnęliśmy bardzo daleko. Tak daleko, że bez wspomagania sztuczną inteligencją, nie jesteśmy już chyba w stanie samodzielnie oceniać wiarygodności odbieranych informacji. A może zamiast próby opowiadania się po którejkolwiek ze stron, zdecydowanie lepszym rozwiązaniem będzie jakaś nieznana do tej pory forma współpracy człowieka z tym nowym światem. Krok w kierunku ścisłej integracji inteligencji sztucznej z inteligencją naturalną. Nie chcąc pozostać sam na sam z moim dylematem, wrzucam go również do twojego ogródka przemyśleń. Liczę na kilka innych, podbudowujących moją wiarę w przyszłość, punktów widzenia.

W artykule wykorzystano następujące źródła:
Poleć innym
LinkedIn
Facebook

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *