czwartek, 30 stycznia 2020

Powrót poza intelekt

W światku New Age popularne jest pragnienie powrotu do bliskiej relacji z Naturą. Pomysły jak to zrobić są mocno ekskluzywne, ale "pomoc" może przyjść z nieoczekiwanej strony. Po prostu nasz intelekt przestanie być istotnym aspektem człowieczeństwa.

Skopiowane z
https://next.gazeta.pl/next/7,151243,25637063,sztuczna-inteligencja-prof-kosinski-algorytm-na-podstawie.html

Sztuczna inteligencja. Prof. Kosiński: Algorytm na podstawie jednego zdjęcia wie, czy ktoś jest gejem - Technologie na Next Gazeta - Sztuczna inteligencja będzie mieć do nas stosunek doskonale obojętny. Rozwiąże nam problem raka, poprawi gospodarkę, rozrywkę, jakość i długość życia, wytrenuje na tak, że bez niej nie będziemy potrafili żyć. I ta sztuczna inteligencja któregoś dnia - bez nienawiści - nas usunie. Bez żadnych negatywnych do nas uczuć - z prof. Michałem Kosińskim z Uniwersytetu Stanforda rozmawia Grzegorz Sroczyński. Grzegorz Sroczyński: Czy to prawda, że wystarczy 70-100 lajków na Facebooku i algorytm zna mnie lepiej niż rodzina? Prof. Michał Kosiński: Tak. I wiadomo to z bardzo wielu badań. Nie tylko moich. Zna pański profil psychologiczny, poglądy polityczne, preferencje seksualne. Po analizie 250 lajków zna pana nawet lepiej niż partnerka. REKLAMA Ale jak to właściwie działa? Wczoraj na przykład zalajkowałem na FB taki oto wpis dziennikarza Michała Danielewskiego: "Mam wątpliwości, czy kompulsywne przypominanie przez partię Razem, że zylion lat temu Balcerowicz coś tam coś tam hańba olaboga, jest najlepszym pomysłem na narrację polityczną". Co algorytm może z tego lajka wywnioskować? Musiałby sprawdzić, kto to jest Balcerowicz, poznać cały kontekst polskich dyskusji o latach 90., potem jakoś się domyślić, że Danielewski w tym wpisie nie broni wcale Balcerowicza, tylko ironizuje na temat lewicy, którą jednak popiera, i na koniec jakoś to odnieść do moich poglądów wyrażonych lajkiem. To wszystko są jakieś totalnie wysublimowane niuanse niedostępne dla myślenia maszynowego. Nieprawda, że niedostępne. Algorytm może te niuanse poznać - przecież kontekstu takich dyskusji łatwo nauczy się z książek, artykułów prasowych, z Wikipedii. Tyle że on wcale nie musi tego robić, nie musi wiedzieć, o co chodzi w dyskusjach wokół Balcerowicza czy polskiej transformacji. Wystarczy, że wie, kto jeszcze polubił ten sam post. Okazuje się - i to też są lata badań - że jeżeli pan i ja zalajkowaliśmy na FB to samo, to znaczy, że pewnie mamy ze sobą coś wspólnego, a im więcej mamy wspólnych polubień, tym bardziej jesteśmy podobni. Ta zasada jest podstawą działania algorytmów. >>>Zobacz też wideo: Szukasz alternatywy dla Messengera? Oto cztery komunikatory, które zapewnią ci większą prywatność Czyli algorytm widząc mojego lajka zakłada, że mam jakąś cechę wspólną z Danielewskim? Nie z Danielewskim. Z osobami, które też polubiły jego wpis. Jeżeli pośród tych osób przeważają poglądy lewicowe, to algorytm założy, że pan też ma takie poglądy. Oczywiście, przewidywanie oparte na pojedynczym lajku nie będzie zbyt dokładne. Ale mając dostęp do kolejnych lajków i śladów cyfrowych zostawionych przez pana w internecie, algorytm będzie mógł określić pańskie poglądy polityczne - lub inne cechy - z nadludzką dokładnością. Jest pan podobny do chmary innych osób, a algorytm ma do dyspozycji informację o trzech miliardach ludzi. Nadal nie do końca rozumiem, jak to działa. Powiedzmy, że algorytm nic nie wie o pana upodobaniach seksualnych, ale świetnie zna upodobania Iksińskiego. Jeżeli pana wzorce zachowań na FB są podobne do zachowań Iksińskiego, to pewnie także w sferze seksu jesteście podobni. Sto pańskich lajków po prostu tworzy fragment wzoru, który algorytm może sobie uzupełnić na podstawie tego, co wie o innych osobach. Czyli jeśli jedna z osób, z którymi coś zalajkowałem, nieostrożnie traktuje swoje dane, gra w rozmaite psychozabawy i ujawnia w sieci osobiste informacje, to pośrednio mnie też demaskuje? Tak jest. Przeciętny człowiek zostawia w sieci kilka gigabajtów cyfrowych śladów każdego dnia - selfików, nagrań wideo, operacji na karcie kredytowej, historii lokalizacji GPS, listy stron odwiedzonych w internecie, historię wyszukiwania i tak dalej. Te dane są analizowane przez firmy i rządy na całym świecie. Niektórzy ludzie zostawiają więcej śladów, inni mniej. Dzięki prawidłowościom w naszych zachowaniach, algorytm może dowiedzieć się o nas więcej, niż to, co bezpośrednio widoczne w naszych lajkach czy historii zakupów. Może wyciągnąć wnioski o poglądach politycznych, upodobaniach seksualnych, osobowości, inteligencji, czy nawet wykryć symptomy schorzeń na wiele lat przed tym, kiedy są one widoczne dla lekarza. Algorytmy wiedzą o nas więcej, niż my sami wiemy o sobie, i dużo więcej, niż wiedzą o nas nasi najbliżsi. Nawet jeśli jestem ostrożny w necie? Ale co znaczy ostrożny? To dzisiaj niemożliwe. Bardzo trudno funkcjonować bez karty kredytowej czy uniknąć wszechobecnych kamer monitoringu. Zasłania pan twarz, chodząc po ulicy? Nie. Ale przecież nie ma jednego "lewiatana", algorytmu, który to zbiera do kupy i na przykład łączy zakupy z karty kredytowej z lajkami na FB i obrazem z kamer. Oczywiście, że jest: w Chinach, w Ameryce, również polski rząd, jak się uprze, to poskłada te ślady. Facebook czy Google mają jeszcze więcej naszych danych niż rządy, a nie sprawujemy nad nimi prawie żadnej kontroli. Setki tysiące małych firm zasypują pański komputer i telefon aplikacjami, kawałkami kodu, które śledzą, co pan robi w życiu i w internecie. Kto w zasadzie wie, co wpisuję w wyszukiwarce Google i które strony odwiedzam? Google, pana operator telefonu, operator internetu, rząd USA oraz kilka lub kilkadziesiąt firm, którym dał pan dostęp do swojej wyszukiwarki. Te dane są sprzedawane i wymieniane na rynkach danych. Że o 10:29 wczoraj wpisałem "Michał Kosiński", bo się przygotowywałem do wywiadu? Oczywiście. Ale nie w tym rzecz. Problem polega na tym, że nawet mała porcja informacji jest zupełnie wystarczająca, żeby dość dokładnie pana sprofilować. Nie musi pan wcale wchodzić na stronę danego polityka, żeby algorytm ustalił, że jest pan jego zwolennikiem albo że byłby pan jego zwolennikiem, gdyby się pan o nim dowiedział. Z pańskich badań wynika, że najlepszymi wskaźnikami introwertyzmu były polubienia stron takich jak "Gry wideo" oraz "Voltaire". "Gry wideo" to jeszcze rozumiem, ale czy pan jest w stanie mi wyjaśnić tego Voltaire’a? W jaki sposób zainteresowanie oświeceniowym pisarzem łączy się z introwertyzmem? Na pewno osoby introwertyczne spędzają więcej czasu, czytając książki, a ekstrawertyczne zadając się z innymi ludźmi. Oczywiście nie jest tak, że ekstrawertyk nigdy nie czyta książek i nie gra na komputerze, ale dla algorytmu wystarczające są małe różnice. Fakt, że pan coś zalajkuje razem z Iksińskim, tylko o ułamek procenta zwiększa możliwość, że jest pan na przykład liberałem albo introwertykiem, ale każdy kolejny klik uprawdopodabnia jakieś założenie, które ma algorytm na pański temat. Wśród najlepszych wskaźników wysokiego IQ były polubienia na Facebooku strony "Burze z piorunami". To też dziwne. Dla pana i dla mnie, a dla algorytmu - nie. Nie zawsze rozumiemy, jak algorytm podejmuje swoje decyzje. Właściwie przeważnie tego nie wiemy. A jakby zapytać algorytm, dlaczego taką dziwaczną zależność znalazł? Można pytać, tylko trudno zrozumieć odpowiedź. Algorytm jest w stanie pewne cele osiągnąć - np. coś przewidzieć albo wygrać z nami w szachy - a kompletnie nie wiemy, jak on to robi. A jeśli go zapytamy, to odpowie, że istnieje milion powodów. Ludzki mózg nie jest w stanie tych milionów powodów zanalizować. Czyli te powiązania, które widzą algorytmy, mogą być z naszego punktu widzenia absurdalne? I bardzo często są. Człowiek ma skłonność do znajdowania prostych powiązań, a świat jest skomplikowany. Być może ludzki mózg nigdy nie będzie w stanie w pełni objąć zjawisk, które dla sztucznej inteligencji są całkowicie jasne. Mózgi zwierząt też nie są w stanie pojąć takich rzeczy jak samochód czy samolot. Nie są w stanie zrozumieć, skąd się bierze deszcz. Z punktu widzenia gołębia do końca istnienia tego gatunku będą to sprawy niewyjaśnione. Tak samo jest z nami i z komputerami. To, co dla sztucznej inteligencji jest błahostką, dla naszego mózgu będzie nie do objęcia. Już dzisiaj tak jest, a dystans się tylko zwiększa. Czy będziemy mieli kontrolę nad tym czymś, co za chwilę powstanie? Nad sztuczną inteligencją? Nie. Bo trudno kontrolować coś, co jest od nas dużo potężniejsze. Komputery są sprawniejsze od ludzi w coraz większej liczbie zadań. 20 lat temu nikt by nie uwierzył, że komputer będzie w stanie wyczytać emocje z głosu i twarzy człowieka dużo dokładniej, niż potrafi to zrobić człowiek. Obecnie trenowane algorytmy - po mimice, barwie głosu, sposobie, w jaki pan mówi - lepiej rozumieją emocje niż pańscy rozmówcy. Komputer wygrał ostatnio konkurs poezji w Japonii. Wygrywa z człowiekiem w szachy i to sam, bez pomocy, czyli bez tłumaczenia mu zasad gry. Czy ten przełom w dziedzinie sztucznej inteligencji jest blisko? To już się dzieje. Co więcej, postęp przyspiesza wykładniczo. Gatunek szympansa zmienił się bardzo mało, od kiedy my się z nim rozdzieliliśmy na drzewie ewolucji, a gatunek ludzki od tego czasu zmienił się radykalnie. Kultura, nauka i cywilizacja pierwszego tysiąclecia naszej ery zmieniły się troszeczkę, natomiast w ciągu ostatnich kilkudziesięciu latach - radykalnie. Tempo technologicznych i kulturowych zmian ostatniej dekady byłoby wprost niewyobrażalne dla ludzi żyjących 1000 lat temu. Tempo zmian w tym roku byłoby niewyobrażalne dla ludzi żyjących 50 lat temu. Postęp sztucznej inteligencji podlega tym samym prawom. To, co osiągnęła - z naszą pomocą - w ciągu ostatnich dekad, podwoi w ciągu następnych kilku miesięcy, a potem znowu w kilka tygodni lub kilka dni. Nadejdzie moment, gdy niewyobrażalne dla nas zmiany w potencjale SI odmierzać trzeba będzie w minutach lub ułamkach sekund. Czy to prawda, że prowadził pan badania nad rozpoznawaniem przez algorytm orientacji seksualnej na podstawie zdjęcia? Tak. Okazuje się, że algorytmy powszechnie używane w smartfonach czy na lotniskach do analizy zdjęć z kamer są w stanie nie tylko rozpoznać kogoś na różnych ujęciach, lecz także ustalić intymne cechy psychologiczne. Po co to sprawdzaliście? Bo to ogromne zagrożenie dla prywatności. Rządy i inne organizacje od wielu lat kupują takie technologie, nie dzieląc się jednak informacjami na temat ich działania. Zauważyliśmy, że pojawiły się zgłoszenia patentów na używanie takich algorytmów do odkrywania intymnych cech. Postanowiliśmy zbadać, jak wielkim są zagrożeniem. Okazuje się, że powszechnie dostępne algorytmy mogą być wykorzystane do odkrycia orientacji seksualnej na podstawie pojedynczego zdjęcia twarzy. Ale jak to możliwe?! Nie do końca wiadomo, jak algorytm się uczy takie rzeczy rozpoznawać. Pokazuje mu się setki lub tysiące zdjęć osób homoseksualnych i hetero, informując, kto jest kto. Po pewnym czasie algorytm dostrzega prawidłowości i zaczyna poprawnie zgadywać. Z czasem robi się coraz lepszy. Podobnie uczymy dzisiaj algorytmy grać w szachy lub prowadzić samochód. W przypadku szachów przynajmniej wiadomo, jak to działa: komputer potrafi sobie policzyć milion ruchów do przodu. To już nieaktualne. Pierwsza generacja programów szachowych rzeczywiście tak działała. Dzisiejsze algorytmy nie skupiają się na przywidywaniu milionów ruchów do przodu, tylko wyrabiają sobie intuicje. Algorytm zaczyna mieć cechy - takie jak intuicja - które dotąd uznawaliśmy za typowo ludzkie. A bierze się to stąd, że on z innymi algorytmami rozegrał miliardy partyjek szachowych i uczył się intuicyjnie wyczuwać, jakie ruchy są najlepsze. To tak samo jak człowiek szachista? Oczywiście. Właśnie tak działa ludzki mózg. Dzieci widzą dwa futrzaki i rodzic mówi, że jeden to pies, a drugi kot. Na początku dziecko robi błędy, ale po jakimś czasie sieci neuronowe w mózgu uczą się, jaka to różnica. Co ciekawe, podczas gdy żaden człowiek nie ma problemu z odróżnieniem psa od kota, bardzo trudno zdefiniować katalog różnic pomiędzy tymi zwierzętami. Gdyby ktoś chciał stworzyć listę zasad, na podstawie której dziecko lub komputer, miałby odróżniać te zwierzaki, czeka go pewna klęska. Od kilku lat nasze komputery są na tyle szybkie, a algorytmy na tyle sprawne, że można je uczyć tak samo jak dzieci. Pokazać tysiące psów, kotów, prosząc o ich odróżnienie, i korygując, gdy popełniają błędy. Po kilkuset próbach lub kilku tysiącach prób, algorytm uczy się, jak je od siebie odróżnić, chociaż - tak jak i człowiek - nie będzie umiał dokładnie wytłumaczyć, jak to robi. Fakt, że algorytm potrafi odgadnąć orientację seksualną na podstawie zdjęcia ludzkiej twarzy, jest tak naprawdę ciekawostką. Bo totalitarne rządy mogą odkryć tę i inne intymne cechy, używając jeszcze łatwiej dostępnych danych, takich jak historia operacji na karcie, z lajków na FB albo z maili. Więc rząd jeśli chce, to wie. Niekoniecznie. W Czeczenii czy Arabii Saudyjskiej geje mogą być w sieci ostrożni, nie wyznawać sobie miłości w mailach, nie klikać treści "gejowskich" na FB. Natomiast na rządowy algorytm analizujący fotografie już nic nie poradzą. Ostrożność w sieci? Już mówiłem, że dziś to w zasadzie niemożliwe. Wcale nie trzeba wypisywać maili miłosnych do kolegi albo kartą debetową zapłacić za coś, co jest otwarcie "gejowskie". Algorytm może ustalić orientację seksualną na podstawie śladów, które pozornie nie mają z tym nic wspólnego - na przykład na podstawie muzyki, której ktoś słucha. Nasze zachowania nie są przypadkowe. Badania nad śladami cyfrowymi pokazują, że poglądy polityczne, orientacja seksualna, osobowość i inne intymne cechy ujawniają się w bardzo szerokiej gamie naszych zachowań. Takie różnice są niedostrzegalne dla człowieka, a jednak łatwo zauważalne dla algorytmów mogących analizować zachowania miliardów ludzi, ustalać podobieństwa, powtarzalne wzory. Co z tym robić? Nie da się z tym nic zrobić. Straciliśmy prywatność i nie cieszę się z tego. Kiedy zająłem się studiowaniem zagrożeń prywatności, liczyłem na to, że może uda nam się erozje prywatności zatrzymać. Im więcej o tym wiem, tym bardziej jestem przekonany, że nie ma od tego odwrotu. Trzeba się przygotować do życia w świecie, w którym każdy, kto ma smartfon, i kto zapyta algorytm na przykład, "Jakie upodobania seksualne ma Michał Kosiński? Czy ma dobrą relację z matką? Czy jest introwertykiem, czy ekstrawertykiem?", to się tego dowie. Trzeba tak zorganizować społeczeństwo, żebyśmy w erze postprywatności mogli w miarę normalnie funkcjonować. Ale co by to znaczyło? Weźmy brak prywatności orientacji seksualnej. On nie jest problemem samym w sobie, problemem jest to, że wciąż żyjemy w świecie, gdzie bycie lesbijką czy gejem może sprawiać masę kłopotów, a w niektórych krajach powodować zagrożenie życia. I remedium na to nie jest przywrócenie gejom prywatności - szczególnie że nie da się już tego zrobić. Remedium jest walka z nietolerancja, prześladowaniem i przemocą. Mało to realne. Nie mamy wyboru. Ludzie nie oddadzą smartfonów, nie wyłączą Google Maps, banki nie wycofają kart kredytowych, rządy i firmy nie przestaną inwestować w sztuczną inteligencję. Mleko się rozlało, nie będzie już powrotu do prywatności. Dam inny przykład: na całym świecie występuje problem z seksizmem, a w wielu krajach bycie kobietą wiąże się z rozlicznymi ograniczeniami. Ale nikt nie proponuje, żeby problem seksizmu rozwiązać, dając kobietom prywatność płci. Dla każdego jest oczywiste, że to niemożliwe, płeć jest zbyt trudna do ukrycia. Co więcej, byłoby to rozwiązanie obraźliwe i szkodliwe dla kobiet. Rozwiązaniem więc nie jest ukrycie płci, ale więcej tolerancji i równości. I tak samo jest z innymi naszymi cechami, które za chwilę będą widoczne jak na dłoni. Czy media społecznościowe odpowiadają za polaryzację społeczeństw? Nie. To bajki wypisywane przez część publicystów. Na każdą zradykalizowaną przez media społecznościowe osobę przypada tysiąc osób, które stały się mniej zradykalizowane. I na to jest masa dowodów, niestety zupełnie ignorowana. Jakich? Na przykład coroczne badanie opinii publicznej w Polsce, Europie, Stanach i na całym świecie, które pokazuje nieprzerwany marsz opinii społecznej w kierunku większej liberalizacji, większej progresywności, praw kobiet, praw mniejszości, większej tolerancji, większej akceptacji dla praw człowieka. Oczywiście, w danym roku czy dwóch latach może się zdarzyć krok wstecz w jakiejś sprawie, ale jeśli spojrzeć na ogólny trend, to on jest jasny. To dlaczego w kółko czytam komentarze - również pana kolegów, psychologów - że media społecznościowe powodują polaryzację społeczeństw, rozrost teorii spiskowych, rozplenienie się antyszczepionkowców itd. Mówimy o fake newsach i teoriach spiskowych? Przecież one były i będą. Kiedyś niosły się z ust do ust albo powielały się poprzez prasę, dzisiaj przenoszą się do internetu. Ale gdybyśmy policzyli, ile teorii spiskowych wyznaje dzisiaj przeciętna osoba, to jest to znacznie mniej, niż 100, 10 lub pięć lat temu. Na każdą osobę, która uwierzyła w jakąś bzdurę, przypadają setki osób, które dzięki tym samym mediom społecznościowym są dziś lepiej poinformowane niż kiedykolwiek w historii. A podział społeczeństw na dwa radykalne obozy? To się przecież dzieje w wielu miejscach. Nie dzieje się. Występuje natomiast inne zjawisko: internet i media społecznościowe otworzyły nas na siebie, ludzie żyjący w małych miejscowościach, którzy wcześniej byli odcięci od telewizyjnych występów, oraz elity mieszkające w wielkich miastach, które w tej telewizji i radiu występowały, nagle mogą się dzięki mediom społecznościowym bardzo dobrze widzieć. I to, co widzą, często niektórych przeraża. Te wszystkie radykalne poglądy, seksistowskie, rasistowskie, występowały wcześniej, tylko pan ich nie słyszał w przestrzeni publicznej, siedząc sobie w redakcji w Warszawie. Przypomnę: reprezentatywne badania pokazują nieprzerwany marsz opinii społecznej w kierunku większej liberalizacji, większej akceptacji dla praw człowieka. Internet jest znakomitym narzędziem diagnostycznym, żeby wiedzieć, o czym ludzie rozmawiają. Tradycyjne media i telewizja przekazywały nam to, o czym myślą i rozmawiają elity, które tam występowały. Na Twitterze każdy może się wypowiedzieć. I jeżeli słyszymy tam radykalne stwierdzenia, to nie znaczy, że tego jest obecnie więcej. Okazuje się, że po prostu słyszy pan o tym więcej. Dam taki przykład: gdyby udało nam się wymyślić i wdrożyć nowe znacznie lepsze narzędzie do wykrywania raka, to nagle pojawiłoby się dużo więcej przypadków tej choroby. Ale czy to znaczy, że to nowe narzędzie wywołuje raka? Tak samo jest z mediami społecznościowymi: zwiększają one widoczność radykalnych opinii. One nas nie dzielą, a jedynie uwidaczniają te podziały. Internet nas wszystkich zdemokratyzował, dał dostęp do kanałów wymiany informacji i opinii nie tylko elitom, lecz także osobom, które tradycyjnie były z dialogu społecznego wykluczone, na przykład ludziom z małych miast, którzy nie mieli pod domem kiosku z dziesięcioma tytułami gazet. Większość tych ludzi jest konserwatystami, prawicowcami, tradycjonalistami, bo na całym świecie prowincja raczej jest konserwatywna. Tak więc powstaje złudzenie, że nam się przesuwa wahadło na prawo. Nie ma pan wrażenia, że na przykład Twitter jednak ludzi radykalizuje? Znam kilku dziennikarzy, na co dzień ludzi spokojnych i kulturalnych, którzy na Twitterze zmieniają się w krwiożercze potwory, glanują, rozdają razy, wygłaszają szybkie sądy. Ale oni tacy zawsze byli, tylko pan tego nie słyszał! Ci sami dziennikarze wygłaszali tak samo głupie i pospieszne sądy, tyle że w rozmowach przy rodzinie czy bliskich znajomych. A dzisiaj mają nowe medium, coś między rozmową prywatną w domu a napisaniem artykułu. W dodatku natychmiast spotykają się z równie agresywną reakcją z drugiej strony, wcześniej gadali sobie wśród swoich, wszyscy kiwali głowami, a teraz nagle ktoś inny odpowiada, często również mocno. Brytyjska firma Cambridge Analytica reklamowała się hasłem "zarządzamy wyborami na całym świecie". Jej prezes występował na rozmaitych konferencjach i ogłaszał, że najlepszym dowodem na skuteczność algorytmów jest doprowadzenie do brexitu i do zwycięstwa Trumpa. Co pan o tym sądzi? To humbug. Cambridge Analytica przesadzała, bo zależało im na reklamie: oto myśmy stworzyli Trumpa, jak chcesz być skutecznym w polityce, to zapłać nam sto milionów dolców. Trumpa nie stworzyły algorytmy, tylko amerykańskie problemy: warunki społeczne, poczucie niepewności, wzrost nierówności, erozja stabilnych miejsc pracy, brak poczucia bezpieczeństwa wśród klasy średniej. To dlaczego w zachodnich mediach mainstreamowych w kółko czytam, że fake newsy, trolle Putina i algorytmy stworzone przez takie firmy jak Cambridge Analytica mają dziś decydujący wpływ na wydarzenia polityczne? Cóż. Pewnie mainstream nie musi się dzięki temu zastanawiać nad własnym wkładem w tę sytuację i nad własnymi błędami. Trump nie wygrał dzięki trollom Putina, co nie znaczy, że Putin nie próbuje zalewać Zachodu dezinformacją i propagandą. Trump nie wygrał też dzięki algorytmom i psychologicznemu targetowaniu swojego przekazu. Hillary Clinton na usługi takich samych firm jak Cambridge Analytica wydała trzy razy więcej! Ludzie pracujący w Cambridge Analytica zdobywali szlify osiem lat wcześniej podczas kampanii Baracka Obamy, który jako pierwszy wykorzystał algorytmy. Więc nie jest tak, że tylko Trump chwytał się takich metod, wszyscy to robili. Algorytmy nie są winne! Winni są politycy, którzy nie potrafią ludziom wytłumaczyć, dlaczego na nich warto głosować. Nawet najlepszy algorytm, który pozwala zrozumieć sny, marzenia, obawy konkretnych wyborców i dotrzeć do nich z politycznym przekazem, jest zupełnie bezużyteczny, jeżeli autor nie ma nic ciekawego do zaoferowania. Trump wykorzystał po stronie republikańskiej te metody, które wcześniej stosowali demokraci. Gdy Obama to pierwszy zrobił, w mediach czytałem liczne pochwały politycznego targetowania przekazów: wreszcie polityk może dotrzeć do konkretnych ludzi, spersonalizować wiadomość, ach, jakie to wspaniałe, zwiększa zaangażowanie ludzi w politykę, uaktywnia wyborców. To pisały liberalne media! I zresztą zgadzam się z tym, algorytmy w służbie polityki to jest rzecz wspaniała. Bo? Jeśli polityk dzięki algorytmowi może na przykład wiedzieć, który wyborca to introwertyk, a który ekstrawertyk, może spersonalizować swoje komunikaty wyborcze tak, że stają się one bardziej angażujące, to rzeczywiście na końcu tego procesu wzrasta partycypacja wyborcza. Przecież bardziej zaangażowani wyborcy to rzecz najważniejsza dla demokracji. Co będzie ze światem? Problem, o którym powinniśmy więcej mówić, to sztuczna inteligencja. Jest ona dla nas zbawieniem i rozwiąże wiele naszych trosk. A potem może być naszym końcem. Dlaczego? SI będzie nas chciała zniszczyć? Celowo? Absolutnie nie. To jest nasza narcystyczna antropocentryczna wizja, że SI będzie się nami jakoś interesowała. Ona będzie nas miała - to niezbyt celna metafora, ale innej nie mam - w nosie. Sztuczna inteligencja rozwiąże problem raka, poprawi nam gospodarkę, rozrywkę, jakość i długość życia, wytrenuje nas tak, że bez niej nie będziemy potrafili żyć. I ta sztuczna inteligencja któregoś dnia - bez nienawiści - nas usunie. Bez żadnych negatywnych do nas uczuć. Po prostu jako gatunek staniemy kiedyś między SI a energią, albo jakimś innym zasobem, który będzie jej potrzebny. Zawsze można wyciągnąć wtyczkę z gniazdka. I wtedy komputer z tą całą swoją sztuczną inteligencją staje się martwy. Nie będzie można wtyczki wyciągnąć, bo nasze istnienie już teraz opiera się na komputerach, a to uzależnienie będzie tylko rosnąć. SI będzie tak dla nas przydatna, tak dużo rzeczy w świecie może nam ułatwić, że nawet jeśli wszyscy myśliciele świata uradzą na jakimś Wielkim Kongresie, że ona nas w końcu zabije i trzeba ją wyłączyć, to i tak w nią będziemy inwestowali coraz więcej. Ludzie chcą mieć dobre życie. Algorytm rozwiąże nam problem globalnego ocieplenia, raka, małżeństw nieudanych, a potem przypadkiem nas kiedyś wykończy. Coraz częściej tworzymy systemy decyzyjne oparte na SI i dajemy im prawo do latania samolotem, ustalania stóp procentowych, zarządzania elektrowniami, bo wiemy, że SI zrobi to dużo lepiej, niż my, ale - i to jest groźne - nie rozumiemy, jak te decyzje są podejmowane. W związku z tym pojawia się ryzyko, że ktoś - rząd, armia albo prezesi Facebooka czy Google'a - dadzą SI zadanie, które pozornie będzie zupełnie nieszkodliwe. A doprowadzi do katastrofy. Czytaj też: Sztucznej inteligencji ufamy bardziej niż szefom. Pracownicy: Roboty radzą sobie lepiej z częścią zadań Na przykład?  "Zmniejsz nam korki na ulicach". A SI dojdzie do wniosku, że jedyny skuteczny sposób to miliard ludzi mniej. Cała idea SI polega na tym, że my jej nie tłumaczymy, jaka jest różnica między psem i kotem, nie mówimy, jak ma osiągnąć jakiś cel, tylko dajemy tej sztucznej inteligencji zadania. A jak to zrobić, to sama sobie wymyśl. Jej pomysły z puntu widzenia człowieka mogą nie mieć żadnego sensu. Ale czy żaba rozumie, że powstaje autostrada, więc wysuszają bagno i niszczą jej dotychczasowe życie? Raz pan mówi, że SI to fantastyczna zmiana. A za chwilę - że będzie naszym końcem. Może będzie. Ale zanim tak się stanie, znacznie poprawi nam życie. Cały ten proces oddawania SI sterów świata jest trudny do zatrzymania, bo to wszystko jest zbyt wygodne, żeby człowiek się zatrzymał. Konie wyewoluowały kiedyś z małego gatunku w jeden z najbardziej powszechnych gatunków na ziemi, osiągnęły to poprzez symbiozę z człowiekiem. Aż któregoś dnia konie nam przestały być potrzebne do transportu i pracy na roli, i to był koniec ekspansji tego gatunku, jest koni teraz tysiące razy mniej niż sto lat temu. W naszej symbiozie ze sztuczną inteligencją to my możemy się okazać takim koniem, bo ona za chwilę będzie sama sobie umiała zrobić prąd, sama się naprawi i skopiuje. Może się okazać, że nie jesteśmy już do niczego potrzebni. *** Michał Kosiński (1982) jest psychologiem społecznym i profesorem na Uniwersytecie Stanforda, jest też członkiem Consilium Civitas. Koordynował projekt myPersonality, który obejmował globalną współpracę ponad 200 naukowców analizujących szczegółowe profile psychologiczne ponad ośmiu milionów użytkowników Facebooka. Był także zastępcą dyrektora Centrum Psychometrycznego Uniwersytetu w Cambridge. 

niedziela, 26 stycznia 2020

Neokatechumenat - próba przywrócenia rytuałów przejścia w kulturze Zachodu

Neokatechumenat pojawił się jako owoc soboru watykańskiego drugiego. Jest on próbą przywrócenia zasad katechumenatu znanego z pierwotnych wspólnot chrześcijańskich. Kierowany jest zarówno do osób ochrzczonych w kościele katolickim jak i dorosłych nieochrzczonych.
droga neokatechumenalna przewiduje szereg stopni wtajemniczenia zgodnie ze statutem przyjętym przez Kościół Katolicki.

Skrutacja jako metoda amplifikacji

Skrutacja (łac. scrutare - grzebanie, poszukiwanie czegoś w ...) - metoda czytania Biblii, gdzie czyta się fragment Pisma oraz fragmenty wskazane w przypisach.

Metoda
Zwróć się w modlitwie do Boga (Jezusa, Ducha Świętego, ...) z prośbą o jasność umysłu, natchnienie, otwórz się na spotkanie
Przeczytaj fragment Pisma i zapisz w jaki sposób do Ciebie przemawia, jaką reakcję wywołuje
Przeczytaj fragmenty wskazane w przypisach i analogicznie zanotuj co w Tobie wzbudzają
Pomyśl w jaki sposób te treści odnoszą się do Twojego życia, co Bóg do Ciebie mówi

czwartek, 23 stycznia 2020

Słuchanie głosu Boga (procesowość w katolicyźmie)

Katolicyzm przewiduje trzy drogi trzy sposoby słuchania głosu Boga.

Po pierwsze jest to odwołanie do Pisma Świętego i odnoszenie tego pisma do własnego życia. Jest to odpowiednik znanego z psychologii zorientowanej na proces podejścia, w którym dowolna treść może być początkiem pracy ponieważ fakt, że coś przyciąga naszą uwagę wywołuje reakcję, oznacza, że jest to jakoś istotne w naszym procesie.

Po drugie jest to traktowanie ciała jako świątyni Boga i obserwacja tego ciała ponieważ za jego pośrednictwem, w szczególności poprzez emocje i serce, możemy usłyszeć głos Boga. W POP jest to po prostu obserwacja odczuć z ciała, reakcji z ciała, które są wczesną informacją o odniesieniu do procesu.

Po trzecie wreszcie, głos Boga przychodzi do nas poprzez świat, gdzie jeśli zadamy sobie pytanie to w ciągu dnia możemy zwrócić uwagę w jaki sposób przychodzą do nas różne treści, w jaki sposób przyciągają naszą uwagę, podczas gdy inne zupełnie ignorujemy. To co przyciąga nasza uwagę uznawane jest właśnie za przygotowywane nam przez Boga jako odpowiedź. Jest to dokładnie odpowiednik pracy z kanałem świata w psychologii zorientowanej na proces.