fbpx Wesprzyj nas!

magazyn lewicy katolickiej

Dylemat społeczny czy dylemat jednostki? O czym ci nie powie nowy hit Netflixa

Nowy dokument Netflixa zgrabnie pokazuje, jak wielkim zagrożeniem dla ludzkości są media społecznościowe. Niestety, o sednie problemu twórcy postanowili nie opowiedzieć.
Dylemat społeczny czy dylemat jednostki? O czym ci nie powie nowy hit Netflixa

Nowa produkcja Netflixa opowiada o zagrożeniach płynących z mediów społecznościowych. Na tle innych dokumentów o podobnej tematyce wyróżnia się świetnym doborem gości. W filmie możemy usłyszeć wyznania skruszonych ekspracowników Facebooka, Google’a, Instagrama czy Twittera. Jedne z ważniejszych osób w historii Krzemowej Doliny opowiadają o mechanizmach, które czynią te aplikacje tak silnie uzależniającymi. Mechanizmach bardzo skutecznych, skoro średnio każdego dnia odblokowujemy telefon 110 razy i spędzamy w nim ponad trzy godziny. Wypowiedzi ekspertek i ekspertów poprzecinane są fabularyzowanymi wstawkami z życia amerykańskiej rodziny, w której dorośli próbują walczyć z ciągłym wgapianiem się pociech w ekran smartfona.

Kapitalizm nadzoru

Każdy, kto ma telefon, wie, że spędzamy w sieciach społecznościowych za dużo czasu. Fakt, że cyfrowe korporacje zbierają nasze dane, też nie jest specjalną tajemnicą. To, co w dokumencie porusza, to wpisanie tego problemu w szerszy kontekst kapitalizmu nadzoru. Jak wyjaśnia występująca w filmie profesorka Harvardu Shoshana Zuboff, kapitalizm nadzoru jest nowym systemem ekonomicznym, w którym nasze najbardziej intymne informacje zamieniane są w produkt, umożliwiający manipulowanie naszym zachowaniem.

Tristan Harris, były pracownik Google’a, wprost przyznaje, że niektóre mechanizmy aplikacji żywcem ściągnięte są z rozwiązań stosowanych w kasynach. Większość funkcji – jak oznaczenia na zdjęciach, nieskończone scrollowanie, wyświetlanie nowych treści po każdym odświeżeniu – wprowadzono dlatego, że po setkach testów okazały się najskuteczniejsze w hakowaniu ludzkiej psychiki. Kilkudziesięcioosobowe zespoły najlepszych programistek i psychologów pracują nad każdym detalem tego, co wyświetla się na naszym ekranie, żebyśmy poświęcili choć kilka sekund więcej swojej uwagi niż ostatnio. Oczywiście każdej osobie podsuwane są inne treści i algorytm sprawdza w czasie rzeczywistym, co najlepiej na nas działa.

Dzięki temu platformy społecznościowe posiadają informacje o naszych nawet najbardziej skrytych upodobaniach, nawykach, o tym, gdzie i z kim spędzamy czas, naszym nastroju, preferencjach, zdrowiu, a także poglądach politycznych czy nawet orientacji seksualnej (nie musimy jej na portalu jasno określać, badania pokazują, że na podstawie naszych polubień można ją określić z około osiemdziesięcioprocentową skutecznością). Częstym nieporozumieniem jest myślenie, że to właśnie te informacje są później sprzedawane. Prawda jest jednak dużo gorsza. Sprzedawana jest nasza przyszłość.

Mając dokładne informacje o tym wszystkim, z czego nawet sami możemy nie zdawać sobie sprawy, cyfrowe korporacje są w stanie manipulować naszym zachowaniem, podsuwając specjalnie spersonalizowane pod nas treści. Taka możliwość w przypadku samego FacebookaGoogle’a generuje rocznie ponad dwieście miliardów dolarów zysku. W końcu który reklamodawca nie chce mieć możliwości dotarcia do każdej osoby z przekazem zindywidualizowanym pod kątem jej poglądów czy lęków? Ale stawka jest dużo większa niż to, czy kupimy nowy napój gazowany. Dzięki dokładnie takim danym Cambridge Analytica mogła mikrotargetować przekaz tak żeby przekonać Brytyjczyków do wyjścia z Unii Europejskiej czy Amerykanów do głosowania na Trumpa. Mniej znany jest fakt, że przygotowując się do tych wydarzeń, firma trenowała swoje algorytmy w trakcie wyborów w Kenii i Nigerii. A to i tak tylko wierzchołek góry lodowej, bo wyciek wewnętrznych dokumentów firmy sugeruje, że Cambridge Analytica mogła wpływać na wyborców w 68 różnych krajach.

Źródło problemu

Dokument jest świetnie zrealizowany, ale niestety tylko połowicznie wyjaśnia problem z kapitalizmem nadzoru. Film epatuje scenami, w których „po drugiej stronie ekranu” trójka agentów monitoruje każdy nasz ruch. Śledzą każde kliknięcie, czas spędzony nad każdym filmikiem i ręcznie podsuwają treści, które mają nas dłużej zatrzymać na stronie. Ciężko o bardziej dosadną metaforę tego, że użytkownicy Facebooka, YouTube’a czy Instagrama są nieustająco nadzorowani. Niestety, na tej obserwacji dokument się zatrzymuje. W filmie, który dotyczy kapitalizmu nadzoru, o samym kapitalizmie prawie nie ma mowy.

W ogólnym przekazie dokumentu, a także wypowiedziach większości ekspertów i ekspertek, problem jest przedstawiany jako sytuacja bez precedensu. Coś nowego i niespotykanego. Mutacja systemu, w którym nikt nie chciał źle. A na pewno nikt się nie spodziewał, że w pewnym momencie przedmiotem handlu staną się informacje o najbardziej intymnych aspektach naszego życia. Tymczasem wciąganie coraz to nowych elementów społecznej rzeczywistości w logikę wymiany rynkowej jest naturalną cechą systemu kapitalistycznego. Był czas, gdy ziemia czy praca też nie były częścią rynku, to znaczy nie podlegały transakcjom kupna i sprzedaży, tylko bazowały na niesformalizowanych więzach pokrewieństwa lub sąsiedztwa. Zmieniło się to wraz z podzieleniem ziemi na działki i przyznaniem do nich praw własności, a także z odłączeniem innych aktywności życiowych od pracy, którą obecnie sprzedajemy pracodawcy. Teraz przyszła kolej na utowarowienie kolejnej sfery ludzkiej egzystencji, to jest naszych doświadczeń. Zarabianie na przewidywaniu i manipulowaniu ludzkim zachowaniem jest kolejnym logicznym krokiem na drodze do nieskończonej akumulacji kapitału, a nie przypadkową anomalią.

O czym film nie mówi

„Dylemat społeczny” zasłania prawdziwe relacje kapitału z użytkownikami platform cyfrowych. Po pierwsze, to, w jaki sposób w filmie przedstawiony jest rozwój technologiczny, idealnie wpisuje się w narracje promowane przez firmy, które dokument krytykuje. Słyszymy, że „social media mają swoje własne cele i sposób, żeby je osiągnąć” lub że „ludzie stracili kontrolę nad tymi systemami, bo one kontrolują informacje, które widzimy”. Gdy porównamy te stwierdzenia z wypowiedzią prezesa Google, który w trakcie wywiadu przyznał, że „wyszukiwarki internetowe, w tym Google, przechowują [prywatne] informacje przez pewien czas”, to uwidacznia się pewien specyficzny sposób myślenia o technologii. Zostaje ona ukazana jako niezależna od nas siła, do której musimy się dostosować. Wyszukiwarka przechowuje informacje sama z siebie. Nie jest to wynik konkretnych decyzji konkretnych dyrektorów, tylko nieunikniony element rozwoju technologicznego. Ta retoryczna strategia ukrywa fakt, że każda technologia jest odbiciem interesów jej twórców. A główny cel firm technologicznych to generowanie zysku. Stąd wbrew temu, co słyszymy w filmie, nie wystarczy trochę zmian tu i trochę tam, by cyfrowe korporacje zaczęły się lepiej sprawować. Bo one przecież sprawują się doskonale, generując miliony dla akcjonariuszy.

Po drugie, niefortunnym uproszczeniem jest cytowane w filmie powiedzenie: „Skoro nie płacisz za produkt, to sam jesteś produktem”. Rzecz jasna, usługi Facebooka czy Gmaila są darmowe, bo klientami, którzy za nie płacą, są reklamodawcy. Ale na użytkownika dużo ciekawiej jest spojrzeć jako na pracownika, a nie produkt. W końcu Youtube, Facebook czy Instagram żadnych treści nie tworzą. Robią to użytkownicy, którzy spędzają setki godzin na pisaniu, komentowaniu, tworzeniu i ocenianiu kontentu. To jest źródło wartości tych firm – z jednej strony dane dobrowolnie wprowadzane przez użytkowników, z drugiej strony te przebiegle kradzione (na przykład o tym, jakie miejsca odwiedzamy oraz ile czasu tam spędzamy). Model biznesowy cyfrowych platform opiera się na prywatyzacji wiedzy pracowicie tworzonej przez całą społeczność użytkowników. Z perspektywy firm wszystko, co robimy w mediach społecznościowych, jest po prostu niepłatną pracą. Oczywiście, nikt oglądając zdjęcia znajomych na Instagramie, nie czuje się jakby był w pracy. Mimo wszystko jednak każda minuta spędzona na scrollowaniu Facebooka jest nie tylko konsumpcją i rozrywką, ale także produkcją wartości.

Dylemat jednostki

Tu uwidacznia się mój główny zarzut do „Dylematu społecznego”: film niemal całkowicie omija społeczne podłoże problemów, o których opowiada. Na ekranie widzimy raczej „dylemat jednostki”. Kiedy patrzymy na chłopca, który radykalizuje się przez social media, czy dziewczynkę, która nie może nawet na moment rozstać się z telefonem, umyka nam szerszy kontekst wytwarzający te sytuacje. Co za tym idzie, tracimy z oczu realne rozwiązania tych problemów. Końcowe rekomendacje, w których słyszymy, „co można zrobić”, są najsłabszą częscią filmu. Odinstaluj aplikacje, nie trzymaj telefonu przy łóżku, wyłącz powiadomienia, zmień przeglądarkę, zainstaluj wtyczkę, nie klikaj w rekomendowane filmy, zalajkuj profile osób, z którymi się nie zgadzasz, i tak dalej. „Dylemat społeczny” pozostawia nas w poczuciu, że to nasza osobista walka. Jest to paradoksalne zakończenie, biorąc pod uwagę, że w filmie kilkukrotnie wybrzmiewa to, iż pojedynczy użytkownik nie ma szans w starciu z kilkunastoosobowym zespołem inżynierów, designerek i psychologów, którzy wykorzystują każdą ludzką słabość, żebyśmy nie mogli odłożyć telefonu.

Przez film przewijają się też sensowne propozycje, jak na przykład opodatkowanie zbierania i przetwarzania danych. A Shoshana Zuboff wprost mówi o zakazie niektórych praktyk biznesowych. Niestety, większość proponowanych rozwiązań dotyczy ograniczenia bądź porzucenia mediów społecznościowych, co nie tylko jest niemożliwe, ale nawet nie jest pożądane. Facebook czy Youtube to zarówno filmiki z śmiesznymi kotkami, jak i przede wszystkim globalna infrastruktura komunikacyjna (z Facebooka korzysta już jedna trzecia ludzkości). Rozwiązania muszą być więc również systemowe i globalne. Dokument zgrabnie pokazuje, że monopol korporacji na informacje, które wszyscy wytwarzamy, jest szkodliwy. Ale całkowita rezygnacja z tego cennego zasobu mija się z celem, ponieważ może on być wykorzystany do rozwiązania wielu problemów społecznych.

Uspołecznić dane

Skoro to my wytwarzamy dane, to nie ma powodu, żebyśmy nie zaczęli o nich myśleć jak o dobru publicznym. Czemu nie mamy współdecydować, co się dzieje z wiedzą o nas? Zwłaszcza jeśli jest zdobywana podstępem i wykorzystywana w niecnych celach? Żeby te informacje odzyskać, trzeba uderzyć w mechanizm leżący u podstaw działania cyfrowych platform (dlatego propozycja podatku jest niewystarczająca). Jeden z ciekawszych pomysłów ostatnich lat to stworzenie alternatywnego modelu zarządzania danymi: tak zwanych wspólnic danych, czyli instytucji, które zbierają dane z wielu źródeł i wykorzystują  je do wspierania interesu publicznego. Agregują je z różnych źródeł, zwiększając ich potencjał; przekazują naukowcom, przyczyniając się do postępu technicznego; współdzielą z innymi podmiotami, rozwijając innowacje dzięki współpracy gospodarczej; chronią przed nadużyciami ze strony prywatnych firm; ale nade wszystko działają transparentnie i pozwalają użytkownikowi kontrolować, co się z informacjami dzieje. Każdy może określić, jakie dane są zbierane, i zdecydować, w jakich celach będą wykorzystywane. Jeśli Facebook chciałby używać takich danych, to może je kupić od tych użytkowników, którzy zechcą je sprzedać.

Oczywiście przeniesienie danych z prywatnych serwerów Facebooka czy Google’a do instytucji publicznych nie jest tym firmom na rękę i nie ma co liczyć, że którakolwiek dobrowolnie ze swojej przewagi zrezygnuje. Dlatego potrzebne są regulacje, które zwyczajnie zmuszą korporacje do oddania wspólnie generowanego zasobu, tak żeby pracował z korzyścią dla społeczeństwa zamiast przeciwko niemu. Przykładem pokazującym, że da się zwrócić część władzy nad danymi użytkownikom, może być RODO. Dzięki temu rozporządzeniu organizacje muszą pytać o zgodę na profilowanie naszych danych, muszą zgłaszać wszelkie wycieki, możemy żądać wglądu do naszych danych oraz ich usunięcia, a za niestosowanie się do przepisów grożą firmom wysokie kary finansowe.

Jasne, odłożenie telefonu poza sypialnię być może poprawi jakość twojego snu, ale nic nie zmieni, jeśli chodzi o asymetryczną relację portalu z użytkownikiem. A to ona generuje opisane problemy. Jeśli Tristan Harris przyznaje w dokumencie, że niektóre aspekty mediów społecznościowych wykorzystują te same mechanizmy co gra w jednorękiego bandytę, to nie należy sugerować nieklikania w rekomendowane filmy, tylko zwyczajnie zakazać stosowania uzależniającej architektury, tak jak zakazaliśmy gry w jednorękiego bandytę online. Odpowiedzialność nie może być przerzucana na silną wolę użytkownika, bo jest to walka skazana na porażkę.

Jeśli nie chcemy żyć w świecie, w którym dane o naszych nawykach, znajomych, orientacji seksualnej czy poglądach politycznych używane są do manipulowania wyborami albo wciskania nam słodzonej wody gazowanej, zamiast do rozwijania projektów zdrowotnych, to trzeba wywierać presję na tworzenie korzystnych dla obywateli regulacji prawnych. Albo dosadniej: jeśli nasze dane w prywatnych rękach stanowią dla nas zagrożenie, to należy je z tych rąk wyrwać. Inaczej pozostaną u Marka Zuckerberga, który w prywatnej korespondencji sam przyznał, że to co dobre dla świata, niekoniecznie jest dobre dla Facebooka.

Potrzebujemy Twojego wsparcia
Od ponad 15 lat tworzymy jedyny w Polsce magazyn lewicy katolickiej i budujemy środowisko zaangażowane w walkę z podziałami religijnymi, politycznymi i ideologicznymi. Robimy to tylko dzięki Waszemu wsparciu!
Kościół i lewica się wykluczają?
Nie – w Kontakcie łączymy lewicową wrażliwość z katolicką nauką społeczną.

I używamy plików cookies. Dowiedz się więcej: Polityka prywatności. zamknij ×