fbpx Wesprzyj nas!

magazyn lewicy katolickiej

System matematycznej przemocy

System do podejmowania decyzji o pomocy społecznej staje się państwowo-policyjnym mechanizmem wydobywania wiedzy o ludziach żyjących „na marginesie”. Wiedzy bezczelnie wykorzystywanej w celu ich nadzorowania, dyscyplinowania i kryminalizowania. To panoptykon na miarę XXI wieku.
System matematycznej przemocy
Ilustr.: Magdalena Sołodyna

Sama przeciw systemowi

Sześć miesięcy po urodzeniu pierwszego dziecka mieszkająca w Indianie Lindsay Kidwell utraciła dostęp do programu gwarantującego ubogim matkom niezbędną opiekę medyczną. Problemy rozpoczęły się, gdy otrzymała wysoki na 246 dolarów rachunek z informacją o tym, że Medicaid, czyli program pomocy socjalnej finansujący opiekę zdrowotną, nie opłacił kosztu jej kontroli poporodowej. Gdy dwa dni później jak zwykle robiła zakupy spożywcze, jej karta z kuponem żywnościowym została odrzucona przy kasie. Jedyną poszlaką co do źródła tych problemów był list, który znalazła w skrzynce pocztowej. „Twoje świadczenia zostaną wstrzymane z następującego powodu: BRAK WSPÓŁPRACY W ZAKRESIE WERYFIKACJI DOCHODU NA PODSTAWIE REGULACJI 470IAC2 1-1-2” – głosiła automatycznie wygenerowana wiadomość.

Pozostawiona bez środków na leczenie oraz jedzenie, Lindsay poszła do urzędu pomocy społecznej. Jego pracownik tłumaczył, że świadczenia zostały cofnięte, ponieważ w dokumentacji brakowało tak zwanego paska płacowego jej męża, czyli dokumentu zawierającego listę wypłat Jacka. Wiadomość ta zaskoczyła młodą matkę, bo dosłownie kilka dni wcześniej dzwoniła na infolinię, żeby upewnić się, jakie dokumenty należy złożyć, aby dostać niezbędne wsparcie. Zgodnie z zaleceniami zamiast paska, którego Jack nie otrzymywał, Lindsay załączyła skan wypłat męża i o sprawie zapomniała.

Przed kolejną wyprawą do urzędu Kid-well uzbroiła się w komplet wszystkich papierów, których wymagała stanowa biurokracja. Na jej oczach pracownik biura zeskanował dokumenty, wgrał do systemu i – na jej specjalną prośbę – przekazał pisemne potwierdzenie, że trafiły gdzie trzeba. Lindsay złożyła również apelację od decyzji o rzekomym braku współpracy. W końcu spełniała wszystkie kryteria, żeby otrzymać pomoc, i ze swoich obowiązków wywiązała się w stu procentach. Niesprawiedliwa i bolesna w skutkach decyzja urzędu była błędem, który, jak się wydawało, łatwo będzie odwrócić.

Kilka tygodni później z rutyny codziennych obowiązków Lindsay wyrwał niepokojący telefon. Dzwonił pracownik sądu, który życzliwie nalegał, żeby wycofała się ze swojej sprawy. Dlaczego? W systemie ponoć brakowało listy wypłat Jacka. Na nic zdało się tłumaczenie matki, że w ręku trzyma potwierdzenie z biura z czerwoną pieczątką: OTRZYMANO. „Ja w systemie nie widzę dokumentacji pani męża. Sędzia po prostu spojrzy w komputer i przegra pani sprawę” – argumentował pracownik.

Decyzja, żeby mimo nalegań nie rezygnować z apelacji, kosztowała Lindsay wiele nieprzespanych nocy. Przegrana w sądzie pociągnęłaby za sobą koszty, na pokrycie których nie było stać młodej rodziny. Szczęśliwie poczucie niesprawiedliwości, jakiej doświadczyła, ostatecznie pchnęło Lindsay na salę sądową, gdzie sprawę udało się wygrać, a tym samym, odzyskać przysługującą pomoc. Mimo zwycięstwa, zderzenie z bezosobowym systemem, którego drobne potknięcie prawie doprowadziło rodzinę do spirali długów, było na tyle traumatyczne, że Lindsay już nigdy nie zaaplikowała o przysługujące jej wsparcie.

Zoptymalizować pomoc

Virginia Eubanks w książce „Automating Inequality” (pol. „Automatyzując Nierówności”) obok przypadku Lindsay opisuje wiele podobnych historii. Wszystkie łączy to, że źródłem ludzkich tragedii są wdrażane na szeroką skalę systemy służące do automatycznego podejmowania decyzji. Jednak mało która historia, tak jak opowieść Lindsay, kończy się happy endem. Widać to w statystykach. W 1973 roku niemal połowa osób żyjących poniżej progu ubóstwa w USA otrzymywała jakąś formę finansowego wsparcia. Dekadę później, po wprowadzeniu pierwszych systemów do zarządzania pomocą społeczną, odsetek ten spadł do 30 procent. Dziś jest to mniej niż 10 procent. Jeszcze większy spadek dotknął najmłodszych. W 1973 roku 80 procent ubogich dzieci otrzymywało pomoc od rządu USA, dziś takie świadczenie uzyskuje zaledwie jedna piąta potrzebujących nieletnich. Na przestrzeni tylko jednej dekady (od 1996 do 2006 roku) blisko osiem i pół miliona Amerykanów i Amerykanek zostało wyrzuconych z systemu pomocy społecznej.

Po części jest to efekt zmian prawnych, które w latach 90. wprowadziły szereg obwarowań utrudniających otrzymanie wsparcia. Przyjęta w 1996 roku ustawa The Personal Responsibility and Work Opportunity Reconciliation Act (ustawa dostosowująca przepisy o odpowiedzialności osobistej oraz możliwości pracy) zmieniła dożywotnią pomoc na maksymalnie sześćdziesięciomiesięczną oraz zakończyła subsydiowanie uniwersyteckiej edukacji. Najdotkliwsze w skutkach były jednak nowe sankcje. Samo spóźnienie się na spotkanie z pracownikiem pomocy społecznej, nieprzyjście na wolontariat czy pozytywny wynik testu na obecność narkotyków mógł doprowadzić do stałej utraty zasiłku.

Polityczny grunt pod tę zmianę przygotowała kampania prezydencka Ronalda Reagana wymierzona w tak zwane królowe zasiłków (welfare queens). Reagan w swoich wystąpieniach uwielbiał przytaczać przykład Lindy Taylor, która posługując się 80 tożsamościami miała wyłudzić 150 tysięcy dolarów z pomocy społecznej. W rzeczywistości Taylor została skazana za posługiwanie się czterema personaliami, dzięki którym przywłaszczyła sobie osiem tysięcy dolarów. Niemniej rozdmuchane historie o chciwych i leniwych kobietach, wiodących wystawny tryb życia za pieniądze podatników, drastycznie zmieniły wizerunek opieki socjalnej.

Żeby ukrócić rzekomą rozrzutność, wprowadzono system informatyczny, który miał uniemożliwić pracownikom socjalnym współpracę z oszustami, a także pozwolić na masowy nadzór nad przestrzeganiem wprowadzonych obwarowań. Obsługa systemu została sprywatyzowana, w efekcie czego ponad 90 procent budżetu ośrodków pomocy społecznej zaczęło trafiać do prywatnych dostawców usług. Ci obiecali zredukować wysokie koszty obsługi systemu, ograniczyć biurokrację i wyeliminować finansowe malwersacje. Efektywność systemu zaczęto mierzyć nowymi wskaźnikami. Wprowadzone miary nie koncentrowały się jednak na tym, ilu osobom uda się znaleźć mieszkanie czy pracę, tylko na zmniejszeniu liczby nieuprawnionych świadczeń oraz skróceniu czasu procesowania aplikacji o zasiłek.

Właśnie dlatego pracownik, który telefonował do Lindsay, sugerował jej zamknięcie procesu. Szybko zakończona sprawa to sukces w oczach nowego systemu, bez względu na rezultat. Także dlatego każdy błąd, jak na przykład zniknięcie pliku z wypłatami Jacka, jest interpretowany na niekorzyść aplikantki. Takich zniknięć związanych z digitalizacją dokumentów tylko między 2007 a 2009 rokiem zarejestrowano aż 272 tysiące. Każdy brakujący dokument interpretowany jest zaś jako „BRAK WSPÓŁPRACY”, który każdorazowo prowadzi do potencjalnego odebrania komuś leków, jedzenia czy mieszkania. Jak zauważa Eubanks, system automatycznego podejmowania decyzji o pomocy społecznej zbudowano na założeniu, że lepiej wyeliminować dziesięć kwalifikujących się osób niż przyznać zasiłek jednemu oszustowi.

Pozorny urok algorytmu

Mimo że na przestrzeni lat zmniejszyła się liczba przyznawanych świadczeń, to jednocześnie zautomatyzowane systemy obejmują coraz więcej sytuacji i w efekcie – osób. W Stanach Zjednoczonych programy komputerowe decydują już nie tylko tym, która osoba w kryzysie bezdomności otrzyma mieszkanie, ale nawet, którym rodzicom należy odebrać dziecko. Wykorzystywanie algorytmów do podejmowania tego rodzaju decyzji niesie ze sobą szereg poważnych zagrożeń.

Już pierwszy etap, czyli zbieranie informacji o uczestnikach i uczestniczkach danego programu, wiąże się z ryzykiem pogorszenia i tak już złej sytuacji marginalizowanych grup. Żeby to zobrazować, Cathy O’Neil w książce „Broń matematycznej zagłady” posługuje się przykładem modelu recydywy. W niektórych stanach przy orzekaniu o wyroku, sędziowie kierują się tym, czy oskarżony może ponownie popełnić przestępstwo. Żeby zminimalizować wpływ uprzedzeń na orzecznictwo, wprowadzono model, który w oparciu o statystyczne dane wyznacza prawdopodobieństwo ponownego wylądowania za kratkami. Pytania, na które muszą odpowiedzieć oskarżeni objęci programem dotyczą między innymi tego, kiedy mieli pierwszy kontakt z policją albo tego, czy ich znajomi są notowani.

Zbieranie takich danych w efekcie zaszywa w programie szereg rasowych uprzedzeń, zupełnie wbrew pierwotnym założeniom o eliminowaniu wpływu ludzkich stereotypów na orzecznictwo. W jaki sposób? Badanie przeprowadzone w 2013 roku w Nowym Jorku wykazało, że czarni i latynoscy mężczyźni są przedmiotem ponad 40 procent rutynowych przeszukań i kontroli, mimo że stanowią mniej niż 5 procent populacji miasta. Niemal wszyscy –  bo około 90 procent z nich – okazują się niewinni. Natomiast wystarczy mieć przy sobie odrobinę marihuany, żeby wejść w konflikt z prawem wcześniej niż biały rówieśnik z zamożnej dzielnicy, który jeśli w ogóle spotka się z policją, to najpewniej dopiero w sytuacji poważnego przestępstwa. Inaczej mówiąc, choć w kwestionariuszu nie znajdziemy wprost zadanego pytania o rasę, to jego niektóre elementy powodują, że koniec końców i tak otrzymamy gorszą ocenę ze względu na kolor naszej skóry. Po części właśnie dlatego czarni mężczyźni otrzymują wyrok średnio o 20 procent dłuższy niż biali, którzy popełnili to samo przestępstwo.

Źródło tego problemu jest prozaiczne: tworząc model, często nie mamy dostępu do danych, które bezpośrednio mówią o interesującym nas zjawisku. Dlatego sięgamy po zamienniki, tworząc proste korelacje między danymi zastępczymi a wynikiem, który chcemy przewidzieć. Często działa to bez zarzutu. Na przykład model, jakim jest czujnik przeciwpożarowy, skutecznie wiąże wystąpienie zmiennej zastępczej (dymu) z interesującym nas zjawiskiem (pożarem). Sprawa komplikuje się, gdy próbujemy w analogiczny sposób modelować ludzkie zachowanie. Tworzenie prostych korelacji między kodem pocztowym a potencjałem do spłacenia kredytu lub między pierwszym kontaktem z policją a szansą, że wrócimy do więzienia, często prowadzi do zobiektywizowania instytucjonalnej dyskryminacji kobiet, mniejszości etnicznych, a w szczególności osób najuboższych.

Co więcej, z czasem ich sytuacja się pogarsza. Wszystko za sprawą tak zwanej spirali sprzężenia zwrotnego. Mieszkając w „gorszej dzielnicy”, czyli w miejscu, w którym statycznie wśród naszych sąsiadów więcej osób będzie miało problemy z prawem, otrzymujemy wyższy wynik w modelu recydywy. Dostajemy więc cięższy wyrok i po wyjściu trudniej jest nam znaleźć pracę niż osobie z klasy średniej, która popełniła identyczne przestępstwo, ale mieszka w bezpieczniejszej części miasta. Gdy w konsekwencji znowu popełnimy przestępstwo, model przypisuje sobie sukces i utwierdza się w założeniu, że okolica, z której pochodzimy, jest dobrym wyznacznikiem tego, czy czeka nas recydywa. Choć w rzeczywistości to sam model przyczynia się do tego, że znowu trafiliśmy za kratki. Jest to rodzaj zgubnego cyklu: model tworzy rezultat, który stara się zmierzyć. Oczywiście sprzężenie zwrotne nie dotyka tylko kryminalistów. Na podobnej zasadzie wiele firm, gdy decyduje o zatrudnieniu, wykorzystuje dane o ryzyku kredytowym kandydatki, kierując się logiką, zgodnie z którą osoby spłacające kredyt na czas są bardziej odpowiedzialne i godne zaufania. W rzeczywistości wielu solidnym pracownikom może przytrafić się nieszczęście, które obniża ich ocenę kredytową. Takim osobom będzie ciężej znaleźć pracę, co za tym idzie, trudniej spłacić kredyt. Wtedy ocena kredytowa dalej spada i jeszcze trudniej uzyskać zatrudnienie. Cykl się zapętla.

Cyfrowy nadzór, zwykłe więzienie

W Unii Europejskiej teoretycznie możemy cieszyć się ochroną przed czysto algorytmicznymi decyzjami dotyczącymi naszego zatrudnienia czy wysokości raty kredytu. Niestety ta ochrona jest tylko pozorna, ponieważ zgodnie z regulacjami wystarczy, że wyrazimy zgodę, aby decyzje o istotnych kwestiach dla naszego życia mógł rozstrzygać system informatyczny. Aplikując o pracę, bez której nie dotrwamy do końca miesiąca, czy o mieszkanie, gdy śpimy na ulicy, przecież nie odmówimy poddania się algorytmowi. Tutaj ujawnia się klasowy charakter problemu. Streszcza się on w pytaniu: o kim zbieramy, a o kim nie zbieramy danych? Kto podlega aparatowi informatycznemu, a kto jest od niego wolny?

W USA ten podział jest jeszcze bardziej widoczny. To osoby takie jak Lindsay Kidwell zmuszone są do wypełniania kilkudziesięciostronicowych kwestionariuszy i odpowiadania na pytania o najbardziej intymne aspekty swojego życia: stan zdrowia, zaburzenia psychiczne, doświadczone traumy, życie seksualne, ale też o codzienne nawyki, miejsca przebywania czy numer ubezpieczenia społecznego. Chęć uzyskania jakiejkolwiek pomocy jest równoznaczna z poddaniem się drobiazgowemu nadzorowi ze strony państwa. Choć klasa średnia w podobnym stopniu korzysta z pomocy terapeutów, lekarzy czy ośrodków odwykowych, to finansowanie ich ze środków prywatnych uwalnia od nieustannego monitoringu. Żadne argumenty nie przekonałyby przecież zamożnych rodziców chcących skorzystać z pomocy opiekunki do dzieci do podzielenia się z państwem szczegółowymi informacjami o swojej ostatniej konsultacji psychiatrycznej.

W efekcie wyłącznie osoby, których nie stać na prywatną pomoc, zostają włączone w mechanizm cyfrowego nadzoru. Tylko wobec ich dzieci szacuje się prawdopodobieństwo, że zostaną ofiarą przemocy domowej w przyszłości. Jeśli celem naprawdę miałaby być ochrona dzieci, to skąd założenie, że przemocowymi rodzicami mogą być tylko ubodzy? Być może celem nigdy nie była realna pomoc, a prawdziwy sens zautomatyzowania systemu pomocy społecznej jest dużo bardziej przerażający.

Dzięki temu systemowi państwo posiada ogromne zbiory danych wypełnione szczegółowymi informacjami o wszystkich osobach aplikujących o pomoc – jest to niezbędny element programu masowego nadzoru, z jakim nie mieliśmy do czynienia w historii ludzkości. Nie chodzi tylko o skalę. Wcześniejsze metody inwigilacji koncentrowały się na uprzednio wybranym podejrzanym. Jeśli policjant chciał komuś założyć podsłuch, to musiał zidentyfikować tę osobę, mieć wobec niej uzasadnione podejrzenia, które następnie prezentował przed sądem, a ten mógł wyrazić zgodę na podsłuch, bądź nie. Inaczej mówiąc, cel musiał być zidentyfikowany przed podjęciem inwigilacji. Obecnie sytuacja jest odwrotna. Podejrzany jest typowany przez algorytm z wielkiej bazy danych. Przypomina to fabułę filmu Stevena Spielberga „Raport mniejszości”, w którym „winnych” karano, zanim popełnili zbrodnie. Czy to zbyt daleko posunięte porównanie? Nie, jeśli zauważymy, że po pierwsze, wypełniając kwestionariusz konieczny do uzyskania wsparcia, zgadzamy się, aby do naszych informacji miała dostęp policja „w celu zapobieżenia poważnemu przestępstwu”. A po drugie, że policja z tego dostępu chętnie korzysta – w pierwszym roku działania programu zautomatyzowanego przyznawania mieszkań osobom bezdomnym w Los Angeles, policja na podstawie zawartych tam danych dokonała 9 000 aresztowań.

Zautomatyzowany system stawia potrzebujących przed koszmarnym dylematem. Z jednej strony, kurczący się zasób pomocy społecznej otrzymują tylko najbardziej potrzebujący, co samo w sobie stanowi zachętę do dzielenia się w kwestionariuszu informacjami o swoich problemach, w tym na przykład o uzależnieniach. Z drugiej strony, dokładnie z powodu podania tych informacji ci sami ludzie padają ofiarą policyjnych kontroli i przeszukań. Nowa architektura pomocy społecznej w coraz większym stopniu staje się narzędziem kryminalizacji biednych, a nie metodą wyciągania ich z problemów. Co gorsza ten dystopijny mechanizm selekcjonuje potencjalnych przestępców nie na podstawie indywidualnych cech jak w „Raporcie mniejszości”, ale na podstawie grupy społecznej, do której przynależą. O ile wypracowaliśmy już wiele prawnych zabezpieczeń przed wyznaniową kryminalizacją, o tyle klasa wciąż jest silną determinantą przyszłych problemów z policją.

System do zautomatyzowanego podejmowania decyzji o pomocy społecznej jest więc nie tylko wygodnym narzędziem redukowania liczby osób, którym przysługuje pomoc – narzędziem bardzo wadliwym i pogłębiającym nierówności. Nie tylko sposobem ukrywania politycznych przyczyn tej redukcji pod płaszczykiem „obiektywnych” decyzji programu komputerowego. Przede wszystkim jest państwowo-policyjnym mechanizmem wydobywania wiedzy o ludziach żyjących „na marginesie”: w kryzysie bezdomności, bezrobotnych, samotnie wychowujących i tak dalej. Wiedzy bezczelnie wykorzystywanej w celu ich nadzorowania, dyscyplinowania i kryminalizowania. To panoptykon na miarę XXI wieku.

Sama jesteś sobie winna

Wróćmy do początku. Istnieje prosta przyczyna, dla której Lindsay Kidwell i miliony podobnych jej osób są zmuszane do karmienia algorytmu setkami dokumentów opowiadających o ich życiu. Cóż, po prostu jest to bardzo wygodne. Wygoda ta płynie z uwolnienia się społeczeństwa od moralnej odpowiedzialności za los pokrzywdzonych. Od ciężaru decydowania o tym, komu przysługuje mieszkanie, a kto ma spać na ulicy; kto ma dostać jedzenie, a kto chodzić głodny. Wprowadzenie do systemu algorytmów pozwala jeszcze mocniej zdystansować się od tych etycznych dylematów, bo zmatematyzowane mechanizmy tworzą iluzję decydowania wolnego od ludzkich uprzedzeń. Dylematów, dodajmy, niechlubnych, bo mających swoje źródło w podziale na zasługujących i niezasługujących na pomoc.

Jak pisze Zygmunt Bauman w książce „Praca, konsumpcjonizm i nowi ubodzy”, taka dychotomia bazuje na założeniu, że bycie biednym nie jest wynikiem systemowych problemów, a raczej wypadkową cech charakteru lub indywidualnych wyborów. Odmowa pomocy „ubogim na własne życzenie” ma korzenie w XIX-wiecznym eugenicznym ruchu Naukowej Charytatywności (Scientific Charity Movement), który przestrzegał przed wspieraniem niezasługujących na pomoc biednych, gdyż miało to prowadzić do rozprzestrzeniania się złych genów w społeczeństwie. Dziś podział na zasługujących i niezasługujących na pomoc jest rodzajem racjonalizacji, która pomaga uporać się ze świadomością, że nie udało nam się zadbać o siebie nawzajem. Mówiąc wprost, jest to wygodne usprawiedliwienie postawy moralnej obojętności, która cechuje ponowoczesne społeczeństwa. Mając świadomość, że mała grupka tych, którym powinęła się noga, z pewnością otrzyma niezbędne wsparcie, a leniwi i oszuści nie osuszają bezczelnie wspólnej skarbonki, śpi nam się lepiej. W społeczeństwie kowali własnego losu potrzebujemy przecież także przegranych, którzy upewnią nas, że nasz sukces jest wyłącznie naszą zasługą.

Potrzebujemy Twojego wsparcia
Od ponad 15 lat tworzymy jedyny w Polsce magazyn lewicy katolickiej i budujemy środowisko zaangażowane w walkę z podziałami religijnymi, politycznymi i ideologicznymi. Robimy to tylko dzięki Waszemu wsparciu!
Kościół i lewica się wykluczają?
Nie – w Kontakcie łączymy lewicową wrażliwość z katolicką nauką społeczną.

I używamy plików cookies. Dowiedz się więcej: Polityka prywatności. zamknij ×