fbpx Wesprzyj nas!

magazyn lewicy katolickiej

Strach si臋 ba膰 pa艅stwa bez Big Data. Bez nowych technologii nie b臋dzie rozwoju Polski

Boimy si臋 wszechwiedz膮cego lewiatana, kt贸ry rejestruje ka偶de nasze mrugni臋cie. Wiele ruch贸w polskiego pa艅stwa w obszarze nowych e-us艂ug czy analizy danych spotyka si臋 ze strachem. Jednak powinni艣my si臋 ba膰 nie gigaalgorytmu, ale technologicznego zacofania.
Strach si臋 ba膰 pa艅stwa bez Big Data. Bez nowych technologii nie b臋dzie rozwoju Polski
ilustr.: Andrzej D臋bowski

鈥濻pi臋cie鈥 to聽projekt wsp贸艂pracy mi臋dzyredakcyjnej pi臋ciu 艣rodowisk, kt贸re dzieli bardzo wiele, ale聽艂膮czy gotowo艣膰 do聽podj臋cia niecodziennej rozmowy. Klub Jagiello艅ski, Magazyn Kontakt, Krytyka Polityczna, Kultura Liberalna i聽Nowa Konfederacja co聽kilka tygodni wybieraj膮 nowy temat do聽dyskusji, a聽pi臋膰 powsta艂ych w聽jej ramach tekst贸w publikujemy naraz na聽wszystkich pi臋ciu portalach.

***

Boimy si臋 wszechwiedz膮cego lewiatana, kt贸ry rejestruje ka偶de nasze mrugni臋cie. Wiele ruch贸w polskiego pa艅stwa w obszarze nowych e-us艂ug czy analizy danych spotyka si臋 ze strachem. Jednak powinni艣my si臋 ba膰 nie gigaalgorytmu, ale technologicznego zacofania, przez kt贸re Polska przegapi historyczne okno mo偶liwo艣ci. Poradzenie sobie z tym problemem, paradoksalnie, zapobiegnie powstaniu kontroluj膮cego nas lewiatana.

Social Credit System 鈥 personifikacja demokratycznych strach贸w

Chi艅ski system Social Credit System (SCS) dla wielu jest symbolem przekroczenia granic w聽wykorzystaniu technologii przez pa艅stwo. Ten system mo偶e brzmie膰 z艂owieszczo: wykorzystuj膮c analiz臋 danych firmy, obywatele maj膮 dodawane lub odejmowane punkty na podstawie r贸偶nych czynnik贸w, takich jak terminowe p艂atno艣ci rachunk贸w, przestrzeganie przepis贸w ruchu drogowego lub uczestnictwo w dzia艂aniach spo艂ecznych. SCS wed艂ug za艂o偶e艅 ma poprawia膰 uczciwo艣膰 i transparentno艣膰 spo艂ecznych interakcji pomi臋dzy obywatelami oraz firmami, co obszernie opisuje Instytut Boyma.

Sam SCS w rzeczywisto艣ci nie jest jednak tak z艂owrogo wszechwiedz膮cy, jak wydaje si臋 nam na Zachodzie. W rzeczywisto艣ci chi艅ski system Social Credit System jest raczej zbiorem r贸偶nych inicjatyw prowadzonych przez r贸偶ne agencje rz膮dowe i lokalne w艂adze. Na poziomie og贸lnokrajowym istniej膮 jedynie inicjatywy oceny firm, partia (na razie) nie przeb膮kuje o聽budowie krajowego systemu oceny obywateli, cho膰 takie rozwi膮zania tworz膮 pilota偶owo niekt贸re rz膮dy lokalne. W swoim og贸lnokrajowym wymiarze to w艂a艣ciwie system przypominaj膮cy nasze bazy nierzetelnych kredytobiorc贸w w艣r贸d firm.

Warto jednocze艣nie zaznaczy膰, 偶e Chiny wykorzystuj膮 technologi臋 w z艂ych celach, do艣膰 wspomnie膰 tu, jak systemy rozpoznawania twarzy pomagaj膮 prze艣ladowa膰 Ujgur贸w (o czym pisa艂 niedawno na 艂amach KJ Seweryn G贸rczak) czy te偶 jak cenzurowany jest chi艅ski Internet.

SCS na Zachodzie to raczej odbicie naszych wyobra偶e艅 o 鈥瀙a艅stwie perfekcyjnej inwigilacji鈥, wzbudzonych przez produkcje takie jak 鈥濺aport mniejszo艣ci鈥 czy 鈥濩zarne lustro鈥. Pokazuje sum臋 wszystkich naszych strach贸w, jakie mamy wobec pa艅stwa wykorzystuj膮cego dane i nadu偶ywaj膮cego ich w rz膮dzeniu.

B贸jmy si臋 braku zaufania

Ciekawe w naszym strachu przed SCS jest to, 偶e z Chinami 艂膮czy nas wsp贸lny problem le偶膮cy u聽podstaw: niski poziom zaufania spo艂ecznego. Chiny posz艂y w kierunku 鈥瀟echnosolucjonizmu鈥: zdecydowa艂y si臋 uleczy膰 technologi膮 spo艂eczny problem. Wed艂ug mnie podnoszenie poziomu zaufania musi odby膰 si臋 poprzez otwarto艣膰, instytucje i sprawne zado艣膰uczynienie b艂臋dom, taki rodzaj 鈥瀝epublika艅skiego solucjonizmu鈥.

Wed艂ug wynik贸w World Values Survey w Polsce ze zdaniem 鈥瀢i臋kszo艣ci ludzi mo偶na ufa膰鈥 zgadza si臋 22% respondent贸w. W Niemczech i USA jest to przesz艂o dwukrotnie wi臋cej, w Szwecji a偶 trzykrotnie. Co ciekawe, wbrew tezom komunistycznej partii, w teorii w Chinach r贸wnie偶 ponad 60% respondent贸w zgadza si臋 z takim zdaniem 鈥 co jednak mo偶e wiele m贸wi膰 o szczero艣ci bada艅 socjologicznych w autorytarnych krajach. Socjolog Zhang Lifan stwierdzi艂, 偶e w Chinach poziom zaufania spo艂ecznego jest niski, co jest skutkiem dekad opresyjnej kontroli spo艂ecznej, skumulowanej w czasie rewolucji kulturalnej, przez co ludzie spodziewaj膮 si臋 by膰 oszukani albo mie膰 problemy, nawet je艣li nic z艂ego nie zrobili. W Polsce ma艂o ufamy nie tylko sobie nawzajem, ale tak偶e na przyk艂ad dziennikarzom (67% ufa), nauce (87%) i rz膮dowi (34%) 鈥 wszystkie te wyniki negatywnie wyr贸偶niaj膮 si臋 na tle naszych s膮siad贸w.

By膰 mo偶e przyczyn膮 jest wsp贸lne do艣wiadczenie bycia dotkni臋tym przez lata komunizmem, by膰 mo偶e na skutek innych czynnik贸w, jednak barier膮 rozwoju obydwu kraj贸w i spo艂ecze艅stw jest ten sam problem. Nieufni obywatele podejmuj膮 mniej dzia艂a艅 w sferze spo艂ecznej i gospodarczej. Obawa przed wsp贸艂prac膮 z innymi mo偶e poskutkowa膰 obni偶eniem inwestycji, ograniczeniem innowacji i mniejsz膮 liczb膮 lokalnych inicjatyw spo艂ecznych. Niski poziom zaufania wp艂ywa na relacje z pa艅stwem: mo偶e os艂abi膰 kontrol臋 spo艂eczn膮 nad dzia艂aniami rz膮du i instytucji (鈥瀙o co to sprawdza膰, oni i tak oszukaj膮鈥), a z drugiej strony prowadzi do wzrostu biurokracji (bo przecie偶 obywatelowi nie mo偶na ufa膰, je艣li co艣 o艣wiadczy, powinien zebra膰 najpierw tysi膮c za艣wiadcze艅). Wreszcie, pozostaj膮c w obszarze kluczowej przecie偶 dzisiaj technologii, brak zaufania do wdra偶aj膮cych rozwi膮zania zwi膮zane na przyk艂ad z analiz膮 danych dla pa艅stwa skutkuje panik膮.

Nowa moda na technosceptycyzm

Obecnie modny sta艂 si臋 technosceptycyzm, kt贸ry wed艂ug mnie padaj膮c na podatn膮 gleb臋 niskiego zaufania spo艂ecznego, mo偶e przyczyni膰 si臋 do zahamowania rozwoju Polski.

W listopadzie 2022聽roku wszyscy zachwycali si臋 jeszcze nowymi mo偶liwo艣ciami interakcji z聽ChatGPT, par臋 miesi臋cy p贸藕niej liczni badacze sztucznej inteligencji podpisywali list maj膮cy zastopowa膰 na p贸艂 roku badania nad AI. Nawet Eric Schmidt, by艂y prezes Google, z艂o偶y艂 niedawno w The Atlantic samokrytyk臋. Stwierdza w niej, 偶e podobnie jak wielu w Dolinie Krzemowej by艂 naiwniakiem: wierz膮c, 偶e wszyscy ludzie s膮 dobrzy (i nie doceniaj膮c wp艂ywu garstek toksycznych os贸b), a w swoim skupieniu na zdobyciu uwagi u偶ytkownik贸w tworz膮c mechanizmy nap臋dzaj膮ce rozrywaj膮c膮 spo艂ecze艅stwa plemienno艣膰.

Ta krytyka jest s艂uszna. Pogwa艂cenia prywatno艣ci, zrzucanie odpowiedzialno艣ci przez wielkie firmy technologiczne, wyniki bada艅 pokazuj膮ce negatywny wp艂yw medi贸w spo艂eczno艣ciowych na zdrowie psychiczne nastolatk贸w by艂y leitmotivem drugiej cz臋艣ci poprzedniej dekady i dopiero dzi艣 instytucjonalnie zaczynamy sobie z nimi radzi膰.

Nie ulega w膮tpliwo艣ci, 偶e powinni艣my na problemy wygenerowane przez pojawienie si臋 nowych technologii reagowa膰. Ale ogromnym b艂臋dem by艂oby ca艂kowite zanurzenie si臋 w聽technologicznym sceptycyzmie.

W USA mo偶na pozwoli膰 sobie na faz臋 technosceptycyzmu 鈥 w tym samym czasie w Dolinie tamtejszy ekosystem innowacyjno艣ci b臋dzie wypluwa艂 kolejne cyfrowe produkty, tak jak wyplu艂 ChatGPT. Kto wie, mo偶e dzi臋ki sceptycyzmowi b臋d膮 to nawet produkty lepiej nakierowane na s艂u偶enie cz艂owiekowi.

W Polsce startuopowo-naukowy 艣wiat jest m艂ody, niewielki i cz臋sto niedoinwestowany. Powszechny technosceptycyzm b臋dzie zniech臋ca艂 m艂odych do wej艣cia w szeregi innowator贸w, a聽starszych do inwestowania i wsp贸艂dzia艂ania. Ta fala krytyki technologii w Stanach b臋dzie niczym przystrzy偶enie dojrza艂ego owocowego sadu, kt贸ry dzi臋ki temu da lepsze plony. W Polsce mo偶e przypomina膰 raczej 艣ci臋cie m艂odych drzewek tu偶 przy korzeniach.

Zagro偶enie kombinacj膮 niskiego zaufania spo艂ecznego i sceptycyzmem technologicznym, prowadz膮ce do dramatycznego zap贸藕nienia rozwoju pa艅stwa, jest o wiele bardziej realne ni偶 budowa przez Polsk臋 wszechwiedz膮cego systemu analizuj膮cego ka偶dy nasz krok.

Sze艣膰 krok贸w ku technologicznemu rozwojowi

Dla Polski rozw贸j technologiczny jest kwesti膮 鈥瀊y膰 albo nie by膰鈥. Jeste艣my w UE i NATO, dzi臋ki krwawemu wysi艂kowi Ukrai艅c贸w zatrzymana armia rosyjska przez najbli偶sze lata nie b臋dzie bezpo艣rednim zagro偶eniem naszej niepodleg艂o艣ci. Przegapienie tego okna mo偶liwo艣ci w聽艣wiecie, w kt贸rym technologiczny rozw贸j jedynie przyspiesza, b臋dzie kardynalnym b艂臋dem.

Pa艅stwa korzystaj膮ce z danych, zapewniaj膮ce obywatelowi proste i wygodne za艂atwianie swoich spraw, rozwijaj膮ce swoj膮 technologiczn膮 infrastruktur臋, a przede wszystkim dostosowuj膮ce edukacj臋 i inwestuj膮ce w badania i rozw贸j przetrwaj膮. Kraje, kt贸re w XXI wiek nie b臋d膮 umie膰 lub nie b臋d膮 chcia艂y wej艣膰, skazuj膮 si臋 na peryferia, o ile nie rezygnacj臋 z niepodleg艂o艣ci.

Wi臋c jak rozwija膰 technologie w kraju o niskim poziomie spo艂ecznego zaufania w dobie popularno艣ci publicznej paniki na temat technologii? Wed艂ug mnie jest sze艣膰 krok贸w, kt贸re s膮 potrzebne do spo艂ecznie korzystnego rozwoju cyberpa艅stwa.

Zacznijmy od zmiany podej艣cia: przej艣cia z tworzenia technologii dla obywateli do tworzenia jej z obywatelami. Innymi s艂owy, w艂膮czenia obywateli w proces decydowania o聽tym, jak technologia ma dzia艂a膰.

Cz臋艣ciowo to ju偶 si臋 dzieje 鈥 projekty nowych e-us艂ug s膮 otwarcie pokazwywane przez Ministerstwo Cyfryzacji, aby ka偶dy m贸g艂 zg艂osi膰 uwagi. Podobnych dzia艂a艅 potrzebujemy te偶 w innych obszarach: je艣li miasto wprowadza algorytm wyboru miejsc w przedszkolach, to powinno ju偶 na etapie tworzenia zbiera膰 uwagi od zainteresowanych rodzic贸w.

Co wi臋cej, nowe technologie trzeba obudowa膰 systemem wymuszaj膮cym przejrzysto艣膰, audyty i聽ostrze偶enia. Algorytmy i e-us艂ugi najcz臋艣ciej wywo艂uj膮 szkody poprzez swoje b艂臋dy, a nie intencjonalne dzia艂anie ich mocodawc贸w. Przejrzysto艣膰 dokumentacji, wyt艂umaczalno艣膰 sposobu dzia艂ania, niezale偶ny audyt pomagaj膮 te b艂臋dy wychwyci膰, o czym pisali艣my w raporcie 鈥AlgoPolska鈥 razem z Alkiem Tarkowskim i Natali膮 Mileszyk, podobne rekomendacje padaj膮 w regularnie wydawanej pracy 鈥瀉lGOVrithms: state of play鈥 tworzonej przez analityk贸w z ca艂ego naszego regionu.

Tymczasem w Polsce dost臋p do sposobu dzia艂ania algorytmu losowania s臋dzi贸w zosta艂 uzyskany dopiero po latach s膮dowych zmaga艅. Kod 藕r贸d艂owy wci膮偶 nie zosta艂 upubliczniony, a w tym przypadku w膮tpi臋, 偶eby zawiera艂 jakie艣 informacje niejawne, powinno wi臋c to by膰 prostym krokiem poprawienia przejrzysto艣ci.

A z tym zwi膮zany jest krok trzeci: akceptacja tego, 偶e b艂臋dy b臋d膮 si臋 zdarza膰, co wymaga zbudowania mechanizm贸w odwo艂ania i zado艣膰uczynienia. Wdra偶anie nowych technologii zawsze niesie ze sob膮 ryzyko b艂臋d贸w. Mo偶na je ogranicza膰 poprzez przejrzysto艣膰 i audyty, ale nie da si臋 ich wyeliminowa膰.

Dlatego kluczowe dla urz臋dnik贸w powinno by膰 stworzenie systemu oceny, czy wymy艣lone rozwi膮zanie niesie ze sob膮 wysokie ryzyko, oraz przemy艣lenie, co zrobi膰 z potencjalnymi b艂臋dami. Samym obywatelom natomiast 鈥 oddanie mo偶liwo艣ci odwo艂ania si臋 od algorytmicznych decyzji. Podobne procesy dzia艂aj膮 ju偶 na przyk艂ad w Kanadzie i Holandii. Kiedy艣 w dyskusjach roboczo nazwali艣my propozycj臋 takiego mechanizmu dla Polski Ocen膮 Skutk贸w Algorytmizacji, a pomys艂 zosta艂 opisany w publikacji fundacji Moje Pa艅stwo.

Do wdro偶enia powy偶szych punkt贸w potrzeba wzmocnienia instytucji, ich zdolno艣ci egzekucji prawa krajowego i sprawnego wdro偶enia regulacji unijnych, kt贸re w wielu obszarach maj膮 potencja艂 poprawienia sytuacji. S艂abo艣膰 instytucji to problem og贸lnopolski, obecny w wielu obszarach, a jego skal臋 pokaza艂 nam chyba najwyra藕niej COVID, wywo艂uj膮c praktyczn膮 zapa艣膰 Sanepidu.

Wa偶na jest wreszcie strona techniczna: poleganie w ca艂o艣ci na BigTechu prowadzi do ubezw艂asnowolnienia; utopijna wizja lokalnej technologicznej autarkii w oparciu o rodzime startupy jest fantazj膮. Niedawno Microsoft otworzy艂 w Polsce sw贸j chmurowy 鈥瀝egion鈥, co pozwala urz臋dom korzysta膰 z ich rozwi膮za艅 chmurowych, maj膮c pewno艣膰, 偶e dane pozostan膮 na serwerach w kraju. 鈥濸og艂臋biacie nasz膮 zale偶no艣膰 od gigant贸w cyfrowych (鈥), a polskie rozwi膮zania nie mog膮 si臋 przebi膰鈥 鈥 skomentowa艂 na Twitterze Jan Zygmuntowski.

To zbyt uproszczona wizja 艣wiata. Chmury BigTechu s膮 popularne, bo oferuj膮 tysi膮ce us艂ug, z聽kt贸rych wiele jest po prostu najlepszym mo偶liwym wyj艣ciem we wdro偶eniach dla wielkich organizacji. Bez stawania na ramionach gigant贸w grozi nam pr贸ba wynajdywania w艂asnego, gorszego ko艂a na nowo.

Jednocze艣nie transformacja technologiczna b臋dzie generowa膰 setki obszar贸w, w kt贸rych potrzebne b臋d膮 rozwi膮zania skrojone na miar臋 albo w kt贸rych produkty rodzimych firm s膮 konkurencyjne wobec tych dost臋pnych na przyk艂ad w chmurze giganta. Zadaniem pa艅stwa jest wy艂apywanie tych okazji i tworzenie otwartych zam贸wie艅 publicznych, w tym konkurs贸w na mniejszych dostawc贸w. W ten spos贸b mo偶emy pom贸c polskim firmom realizowa膰 coraz wi臋ksze kontrakty, ale te偶 unikn膮膰 uzale偶nienia od pojedynczych zagranicznych dostawc贸w.

Ostatni krok jest d艂ugoterminowy i najtrudniejszy: polega na g艂臋bokiej reformie edukacji oraz dofinansowaniu bada艅 i rozwoju. Kryzys w polskim szkolnictwie jest opisywany w聽debacie publicznej o wiele lepiej, ni偶 ja by艂bym to w stanie zrobi膰. Natomiast o stanie publicznego finansowania nauki i rozwoju w Polsce 艣wiadczy膰 mo偶e wprowadzane przez Narodowe Centrum Nauki ze wzgl臋du na ma艂y bud偶et ograniczenie do dw贸ch liczby aplikacji o badawczy grant, kt贸ry mo偶e z艂o偶y膰 jedna osoba.

Wydatki na badania i rozw贸j z publicznej kasy w Polsce w ostatnich latach nie rosn膮, wydajemy na ten cel oko艂o 60聽euro na osob臋 rocznie. Tymczasem sam jeden europejski program rozwoju p贸艂przewodnik贸w przeznaczy na ten cel oko艂o 20 euro na mieszka艅ca rocznie. 呕eby skorzysta膰 z聽tych unijnych pieni臋dzy, nie wystarczy napisa膰 wniosku 鈥 trzeba najpierw w艂asnymi inwestycjami rozhula膰 wewn臋trzny potencja艂 naukowy i innowacyjny, 偶eby potem wygrywa膰 w聽konkursach z firmami z Zachodu.

Obawa o przysz艂o艣膰

Stworzenie przez Polsk臋 gigaalgorytmu z dost臋pem do ka偶dego okrucha wiedzy o nas w celu spo艂ecznej kontroli jest mo偶liwe, ale niezwykle ma艂o prawdopodobne. Po pierwsze, po prostu nas na to nie sta膰. Po drugie, spo艂eczny sprzeciw z pewno艣ci膮 by艂by ogromny, w ko艅cu Polacy pokazali tak偶e w czasie COVID-u, jak potrafi膮 buntowa膰 si臋 przeciw obostrzeniom. Po trzecie, w膮tpi臋, 偶eby jakikolwiek rz膮d znalaz艂 urz臋dnik贸w i wykonawc贸w ch臋tnych nad czym艣 takim pracowa膰.

Powinni艣my si臋 ba膰 nie wszechpot臋偶nego systemu opartego na zaawansowanej sztucznej inteligencji, a braku kontroli nad najprostszymi nawet algorytmami stosowanymi w聽urz臋dach. Nie nadmiaru zgromadzonych o nas przez pa艅stwo informacji, ale ma艂ej ilo艣ci z艂ej jako艣ci danych i wykonywanych w oparciu o nie b艂臋dnych analiz.

Wed艂ug mnie r贸wnie niebezpieczne, ale o wiele bardziej prawdopodobne jest to, 偶e nasze pa艅stwo w wykorzystywaniu technologii pozostanie w tyle, a b艂臋d贸w i spo艂ecznych szk贸d i tak si臋 nie ustrzegnie. Bez systemu spo艂ecznej kontroli nad pa艅stwowymi technologiami, systemu audyt贸w, odwo艂a艅 i zado艣膰uczynienia ofiarom b艂臋d贸w utkniemy w medialnie no艣nych historiach o nieudolnych urz臋dnikach, cwaniackich wykonawcach i cierpi膮cych przez technologi臋 obywatelach. Bez maj膮cych 艣rodki do egzekucji polskiego i europejskiego prawa instytucji my, obywatele, b臋dziemy bezbronni wobec nadu偶y膰 firm i samego pa艅stwa.

Pora偶k臋 poniesie administracja popadaj膮ca w skrajno艣ci oparcia si臋 w pe艂ni na technologiach 鈥瀦聽Zachodu鈥 niczym polskie gospodynie na 鈥瀋hemii z Niemiec鈥. Pora偶k臋 poniesie te偶 ta naiwnie wierz膮ca, 偶e jeste艣my 鈥瀞ilni, zwarci, gotowi鈥, a geniusz polskiego innowatora umo偶liwi stworzenie technologii w ka偶dym obszarze lepszych ni偶 powsta艂y gdziekolwiek na 艣wiecie. Bez nowoczesnej edukacji nie b臋dzie obywateli rozumiej膮cych technologie, a bez finansowania nauki i innowacyjno艣ci nie b臋dzie rodzimych technologii.

W pracy 鈥Foresight Cyfrowy 2035鈥 powsta艂ej dla Polskiego Instytutu Ekonomicznego, we wsp贸艂pracy z ponad setk膮 ekspert贸w, wysz艂y nam cztery kluczowe scenariusze rozwoju polskiego e-pa艅stwa. Buduj膮ca zaufanie administracja z dobrym finansowaniem innowacji mo偶e zapewni膰 nam awans rozwojowy. Zamkni臋ta na obywatela, pogr膮偶ona w nieufno艣ci, z niskim poziomem finansowania innowacji prowadzi nas w kierunku pa艅stwa z e-papieru. Podobne scenariusze powsta艂y dla perspektywy rozwoju polskiej gospodarki i spo艂ecze艅stwa. Wci膮偶 mamy wyb贸r, ale z ka偶dym kolejnym rokiem nasze okno mo偶liwo艣ci b臋dzie si臋 przymyka膰.

***
Tekst powsta艂 dzi臋ki finansowaniu projektu Macieja Kuziemskiego w ramach 2022 Landecker Democracy Fellowship.

Potrzebujemy Twojego wsparcia
Od ponad 15 lat tworzymy jedyny w Polsce magazyn lewicy katolickiej i budujemy 艣rodowisko zaanga偶owane w walk臋 z podzia艂ami religijnymi, politycznymi i ideologicznymi. Robimy to tylko dzi臋ki Waszemu wsparciu!
Ko艣ci贸艂 i lewica si臋 wykluczaj膮?
Nie 鈥 w Kontakcie 艂膮czymy lewicow膮 wra偶liwo艣膰 z katolick膮 nauk膮 spo艂eczn膮.

I u偶ywamy plik贸w cookies. Dowiedz si臋 wi臋cej: Polityka prywatno艣ci. zamknij