fbpx Wesprzyj nas!

magazyn lewicy katolickiej

Przyszłość utracona. Skąd wziął się kryzys innowacji

Obiecana nam przyszłość – z latającymi pojazdami, końcem pracy i wypoczynkiem na Marsie – nie nadeszła. Przestaliśmy jej nawet wyczekiwać. Zadowalając się symulacją postępu, porzuciliśmy twórczy rozwój technologiczny pierwszej połowy XX wieku.
Przyszłość utracona. Skąd wziął się kryzys innowacji
Wystawa Światowa w Paryżu, 1900 rok, materiał w domenie publicznej

 

W 1900 roku w Paryżu miała miejsce Wystawa Światowa, której celem była prezentacja globalnego dorobku naukowo-kulturalnego. Jedną z pozostałości widowiska są ilustracje pokazujące, jak pod koniec XIX wieku wyobrażano sobie rok 2000. Najczęściej pojawiającym się motywem są latające pojazdy oraz maszyny, które wyręczają ludzi w codziennych obowiązkach: sprzątają mieszkanie, strzygą klientów czy nakładają makijaż.

Ciężko się nie uśmiechnąć na widok tych karykaturalnych pojazdów ze skrzydłami oraz robotów usługujących ludziom w strojach z XIX stulecia. Kontrast między barwnymi wyobrażeniami o przyszłości a rzeczywistym XXI wiekiem jest wręcz groteskowy. A szkoda, bo fakt, że przewidywania naszych przodków nas bawią, jest jednym z symptomów niekorzystnej zmiany, która zaszła w ostatnim stuleciu.

Zawiedzione nadzieje

Ilustracje doskonale oddają ducha panującego jeszcze w pierwszej połowie XX wieku. W tamtym okresie zarówno naukowcy, jak i artyści sypali niczym z rękawa obietnicami cudów techniki, które czekać miały tuż za rogiem. Latające samochody, koniec pracy, kolonie na innych planetach, teleportacja, androidy, bezprzewodowy przesył energii, posiłek w formie tabletki czy transfer umysłu do maszyny. Żadna z tych obietnic nie została zrealizowana.

Wymownym odbiciem zmiany w podejściu kolejnych pokoleń do przyszłości jest kino science fiction. Jak wskazuje David Graeber w książce „Utopia regulaminów”, pomiędzy produkcjami, które powstały w powojennych dekadach, a współczesnymi wizjami roztaczanymi przez fantastykę naukową nastąpiła fundamentalna zmiana. Akcja starszych filmów sci-fi dzieje się zazwyczaj w określonym miejscu w czasie. Wyreżyserowana w 1968 roku „Odyseja Kosmiczna” odbywa się w 2001 roku, „Blade Runner” z 1982 zaś – w 2019. W odległej o zaledwie kilka dekad przyszłości bohaterowie i bohaterki tych produkcji podróżują w czasie, latają w kosmos czy wykorzystują androidy. Współczesne filmy sci-fi dzieją się w okresie bliżej nieokreślonym. Nie wiemy, kiedy rozgrywa się akcja w nowym „Mad Maksie” czy „Insterstellar”. Przyszłość przestała być dla nas czasem, który ma nadejść, a zaczęła – alternatywnym do naszego wymiarem.

Graeber stawia w tym kontekście zasadne pytanie: jaka byłaby reakcja fana filmów science fiction z lat 60., przyzwyczajonego do widoku plastikowych modeli statków kosmicznych, gdyby nagle pokazać mu najnowsze Gwiezdne Wojny ze wszystkimi niesamowitymi efektami specjalnymi? Prawdopodobnie byłby rozczarowany. W XXI wieku mieliśmy żyć w takim świecie, a nie coraz sprawniej go symulować.

Koniec innowacji

Rzecz nie w tym, że nasi przodkowie mieli naiwne oczekiwania względem postępu technicznego. Rozpowszechnienie się na przestrzeni jednego pokolenia pralek, kuchenek mikrofalowych, środków antykoncepcyjnych, laserów, telewizji, samochodów, samolotów, nowych źródeł energii, klimatyzacji czy szczepionek dawało wszelkie powody, by ufać przeczuciu, że za kolejne kilkadziesiąt lat roboty będą wykonywać za nas całą pracę, a my odpoczywać będziemy na Marsie.

Nadzieje o podboju kosmosu były zrozumiałe u ludzi, za życia których maksymalna prędkość, z jaką może poruszać się człowiek, wzrosła z nieco ponad 100 kilometrów na godzinę (XIX-wieczny pociąg) do 39 897 (statek Apollo 10). Marzenia o nieśmiertelności nie powinny dziwić, gdy w USA od roku 1900 do 1980 przeciętna długość życia wzrosła aż o 25 lat. Tymczasem nie tylko większość wyczekiwanych technologii się nie pojawiła, ale rozwój w wielu dziedzinach w ogóle się zatrzymał. Rekord prędkości statku Apollo 10 z 1969 roku nie został pobity do dnia dzisiejszego, a przeciętna długość życia od lat 80. wzrosła zaledwie o cztery lata.

Porównać możemy także wyposażenie przeciętnej kuchni z 1900 roku, w której często nie było ani bieżącej wody, ani elektryczności, z kuchnią amerykańskiej rodziny z klasy średniej lat 70., wyposażoną w mikrofalę, kuchenkę gazową, lodówkę, zmywarkę i piekarnik. Od tamtej pory w naszych kuchniach nie pojawiło się wiele nowych urządzeń, a na pewno nie tego kalibru co pralka czy kuchenka.

To samo tyczy się czasu pracy. W 1930 roku wybitny ekonomista John Maynard Keynes przewidywał, że wraz z rozwojem technologii i idącym za nim wzrostem produktywności wnuki mu współczesnych pracować będą piętnaście godzin tygodniowo. Była to wizja uzasadniona, biorąc pod uwagę fakt, że za życia Keynesa czas pracy w większości sektorów gospodarki skrócił się z kilkunastu do ośmiu godzin dziennie. Od tamtej pory – mimo wielokrotnego wzrostu produktywności – ustawowy czas pracy nie zmniejszył się ani o minutę.

Ludzie żyjący w pierwszej połowie XX wieku mieli racjonalne powody, aby przypuszczać, że sprawdzi się przynajmniej część ich prognoz. To się niestety nie zdarzyło. Nie ma jednak powodów, by sądzić, że osiągnęliśmy jakiś z góry określony pułap innowacyjności. To raczej postęp naukowo-techniczny w pewnym momencie zmienił się tak, że rozwój gospodarczy przestał być napędzany strukturalnymi innowacjami.

Kapitalizm i symulacja postępu

Co dokładnie się stało? „W latach 70. XX wieku nastąpiło głębokie przeobrażenie, polegające na porzuceniu inwestycji w technologie, które otwierały drogi do alternatywnych modeli przyszłości, na rzecz inwestycji w technologie, które wzmacniają dyscyplinę pracy i mechanizmy kontroli” – czytamy u Graebera. Przyczyny tej zmiany były z jednej strony ekonomiczne, związane z rozpowszechnieniem neoliberalizmu. Z drugiej strony – biurokratyczne, związane z upodobnieniem instytucji publicznych do korporacji.

Ekonomiczne źródła tego przeobrażenia wpisane są w samą naturę systemu kapitalistycznego. Konkurencja między przedsiębiorstwami skłania je do nieustannego obniżania kosztów produkcji, między innymi przez mechanizację pracy. Dzięki niej innowator może albo zaoferować produkt po tej samej cenie co konkurencja, płacąc mniej za jego wytworzenie, albo zwiększyć swój udział w rynku, oferując produkt po niższej cenie. Lecz gdy tylko innowacyjne rozwiązanie zostanie skopiowane przez konkurentów, zyski natychmiast znikają. Co więcej, coraz bardziej efektywna technologia podnosi produktywność na tyle, że koszt wyprodukowania każdego kolejnego egzemplarza stopniowo zbliża się do zera. Właśnie dlatego mechanizacja, która w krótkim okresie przynosi korzyść poszczególnym przedsiębiorstwom, długoterminowo przynosi spadek stopy zysku dla wszystkich firm.

W latach 60. przedsiębiorcy, którzy to dostrzegli, zaprzestali dalszej robotyzacji fabryk na rzecz przeniesienia produkcji do krajów globalnego Południa. Umożliwił im to rozwój informatyki, jedynej dziedziny, w której od lat 60. dokonał się skokowy postęp. Jej rozwój pozwolił na wdrożenie nowych technik przetwarzania informacji – idealnych narzędzi w służbie kontroli, koordynacji i komunikacji na globalną skalę. Przedsiębiorstwa zyskały możliwość przeniesienia produkcji tam, gdzie siła robocza jest tańsza i gdzie nie trzeba czynić kosztownych inwestycji, żeby wciąż móc konkurować ceną.

Ubrania, które na sobie nosimy, nie zostały przecież wyprodukowane przez roboty, choć rozwój technologiczny na to pozwala. Zostały wyprodukowane przez zarabiające pół dolara na godzinę szwaczki z Bangladeszu, a następnie przywiezione na drugi koniec świata. Obecnie to tania praca wypiera mechanizację, nie odwrotnie. Co więcej, trend ten widać także w sektorze wysokich technologii.

W zeszłym roku przedsiębiorca Sachin Dev Duggal wystartował z platformą Engineer.AI. Za pomocą sztucznej inteligencji miała budować spersonalizowane mobilne aplikacje oraz strony internetowe. Zmechanizowanie pracy zespołu programistów miało pozwolić na budowanie odpowiadających naszym potrzebom aplikacji trzykrotnie szybciej i za dwukrotnie mniejszą cenę. Pomysł był niegłupi, więc startup pozyskał blisko trzydzieści milionów dolarów na jego realizację. Niestety okazało się, że tą sztuczną inteligencją od początku była całkiem niesztuczna grupa indyjskich programistów, którzy ręcznie pisali kod.

Analogicznie Facebook zarzeka się, że chroni społeczność użytkowników przed dziecięcą pornografią czy brutalnymi nagraniami z terrorystycznych egzekucji, wykorzystując sztuczną inteligencję. Prawda, którą ujawnił dokument „Czyściciele internetu”, jest zgoła odmienna. Tą sztuczną inteligencją są tysiące filipińskich pracownic i pracowników, których jedynym zadaniem jest przeglądanie przez osiem godzin dziennie dziesiątek tysięcy drastycznych nagrań i zdjęć zawierających sceny samobójstw, gwałtów i egzekucji. Z marginesem błędu trzech pomyłek w miesiącu decydują ręcznie o tym, co zostawić, a co usunąć.

Komu zawdzięczamy iPhone’a?

Stopniowe przenoszenie produkcji do krajów Trzeciego Świata współgrało z wzrostem popularności ideologii neoliberalnej, wedle której rola państwa w procesie wytwarzania innowacji jest i powinna być marginalna. Przekonani do tego politycy drastycznie obniżyli podatki dla przedsiębiorstw, wierząc, że prywatne inwestycje na wolnym rynku wygenerują postęp technologiczny. Ale wbrew intuicjom zmiany w systemie podatkowym zatrzymały strumień funduszy płynących do tej pory na badania i rozwój. Dopóki zysk pozostawał wysoko opodatkowany, z perspektywy firmy lepiej było przeznaczać środki na B+R niż wypłacać akcjonariuszom. Teraz ta bariera zniknęła. Jednocześnie postępująca wraz z rozwojem informatyki finansjalizacja gospodarki dała początek nowym systemom rozliczania pracy, a mianowicie wynagradzaniu kadry kierowniczej akcjami spółki.

W konsekwencji menedżerowie zaczęli wydawać wyrobioną nadwyżkę finansową na akcje własnej firmy zamiast na badania i rozwój czy podwyżki dla pracowników. Podnosiło to wartość portfeli giełdowych akcjonariuszy, choć zupełnie nie wpływało na długookresowy rozwój przedsiębiorstwa.

Z forsowaną przez neoliberalnych reformistów narracją o prywatnym sektorze, będącym jakoby głównym źródłem technologicznych innowacji, rozprawiła się w książce „Przedsiębiorcze państwo” Mariana Mazzucato. Jak wskazuje autorka, nie byłoby iPhone’a bez Internetu, GPS, półprzewodników, ekranów LCD czy baterii litowo-jonowych – kluczowych technologii opracowanych przez agencje państwowe i uniwersytety. Geniusz Steve’a Jobsa polegał raczej na poskładaniu już opracowanych pomysłów i skutecznym marketingu niż na stworzeniu od zera rzeczywistych innowacji. Właśnie dlatego wydatki Apple na badania i rozwój w okresie premier najważniejszych produktów mogły wynosić zaledwie 5 procent przychodu firmy.

Nie byłoby także Elona Muska, gdyby nie rządowe kontrakty i subsydia dla Tesli na wczesnym etapie jej działalności. W dotacjach i ulgach podatkowych firma otrzymała 2,4 miliarda dolarów. Wbrew obiegowej opinii to nie fundusze venture capital odpowiadają za wsparcie finansowe dla przełomowych technologii, stronią bowiem od realnego ryzyka, licząc na zwrot w perspektywie paru lat. Stanowczo za krótkiej dla rozwoju prawdziwie radykalnych innowacji, jak odnawialne źródła energii czy nanotechnologia.

Zdaniem Mazzucato to państwo, za sprawą zamówień publicznych, finansuje przełomowe technologie i tworzy dla nich rynek. Ono także ponosi ryzyko pracy nad badaniami, które – choć często nieopłacalne w kilkuletniej perspektywie – mają szansę zupełnie odmienić losy ludzkości.

Bajka o prywatnym sektorze służy natomiast utrzymaniu prawa patentowego w postaci pozwalającej firmom czerpać zysk z wynalazków, które powstały w procesie stymulowanym przez państwo. Najlepiej problem unaocznia przykład koncernów farmaceutycznych. Skoro ponosimy ryzyko i koszty prowadzenia badań – argumentują korporacje – to należy nam się nagroda w postaci ochrony naszej własności intelektualnej. Jednak dane pokazują, że za finansowanie aż 75 procent nowych przełomowych leków odpowiadają państwowe instytucje. Przeciętny koncern farmaceutyczny wydaje 2,5 razy więcej na marketing niż na własne badania. Najgłośniejszy ostatnimi laty przypadek dotyczył koncernu Valeant. Firma stwierdziła, że prowadzenie własnych badań jest generalnie zbyt ryzykowne. Zmniejszyła więc wydatki na produkcję nowych leków do 3 procent przychodu, dostrzegając, że bardziej opłaca się skupować patenty w celu agresywnego zawyżania cen leków. Koncern farmaceutyczny uznał, że podniesienie ceny leku ratującego życie z 890 do 26 000 dolarów jest po prostu lepszym modelem biznesowym.

Mamy tu do czynienia z klasycznym mechanizmem uspołecznienia kosztów (w końcu to podatnicy zapłacili za badania) i prywatyzacji zysków (koncerny mogą windować ceny leków do zawrotnych kwot). Taka wątpliwa moralnie dystrybucja korzyści jest też nieefektywna ekonomicznie, gdyż sprzyja demontażowi infrastruktury odpowiedzialnej za długookresowy rozwój. Dominująca od lat 70. doktryna wolnorynkowego liberalizmu, która w założeniu miała przynieść innowacyjne prosperity, w rzeczywistości zatrzymała cały proces i odsunęła kluczowe podmioty od udziału w grze.

Reżim opłacalności

Druga przyczyna kryzysu innowacji wynika z przejęcia przez państwowe agencje i uniwersytety korporacyjnych metod zarządzania. W założeniu miały się one przyczynić do wzrostu efektywności tych instytucji. Aby to osiągnąć, wprowadzono szereg mierzalnych wskaźników mających pozwolić na monitorowanie stopnia realizacji przyjętych celów. Niestety, zorientowana na wyniki kultura organizacyjna, choć sprawdza się doskonale, kiedy chcemy wprowadzić nowy produkt na rynek, zupełnie zawodzi, gdy naszym celem jest rozwój oryginalnych projektów badawczych. Dzieję się tak, ponieważ architektura korporacyjna – paradoksalnie – mnoży liczbę nieproduktywnych zadań administracyjnych oraz premiuje nieoryginalne pomysły, których rezultaty da się przewidzieć.

Aby tego dowieść, David Graeber przytacza obserwacje z wieloletniej pracy na uniwersytecie. Mimo iż uczelnie zatrudniają coraz większe ilości pracowników biurowych (wzrost aż o 240 procent od 1985 do 2005 roku; co znamienne, dwukrotnie większy na uczelniach prywatnych niż na państwowych), wypełnianie formularzy zaczęło pochłaniać naukowcom coraz więcej czasu. Wnioski o granty, ocena kwalifikacji pracowników, ewaluacja procesów, definiowanie projektów – papierkowa robota zamiast prowadzenia badań czy zajęć. Narzędzia te zostały wprowadzone w celu zacieśniania konkurencji między badaczami i badaczkami, co miało zwiększyć wydajność instytucji. W rezultacie praca naukowa sprowadzona została jednak do walki o to, kto się bardziej umiejętnie „sprzeda”.

Zapożyczona od korporacji fiksacja na punkcie opłacalności i efektywności zabija prawdziwe innowacje w zarodku. Jak to ujął fizyk Don Braben: „Wielu naukowców, którzy dokonali przełomowych odkryć w XX wieku, jak Einstein czy Planck, nie zdobyłoby dziś finansowania na swoje badania. Do 1970 roku dobrzy naukowcy mieli zagwarantowane środki, tak po prostu”. Nie musieli tracić czasu na udowadnianie w formularzach, że ich praca jest opłacalna, że przyniesie konkretne rezultaty w przyszłości. Mogli po prostu pracować.

Graeber dodaje, że na tę samą dolegliwość cierpią nauki społeczne. Współczesny Michel Foucault czy Pierre Bourdieu raczej nie znalazłby etatu na uczelni. Właśnie dlatego, zdaniem autora, od trzydziestu lat w Stanach Zjednoczonych nie pojawiła się ani jedna przełomowa pozycja socjologiczna. „Niegdyś uniwersytet bywał schronieniem, jakie społeczeństwo oferowało błyskotliwym ekscentrykom, geniuszom i ludziom, których praca nie przekładała się bezpośrednio na wyniki praktyczne. Te czasy minęły. Dziś króluje profesjonalna autopromocja i marketing” – podsumowuje Graeber.

Kryzys wyobraźni

Dokonaliśmy kuriozalnego odwrócenia środków i celów – biurokracja przestała być narzędziem do urzeczywistniania fantastycznych wizji, jak lot na Księżyc. Dziś nawet w obliczu zagłady klimatycznej najpotężniejszy kraj świata przestrzega przed podejmowaniem zbyt ambitnych kroków.

Jak wyjść z tego impasu? Graeber proponuje zacząć od odrzucenia poglądu, który mówi, że technologia jest siłą neutralną ideologicznie i rozwija się niezależnie od społeczeństwa. Według autora twierdzenia o nieuchronności kapitalizmu wynikają właśnie z takiego przekonania. Jeśli przestaliśmy wierzyć, że możliwy jest jakikolwiek inny system ekonomiczny, to siłą rzeczy nie potrafimy wyobrazić sobie radykalnie lepszej przyszłości, a co za tym idzie – żadnej nowej rewolucyjnej technologii.

Oczywiście, nie towarzyszy nam poczucie, że osiągnęliśmy kres innowacji. Znaczyłoby to, że kapitalizm nie generuje postępu. Dlatego trwamy w przekonaniu, że co rusz powstają nowe cuda techniki. Niemniej większość z nich sprowadza się w najlepszym razie do udoskonalania istniejących rozwiązań (trochę lepszy aparat w telefonie), a w najgorszym – do tak kuriozalnych pomysłów Doliny Krzemowej jak wymyślenie przez Elona Muska metra na nowo (z tą różnicą, że mieści się w nim tylko pięć osób), opracowanie wyciskarki do wyciśniętego soku lub pokładanie absurdalnych nadziei w blockchainie.

Czy mamy jeszcze szansę doświadczyć skokowych przełomów technologicznych, jakich doświadczyli nasi przodkowie? Odpowiedź brzmi: nie. A przynajmniej nie w ramach obecnego systemu, który przedkłada eksploatację nad strukturalne innowacje; który cofa się przed próbą realizacji „nieopłacalnych” projektów; który koncentruje się na wzroście abstrakcyjnych wskaźników; oraz który kolonizuje każdy typ instytucji korporacyjnym myśleniem. Dlatego to, co możemy zrobić, to przestać szukać pozornych rozwiązań wśród racjonalnych kalkulacji i zacząć zastanawiać się nad systemem, w którym technika zacznie służyć większości z nas.

 

Potrzebujemy Twojego wsparcia
Od ponad 15 lat tworzymy jedyny w Polsce magazyn lewicy katolickiej i budujemy środowisko zaangażowane w walkę z podziałami religijnymi, politycznymi i ideologicznymi. Robimy to tylko dzięki Waszemu wsparciu!
Kościół i lewica się wykluczają?
Nie – w Kontakcie łączymy lewicową wrażliwość z katolicką nauką społeczną.

I używamy plików cookies. Dowiedz się więcej: Polityka prywatności. zamknij ×