Adamowicz: Biznes jak żaden inny
Z Konradem Adamowiczem rozmawia Maciej Możański.
Dostałem zadanie przeprowadzenia wywiadu o związkach między Digital Service Act a dezinformacją. Tymczasem zamiast w Ministerstwie Cyfryzacji czy Pałacu Prezydenckim znajdujemy się w Ministerstwie Spraw Zagranicznych – dlaczego?
Ponieważ w wąskim, ale za to bardzo ważnym wycinku, unijna DSA oraz polska interpretacja tej ustawy dotyczą kwestii naszego bezpieczeństwa informacyjnego.
Czym jest bezpieczeństwo informacyjne?
Najprościej mówiąc, chodzi o zdolność państwa do monitorowania i odpowiadania na zagrożenia w ramach naszej przestrzeni informacyjnej. To łączy się z suwerennością danych, czyli możliwością do decydowania o miejscu ich przechowywania i przetwarzania, ponieważ obie kwestie są kluczowe dla bezpieczeństwa Polski. W tym sensie DSA jako prawo stanowi ważny instrument z punktu widzenia Ministerstwa Spraw Zagranicznych. Dostarcza nam narzędzi, dzięki którym możemy o nie lepiej dbać.
Zanim przejdziemy do kwestii dezinformacji oraz bezpieczeństwa informacyjnego przypomnijmy czym jest DSA.
To kolejna z unijnych regulacji, których celem jest uporządkowanie rynku cyfrowego. To prawo już obowiązuje na poziomie europejskim – od 2022 roku – a więc również Polska jest zobowiązana do jego stosowania. Nie mówimy o projekcie czy zapowiedzi, lecz o rozporządzeniu, które wywołuje konkretne skutki prawne dla państw członkowskich oraz największych platform internetowych.
Skąd bierze się w takim razie zamieszanie w debacie publicznej na początku 2026 roku?
Przy regulacjach ponadnarodowych, takich jak DSA, konieczne jest ich dostosowanie na poziomie krajowym. Chodzi przede wszystkim o wskazanie organu odpowiedzialnego za nadzór oraz określenie procedur odwoławczych. W większości państw Unii takie ustawy już przyjęto. W Polsce proces ten nadal trwa i stał się przedmiotem sporu politycznego. W praktyce dyskusja dotyczy tego, gdzie przebiega granica między ochroną użytkowników a ochroną wolności słowa.
Na czym polega Digital Service Act?
Chodzi przede wszystkim o działalność największych platform internetowych – tak zwanych VLOP-ów i VLOSE-ów – czyli podmiotów mających ponad 45 milionów użytkowników miesięcznie w Unii Europejskiej. To między innymi Facebook, Instagram, Google, Amazon czy TikTok. Regulacja ma wprowadzić większą przejrzystość w zakresie ich działania oraz wyrównać szanse użytkowników w sporach z globalnymi korporacjami, które dotąd funkcjonowały w oparciu o własne, często niejasne regulaminy.
W praktyce oznacza to na przykład obowiązek jasnego uzasadniania decyzji o usunięciu treści, informowania użytkownika o powodach zawieszenia konta czy zapewnienia realnej ścieżki odwoławczej. Dotąd wielu użytkowników doświadczyło sytuacji, w której ich materiały znikały bez wyraźnego wyjaśnienia, a jedynym punktem odniesienia był ogólnikowy regulamin napisany przez platformę.
DSA to tylko część szerszego pakietu regulacji rynków cyfrowych. Jakie są cele unijnej polityki wobec nich?
To próba wyrównania szans. Platformy cyfrowe przez lata korzystały z ogromnej swobody działania, mimo że ich wpływ na debatę publiczną, procesy wyborcze czy życie społeczne stał się fundamentalny. To tam prowadzone są kampanie wyborcze, tam komunikują się instytucje publiczne, tam powstają ruchy społeczne.
Jednocześnie to prywatne przedsiębiorstwa, których model biznesowy opiera się na sprzedaży reklam. A reklama wymaga uwagi użytkownika. Im dłużej korzystamy z platformy, tym więcej danych o nas gromadzi i tym precyzyjniej może dopasować przekaz reklamowy.
Przeciwnicy regulacji powiedzą, że przecież platformy mają swoje wewnętrzne regulacje. Po co w takim razie dodatkowe narzędzia? Czy to nie próba wprowadzenia cenzury pod przykrywką ochrony użytkowników?
Wewnętrzne regulaminy są tworzone przez same platformy i przede wszystkim w ich interesie. Użytkownik, którego konto zostało zawieszone lub którego treści usunięto, bardzo często nie ma realnego instrumentu odwoławczego poza formularzem kontaktowym, który nie opiera się na publicznym prawie, lecz na prywatnym regulaminie.
DSA nie wprowadza nowych kategorii zakazanych treści. Pornografia dziecięca, nawoływanie do przemocy czy terroryzm były i są zakazane na mocy prawa krajowego i międzynarodowego. Rozporządzenie dotyczy procedur i przejrzystości, nie katalogu poglądów dopuszczalnych w debacie.
Przez lata jako społeczeństwa żyliśmy w przeświadczeniu, że Facebook czy Twitter to odpowiedniki współczesnej agory. Na czym polega problem z taką perspektywą?
Problem jest wpisany w model biznesowy tych platform. Początkowo internet i media społecznościowe wydawały się przestrzenią spontanicznej wymiany myśli. W Polsce pamiętamy Naszą Klasę, Grono czy Gadu-Gadu. Z czasem jednak rynek uległ oligopolizacji – zostało kilka podmiotów obsługujących zdecydowaną większość użytkowników.
Ich celem nie jest zorganizowanie debaty publicznej, lecz maksymalizacja przychodów z reklamy i handlu danymi użytkowników. Aby to osiągnąć, muszą przyciągać i utrzymywać ich uwagę. Tymczasem badania pokazują, że najbardziej angażujące są treści budzące silne emocje – zwłaszcza negatywne: złość, strach, oburzenie.
W jaki sposób to działa w praktyce?
Załóżmy, że pojawia się uproszczona informacja: „Unia Europejska zakaże w Polsce ogrzewania gazowego” albo „Rząd potajemnie przyjmuje tysiące migrantów”. Taki komunikat wywołuje silną reakcję. Użytkownicy udostępniają go z oburzeniem, komentują, spierają się. Algorytm interpretuje to jako sygnał wysokiego zaangażowania i promuje treść dalej.
W efekcie przekaz – nawet jeśli nieprawdziwy lub mocno zniekształcony – zyskuje większy zasięg niż zniuansowane, rzetelne wyjaśnienie. To mechanizm, który sprzyja dezinformacji.
Czy platformy robią to świadomie?
Tak. Ich wewnętrzne analizy pokazują, jakie treści generują największe zaangażowanie. Algorytmy są optymalizowane pod kątem utrzymywania uwagi. Platformy wykorzystują wiedzę z zakresu psychologii i nauk behawioralnych. Nie chodzi o spisek, lecz o konsekwencję modelu biznesowego.
W czym problem, skoro w konsekwencji platformy wyświetlają dopasowane do naszych preferencji reklamy?
Problemem są koszty społeczne. Jeżeli infrastruktura debaty publicznej premiuje treści skrajne i polaryzujące, to wpływa to na jakość dyskusji politycznej i poziom zaufania do instytucji.
Widzieliśmy to przy okazji pandemii COVID-19, gdy równolegle z oficjalnymi komunikatami pojawiały się masowe narracje o „plandemii” czy „mikroczipach w szczepionkach”. Widzieliśmy to także po rozpoczęciu rosyjskiej agresji na Ukrainę – gdy rozpowszechniano przekazy o „wojnie zastępczej NATO” czy „ukraińskich uchodźcach żyjących z luksusowych zasiłków”. Część z tych treści była elementem skoordynowanych działań.
Powiedział pan o działaniach skoordynowanych. Czym są operacje informacyjne?
W analizie bezpieczeństwa używa się dziś pojęcia FIMI – Foreign Information Manipulation and Interference, czyli zagranicznej manipulacji i ingerencji w przestrzeni informacyjnej. To zjawisko szersze niż pojedynczy fake news. Obejmuje całe spektrum działań: od tworzenia fałszywych portali stylizowanych na lokalne media, przez finansowanie influencerów, po wykorzystywanie sieci botów.
Celem nie jest przekonanie wszystkich do jednej narracji, lecz osłabienie zaufania do instytucji publicznych i zwiększenie polaryzacji. Jeżeli społeczeństwo zaczyna wierzyć, że „wszyscy kłamią”, że „wybory są sfałszowane”, że „Unia jest totalitarna”, to system demokratyczny słabnie.
Kto oprócz Rosji sięga obecnie po arsenał FIMI?
Łatwiej byłoby chyba wymienić, kto tego nie robi. W ostatnich latach, a nawet miesiącach, z możliwościami, które dają generatywne duże modele językowe (LLM-y), operacje wpływu stały się bardziej powszechne. Dla nas najważniejsze jest oczywiście to, co dzieje się w Polsce, a także w Ukrainie, Mołdawii, Rumunii czy krajach bałtyckich, bo nasi adwersarze intensywnie ingerują w przestrzeń informacyjną tych państw, jednak nieustannie monitorujemy zagrożenia dla naszych interesów narodowych w infosferach niemal wszystkich państw.
Jak wyglądają takie działania w praktyce?
Analizy pokazują, że identyczne lub bardzo podobne treści pojawiają się jednocześnie na wielu kontach, często o zbliżonej strukturze językowej. Czasem w krótkim czasie powstają setki profili komentujących w jednym tonie. Takie zjawisko określa się jako skoordynowane nieautentyczne zachowanie.
Przykładem może być dzień 10 września 2025 roku, kiedy – według analiz NASK – w polskiej przestrzeni cyfrowej pojawiło się ponad 60 tysięcy postów zawierających treści dezinformacyjne, które dotarły do milionów użytkowników. Skala i synchronizacja wskazywały na zorganizowany charakter działań.
Jak operacje FIMI mają się do działań cyfrowych olbrzymów?
Model biznesowy platform – oparty na amplifikacji treści budzących emocje – jest zbieżny z celami operacji wpływu. Aktorzy zagraniczni identyfikują tematy zapalne: spory o migrację, ceny energii, relacje z Unią Europejską. Następnie wzmacniają najbardziej polaryzujące narracje. Algorytmy, reagując na wysokie zaangażowanie, dalej je promują.
To nie musi oznaczać formalnej współpracy. Wystarczy strukturalna zbieżność interesów: chaos informacyjny zwiększa emocje, a emocje zwiększają zaangażowanie.
Czy każda krytyka Unii Europejskiej albo NATO to element operacji wpływu?
Nie. Wolność słowa obejmuje bardzo dużo – w tym także postulaty wyjścia z Unii czy NATO. Problem zaczyna się wtedy, gdy takie postulaty nie są formułowane przez obywateli Unii, ale masowo promowane przez nieautentyczne konta, finansowane z zagranicy i koordynowane w ukryty sposób. Kluczowe jest więc nie tylko to, „co” jest mówione, lecz także – a może czasami nawet bardziej – „jak” i „przez kogo”.
Pułapką jest traktowanie każdej krytyki jako elementu jakiejś operacji wpływu. Tak bywa, ale nie tędy droga. Powinniśmy mniej przywiązywać uwagi do tego co jest zamieszczane na platformach, a bardziej zwracać ją na to jak dokładnie dane treści się tam znalazły – i kto je może rozprzestrzeniać. Cały aparat rosyjskiej propagandy można podzielić na kilka segmentów, wśród których tylko jeden stanowią oficjalne wypowiedzi rosyjskich instytucji czy państwowe media, jak agencja TASS. To też media de facto należące do Kremla, jak Russia Today (RT) czy Sputnik, które w Unii są zakazane, ale już poza nią – jak RT en Español w Ameryce Południowej – stanowią często podstawowe źródło informacji.
Jak działa przestrzeń informacyjna?
To całość mediów i platform, w których odbywa się komunikacja społeczna. Nie ogranicza się do języka polskiego. Narracje z anglosaskiej infosfery bardzo szybko przenikają do polskiej debaty. Jeżeli w Stanach Zjednoczonych wybucha spór o określoną kwestię społeczną, jego echo może pojawić się w Polsce w ciągu kilku godzin, wzmocnione przez algorytmy.
Przykładem jest import narracji o rzekomym „masowym nadużywaniu systemu zasiłków”. Mit tak zwanej welfare queen z czasów Ronalda Reagana funkcjonował w zupełnie innych realiach społecznych. W Polsce, gdzie zasiłki dla bezrobotnych są niskie i czasowe, podobna narracja nie ma oparcia w faktach – a mimo to bywa powielana, ponieważ budzi emocje.
Co w takim razie daje DSA?
Rozporządzenie przewiduje między innymi możliwość dostępu ośrodków badawczych do danych platform w celu analizy algorytmów i identyfikowania wzorców manipulacji. To istotne, ponieważ w ostatnich latach platformy ograniczały dostęp do interfejsów programowania (API), co utrudniało niezależne badania.
DSA nie ma na celu „zabezpieczenia” przestrzeni informacyjnej w sposób totalny – to byłoby sprzeczne z zasadami demokracji. Jego celem jest zwiększenie przejrzystości i ograniczenie możliwości wykorzystywania infrastruktury cyfrowej do skoordynowanej manipulacji.
Regulacje takie jak DSA idą zarówno wbrew interesom big-techów, jak i celom operacyjnym Kremla. Skąd w takim razie bierze się napięcie w debacie publicznej związane z dostosowywaniem unijnych regulacji do krajowego prawa?
Powtórzę: podstawowym sposobem działania wrogich nam aktorów na płaszczyźnie międzynarodowej jest identyfikowanie konfliktów oraz ich wykorzystywanie do realizacji własnych celów. W przypadku DSA różnica poglądów między prezydentem RP a propozycjami nas jako strony rządowej jest kwestią odpowiedniego balansu między wolnością słowa w ramach debaty publicznej a ochroną użytkowników.
Słyszę i rozumiem argumenty przeciwko, zwłaszcza te o cenzurze. Uważam, że jako intuicja oraz rodzaj odruchu są one cenne i ważne. Nikt nie chciałby, aby urzędnicy kontrolowali przestrzeń informacyjną danego kraju: do tego aspirują wyłącznie autorytarne oraz totalitarne reżimy. DSA natomiast nie wprowadza żadnych nowych kategorii tego, czego nie można powiedzieć. Pornografia dziecięca była, jest i będzie zakazana; znajduje się w wyszczególnionym katalogu treści, które nie mogą być publikowane. To nie jest i nie może być kontrowersyjne, ponieważ wolność słowa możliwa jest tylko w określonych granicach.
Skąd w takim razie prezydenckie weto?
Nawiązując do uzasadniającej je wypowiedzi pana prezydenta Karola Nawrockiego, ale także do późniejszego dokumentu, który był uzupełnieniem i rozszerzeniem tej argumentacji widać, że osią krytyki Pałacu Prezydenckiego są obawy dotyczące ograniczania wolności słowa przy pomocy zapisów ustawy. Uważam, że to bardzo cenne intuicje, natomiast w wypadku DSA są mocno chybione: nie poszerza się katalogu treści zakazanych. Urząd Komunikacji Elektronicznej (UKE) nie usuwa treści samodzielnie, nie ma również uprawnień do ingerowania w legalne wypowiedzi. Ministerstwo Cyfryzacji w odpowiedzi złożyło dwa kolejne projekty, w których starano się odpowiedzieć na te obawy.
Co z zarzutem dotyczącym upartyjnienia instytucji uprawnionych do przeprowadzania kontroli?
Jeśli faktycznie by do tego doszło, to stanowiłoby naruszenie zapisów artykułu 50 DSA. Koordynatorzy ds. usług cyfrowych muszą wykonywać swoje działania w sposób bezstronny i przejrzysty. Jeśli pojawiłyby się co do tego wątpliwości, zawsze pozostaje otwarta ścieżka kontroli sądowej, która gwarantuje ostateczną i niezależną weryfikację.
Członkowie korpusu polskiej służby cywilnej wykonują swoje zadania w oparciu o przepisy prawa, niezależnie od opcji politycznej, która aktualnie rządzi. Zdaję sobie sprawę z tego, że poziom zaufania do instytucji państwowych w naszym kraju jest obszarem, nad którym musimy nieustannie pracować, ale apeluję o zaufanie do rzetelności i merytorycznej pracy urzędników. Całemu aparatowi państwowemu przyświeca tu wspólny cel: zapewnienie bezpieczeństwa i integralności naszej przestrzeni informacyjnej, przy jednoczesnym, poszanowaniu konstytucyjnie gwarantowanej wolności słowa. To jest kwestia naszego wspólnego bezpieczeństwa, a nie bieżącej polityki.
Unia Europejska nie chce więc ograniczać wolności słowa?
Nie. DSA wyraźnie wyklucza usuwanie treści legalnych, nawet jeśli są one niewygodne politycznie lub światopoglądowo. Problem polega na tym, że aktorzy antydemokratyczni wykorzystują swobody demokratyczne do ich podważania. DSA jest próbą odpowiedzi na to napięcie: jak chronić otwartą debatę, jednocześnie utrudniając prowadzenie operacji informacyjnych, które mają tę debatę zdestabilizować.
Ostatecznie chodzi o więc znalezienie proporcji między ochroną wolności słowa a ochroną przestrzeni informacyjnej. Obie wartości nie muszą – a nawet nie powinny – się nawzajem wykluczać, oczywiście pod warunkiem, że regulacje są precyzyjne, przejrzyste i poddane demokratycznej kontroli.

