Wprowadzenie
Internet właśnie wszedł w nową epokę — regulowaną przez prawo.
To już nie „dziki zachód” social mediów. Od 2024 roku wszystkie największe platformy (Facebook, Instagram, YouTube, TikTok, X, Google, Amazon) podlegają nowym europejskim zasadom: DSA (Digital Services Act) i AI Act.
Ta książka w prosty sposób pokazuje, co to znaczy dla Ciebie — twórcy, przedsiębiorcy, wydawcy lub kogoś, kto po prostu działa online.
CZĘŚĆ I. Nowy porządek Internetu
Rozdział 1. Narodziny nowego Internetu
Jeszcze kilka lat temu Internet był miejscem, gdzie rządziły kliknięcia, reklamy i algorytmy.
Platformy decydowały, co widzimy, kogo słyszymy i jakie treści mają szansę przebić się do milionów ludzi.
Przez lata ten system działał bez większej kontroli — dopóki nie wydarzyło się kilka rzeczy, które wstrząsnęły światem technologii.
Skandale, które zmieniły wszystko
W 2018 roku świat obiegła historia Cambridge Analytica.
Brytyjska firma analityczna pozyskała dane ponad 87 milionów użytkowników Facebooka, wykorzystując je do tworzenia profili psychologicznych wyborców w USA i Wielkiej Brytanii.
Dane z pozoru „niewinne” — lajki, zainteresowania, quizy — zostały użyte do celowanego wpływania na decyzje polityczne.
To był moment, w którym opinia publiczna po raz pierwszy zobaczyła, jak ogromną władzę mają algorytmy i dane.
Rok później media opisały system rekomendacji YouTube’a, który celowo promował filmy kontrowersyjne i emocjonalne, bo to zwiększało czas oglądania i zyski z reklam.
Z raportu The Wall Street Journal wynikało, że ponad 70% czasu spędzanego w YouTube pochodziło z rekomendacji algorytmu — a nie z wyszukiwań użytkowników.
TikTok z kolei w latach 2020–2022 był krytykowany za brak przejrzystości danych i za to, że treści polityczne lub związane z mniejszościami były „niewidzialnie” ograniczane w zasięgach.
To wszystko doprowadziło do powstania nowej idei: Internetu, który musi mieć granice odpowiedzialności.
Europa mówi „dość”
W 2020 roku Komisja Europejska przedstawiła dwa projekty ustaw, które stały się fundamentem nowej ery Internetu:
— DSA — Digital Services Act,
— DMA — Digital Markets Act.
Pierwsza — DSA — reguluje treści i odpowiedzialność platform.
Druga — DMA — dotyczy pozycji rynkowej gigantów technologicznych.
Ursula von der Leyen w swoim przemówieniu w Parlamencie Europejskim w 2021 roku powiedziała jasno:
„To nie użytkownicy mają służyć algorytmom. To algorytmy mają służyć ludziom.”
Te słowa stały się mottem całej reformy cyfrowej.
W 2022 roku Parlament Europejski przyjął DSA i DMA większością głosów.
W lutym 2024 r. ustawa weszła w życie w pełnym zakresie.
Oznacza to, że Facebook, YouTube, TikTok, X (Twitter), Instagram, Google, Amazon i inne muszą dziś raportować, jak działają ich systemy.
Co dokładnie nakazuje DSA
DSA to dokument liczący ponad 300 stron, ale jego sedno da się streścić w kilku prostych zasadach:
— Przejrzystość — platformy muszą ujawniać, jak działają ich algorytmy i reklamy.
— Odpowiedzialność — użytkownik ma prawo do odwołania i wyjaśnienia decyzji.
— Bezpieczeństwo — treści nielegalne muszą być usuwane szybciej, ale z zachowaniem prawa do obrony.
— Ograniczenie manipulacji — zakaz tzw. dark patterns i celowego wprowadzania w błąd.
— Raportowanie do UE — każda duża platforma musi publikować publiczne raporty o moderacji i ryzyku systemowym.
W skrócie: to pierwszy w historii Internetu zestaw przepisów, który sprawia, że giganci cyfrowi muszą działać jak instytucje publiczne — przejrzyście i odpowiedzialnie.
Kto podlega pod DSA
UE wprowadziła pojęcie VLOP — Very Large Online Platform.
To każda platforma, która ma ponad 45 milionów aktywnych użytkowników miesięcznie w UE.
Na tej liście znalazły się m.in.:
— TikTok
— YouTube
— X (dawniej Twitter)
— Google Search
— Amazon
— Snapchat
Wszystkie te firmy są obowiązane prawem unijnym, by co pół roku raportować dane o:
— moderacji treści,
— algorytmach rekomendacji,
— reklamach kierowanych,
— ryzykach systemowych.
Te raporty są publicznie dostępne w tzw. Transparency Database,
której kopię prowadzi Komisja Europejska i Digital Services Coordinator.
Każdy obywatel może sprawdzić, jak dana platforma moderuje treści w Polsce.
Dane, które robią wrażenie
Z pierwszych raportów (wrzesień 2024) wynika, że:
— Facebook usuwa miesięcznie ok. 20 mln postów w całej UE,
— TikTok blokuje ponad 40 mln filmów kwartalnie,
— a Google kasuje rocznie ponad 5 miliardów wyników wyszukiwania po zgłoszeniach DMCA i DSA.
To pokazuje skalę — i to, że DSA realnie działa.
Wreszcie wiadomo, ile decyzji podejmuje maszyna, a ile człowiek.
Co możesz zrobić już dziś
— Zajrzyj na transparency.europa.eu
Perfekcyjnie, Wojciechu
Rozdział 2. DSA w prostych słowach
czyli co naprawdę oznacza Digital Services Act dla twórców, firm i zwykłych użytkowników
Digital Services Act, w skrócie DSA, czyli Akt o Usługach Cyfrowych, to nowe europejskie prawo, które od 17 lutego 2024 roku obowiązuje w całej Unii Europejskiej. Jego zadanie jest proste w teorii, ale ogromne w skutkach: uporządkować Internet, chronić użytkowników przed manipulacją i zmusić wielkie platformy do przejrzystości.
DSA nie jest kolejnym RODO. RODO chroni dane osobowe — nasze imię, adres czy numer telefonu. DSA natomiast chroni nasze doświadczenie w Internecie. Dotyczy tego, co widzimy, komu ufamy, jakie treści do nas docierają i dlaczego właśnie te, a nie inne.
Co reguluje DSA
Digital Services Act to ponad trzysta stron tekstu prawnego, ale można go zrozumieć w prosty sposób. To pięć głównych obszarów zmian.
Pierwszy obszar dotyczy treści. Platformy internetowe muszą teraz szybciej reagować na zgłoszenia nielegalnych materiałów, ale z zachowaniem prawa użytkownika do obrony. Nie można już po prostu usunąć posta bez uzasadnienia. Każda decyzja o moderacji musi być zarejestrowana i możliwa do odwołania.
Drugi obszar to reklamy. Każda reklama kierowana do użytkownika w Unii Europejskiej musi być oznaczona i dostępna w publicznej bazie. Oznacza to, że można sprawdzić, kto zapłacił za reklamę polityczną, do jakiej grupy była kierowana i na jakiej podstawie została wyświetlona.
Trzeci obszar to algorytmy. DSA wprowadza prawo do informacji o tym, jak działa system rekomendacji i rankingów. Użytkownik może zapytać, dlaczego widzi dane treści, i dowiedzieć się, czy decyzję podjął człowiek, czy automat. Na przykład TikTok musi ujawnić, dlaczego promuje konkretne filmy, a YouTube — na jakiej podstawie sugeruje kolejne nagrania.
Czwarty obszar to tak zwane dark patterns, czyli interfejsy wprowadzające w błąd lub wymuszające określone zachowanie. Przykładem jest przycisk „Zgódź się na wszystko” bez możliwości prostego odrzucenia. Takie praktyki są teraz w Unii nielegalne.
Piąty obszar dotyczy bezpieczeństwa dzieci. W całej UE obowiązuje zakaz targetowania reklam do osób nieletnich oraz gromadzenia danych o ich aktywności. Oznacza to, że aplikacje takie jak TikTok czy YouTube Kids muszą mieć specjalne filtry i mechanizmy ochrony młodszych użytkowników.
System nadzoru
DSA wprowadził nową strukturę nadzoru, której wcześniej nie było. Każde państwo członkowskie Unii musi mieć swojego Koordynatora ds. Usług Cyfrowych, czyli tzw. Digital Services Coordinator (DSC). W Polsce funkcję tę pełni Urząd Komunikacji Elektronicznej (UKE), współpracując z Urzędem Ochrony Konkurencji i Konsumentów oraz Ministerstwem Cyfryzacji.
Do zadań tych instytucji należy przyjmowanie skarg użytkowników, monitorowanie, jak firmy stosują przepisy DSA, przekazywanie spraw do Komisji Europejskiej, jeśli platforma ignoruje prawo, oraz publikowanie raportów o stanie bezpieczeństwa cyfrowego w Polsce.
W praktyce oznacza to, że jeśli Facebook odrzuci Twoje odwołanie bez podania przyczyny, możesz zgłosić sprawę do UKE. Urząd ma obowiązek zwrócić się do Mety i uzyskać formalne wyjaśnienie. To istotna zmiana — użytkownik nie musi już sam walczyć z globalną korporacją.
Dane i fakty
Według danych Komisji Europejskiej z czerwca 2024 roku, dwadzieścia dwie największe platformy internetowe w Unii zostały uznane za tzw. VLOP-y, czyli Very Large Online Platforms. To m.in. Facebook, Instagram, YouTube, TikTok, X (dawny Twitter), Amazon, Google Search i LinkedIn.
Meta zatrudniła dodatkowo ponad dziesięć tysięcy pracowników w działach „Trust & Safety”, by sprostać wymogom DSA. TikTok utworzył w Dublinie nowe centrum przejrzystości danych o wartości sześciuset milionów euro. YouTube uruchomił publiczny rejestr reklam dla wszystkich krajów Unii. Z kolei X otrzymał ostrzeżenie z Brukseli za brak pełnych raportów o moderacji treści.
Nie są to kosmetyczne zmiany. To największa reorganizacja funkcjonowania Internetu w ciągu ostatnich dwudziestu lat.
Twoje prawa w praktyce
DSA wprowadza katalog praw użytkownika cyfrowego. Są to prawa, których wcześniej nie było, a które dziś są zapisane w europejskim prawie.
Masz prawo do wyjaśnienia decyzji algorytmu. Każde usunięcie posta, obniżenie zasięgu czy ukrycie treści musi być uzasadnione. Platforma musi wskazać, jaki punkt regulaminu został naruszony lub jaka analiza maszynowa to wykazała.
Masz prawo do odwołania. Każda platforma ma obowiązek zapewnić formularz odwoławczy w języku użytkownika, a więc także po polsku.
Masz prawo do informacji o reklamach. Każdy użytkownik może przeszukiwać publiczną bazę i sprawdzać, jakie reklamy były kierowane w jego kraju, przez kogo i z jakim budżetem.
Masz prawo do rezygnacji z personalizacji. Możesz korzystać z wersji serwisu, w której posty i filmy wyświetlane są chronologicznie, bez filtrowania przez algorytm.
Masz prawo do zgłoszenia nadużycia. Jeśli platforma narusza przepisy, możesz złożyć zawiadomienie do polskiego Koordynatora ds. Usług Cyfrowych lub bezpośrednio do Komisji Europejskiej.
Przykład z życia
Anna, fotografka z Krakowa, zauważyła, że jej posty na Instagramie przestały trafiać do obserwatorów. Otrzymała tylko ogólną informację, że treści naruszają zasady społeczności. W oparciu o artykuł 20 DSA wysłała formalny wniosek o wyjaśnienie decyzji. Po tygodniu otrzymała raport — algorytm błędnie oznaczył jej zdjęcia jako potencjalnie erotyczne z powodu koloru skóry modeli. Po odwołaniu treści zostały przywrócone, a Meta przeprosiła i poprawiła model rozpoznawania obrazów.
To przykład, jak działa DSA w praktyce. Platforma, która dawniej mogła milczeć, teraz musi tłumaczyć swoje decyzje i przyznawać się do błędów.
Kary i odpowiedzialność
Nieprzestrzeganie DSA to nie drobne przewinienie, ale realne ryzyko finansowe. Platformy mogą zostać ukarane kwotą sięgającą sześciu procent globalnych rocznych przychodów. W przypadku Mety to nawet ponad siedem miliardów euro.
W 2024 roku Komisja Europejska rozpoczęła postępowanie przeciwko X za brak mechanizmów odwoławczych i niewystarczające raporty o moderacji. TikTok otrzymał formalne ostrzeżenie za brak skutecznych zabezpieczeń dla nieletnich użytkowników.
DSA nie jest zbiorem zaleceń, lecz prawem z sankcjami, które zaczynają działać.
Co to oznacza dla Ciebie
Dla twórców, wydawców i przedsiębiorców to moment przełomowy. Od teraz można oficjalnie pytać, dlaczego post traci zasięg, żądać dostępu do danych reklamowych, skutecznie się odwoływać i budować markę w oparciu o transparentność.
Świadomość nowych przepisów daje przewagę. Ten, kto rozumie DSA, ma większą kontrolę nad swoim wizerunkiem w sieci, bo prawo stoi po jego stronie.
Co możesz zrobić już dziś
Wejdź na stronę Transparency Database Unii Europejskiej pod adresem https://transparency.europa.eu/digital-services-act. Znajdziesz tam raporty z decyzjami Facebooka, YouTube’a i TikToka w krajach Unii.
Przygotuj własny szablon odwołania. W dalszej części książki znajdziesz przykład pisma zgodnego z artykułem 17 DSA.
W ustawieniach swoich aplikacji włącz tryb niepersonalizowany. Facebook, Instagram i TikTok muszą go udostępniać, choć często jest ukryty w zakładce prywatności.
Zacznij dokumentować sytuacje, gdy Twoje treści są ograniczane lub znikają bez powodu. Zapisuj daty, rób zrzuty ekranu i opisuj zdarzenia. W razie potrzeby będą to Twoje dowody w procedurze odwoławczej.
Rozdział 3. VLOP — czyli kim są giganci
W nowym prawie europejskim pojawiło się pojęcie, które na stałe zmienia sposób myślenia o Internecie. VLOP — Very Large Online Platform — to nie tylko określenie dużej firmy technologicznej. To oficjalny status prawny nadawany przez Komisję Europejską tym platformom, które mają największy wpływ na życie społeczne, gospodarkę i komunikację w Unii Europejskiej.
Zgodnie z artykułem 33 Digital Services Act, za VLOP uznaje się każdą platformę, która ma ponad czterdzieści pięć milionów aktywnych użytkowników miesięcznie w krajach Unii, czyli około dziesięć procent populacji całej wspólnoty. To nie przypadkowa granica, ale symboliczna — oznacza, że dana platforma ma realny wpływ na opinię publiczną i sposób, w jaki obywatele korzystają z informacji.
Oficjalna lista gigantów
Komisja Europejska prowadzi publiczny rejestr firm, które otrzymały status VLOP lub VLOSE (Very Large Online Search Engine). Na początku 2025 roku znalazły się w nim dwadzieścia dwie platformy. Wśród nich są najważniejsi gracze współczesnego Internetu: Facebook, Instagram, TikTok, YouTube, X (dawny Twitter), LinkedIn, Pinterest, Snapchat, Amazon, AliExpress, Zalando, Booking.com, Google Search, Bing, Wikipedia, Apple App Store, Google Play, WhatsApp, Messenger, Telegram, Viber i Spotify.
To właśnie te firmy odpowiadają za większość ruchu informacyjnego w sieci. Ich decyzje dotyczące moderacji treści, reklam, pozycjonowania wyników czy rekomendacji mają bezpośredni wpływ na miliony użytkowników w całej Europie.
Z danych Komisji wynika, że dziewięć na dziesięć z tych platform ma siedzibę prawną w Irlandii. Przez lata pozwalało im to działać w cieniu bardziej liberalnych przepisów podatkowych i regulacyjnych. DSA to pierwsze prawo, które centralizuje nadzór — nie tylko w kraju rejestracji, ale na poziomie całej Unii Europejskiej.
Obowiązki platform VLOP
Status VLOP to nie przywilej, ale odpowiedzialność. Każda z tych platform musi regularnie publikować raporty ryzyka systemowego, informować o sposobach moderacji treści, ujawniać zasady działania algorytmów oraz prowadzić rejestr reklam. Co pół roku raporty te trafiają do publicznej bazy prowadzonej przez Komisję Europejską i Koordynatorów ds. Usług Cyfrowych w poszczególnych krajach.
Firmy te muszą również umożliwiać niezależnym audytorom kontrolę swoich systemów, informować o incydentach bezpieczeństwa w ciągu dwudziestu czterech godzin oraz utrzymywać kanały komunikacji z użytkownikami w językach narodowych. DSA nakłada też obowiązek wyznaczenia w każdej z nich konkretnej osoby — przedstawiciela ds. zgodności z prawem — który odpowiada za kontakt z organami nadzoru.
Dla przykładu, Meta musiała utworzyć nowe biuro compliance w Dublinie i zatrudnić setki specjalistów ds. audytów i etyki danych. TikTok przeniósł część swojego zespołu odpowiedzialnego za zgodność do Unii, by uniknąć problemów z lokalnym prawem. Amazon, który wcześniej raportował tylko w skali globalnej, teraz musi publikować dane oddzielnie dla rynku europejskiego.
Przejrzystość algorytmów
Najważniejszy obowiązek wynikający z DSA to ujawnianie zasad działania systemów rekomendacji. W przeszłości mechanizmy te były całkowicie niejawne — stanowiły tajemnicę handlową firm. Dziś każda z platform musi opisać, jakie czynniki wpływają na ranking treści i czy użytkownik może zrezygnować z personalizacji.
Meta opublikowała raport zatytułowany „How We Recommend Content in Feed and Reels”, w którym ujawniono, że algorytmy analizują ponad dziesięć tysięcy sygnałów dla każdego posta. TikTok w podobnym dokumencie wyjaśnił, że ocenia około dwustu elementów aktywności użytkownika, takich jak długość oglądania, reakcje, pauzy czy lokalizacja. YouTube ujawnił, że jego algorytm opiera się na czasie oglądania, historii wyszukiwań i typie urządzenia.
Te informacje, choć techniczne, mają ogromne znaczenie dla zwykłych użytkowników i twórców. Po raz pierwszy można zobaczyć, że popularność treści nie jest przypadkowa, lecz wynika z matematycznych modeli opartych na zachowaniu odbiorców.
Raporty przejrzystości
Komisja Europejska prowadzi centralną bazę raportów dostępnych dla każdego obywatela pod adresem transparency.europa.eu. Zawiera ona tysiące dokumentów z oceną ryzyka, raportami moderacji treści, danymi o liczbie odwołań i statystykami zgłoszeń w poszczególnych krajach.
Z raportu Meta za pierwsze półrocze 2024 roku wynika, że siedemdziesiąt trzy procent decyzji o usunięciu postów w Unii podejmują automatyczne systemy. W Polsce w tym samym okresie złożono około stu dwudziestu pięciu tysięcy odwołań. Prawie jedna piąta z nich zakończyła się przywróceniem treści.
TikTok zgłosił, że w ciągu trzech miesięcy jego algorytmy automatycznie zablokowały ponad czterdzieści milionów filmów, a YouTube raportował usunięcie pięciu miliardów wyników wyszukiwania rocznie z powodu naruszeń praw autorskich i treści nielegalnych.
Te liczby pokazują, że DSA nie jest martwym przepisem. To narzędzie, które realnie wpływa na sposób działania platform.
Jak wykorzystać tę wiedzę
Zrozumienie, jak funkcjonują VLOP-y, to dziś klucz do skutecznego działania w sieci. Jeśli tworzysz treści, możesz lepiej analizować przyczyny spadku zasięgów. Jeśli prowadzisz firmę, możesz świadomie planować kampanie reklamowe, wiedząc, że dane o targetowaniu i emisji są publiczne.
Każdy użytkownik może wejść na stronę Transparency Database, wyszukać nazwę platformy i zobaczyć, jak często w danym kraju usuwane są treści o określonej tematyce, ilu użytkowników się odwołało i jaki był wynik. To przełom — jeszcze kilka lat temu takie informacje były całkowicie niedostępne.
Wikipedia też jest VLOP
Ciekawym przypadkiem jest Wikipedia. Choć nie prowadzi działalności komercyjnej, również otrzymała status VLOP. Komisja Europejska uznała, że jej wpływ na edukację i kształtowanie wiedzy jest tak duży, że wymaga tych samych zasad przejrzystości. Fundacja Wikimedia musi więc publikować raporty o moderacji, sposobach edycji artykułów i liczbie zgłoszeń błędów.
To pokazuje, że DSA obejmuje nie tylko podmioty nastawione na zysk, ale każdą platformę, która kształtuje sposób, w jaki Europejczycy poznają świat.
Co możesz zrobić jako użytkownik
Każdy obywatel Unii ma prawo korzystać z raportów przejrzystości. Możesz sprawdzić, jak dana platforma moderuje treści w Polsce, ile decyzji podejmują automaty, a ile ludzie, oraz jakie działania zostały uznane za naruszenie zasad.
Jeśli Twoja treść została usunięta lub zasięg nagle spadł, możesz porównać sytuację z raportami i ocenić, czy to efekt błędu systemu, czy zmian w algorytmie. W kolejnych rozdziałach tej książki znajdziesz wskazówki, jak interpretować dane z raportów oraz jak pisać skuteczne odwołania zgodne z przepisami DSA.
Rozdział 4. Algorytm pod lupą
Jak DSA wymusił zmianę systemów rekomendacji
Jeszcze kilka lat temu słowo „algorytm” kojarzyło się z czymś tajemniczym i nieuchwytnym. W mediach społecznościowych twórcy powtarzali, że „algorytm ich nie lubi”, a firmy reklamowe budowały całe strategie na zgadywaniu, co Facebook, YouTube czy TikTok uznają za wartościową treść. Użytkownicy wiedzieli tylko tyle, że jedne posty zdobywają popularność, a inne giną w tłumie — nikt nie rozumiał, dlaczego tak się dzieje.
Od lutego 2024 roku, po wejściu w życie Digital Services Act, sytuacja zmieniła się zasadniczo. Największe platformy internetowe, tak zwane VLOP-y, muszą ujawniać, jak działają ich systemy rekomendacji. Nie mogą już ukrywać, dlaczego pokazują konkretne filmy, posty czy reklamy. To pierwszy raz w historii, kiedy prawo wymusiło na korporacjach przejrzystość ich algorytmów.
Jak działają rekomendacje
Algorytm rekomendacji to mechanizm, który decyduje, co widzimy w Internecie. To on wybiera, które filmy YouTube zaproponuje po obejrzeniu jednego materiału, które posty Facebook umieści na szczycie naszego kanału i jakie treści TikTok pokaże w zakładce „Dla Ciebie”.
Działa on według prostego, choć potężnego schematu. Najpierw zbiera dane o użytkowniku — analizuje, co ogląda, jak długo to robi, które treści pomija i na co reaguje. Następnie buduje profil zainteresowań, przewidując, co jeszcze może go zatrzymać przed ekranem. Ostatni etap to ranking treści — ocena milionów dostępnych materiałów i wybór tych, które mają największe szanse wzbudzić zaangażowanie.
Przez lata użytkownicy nie mieli pojęcia, jakie czynniki wpływają na ten proces. Algorytmy były zamknięte, niepodlegające żadnej kontroli z zewnątrz. DSA po raz pierwszy wprowadził obowiązek wyjaśnienia tych zasad.
Co mówi prawo
Zgodnie z artykułem 27 Digital Services Act, każda bardzo duża platforma internetowa ma obowiązek zapewnić użytkownikom zrozumiałe wyjaśnienie głównych parametrów wykorzystywanych w systemach rekomendacji. W praktyce oznacza to konieczność ujawnienia, jakie dane są analizowane, które czynniki decydują o rankingu treści, czy rekomendacje są spersonalizowane i czy można wyłączyć ich personalizację.
Artykuł 38 wprowadza dodatkowy wymóg — każda platforma musi oferować przynajmniej jedną opcję korzystania z serwisu bez profilowania, czyli tak zwany chronologiczny feed. Odtąd użytkownik ma wybór, czy chce widzieć treści w kolejności publikacji, czy według uznania algorytmu.
Jak wygląda to w praktyce
Meta, właściciel Facebooka i Instagrama, wprowadziła nową funkcję „Chronologiczny kanał”, w której użytkownik widzi posty w kolejności ich dodawania, bez ingerencji systemu rekomendacji. W zakładce „Dlaczego to widzę?” można sprawdzić szczegółowe informacje o tym, dlaczego dany post lub reklama pojawiły się w kanale.
TikTok musiał dostosować się do tych samych zasad. W Unii Europejskiej wprowadził wersję zakładki „For You (EU)”, która działa na zasadzie półlosowego doboru filmów, niezależnie od wcześniejszej aktywności użytkownika. Firma opublikowała raport „How Recommendations Work for European Users”, w którym ujawniła, że najważniejsze czynniki rankingowe to czas oglądania, współczynnik ukończenia filmiku, użyty dźwięk, popularność hasztagu i lokalizacja użytkownika.
YouTube z kolei dodał w swoim centrum pomocy sekcję „Why am I seeing this video?”, dzięki której można sprawdzić, czy dany film został zaproponowany na podstawie wcześniejszych wyszukiwań, aktywności na kanale lub aktualnej popularności w regionie. To bezpośredni efekt wdrożenia DSA.
Co to oznacza dla twórców
Zrozumienie sposobu działania algorytmu stało się jednym z najważniejszych narzędzi dla osób tworzących treści. Twórcy, którzy wiedzą, jakie elementy wpływają na ranking, mogą świadomie planować publikacje, zamiast działać metodą prób i błędów.
Meta w swoich raportach ujawniła, że w przypadku Facebooka i Instagrama największe znaczenie mają czas interakcji, liczba komentarzy i wskaźnik zatrzymania uwagi. TikTok stawia na długość oglądania, użycie popularnych dźwięków i odpowiedni format wideo. YouTube ocenia treści na podstawie współczynnika kliknięć w miniaturę, czasu oglądania i aktywności widzów w komentarzach. Platforma X (dawny Twitter) zwraca uwagę na liczbę reakcji w pierwszych trzydziestu minutach od publikacji.
Wszystkie te dane pochodzą z oficjalnych raportów Transparency Database z 2024 roku i po raz pierwszy są dostępne publicznie. Oznacza to, że twórca, który chce zrozumieć, dlaczego jego zasięgi spadły, może sprawdzić, czy powodem była zmiana w algorytmie, temat treści czy sposób ich publikacji.
Dane z raportów
Transparency Database Komisji Europejskiej zawiera setki stron raportów o tym, jak działają systemy rekomendacji. TikTok raportuje, że miesięcznie w krajach Unii rekomenduje ponad sto dwadzieścia milionów filmów. YouTube generuje pięć miliardów sugestii dziennie. Facebook przyznaje, że dziewięćdziesiąt siedem procent treści, które użytkownicy widzą w feedzie, pochodzi z automatycznych rekomendacji, a jedynie trzy procent to treści wybrane bezpośrednio przez użytkownika.
Ta skala pokazuje, jak ogromny wpływ mają algorytmy na codzienność milionów ludzi. DSA wprowadził do tego systemu niezbędną kontrolę — teraz użytkownicy mogą nie tylko pytać, dlaczego coś widzą, ale też wybierać, czy chcą w ogóle podlegać profilowaniu.
Co możesz zrobić jako użytkownik
Najprostszym krokiem jest przetestowanie obu wersji feedu — personalizowanego i chronologicznego. Dla niektórych branż, jak edukacja, prawo czy media informacyjne, układ chronologiczny okazuje się bardziej skuteczny, bo pozwala docierać do lojalnych odbiorców zamiast przypadkowych.
Warto też regularnie sprawdzać źródła ruchu w raportach udostępnianych przez platformy. Meta i YouTube publikują dane o tym, jaki procent wyświetleń pochodzi z rekomendacji, a jaki z wyszukiwania lub udostępnień. Pozwala to lepiej planować strategię komunikacji.
Kolejnym krokiem jest unikanie treści manipulacyjnych. DSA wymaga od platform obniżania pozycji postów, które mogą wprowadzać w błąd lub sztucznie angażować użytkowników. Clickbaity, nieprawdziwe informacje i nadmierna sensacyjność nie tylko przestały działać, ale mogą wręcz szkodzić widoczności.
Nowa era Internetu
Digital Services Act sprawił, że algorytm — dotąd niedostępny i nieprzejrzysty — stał się systemem, którego można się nauczyć. Twórcy, którzy rozumieją jego zasady, mają przewagę. Już nie muszą zgadywać, dlaczego coś działa lub nie działa. Mogą sięgnąć po dane, przeanalizować raporty i zaplanować działania w oparciu o fakty.
Era „magii algorytmu” dobiega końca. Zastępuje ją czas przewidywalności i odpowiedzialności. Algorytmy nadal kierują Internetem, ale to użytkownicy zyskali narzędzia, by wreszcie zrozumieć, jak to się dzieje.
Rozdział 5. Przejrzystość i odpowiedzialność
Jeszcze kilka lat temu firmy technologiczne mogły działać w całkowitej ciemności informacyjnej. Decydowały o tym, jakie treści promować, jakie ukrywać i kogo zbanować — bez konieczności tłumaczenia się komukolwiek. Użytkownicy widzieli jedynie efekt, nigdy mechanizm. Zmiana przyszła dopiero z DSA — pierwszym prawem, które nakazuje platformom cyfrowym ujawniać, jak naprawdę funkcjonują ich systemy.
Digital Services Act nie jest tylko zbiorem nakazów i zakazów. To narzędzie, które wprowadza w życie nową zasadę: im większa władza informacyjna, tym większa odpowiedzialność. Od lutego 2024 roku każda bardzo duża platforma w Unii Europejskiej musi cyklicznie publikować raporty przejrzystości, udostępniać dane badaczom i użytkownikom, a także tłumaczyć swoje decyzje.
Obowiązek raportowania
Zgodnie z artykułami 15–24 DSA wszystkie tzw. Very Large Online Platforms (VLOP) i Very Large Online Search Engines (VLOSE) mają obowiązek publikować publiczne raporty dotyczące moderacji treści i zarządzania ryzykiem. Raporty te pojawiają się co pół roku i są dostępne na oficjalnym portalu Komisji Europejskiej w bazie Transparency Database.
W raportach muszą znaleźć się szczegółowe dane o liczbie usuniętych treści, powodach decyzji, liczbie odwołań użytkowników oraz o tym, jakie narzędzia (człowiek czy algorytm) brały udział w procesie oceny. To radykalna zmiana — jeszcze kilka lat temu firmy takie jak Meta czy Google uznawały te dane za poufne.
Dziś raporty Transparency Database zawierają miliony pozycji. Każdy może wejść na stronę Komisji i sprawdzić, jak często dana platforma usuwa posty w Polsce, ile z nich zostało przywróconych, oraz jakie ryzyka systemowe uznaje za najpoważniejsze.
Dane z raportów za 2024 rok
W pierwszej turze raportowania (sierpień 2024) Meta ujawniła, że w Unii Europejskiej miesięcznie usuwa około 20 milionów postów. 73 procent decyzji o usunięciu treści było podejmowanych automatycznie przez algorytmy, a tylko 27 procent przez moderatorów. Najczęstsze powody to naruszenie zasad dotyczących mowy nienawiści, nagości, dezinformacji oraz treści spamowych.
YouTube w tym samym okresie poinformował, że w krajach UE usunięto 9,1 miliona filmów i 105 milionów komentarzy. 88 procent zgłoszeń pochodziło od systemów automatycznych. W raporcie odnotowano też 1,8 miliona odwołań od decyzji — z czego 21 procent zakończyło się przywróceniem treści.
TikTok zgłosił 43 miliony usuniętych filmów w skali kwartału, przy czym 96 procent z nich zostało wykrytych automatycznie jeszcze zanim zostały obejrzane przez użytkowników. DSA wymaga jednak, by każda taka decyzja była rejestrowana i możliwa do odwołania — co oznacza, że użytkownik ma dziś prawo poprosić o dokładne wyjaśnienie, dlaczego jego treść zniknęła.
X (dawny Twitter) był wśród największych opóźnionych podmiotów. W listopadzie 2024 Komisja Europejska oficjalnie wszczęła postępowanie przeciwko firmie Elona Muska za brak pełnych raportów przejrzystości oraz za niewystarczające procedury odwołań.
Ryzyka systemowe i audyty
Każda platforma ma obowiązek przeprowadzać tzw. ocenę ryzyka systemowego. Chodzi o analizę, w jaki sposób ich systemy mogą wpływać na bezpieczeństwo użytkowników, zdrowie psychiczne, dezinformację czy procesy demokratyczne.
Meta w swoim raporcie z grudnia 2024 przyznała, że system rekomendacji Reels może sprzyjać tworzeniu tzw. baniek informacyjnych. YouTube z kolei wskazał, że algorytm Watch Next generuje efekt uzależnienia od krótkich treści, szczególnie wśród młodszych użytkowników. TikTok zobowiązał się do przeprowadzenia wewnętrznych audytów dotyczących wpływu aplikacji na zdrowie psychiczne nastolatków.
Wszystkie te raporty trafiają do Komisji Europejskiej i mogą stanowić podstawę do kar finansowych lub nakazu wprowadzenia zmian technicznych. W praktyce oznacza to, że po raz pierwszy w historii Internetu władze publiczne mogą faktycznie nadzorować sposób, w jaki działa algorytm.
Dostęp dla badaczy i użytkowników
DSA wprowadza też obowiązek udostępniania danych naukowcom, dziennikarzom i organizacjom pozarządowym. Artykuł 40 nakazuje platformom zapewnienie bezpiecznego dostępu do danych o funkcjonowaniu systemów rekomendacji, reklam i moderacji.
Dzięki temu europejscy badacze, którzy wcześniej musieli korzystać z nieoficjalnych narzędzi lub wycieków danych, mogą dziś analizować realny wpływ platform na społeczeństwo. Już w 2025 roku ma powstać centralna infrastruktura badawcza pod nazwą European Digital Media Observatory, która połączy dane z raportów wszystkich VLOP-ów.
Dla zwykłego użytkownika oznacza to większą przejrzystość. Można nie tylko zobaczyć, jak często dana platforma usuwa treści, ale też jakie tematy są najczęściej uznawane za ryzykowne. Na przykład w Polsce w 2024 roku wśród treści najczęściej moderowanych znalazły się posty o charakterze politycznym, reklamy leków oraz materiały generowane przez AI bez oznaczenia.
Odpowiedzialność prawna i kary
DSA wprowadza zasadę odpowiedzialności platform za brak przejrzystości. Jeżeli firma nie publikuje raportów lub podaje dane niezgodne ze stanem faktycznym, grozi jej kara finansowa w wysokości do 6 procent globalnych przychodów. Dla Mety czy Google’a oznacza to kwoty rzędu kilku miliardów euro.
Komisja Europejska już w 2024 roku nałożyła pierwsze sankcje prewencyjne na X w związku z brakiem systemu odwołań w językach narodowych. To sygnał, że nowe prawo nie jest tylko formalnością — będzie egzekwowane realnie.
Co to zmienia dla twórców i przedsiębiorców
Dzięki raportom przejrzystości twórcy mogą lepiej zrozumieć, dlaczego niektóre treści tracą zasięg lub zostają oznaczone jako problematyczne. Wcześniej interpretowano to jako „kaprys algorytmu”, dziś można powołać się na konkretne dane z dokumentów platformy.
Dla firm oznacza to możliwość planowania kampanii marketingowych w sposób zgodny z zasadami transparentności. Każda reklama w Unii musi mieć widoczne oznaczenie źródła finansowania i kryteriów targetowania. Jeśli użytkownik zgłosi, że reklama narusza te zasady, firma reklamująca się również może być objęta odpowiedzialnością.
Z kolei dziennikarze i badacze zyskali bezprecedensowe narzędzie — możliwość analizy w czasie rzeczywistym, jak platformy kształtują debatę publiczną. To otworzyło zupełnie nowy obszar badań społecznych, wcześniej niedostępny dla świata nauki.
Podsumowanie
Przejrzystość i odpowiedzialność to dwa filary, na których opiera się nowy Internet w Europie. Platformy nie mogą już zasłaniać się tajemnicą handlową ani automatycznymi decyzjami. Każda ingerencja w treść — od usunięcia posta po rekomendację filmu — podlega zasadzie wyjaśnienia, rejestracji i możliwości odwołania.
To koniec ery algorytmicznej samowoli. Użytkownik, który zna swoje prawa, może dziś sprawdzić, co platforma o nim wie, jak go klasyfikuje i jak jego dane wpływają na to, co widzi w sieci.
A im więcej ludzi z tego prawa korzysta, tym bardziej transparentny staje się cały system.
CZĘŚĆ II. Twoje prawa wobec platform
Rozdział 6. Prawo do wyjaśnienia decyzji
Jednym z najważniejszych elementów Digital Services Act jest prawo do wyjaśnienia decyzji. Po raz pierwszy w historii Internetu użytkownik zyskał formalne uprawnienie, by zapytać platformę, dlaczego jego treść została usunięta, ograniczona lub ukryta. Wcześniej wszystko odbywało się jednostronnie — algorytm decydował, moderator zatwierdzał, a użytkownik mógł co najwyżej przeczytać krótki komunikat o „naruszeniu zasad społeczności”.
Od lutego 2024 roku obowiązuje zupełnie nowy standard. Każda bardzo duża platforma działająca w Unii Europejskiej musi umożliwić użytkownikowi wgląd w powody swoich decyzji. Chodzi nie tylko o usunięcie posta, ale także o każdą sytuację, w której system automatyczny wpływa na widoczność treści — obniża jej zasięg, blokuje komentarze, ogranicza reklamy lub zawiesza konto.
Prawo do wyjaśnienia decyzji zapisane jest w artykułach 17 i 20 Digital Services Act. Ustanawiają one obowiązek przejrzystego uzasadniania każdej interwencji wobec użytkownika i zapewnienia możliwości odwołania w rozsądnym terminie.
Jak wygląda procedura
Platforma ma obowiązek poinformować użytkownika natychmiast po podjęciu decyzji o ograniczeniu treści. Powiadomienie powinno zawierać datę, przyczynę, zastosowaną podstawę regulaminową oraz informację, czy decyzję podjął człowiek, czy automat. W tym samym komunikacie musi znajdować się link do formularza odwołania.
Od momentu otrzymania informacji użytkownik ma czternaście dni na złożenie odwołania. Platforma jest zobowiązana do jego rozpatrzenia w rozsądnym czasie — najczęściej w ciągu tygodnia. W przypadku gdy decyzję podjął algorytm, użytkownik ma prawo żądać, by jego sprawę rozpatrzył człowiek.
Jeżeli platforma odrzuci odwołanie lub nie odpowie w określonym czasie, użytkownik może skierować skargę do krajowego Koordynatora ds. Usług Cyfrowych, w Polsce do Urzędu Komunikacji Elektronicznej. UKE ma wtedy obowiązek zwrócić się bezpośrednio do firmy i uzyskać wyjaśnienia.
Co zawiera wniosek o wyjaśnienie
Formalny wniosek o wyjaśnienie decyzji powinien być rzeczowy i oparty na faktach. Nie jest to skomplikowany dokument, lecz pismo, które może złożyć każdy użytkownik. Powinno zawierać datę zdarzenia, opis sytuacji, nazwę konta lub odnośnik do treści, która została zablokowana, oraz żądanie wskazania podstawy prawnej decyzji zgodnie z artykułem 17 DSA.
W praktyce wystarczy krótka formuła:
„Na podstawie artykułu 17 Digital Services Act wnoszę o udzielenie wyjaśnienia decyzji dotyczącej ograniczenia widoczności mojej treści z dnia [data]. Proszę o wskazanie przyczyny, podstawy regulaminowej oraz informacji, czy decyzję podjął automat, czy człowiek.”
Platforma ma obowiązek odpowiedzieć w sposób zrozumiały i precyzyjny, w języku użytkownika. Jeżeli nie poda szczegółów lub powoła się wyłącznie na ogólne zapisy regulaminu, narusza prawo Unii.
Jak to działa w praktyce
Przykładów z pierwszych miesięcy obowiązywania DSA jest już wiele.
W kwietniu 2024 roku polska dziennikarka prowadząca profil informacyjny na Facebooku zauważyła, że jej posty przestały się wyświetlać obserwatorom. Po kilku dniach otrzymała informację o „naruszeniu zasad dotyczących treści politycznych”. Złożyła formalny wniosek o wyjaśnienie decyzji, powołując się na artykuł 17 DSA. Po tygodniu otrzymała raport z uzasadnieniem: algorytm błędnie sklasyfikował jej wpis jako reklamę polityczną ze względu na użycie nazwiska kandydata w opisie. Treść przywrócono, a system klasyfikacji zaktualizowano.
Podobny przypadek miał miejsce na YouTube, gdzie kanał edukacyjny o finansach został zablokowany za „naruszenie zasad dotyczących treści komercyjnych”. Po interwencji użytkownika okazało się, że powodem był błąd w automatycznym systemie wykrywania reklam sponsorowanych. Kanał został przywrócony po czterech dniach.
Na TikToku w pierwszym kwartale 2024 roku złożono ponad dwieście tysięcy odwołań w Unii Europejskiej. Około dwadzieścia procent z nich zakończyło się przywróceniem filmów. W raportach Komisji Europejskiej podkreślono, że właśnie ta procedura stanowi jedno z najważniejszych narzędzi budowania zaufania między platformami a użytkownikami.
Kiedy można się odwołać
Prawo do odwołania przysługuje nie tylko w przypadku całkowitego usunięcia treści, ale także wtedy, gdy platforma obniży jej zasięg, wstrzyma publikację, oznaczy ją jako nieodpowiednią lub ograniczy dostęp do reklam. DSA uznaje wszystkie te działania za decyzje, które wpływają na widoczność i reputację użytkownika, a więc muszą być uzasadnione i możliwe do zaskarżenia.
Jeżeli platforma nie zapewni takiej możliwości, użytkownik może złożyć skargę bezpośrednio do Komisji Europejskiej. Komisja ma prawo wszcząć postępowanie przeciwko firmie i nałożyć karę do sześciu procent globalnych przychodów.
Jakie są terminy i obowiązki
Platformy muszą prowadzić rejestr wszystkich decyzji moderacyjnych i udostępniać jego streszczenie w raportach przejrzystości. Każde odwołanie, nawet jeśli dotyczy pojedynczego posta, powinno być odnotowane. Użytkownik ma prawo żądać kopii odpowiedzi, która stanowi dowód w ewentualnym dalszym postępowaniu.
DSA nakłada także obowiązek zapewnienia, by komunikaty dotyczące decyzji były zrozumiałe dla przeciętnego użytkownika. Niedozwolone są niejasne formuły typu „naruszenie zasad społeczności”. Platforma musi wskazać konkretną kategorię naruszenia, a w przypadku decyzji automatycznej — źródło danych, na których oparto klasyfikację.
Dlaczego to ważne
Prawo do wyjaśnienia decyzji zmienia relację między użytkownikiem a platformą. Po raz pierwszy użytkownik ma status strony, która może żądać informacji i odwoływać się od decyzji. Otwiera to zupełnie nowy rozdział w historii Internetu — z przestrzeni, w której panowała jednostronna władza korporacji, powstaje system prawny, w którym decyzje muszą być transparentne i uzasadnione.
W dłuższej perspektywie procedura ta uczy platformy odpowiedzialności. Każde błędne zablokowanie treści to teraz nie tylko problem wizerunkowy, ale również potencjalne naruszenie prawa Unii. Firmy, które nie zapewnią jasnych i uczciwych mechanizmów odwoławczych, narażają się na sankcje finansowe i utratę zaufania użytkowników.
Co możesz zrobić jako użytkownik
Jeśli Twoja treść została ograniczona lub usunięta, nie reaguj emocjonalnie — potraktuj to jak procedurę administracyjną. Zachowaj zrzuty ekranu z komunikatem, zanotuj datę i treść powiadomienia. Następnie złóż wniosek o wyjaśnienie decyzji zgodnie z artykułem 17 DSA.
Jeśli w ciągu kilku dni nie otrzymasz odpowiedzi, przypomnij o terminie i poinformuj, że w razie braku wyjaśnień przekażesz sprawę do UKE. W większości przypadków takie przypomnienie wystarczy, by platforma zareagowała.
Nie trzeba być prawnikiem, by korzystać z tych uprawnień. Wystarczy świadomość, że prawo działa po stronie użytkownika, a każda platforma w Unii musi się do niego stosować.
Nowy standard przejrzystości
Prawo do wyjaśnienia decyzji to nie tylko narzędzie obrony, ale także sposób na odbudowę zaufania do Internetu. W świecie, w którym coraz większą rolę odgrywają algorytmy, możliwość zapytania „dlaczego?” staje się jednym z fundamentów cyfrowych praw obywatelskich.
Dzięki DSA każdy użytkownik zyskuje głos w dialogu z technologicznymi gigantami. Każda decyzja musi być logiczna, każda interwencja — możliwa do zrozumienia. To krok w stronę bardziej uczciwego i odpowiedzialnego Internetu, w którym zasady gry są wreszcie jawne.
Rozdział 7. Prawo do odwołania
Każdy użytkownik Internetu zna ten moment, gdy coś znika bez słowa. Film zostaje usunięty, post traci zasięg, konto jest tymczasowo zablokowane, a powiadomienie brzmi lakonicznie: „naruszenie zasad społeczności”. Przez lata to był koniec rozmowy. Teraz — dzięki Digital Services Act — to dopiero początek procedury.
Prawo do odwołania jest jednym z filarów DSA. Artykuły 20 i 21 ustanawiają obowiązek, by każda platforma w Unii Europejskiej udostępniała użytkownikom skuteczny, prosty i bezpłatny system odwoławczy. Nie jest to już dobra wola firm, ale wymóg prawny, nadzorowany przez Komisję Europejską i krajowych koordynatorów.
Na czym polega prawo do odwołania
Prawo do odwołania oznacza, że użytkownik, którego treść została usunięta, ograniczona, oznaczona lub zablokowana, ma prawo poprosić o ponowne rozpatrzenie decyzji. Co ważne — platforma ma obowiązek rozpatrzyć odwołanie w rozsądnym terminie i poinformować o jego wyniku w sposób jasny, zrozumiały i w języku użytkownika.
Każda decyzja moderacyjna — nawet ta podjęta automatycznie — musi mieć możliwość odwołania się do człowieka. To szczególnie istotne w przypadku błędów algorytmów, które często nie rozumieją kontekstu kulturowego, ironii, języka artystycznego czy cytatów.
W myśl DSA, system odwoławczy nie może być ukryty w regulaminie ani utrudniony technicznie. Musi być łatwo dostępny, najlepiej z poziomu tego samego miejsca, gdzie użytkownik otrzymał informację o ograniczeniu.
Jak wygląda proces
Pierwszy krok to złożenie odwołania bezpośrednio na platformie. Zazwyczaj odbywa się to przez formularz dostępny pod komunikatem o decyzji. Użytkownik powinien wskazać, której treści dotyczy sprawa, dodać krótki opis sytuacji i wyrazić żądanie ponownej analizy.
Platforma ma obowiązek potwierdzić otrzymanie odwołania i wskazać przewidywany czas odpowiedzi. W większości przypadków decyzja zapada w ciągu siedmiu dni. Jeśli nie zostanie rozpatrzona w terminie lub użytkownik uzna ją za niesprawiedliwą, może skorzystać z drugiego poziomu — zewnętrznego mechanizmu rozstrzygania sporów.
Artykuł 21 DSA nakłada na duże platformy obowiązek współpracy z niezależnymi podmiotami rozjemczymi. Są to akredytowane organizacje, które pełnią rolę mediatora między użytkownikiem a firmą. Ich decyzje nie są wiążące prawnie, ale w praktyce mają duże znaczenie, ponieważ stanowią podstawę dla ewentualnego postępowania przed Koordynatorem ds. Usług Cyfrowych.
Rola Koordynatora i Komisji Europejskiej
Jeśli użytkownik nie jest zadowolony z wyniku odwołania ani mediacji, może zgłosić sprawę do Koordynatora ds. Usług Cyfrowych w swoim kraju. W Polsce taką instytucją jest Urząd Komunikacji Elektronicznej. UKE może zwrócić się bezpośrednio do platformy, zażądać pełnej dokumentacji decyzji oraz sprawdzić, czy firma działa zgodnie z przepisami DSA.
W przypadku powtarzających się naruszeń lub systemowych błędów, UKE przekazuje sprawę do Komisji Europejskiej, która może wszcząć formalne postępowanie wobec platformy. Komisja ma prawo nakazać firmie wprowadzenie zmian technicznych, przeprowadzenie audytu lub nałożenie kar finansowych.
Przykłady z praktyki
W maju 2024 roku w Niemczech użytkowniczka platformy TikTok złożyła odwołanie po usunięciu filmiku o edukacji seksualnej. Algorytm oznaczył go jako „nieodpowiedni dla młodzieży”. Po rozpatrzeniu odwołania przez zespół moderacji treść została przywrócona, a TikTok przyznał, że doszło do błędu klasyfikacji.
W Hiszpanii influencer kulinarny złożył skargę do Koordynatora po tym, jak Facebook usunął jego post z przepisem na wino domowej roboty, uznając go za „promocję alkoholu”. Po interwencji urzędu treść przywrócono, a Meta zobowiązała się do doprecyzowania kategorii treści alkoholowych w systemie moderacji.
W Polsce w czerwcu 2024 roku pojawił się pierwszy przypadek formalnej mediacji między użytkownikiem a YouTube. Kanał historyczny został zawieszony za rzekome „szerzenie treści kontrowersyjnych”. Po odwołaniu i analizie niezależnej organizacji mediacyjnej kanał został przywrócony, a YouTube wydał publiczne oświadczenie o błędnej ocenie materiałów.
Dlaczego to przełom
Do niedawna użytkownik Internetu nie miał żadnego narzędzia, by przeciwstawić się decyzjom algorytmów. DSA zmienił ten stan rzeczy, wprowadzając zasadę wielopoziomowej ochrony. Najpierw można odwołać się wewnętrznie, potem zewnętrznie, a na końcu do instytucji państwowej. To system, który wzmacnia prawa obywatela w cyfrowym świecie i ogranicza arbitralną władzę korporacji.
W raporcie Komisji Europejskiej z lipca 2024 roku podano, że w pierwszym półroczu obowiązywania DSA złożono w Unii ponad trzy miliony odwołań, z czego trzydzieści procent zakończyło się zmianą decyzji na korzyść użytkownika. To dowód, że nowe przepisy działają.
Jak przygotować skuteczne odwołanie
Najważniejsze jest zachowanie spokoju i precyzji. Użytkownik powinien opisać sytuację, wskazać datę, nazwę konta i treść decyzji, a następnie uzasadnić, dlaczego uważa ją za błędną. Warto dołączyć dowody — zrzuty ekranu, linki, kopie wcześniejszych wiadomości lub regulaminów.
Kluczowe jest powołanie się na konkretny przepis DSA. Można napisać: