Polska wdraża Digital Services Act co dokładnie zmienia ustawa i dlaczego jest tak głośno
Polska domyka krajowe procedury wokół unijnego Digital Services Act (DSA), czyli aktu regulującego odpowiedzialność platform internetowych i mechanizmy ochrony użytkowników. DSA obowiązuje w całej UE od lutego 2024 roku, ale bez przepisów krajowych część narzędzi egzekwowania praw i obowiązków działa gorzej lub jest rozproszona pomiędzy różne instytucje. Dlatego kluczowe jest wyznaczenie koordynatora usług cyfrowych, opisanie ścieżek odwoławczych i doprecyzowanie trybu reagowania na treści nielegalne, w tym decyzji o blokowaniu treści i zasad ich kontroli.
Największe emocje budzi to, gdzie przebiega granica pomiędzy ochroną użytkowników a ryzykiem nadmiernej ingerencji w treści publikowane w internecie. W projekcie pojawia się wątek administracyjnych nakazów blokowania oraz roli sądu przy sprzeciwie użytkownika. Jednocześnie w tle jest drugi, równie ważny problem praktyczny: większość „banów” i usunięć treści na platformach nie jest uzasadniana „treścią nielegalną”, tylko naruszeniem regulaminu lub standardów społeczności. Jeśli prawo krajowe nie obejmie realnie tego scenariusza, użytkownicy nadal zostaną w dużej mierze zdani wyłącznie na wewnętrzne formularze i automatyczne systemy moderacji.

UKE i KRRiT w systemie DSA kto ma podejmować decyzje i w jakim zakresie
W polskim modelu centralną rolę ma pełnić Prezes Urzędu Komunikacji Elektronicznej jako koordynator usług cyfrowych. To oznacza kompetencje nadzorcze, proceduralne i egzekucyjne w obszarze DSA: obsługę zgłoszeń, prowadzenie postępowań, wydawanie określonych decyzji oraz nadzorowanie realizacji obowiązków platform. W przypadku platform wideo i usług audiowizualnych ustawodawca przewiduje udział KRRiT, co ma znaczenie, bo moderacja treści wideo często działa w innych modelach (np. większy nacisk na rekomendacje algorytmiczne, monetyzację i automatyczne wykrywanie fragmentów wrażliwych).
Blokowanie treści 27 kategorii czynów zabronionych i co zmienia kontrola sądowa
Mechanizm blokowania ma dotyczyć 27 ściśle określonych kategorii czynów zabronionych. Taki katalog ma ograniczać uznaniowość i trzymać się obszaru treści „twardo” nielegalnych, a nie kontrowersji światopoglądowych czy sporów interpretacyjnych. W praktyce jednak kluczowy jest tryb i tempo działania. Poprawki Senatu, przyjęte przez Sejm, przesuwają akcent na kontrolę sądową: usunięto automatyczną natychmiastową wykonalność decyzji w scenariuszu, w którym użytkownik składa sprzeciw do sądu. W efekcie treść ma pozostać online do czasu rozpatrzenia sprawy przez niezależny organ, co zmienia bilans ryzyk po obu stronach: ogranicza możliwość „szybkiej blokady z urzędu”, ale jednocześnie wydłuża czas dostępności potencjalnie nielegalnych materiałów w spornych przypadkach.
Odwołania od decyzji platform dlaczego regulaminy są kluczowe i gdzie wchodzą organy
Najbardziej „życiowa” zmiana dla użytkowników dotyczy odwołań od decyzji moderacyjnych platform. Jeżeli system odwoławczy działałby wyłącznie dla przypadków oznaczonych przez platformę jako „treść nielegalna”, duża część realnych sytuacji wypadłaby poza krajowe procedury, bo platformy częściej powołują się na naruszenie standardów społeczności. Dlatego w poprawionej wersji pojawia się rozszerzenie ścieżki odwoławczej na przypadki nadmiernej ingerencji w wolność wypowiedzi oraz oczywistych błędów w zastosowaniu regulaminów. To istotne, bo przenosi dyskusję z poziomu „platforma miała prawo, bo tak ma w regulaminie” na poziom weryfikowalnej procedury z udziałem organu publicznego, a docelowo także sądu.
Co to oznacza technicznie dla platform logi decyzji terminy i spójność procesów
Wdrożenie procedur DSA to dla platform przede wszystkim praca po stronie procesów i systemów. Jeżeli pojawia się realna ścieżka odwoławcza, trzeba zapewnić spójne logowanie zdarzeń moderacyjnych, możliwość odtworzenia „dlaczego” decyzja zapadła (uzasadnienia, sygnały, reguły automatyczne), wersjonowanie regulaminów i reguł moderacji oraz kontrolę terminów. Dochodzi też obsługa komunikacji z organami: formalne kanały wymiany informacji, dowody w sprawie, potwierdzenia wykonania nakazów lub przywrócenia treści. W praktyce oznacza to rozbudowę back-office, narzędzi do zarządzania zgłoszeniami, SLA na odpowiedzi oraz większy nacisk na transparentność decyzji automatycznych, bo bez tego trudno bronić się w trybie odwoławczym.
Podsumowanie
Polska jest na finiszu prac nad ustawą domykającą krajowe procedury wokół Digital Services Act. Rdzeniem sporu jest mechanizm blokowania treści i to, jak mocno ma go ograniczać kontrola sądu, a także czy użytkownicy dostaną realną ścieżkę odwoławczą również wtedy, gdy platforma zasłania się regulaminem. Z perspektywy technologicznej to nie tylko „prawo”, ale też wymuszenie twardych procesów: audytowalnych logów moderacji, uzasadnień decyzji, terminów, spójnej komunikacji i interoperacji procedur między platformą, organem i sądem.