„Prowadzący blog był zobowiązany sprawić, by treść publikowanych w nim wypowiedzi odpowiadała stanowi faktycznemu. Mógł wprowadzić zasadę publikacji komentarzy internautów tylko po uprzednim zalogowaniu” – tak uzasadnił postanowienie wydane w trybie wyborczym Sąd Okręgowy w Tarnowie. To porażka Wymiaru Sprawiedliwości.
Stanowisko tarnowskiego sądu podtrzymał Sąd Apelacyjny w Krakowie. Orzeczenie zostało zaskarżone do Europejskiego Trybunału Praw Człowieka przez Helsińską Fundację Praw Człowieka. Sprawę opisała niedawno m. in. Rzeczpospolita (artykuł pt. Kto odpowiada za komentarze w sieci). Niektórzy politycy (również lokalni) coraz głośniej domagają się moderacji treści tworzonych przez użytkowników w ramach web 2.0. Są nawet głosy, które w zasadzie domagają się wprowadzenia cenzury prewencyjnej lub przynajmniej aktywnego filtrowania przez administratorów ex post treści wprowadzanych przez użytkowników portali np. w komentarzach. Sąd w Tarnowie, prowadzący sprawę w przyśpieszonym trybie wyborczym, wyraźnie uległ tym naciskom.
Moderacja po fakcie oznaczałaby de facto nałożenie obowiązku filtracji treści przez administratorów. Tymczasem jest to sprzeczne z zasadą ograniczenia odpowiedzialności usługodawców świadczących usługi drogą elektroniczną, którą wprowadza art. 14 ustawy o świadczeniu usług drogą elektroniczną (podobne regulacje są w większości krajów UE oraz w USA). Chodzi zresztą nie tylko o ten konkretny artykuł ustawy, ale o jej ratio legis (powód uchwalenia) w ogóle. Prawidłowe realizowanie przez administratora serwisu procedury „notice and takedown” zwalnia go od odpowiedzialności za treści wprowadzone (np. w komentarzach) przez użytkowników. Tak też było według relacji Rzeczpospolitej w przypadku Andrzeja Jeziora, prowadzącego własnego bloga radnego z Ryglic.
Oczywiście, powołany artykuł 14 ustawy o świadczeniu usług drogą elektroniczną, budzi w praktyce wiele problemów, pisałem o tym między innym w tekście pt. Odpowiedzialność za treści w portalach – między teorią a praktyką. Jednak to nie powód by nagle obciążać usługodawców obowiązkiem moderacji czy filtrowania treści. Zresztą trwają pracę nad nowelizacją ustawy, która ma rozwiać wiele wątpliwości, o których wspominałem.
Warto też zauważyć, że o ile „z automatu” można a miarę łatwo i bez dużych nakładów finansowo-organizacyjnych wyłapywać konkretne wulgarne czy obraźliwe słowa, o tyle jak dotąd, nie ma skutecznych metod automatycznej analizy treściowej całych zdań i wypowiedzi w języku polskim. Tymczasem treści naruszające prawo mogą nie zawierac slow bezpośrednio obraźliwych, a dopiero kontekst całej wypowiedzi może być np. szkalujący (czy po prostu kłamliwy – a to już w ogóle trudno samemu zweryfikować). Do takiej moderacji „treściowej” konieczne byloby zatrudnienie całej masy ludzi.
Pisze o tym w swym oświadczeniu Związek Pracodawców Branży Internetowej IAB Polska:
Tak jak państwo w celu egzekwowania prawa nie jest w stanie postawić policjanta na każdym rogu, tak operatorzy forów internetowych nie są w stanie sprawdzić każdego wpisu. W przypadku największych mediów internetowych w Polsce automatyczna moderacja wychwytuje wpisy zawierające słowa uznane za wulgarne i je usuwa, ale automatyczna analiza treści wypowiedzi jest na tym etapie niemożliwa. Dobrym przykładem obrazującym skalę zjawiska jest portal społecznościowy NK.pl, gdzie zamieszczane jest każdego dnia 14 milionów komentarzy. Gdyby właściciel platformy chciał zatrudnić wystarczającą liczbę moderatorów, aby każdy z nich mógł poświęcić 1 minutę na przeczytanie i zweryfikowanie, czy każda wiadomość nie narusza czyichś dóbr osobistych, musiałby zatrudnić 41 tysięcy moderatorów (pogrubienie – RC). Forów dyskusyjnych mamy w Polsce dziesiątki tysięcy. Nie sposób więc zignorować wniosku, że tak jak w innych przejawach życia społecznego każdy obywatel jest odpowiedzialny przed prawem za własne czyny. Internet pozwala na niesłychanie precyzyjne docieranie do osób dokonujących swoimi komentarzami naruszeń norm społecznych, więc nie istnieje tu problem z egzekucją obowiązującego prawa.
Z kolei ręczna moderacja „treściowa” komentarzy przed ich opublikowaniem nieodparcie kojarzy mi się z cenzurą prewencyjną. Nakład pracy byłby zresztą ten sam co przy filtrowaniu ex post, jednocześnie takie działania można by uznać za sprzeczne z Konstytucją.
W tym miejscu warto też przytoczyć opinię Fundacji Helsińskiej złożoną podczas procesu Jeziora, w której instytucja ta próbuje przekonać sąd, że „nadmierna odpowiedzialność administratorów serwisów internetowych może prowadzić do tego, że będą blokować możliwość umieszczania komentarzy przez internautów. Tymczasem są one często ważnym elementem debaty publicznej, zwłaszcza jeśli chodzi o lokalne portale czy blogi”. Zatem gra toczy się również o wolność słowa. Czy urażona duma polityków może być od niej ważniejsza?
W kontekście poruszanej w niniejszym artykule tematyki, warto również przeczytać:
- Odpowiedzialność za treści na portalach – między teorią a praktyką…
- RapidShare nie odpowiada za łamanie prawa przez użytkowników
- Serwisy z linkami i hostingiem są legalne!
- Administrator musi podać dane, jeśli ktoś chce pozwać użytkownika za wpis na WWW
- Portal odpowiada za naruszenie dóbr osobistych w przedruku internetowym
- Strony z linkami do nielegalnych treści na celowniku policji?