Nowa dyrektywa autorska ogranicza wolność wypowiedzi i informacji ale…..
Luiza Piskorek, radca prawny, Partner, Kancelaria Prawna Media
[Przypominamy tylko na wstępie, że sprawa dotyczy wyroku[1] Trybunału Sprawiedliwości Unii Europejskiej dotyczący skargi Polski[2] na dyrektywę w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym z 2019 r.[3] (dyrektywa autorska)].
Według skargi Polski, nowa dyrektywa autorska zmusza platformy udostępniania treści online, jak na przykład Facebook i YouTube, Pinterest, do prewencyjnego monitorowania i filtrowania wszystkich treści, które użytkownicy chcą zamieścić na platformach, przy użyciu zautomatyzowanych środków filtracji treści. Tego typu prewencyjny nadzór dostawców platform nad treściami zamieszczanymi na platformach przez użytkowników narusza wolność wypowiedzi i informacji użytkowników platform zagwarantowaną przez art. 11 Karty praw podstawowych Unii Europejskiej.
Co skłoniło Polskę do wniosku, że dyrektywa autorska narusza wolność słowa?
Całe zamieszanie wynika z treści art. 17 dyrektywy autorskiej, który skarżyła Polska. Artykuł 17 wprowadza rewolucję w zakresie udostępniania na platformach treści chronionych prawem autorskim lub prawami pokrewnymi, jak na przykład filmy, muzyka, zdjęcia, rysunki, które są zamieszczane na platformach przez ich użytkowników. Przepis ten dotyczy tylko dużych platform online, których głównym celem działania jest udostępnianie dużej liczby treści twórczych zamieszczanych przez użytkowników platform, które są promowane i organizowane przez dostawców platform w celach zarobkowych.
Nowe zasady odpowiedzialności za treści twórcze udostępniane na platformach
Wspomniana wyżej rewolucja polega na odwróceniu dotychczasowych zasad odpowiedzialności za udostępnianie na platformach treści twórczych. Dotychczas, za legalność udostępnianych treści odpowiadał, co do zasady, użytkownik, który zamieścił je na platformie. To od użytkownika osoba dysponująca prawami do danej treści, czyli na przykład producent filmu, twórca muzyki, wykonawca muzyczny, autor rysunku (uprawniony), mogła dochodzić odpowiedzialności za nielegalne udostępnienie treści na platformie, w tym zapłaty. Artkuł 17 Dyrektywy zmienia tę zasadę i stwierdza, że to dostawcy platform są odpowiedzialni za legalność udostępniania na platformach treści zamieszczanych przez użytkowników. Wobec tego, to dostawcy platform powinni uzyskać zezwolenie od uprawnionych na udostępnianie treści, a w razie braku takiego zezwolenia, będą ponosili wobec uprawnionych odpowiedzialność według zasad określonych w art. 17 dyrektywy autorskiej.
Dlaczego zasady odpowiedzialności zostały zmienione?
Konieczność wprowadzenia nowych zasad korzystania z treści twórczych na platformach wyniknęła przede wszystkim z powstania tzw. Value Gap, czyli różnicy pomiędzy korzyściami finansowymi, jakie dostawcy platform czerpią z udostępniania tych treści na platformach, a dochodami wypłacanymi uprawnionym. Nowa dyrektywa autorska ma na celu ułatwienie uprawnionym uzyskania odpowiedniego wynagrodzenia za korzystanie z ich twórczości na platformach przez to, że to platformy, a nie użytkownicy, muszą uzyskać od uprawnionych zezwolenie na udostępnianie ich twórczości na platformach.
Jaki wpływ na blokowanie treści twórczych ma zmiana zasad odpowiedzialności?
I tutaj dochodzimy do sedna problemu. Skoro według nowych zasad dostawca platformy ponosi odpowiedzialność wobec uprawnionych za nielegalne udostępnienie treści na platformie, czy dostawca może w jakikolwiek sposób zwolnić się z tej odpowiedzialności, jeśli nie uda mu się uzyskać zezwolenia od uprawnionego (co w praktyce może być trudne)? Odpowiedź brzmi: tak. Dostawca musi wykazać, że dołożył wszelkich starań, żeby zablokować treści zamieszczane bez zezwolenia uprawnionych.
Według skargi Polski, w praktyce efekt powyższego będzie taki, że dostawcy platform, chcąc zwolnić się z odpowiedzialności, będą musieli monitorować i filtrować wszystkie zamieszane na ich platformach treści, żeby zidentyfikować i zablokować treści twórcze zamieszczane nielegalnie. Aby osiągnąć ten efekt, przy ilościach treści zamieszczanych i udostępnianych na platformach, a przypomnijmy, że art. 17 dyrektywy dotyczy platform o dużej ilości treść twórczych, dostawcy musieliby stosować narzędzia automatycznej filtracji treści. Po pierwsze, w praktyce wiąże się to z ryzykiem blokowania treści zamieszczanych legalnie. Po drugie, weryfikacja, czy dana treść jest zamieszczana legalnie czy nie, przeprowadzana byłaby automatycznie, np. na podstawie algorytmów, jeszcze przed udostępnieniem treści na platformie. Taka prewencyjna kontrola ogranicza, według skargi Polski, prawo do wolności wypowiedzi i informacji wynikające z art. 11 Karty praw podstawowych Unii Europejskiej.
Co na to Trybunał, czy Polska miała rację?
Odpowiedź brzmi: tak, ale …, czyli Trybunał przyznał rację Polsce, ale jednocześnie skargę oddalił.
Trybunał przyznał, że zaskarżony przez Polskę art. 17 dyrektywy autorskiej faktycznie konstruuje system odpowiedzialności dostawców platform za treści udostępnianie na platformach w ten sposób, że ogranicza on prawo do wolności wypowiedzi i informacji użytkowników platform zagwarantowane w Karcie praw podstawowych Unii Europejskiej.
Jednocześnie Trybunał oddalił skargę, ponieważ uznał, że ograniczenie prawa do wolności wypowiedzi i informacji użytkowników platform wprowadzone przez art. 17 dyrektywy autorskiej, wynikające z obowiązku dostawców platform stosowania prewencyjnej filtracji treści zamieszczanych i udostępnianych na platformach, mogło zostać wprowadzone, ponieważ jest potrzebne i proporcjonalne względem prawnie uzasadnionego celu.
Dlaczego takie ograniczenie wolności słowa jest potrzebne?
Filtracja treści przez platformy jest potrzebna po to, żeby chronić prawa własności intelektualnej (np. prawa twórcy i wykonawcy muzyki) w taki sposób, aby przyczynić się do zapewnienia prawidłowego i sprawiedliwego funkcjonowania rynku prawa autorskiego. Ma zapewnić równowagę praw i interesów platform, ich użytkowników oraz uprawnionych. Podmioty uprawnione do treści twórczych powinny mieć możliwość decydowania o tym, czy i na jakich zasadach chcą rozpowszechniać swoją twórczość na platformach, a stosowanie narzędzi automatycznego rozpoznawania i filtrowania treści ma służyć temu, żeby na platformie nie były udostępniane te treści twórcze, co do których uprawnieni nie wyrazili zgody na ich rozpowszechnianie w ten sposób.
Dlaczego ograniczenie wolności słowa w art. 17 dyrektywy autorskiej jest proporcjonalne do prawnie uzasadnionego celu?
Ograniczenie wolności słowa wynikające z uprzedniej filtracji treści przez platformy wprowadzone przez art. 17 dyrektywy autorskiej jest proporcjonalne do celu, który to ograniczenie ma zrealizować, czyli do potrzeby ochrony praw własności intelektualnej. Artykuł 17 wyznacza bowiem jasne i precyzyjne granice dla stosowania mechanizmów filtracji treści, w jakich mogą poruszać się dostawcy platform tak, aby ograniczenia praw wolności wypowiedzi i informacji nie były nadmierne, tj. wykraczające poza potrzebę zrealizowania wspomnianego wyżej celu ochrony treści twórczych, a prawo do wolności słowa zostało poszanowane. Granice te mają chronić użytkowników przed stosowaniem przez platformy nadmiernych i arbitralnych środków blokowania i filtrowania treści.
Jakie granice, w ramach których mogą poruszać się dostawcy platform filtrując treści, określa art. 17?
Po pierwsze, żeby blokować konkretne zamieszczane przez użytkowników treści twórcze, dostawcy platform muszą najpierw otrzymać od uprawnionych odpowiednie informację, które umożliwią im identyfikację tych treści. Dostawcy nie decydują zatem sami, które treści mają blokować. Mogą blokować te treści, które wskazali im uprawnieni. Konieczna jest zatem współpraca pomiędzy dostawcami platform a uprawnionymi.
Po drugie, w efekcie współpracy pomiędzy dostawcami platform a uprawnionymi nie może dojść do zablokowania dostępności treści twórczych, które udostępniane są legalnie. Chodzi tutaj o takie przypadki, jak na przykład korzystanie z treści bez zezwolenia, w ramach dozwolonego prawem cytatu, krytyki, recenzji, czy parodii. Dostawcy platform nie mogą stosować takich mechanizmów filtracji treści, których efektem byłoby zablokowanie treści udostępnianych w ramach dozwolonego użytku. Trybunał wskazał, że „system filtrowania, który mógłby nie rozróżniać w wystarczającym stopniu treści niezgodnej z prawem od treści zgodnej z prawem, skutkiem czego jego wdrożenie mogłoby doprowadzić do blokady komunikacji o treści zgodnej z prawem, jest sprzeczny z prawem do wolności wypowiedzi i informacji zagwarantowanych w art. 11 Karty praw wolności Unii Europejskiej i nie zapewnia sprawiedliwej równowago między tym prawem a prawem własności intelektualnej.”
Po trzecie, art. 17 dyrektywy autorskiej nie zobowiązuje dostawców platform do ogólnego nadzoru na treściami twórczymi. Nie można wymagać od dostawców platform, aby zapobiegali oni zamieszczaniu i publicznemu udostępnianiu treści twórczych, w przypadku których konieczne byłoby przeprowadzenie przez dostawców własnej oceny, czy dana treść została udostępniona legalnie, czy nie. Wobec tego dostawcy będą musieli, a jednocześnie mogli, blokować tylko te treści twórcze, „których bezprawny charakter «nasuwa się od razu», to znaczy w sposób oczywisty bez, w szczególności, konieczności rozważania ich kontekstu.”[4] Upraszczając oznacza to, że dostawcy mogą blokować treści identyczne albo równoznaczne z utworami wskazanymi dostawcy przez uprawnionych, a nie kontekstowe, np. użyte w ramach karykatury.
Po czwarte, użytkownicy muszą mieć zagwarantowaną możliwość kwestionowania blokowania zamieszczanych przez nich treści twórczych. Taką możliwość muszą zapewnić dostawcy platform poprzez stosowanie odpowiednich mechanizmów wnoszenia skarg i dochodzenia roszczeń przez użytkowników. Skargi powinny być rozpatrywane bez zbędnej zwłoki oraz, co istotne, z kontrolą człowieka, a nie tylko za pomocą środków automatycznych.
Wreszcie, z treści art. 17 dyrektywy autorskiej wynika rozwiązanie prawne istotne dla przeciwdziałania nadmiernemu blokowaniu treści. Mianowicie dostawcy muszą starać się blokować treści udostępniane nielegalnie, stosując przy tym wysokie standardy staranności zawodowej w sektorze. Jest to tzw. zobowiązanie starannego działania. Natomiast jeśli chodzi o treści legalne, dostawcy muszą zapewnić ich udostępnianie na platformach i nieblokowanie takich treści. Jest to tzw. zobowiązanie rezultatu.
Powyższa konstrukcja prawna, polegająca na zestawieniu zobowiązania starannego działania z zobowiązaniem rezultatu, choć może brzmieć abstrakcyjnie, ma istotne znaczenie praktyczne, które w przyszłości może być przysporzyć problemów w decyzjach dotyczących blokowania treści. W uproszczeniu, praktycznym efektem tej konstrukcji prawnej jest to, że zasadniczo dostawcy platform muszą dać pierwszeństwo wolności wypowiedzi i brać tę zasadę pod uwagę przy decyzjach, w tym zautomatyzowanych, dotyczących blokowania treści, w przypadku, gdy ich nielegalny charakter nie jest oczywisty. Ponadto, zasada pierwszeństwa dla wolności słowa ma przełożenie na to, czy w sytuacji sporu co do tego, czy treść twórcza jest zamieszczona legalnie czy nie (np. z wykorzystaniem mechanizmu wnoszenia skarg i dochodzenia roszczeń), do czasu rozstrzygnięcia sporu ma ona pozostać udostępniona na platformie, czy powinna być zablokowana. Państwa UE, które wdrożyły już dyrektywę autorską, podeszły do tego problemu w różnych sposób. Włochy i Hiszpania przyjęły w swoich krajowych regulacjach, że w czasie sporu treść nie powinna być dostępna na platformie. Odwrotnie rozwiązały tę kwestię Niemcy i Austria. Według implementacji dyrektywy autorskiej przez te państwa, treści sporne pozostają dostępne na platformach do czasu rozstrzygnięcia sporu. Znaczna część państw nie rozwiązała wprost tego problemu, implementując art. 17 dyrektywy w formie skopiowania jego treści do krajowych aktów prawnych.
Wolność to jednak nie dowolność
Ogólny wniosek, jaki nasuwa się po lekturze orzeczenia Trybunału w sprawie skargi Polski, jest taki, że wolność nie może być utożsamiana z dowolnością, również w świecie cyfrowym. Wolność słowa nie może prowadzić do nadużyć, w tym do naruszania praw własności intelektualnej. Pomiędzy wolnością słowa a ochroną praw własności intelektualnej, które stanowią efekt pracy i inwestycji finansowych, musi być zachowana właściwa proporcja. Według Trybunału, art. 17 dyrektywy autorskiej proporcję tę zachowuje, wprowadzając ramy i granice dla mechanizmów filtracji treści służących ochronie praw twórczych. Trybunał wskazał, że zadaniem państw członkowskich, jest taka transpozycja art. 17 dyrektywy autorskiej do krajowych porządków prawnych, która pozwoli na zapewnienie sprawiedliwej równowagi pomiędzy poszczególnymi prawami, czyli prawem do wolności słowa z jednej strony i prawem do ochrony własności intelektualnej z drugiej strony.
Polska nie wdrożyła jeszcze dyrektywy autorskiej, chociaż termin na implementację minął w czerwcu ubiegłego roku. Projekt ustawy wdrażający dyrektywę autorską ma zostać ogłoszony w II kwartale 2022 r., wobec czego można spodziewać się, że prace projektem są na ukończeniu. Niebawem będziemy zatem wiedzieli, w jaki sposób Polska podjedzie do wdrożenia art. 17 dyrektywy autorskiej do naszego porządku prawnego, zwłaszcza wobec oddalenia skargi Polski na powyższy przepis.
[1] https://curia.europa.eu/juris/document/document.jsf?text=&docid=258261&pageIndex=0&doclang=PL&mode=lst&dir=&occ=first&part=1&cid=4803493
[2] https://curia.europa.eu/juris/document/document.jsf?text=&docid=216823&pageIndex=0&doclang=PL&mode=req&dir=&occ=first&part=1&cid=4803493
[3] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE
[4] Opinia Rzecznika Generalnego z dnia 15 lipca 2021 r. w sprawie C-401/19; https://curia.europa.eu/juris/document/document.jsf?text=&docid=244201&pageIndex=0&doclang=PL&mode=req&dir=&occ=first&part=1&cid=4803493