12 maja EUIPO (Urząd Unii Europejskiej ds. Własności Intelektualnej) opublikował obszerną analizę relacji sztucznej inteligencji z prawami autorskimi. Chodzi oczywiście o generatywną sztuczną inteligencję („GenAI”), czyli tę która tworzy nowe treści opierając się na bazie danych, z której czerpie „swoją wiedzę”. To właśnie te dane, z których czerpie wiedzę budzą największą kontrowersję. Dane te bowiem chronione są na wielu płaszczyznach, w tym na gruncie prawa autorskiego.
Raport rozprawia się zatem z tematem bardzo szeroko. Niniejsze omówienie koncentrować będzie się na jednym z poruszonych tam tematów, a tj. relacji AI Actu z regulacją prawnoautorską.
Nowe wyzwania, nowe regulacje
AI Act nie jest regulacją obojętną na prawa twórców. Brak jej obojętności nie oznacza przy tym, że reguluje je kompleksowo czy dostatecznie w świetle wciąż postępującego rozwoju sztucznej inteligencji. Zauważa przy tym natomiast główne problemy w tym zakresie i prezentuje rozwiązania mające pomóc twórcom w ochronie swoich praw.
Motyw 104 w sposób ogólny opisuje wyzwania przed jakimi stają artyści, twórcy w dobie rozwoju sztucznej inteligencji a przede wszystkim w dobie dużych generatywnych modeli sztucznej inteligencji. Prawodawca unijny zastrzega tym samy, że dostrzega pole do naruszeń praw autorskich twórców w związku z jej użyciem i dlatego każdorazowe wykorzystanie utworów do trenowania sztucznej inteligencji powinno być zgodne z unijną regulacją prawnoautorską.
W związku z powyższymi zagrożeniami narzuca „politykę transparentności”, która przejawia się w przepisach nakładających obowiązki na dostawców modeli AI ogólnego przeznaczenia. Model AI ogólnego przeznaczenia zdefiniowany został w art. 3 pkt 63 AI Act. Charakteryzuje się on znaczną ogólnością i jest w stanie wykonać szeroki zakres zadań. Typowym przykładem takiego modelu AI są właśnie duże generatywne modele AI, tj. np. Chat GPT.
„Polityka transparentności” wybrzmiewa wprost z motywu 107 preambuły AI Act, który wskazuje na konieczność udostępniania przez dostawców modeli AI ogólnego przeznaczenia streszczenia na temat treści wykorzystywanych przez nich do trenowania tych modeli.
Autorzy omawianego raportu zaznaczają, że powyższy obowiązek, który urzeczywistnia się w art. 53 ust 3 pkt d, budzi kontrowersje w kontekście tajemnicy przedsiębiorstwa. Dlatego też streszczenie takie nie powinno być nadmiernie szczegółowe i wymieniać powinno przede wszystkim główne zbiory danych, które wykorzystywane były do tego celu. Streszczenie takie powinno być dostępne publicznie i nie powinno generować konieczności weryfikacji każdego źródła pod katem jego zgodności z prawem autorskim. Musi być przy tym na tyle obszerne, aby zgodnie z motywem 107 AI Act „ułatwić stronom mającym uzasadniony interes, w tym posiadaczom praw autorskich, wykonywanie i egzekwowanie ich praw wynikających z prawa Unii;”.
Obowiązek ten brzmi bardzo enigmatycznie, ponieważ nie wynika z niego wprost jak takie streszczenie miałoby de facto wyglądać. Dlatego Urząd ds. AI opublikuje wzór takiego streszczenia, zgodnie z którym dostawcy będą musieli streszczenia takie sporządzać. Jest on aktualnie opracowywany.
Konieczna zgodność z prawem UE
Drugi obowiązek omawiany w tym kontekście jest obowiązkiem wprowadzenia przez dostawców modeli AI ogólnego przeznaczenia, polityki służącej zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych. Wynika on wprost z art. 53 ust 3 pkt c AI Act natomiast nie można przy jego wykładni zapominać o motywie 106 preambuły AI Act. To z niej wynika zasada rzutująca w sposób znaczący na rynek generatywnej sztucznej inteligencji. Zgodnie z nią wszyscy dostawcy wprowadzający do obrotu w Unii model AI ogólnego przeznaczenia powinny spełniać obowiązek wprowadzenia ww. polityki niezależnie od tego w jurysdykcji jakiego kraju trenowany jest wprowadzany do obrotu model AI. Reguła ta ma zapewnić równość wśród wszystkich dostawców, tak aby żaden z nich nie miał przewagi w związku z możliwością stosowania niższych standardów prawnoautorskich poprzez szkolenie AI poza Unią Europejską.
Niezbędne znakowanie
Końcowo zauważono, że również obowiązek wynikający z art. 50 ust. 2 AI Act, tj., aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane, mają znaczenie z perspektywy prawa autorskiego. Obowiązek ten jest bowiem wyrazem przeważającej opinii, że wytwór sztucznej inteligencji nie stanowi przedmiotu ochrony prawnoautroskiej. W tym miejscu zaznaczyć należy, że nie jest to jedyne stanowisko w doktrynie i podkreśla się, że wytwór generatywnej sztucznej inteligencji będzie mógł zostać zaklasyfikowany jako utwór w rozumieniu prawa autorskiego. Jednak w takim przypadku spełniony musi być szereg czynników (przede wszystkim szeroki wpływ czynnika ludzkiego) i nie jest to definitywne stwierdzone, bądź utwierdzone w doktrynie. Zasadnicze znaczenie ma bowiem rzeczywisty wpływ człowieka na końcowy efekt (twór) wygenerowany przez GenAI, a więc liczba i rodzaj promptów (poleceń) zadanych przez użytkownika GenAI. Na ten moment coraz odważniej mówi się, że taki wytwór GenAI będzie mógł być klasyfikowany jako utwór a autorstwo przypisane będzie użytkownikowi, który wygenerował dany wytwór poprzez skrupulatnie dobieranie właściwych promptów.
Wnioski
Podsumowując, raport wskazuje na trzy obowiązki dostawców GenAI, które wynikają z AIAct i dotyczą materii prawa autorskiego, a mianowicie:
- wprowadzenie polityki służącej zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych (art. 53 ust. 1 pkt c AI Act)
- sporządzenie i podanie do publicznej wiadomości streszczenia wykorzystanych treści do trenowania danego modelu GenAI; zgodne ze wzorem, które przygotowane zostanie przez Urząd ds. AI (art. 53 ust 3 pkt d AI Act);
- zapewnienie, aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane (art. 50 ust. 2 AI Act).
Raport nie ma charakteru wiążącego, natomiast dostarcza poszerzoną analizę koegzystencji praw autorskich z wciąż rozwijającą się sztuczną inteligencją w Unii Europejskiej i jest bardzo wartościowym głosem w dyskusji.
Cała treść raportu przeprowadzonego na zlecenie EUIPO przez naukowców Uniwersytetu w Turynie i Nexa Center for Internet & Society, dostępna jest TUTAJ.
Autor:
aplikantka radcowska