Dynamiczny rozwój algorytmów generatywnej sztucznej inteligencji (GenAI) postawił przed polskim wymiarem sprawiedliwości wyzwania, które jeszcze dekadę temu pozostawały w sferze science-fiction. Technologia deepfake, umożliwiająca niemal perfekcyjną syntezę obrazu i dźwięku, stanowi dziś jedno z najpoważniejszych zagrożeń dla dóbr osobistych osób fizycznych. W dobie „post-prawdy” kluczowe staje się pytanie o instrumenty procesowe pozwalające na skuteczną ochronę wizerunku oraz uzyskanie adekwatnej kompensaty finansowej.
Materialnoprawna podstawa ochrony: Dualizm roszczeń
W polskim porządku prawnym ochrona przed skutkami deepfake’u opiera się na dualizmie podstaw prawnych. Z jednej strony mamy do czynienia z naruszeniem autorskich dóbr osobistych (art. 81 ust. 1 ustawy o prawie autorskim i prawach pokrewnych), z drugiej zaś – z klasycznym naruszeniem dóbr osobistych na gruncie Kodeksu cywilnego (art. 23 i 24 KC).
Współczesne orzecznictwo (m.in. Sąd Najwyższy w wyroku z dnia 20 maja 2022 r., sygn. akt II CSKP 433/22) coraz wyraźniej podkreśla, że wizerunek nie jest jedynie „wyglądem zewnętrznym”, lecz emanacją tożsamości człowieka. W przypadku deepfake’u dochodzi nie tylko do wykorzystania podobizny bez zgody (brak zezwolenia, o którym mowa w art. 81 pr. aut.), ale często do false light – przedstawienia osoby w nieprawdziwym, często upokarzającym kontekście, co bezpośrednio uderza w jej cześć i godność.
AI Act a bezprawność działania
Kluczowym punktem odniesienia dla prawników staje się obecnie Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 (tzw. AI Act). Artykuł 50 tego rozporządzenia nakłada na dostawców i użytkowników systemów AI obowiązek przejrzystości – materiały wygenerowane syntetycznie muszą być jasno oznaczone jako deepfake.
Z perspektywy procesowej, niedopełnienie tego obowiązku przez twórcę deepfake’u stanowi potężny argument na rzecz wykazania bezprawności działania. W procesach o ochronę dóbr osobistych obowiązuje domniemanie bezprawności (art. 24 KC), jednakże powołanie się na naruszenie standardów AI Act dodatkowo obciąża pozwanego, czyniąc jego linię obrony (np. powoływanie się na parodię czy wolność wypowiedzi) znacznie trudniejszą do utrzymania.
Roszczenia majątkowe – Zadośćuczynienie i odszkodowanie
Ofiara deepfake’u może dochodzić dwóch rodzajów świadczeń pieniężnych:
- Zadośćuczynienie pieniężne za doznaną krzywdę (art. 448 KC):
Sądy przy ustalaniu wysokości zadośćuczynienia biorą pod uwagę stopień winy sprawcy, zasięg terytorialny i czasowy publikacji oraz intensywność naruszenia. W przypadku deepfake’ów o charakterze pornograficznym (non-consensual deepfake pornography) orzecznictwo zmierza w stronę zasądzania kwot rzędu kilkudziesięciu, a nawet kilkuset tysięcy złotych, uznając tego typu działania za formę przemocy cyfrowej niszczącej życie prywatne i zawodowe ofiary.
- Odszkodowanie (naprawienie szkody majątkowej):
Jeśli bezprawny materiał AI doprowadził do wymiernych strat (np. utrata kontraktu reklamowego przez influencera, zwolnienie z pracy), powód może żądać pełnego odszkodowania (art. 415 KC). Coraz częściej w doktrynie podnosi się koncepcję „rynkowej wartości wizerunku”. Jeżeli wizerunek ma wartość komercyjną, odszkodowanie powinno odpowiadać wysokości wynagrodzenia, jakie sprawca musiałby zapłacić za legalne wykorzystanie podobizny w danym kontekście.
Odpowiedzialność platform: Standard DSA
W dobie anonimowości twórców w internecie, roszczenia często kierowane są przeciwko pośrednikom. Akt o usługach cyfrowych (Digital Services Act – DSA) zrewolucjonizował zasady odpowiedzialności platform (Facebook, X, TikTok). Zgodnie z mechanizmem notice and action, platforma, która otrzyma wiarygodne zgłoszenie o bezprawnym deepfake’u i niezwłocznie go nie usunie, traci swój immunitet i może odpowiadać solidarnie ze sprawcą za skutki naruszenia dóbr osobistych.
Wyzwania dowodowe i prewencja
Z punktu widzenia praktyki procesowej, kluczowe jest zabezpieczenie dowodów przy użyciu technologii blockchain lub kwalifikowanych usług zaufania (tzw. e-zabezpieczenie treści internetowych), co zapobiega kwestionowaniu autentyczności materiału w sądzie. W sprawach o deepfake niezbędny staje się często dowód z opinii biegłego z zakresu informatyki śledczej i AI, który potwierdzi, że materiał nie jest jedynie przeróbką (montażem), lecz zaawansowaną syntezą AI, co podnosi stopień zawinienia sprawcy.
Walka z deepfake’ami na drodze sądowej nie jest już walką z wiatrakami. Połączenie klasycznej ochrony dóbr osobistych z nowymi regulacjami unijnymi (AI Act, DSA) tworzy kompleksowy system ochrony. Dla prawnika reprezentującego ofiarę kluczowe jest nie tylko wykazanie faktu naruszenia, ale przede wszystkim precyzyjne skwantyfikowanie szkody – zarówno w wymiarze niematerialnym, jak i czysto rynkowym. W dobie manipulacji obrazem, prawo do kontroli nad własnym wizerunkiem staje się jednym z najważniejszych praw podmiotowych w katalogu wolności obywatelskich.
Niniejszy artykuł ma charakter informacyjny i nie jest to porada prawna.
Stan prawny na dzień 25 lutego 2026 r.
Autor:
Redaktor cyklu:
