Rozwój sztucznej inteligencji przynosi nie tylko innowacje, ale również nowe zagrożenia. Jednym z najbardziej kontrowersyjnych i niepokojących zjawisk ostatnich lat jest technologia deepfake – narzędzie umożliwiające tworzenie realistycznych, lecz całkowicie fałszywych materiałów audio-wideo. Choć sama technologia może służyć celom artystycznym czy edukacyjnym, jej potencjał do nadużyć jest ogromny. Wykorzystanie wizerunku osoby bez jej zgody, kradzież tożsamości, szantaż czy zniesławienie to tylko niektóre z możliwych konsekwencji.
Deepfake – neutralne narzędzie czy cyfrowa broń?
Deepfake to technologia oparta na algorytmach sztucznej inteligencji, która pozwala generować materiały wyglądające na autentyczne, choć nimi nie są. Może służyć do tworzenia efektów specjalnych w filmach, ale równie łatwo może zostać użyta do przedstawienia osoby w sytuacjach, które nigdy nie miały miejsca – np. w kontekście seksualnym, przestępczym czy politycznym. W efekcie dochodzi do naruszenia dóbr osobistych, prywatności, a nawet bezpieczeństwa jednostki.
Jak zauważa dr Joanna Łuczak-Tarka z Uniwersytetu Łódzkiego, zwalczanie deepfake’ów to nie tylko kwestia ochrony prywatności, ale również stabilności porządku prawnego. W dobie cyfryzacji życia społecznego, zawodowego i politycznego, skala zagrożeń rośnie proporcjonalnie do naszej obecności w przestrzeni wirtualnej.
Luka w przepisach – problem globalny
Obecne regulacje prawne nie nadążają za tempem rozwoju technologii. Dr Łukasz Kodłubański z Uniwersytetu Gdańskiego podkreśla, że prawo nie jest w stanie przewidzieć wszystkich możliwych zastosowań nowych narzędzi, a reakcje legislacyjne często są spóźnione. W Polsce problem ten dostrzega m.in. . prezes Urzędu Ochrony Danych Osobowych, Mirosław Wróblewski, który apeluje o pilne zmiany legislacyjne.
W jego ocenie, deepfake może prowadzić do poważnych naruszeń danych osobowych, a obecne przepisy – zarówno cywilne, jak i karne – nie zapewniają skutecznej ochrony. Choć ustawa o prawie autorskim wymaga zgody na rozpowszechnianie wizerunku, a kodeks cywilny chroni dobra osobiste, to w praktyce trudno jest szybko i skutecznie usunąć szkodliwe treści z internetu.
Czy polskie prawo karne wystarcza?
Wykorzystanie deepfake’ów może potencjalnie wypełniać znamiona kilku przestępstw, takich jak:
- kradzież tożsamości (art. 190a §2 k.k.),
- zmuszanie do określonego zachowania (art. 191 k.k.),
- rozpowszechnianie wizerunku nagiej osoby bez zgody (art. 191a k.k.),
- produkcja i rozpowszechnianie treści pornograficznych (art. 202 k.k.),
- zniesławienie i zniewaga (art. 212 i 216 k.k.),
- oszustwo (art. 286 k.k.).
Jednak, jak zauważa się w doktrynie, żadna z tych regulacji nie odnosi się wprost do deepfake’ów. Brakuje precyzyjnego określenia znamion czynu zabronionego, co utrudnia skuteczne ściganie sprawców. Dodatkowo, identyfikacja autora materiału, jego zamiaru i celu działania bywa bardzo trudna.
AI Act – europejska odpowiedź na wyzwania
Nadzieję na poprawę sytuacji przynosi przyjęte w 2024 r. rozporządzenie Unii Europejskiej o sztucznej inteligencji – AI Act. To pierwszy kompleksowy akt prawny w Europie, który wprost odnosi się do treści generowanych przez AI. Zgodnie z art. 50 AI Act, deepfake’y muszą być wyraźnie oznaczane jako sztuczne, a wykorzystywanie danych prawdziwych osób bez ich zgody jest zakazane. Naruszenie tych zasad może skutkować surowymi karami finansowymi, które muszą zostać wdrożone w prawie krajowym.
Przykłady z zagranicy – Włochy, Dania, Francja
Niektóre państwa członkowskie UE już podjęły zdecydowane kroki. We Włoszech wprowadzono przestępstwo „deepfake”, za które grozi od roku do pięciu lat więzienia. Impulsem do zmian był przypadek premier Włoch, której wizerunek został wykorzystany w fałszywych filmach pornograficznych rozpowszechnianych w internecie.
Dania zakazała tworzenia deepfake’ów przedstawiających prawdziwe osoby w kontekstach seksualnych, z wyjątkiem satyry i parodii. Francja przyjęła ustawę regulującą przestrzeń cyfrową, w której również uwzględniono przestępstwo użycia deepfake’ów.
Co dalej w Polsce?
Zdaniem prezesa UODO, konieczne jest opracowanie szczegółowych zasad odpowiedzialności karnej i cywilnej za tworzenie i rozpowszechnianie szkodliwych deepfake’ów. Potrzebne są też przepisy nakładające obowiązki na platformy internetowe – m.in. . szybkie usuwanie nielegalnych treści i współpraca z organami ścigania.
Choć obecne przepisy pozwalają na pociągnięcie sprawców do odpowiedzialności, to – ich zastosowanie wymaga każdorazowo złożonej analizy prawnej i często nie obejmuje nowych form wykorzystania AI. W efekcie ofiary pozostają bez skutecznej ochrony, a sprawcy – bezkarni.
Debata wokół regulacji technologii deepfake budzi wiele emocji w środowisku prawniczym. Przedstawiciele doktryny i praktycy prawa są zgodni co do tego, że obecny system ochrony prawnej nie nadąża za tempem rozwoju sztucznej inteligencji.
Eksperci gdyńskiego Stowarzyszenia OVUM, które wspiera osoby poszkodowane przez nadużycia technologiczne, podkreślają, że wprowadzenie specjalnych przepisów penalizujących manipulacje multimedialne byłoby krokiem w stronę bardziej adekwatnej reakcji prawnej. Jednocześnie ostrzegają przed nadmierną regulacją, która mogłaby ograniczyć swobodę wyrażania się i innowacyjność. Ich zdaniem konieczne jest wyważenie interesów: ochrony jednostki i wolności twórczej.
W tej debacie nie można jednak zapominać, że odpowiedzialność karna nie powinna być jedynym środkiem ochrony. Konieczne jest również rozwijanie instrumentów cywilnoprawnych i administracyjnych, które umożliwią szybkie usuwanie nielegalnych treści z internetu oraz skuteczne dochodzenie odszkodowania. W tym kontekście projektowane przepisy wdrażające unijne rozporządzenie AI Act będą miały istotne znaczenie dla określenia obowiązków dostawców i użytkowników systemów generatywnych.
Niezależnie od braku kompleksowych uregulowań, już teraz istnieją mechanizmy, które pozwalają chronić interesy przedsiębiorców przed deep fake. Jeżeli Ciebie lub Twoją firmę spotkał podobny problem, zapraszamy do kontaktu – Kancelaria AJ LAW.