Pliki wideo stworzone przez sztuczną inteligencję coraz częściej stają się narzędziem manipulacji w sieci. Liczba deepfake’ów podwaja się każdego roku, a większość z nich dotyczy nieautoryzowanej pornografii.
Do czego zatem może prowadzić oszustwo z użyciem AI i jak wyglądają aktualne regulacje prawne w tym zakresie?
Ciemna strona AI
Można uznać, że żyjemy w erze obrazu. W internecie na co dzień przewijają się nam setki plików foto i wideo, które – jak się okazuje – nie zawsze są prawdziwe. Z pewnością każdy z nas miał okazję ujrzeć podrobione wideo znanego polityka, aktora, piosenkarza czy twórcy internetowego. Wiele z nich przedstawianych jest nam często w kontekście humorystycznym. Istnieje jednak coraz więcej przypadków, kiedy do czynienia mamy ze znacznie poważniejszym tematem, jakim jest wspomniana wyżej pornografia. Nie dalej jak na początku roku w ogólnoświatowych mediach pojawiła się informacja o rozpowszechnionych nagich zdjęciach piosenkarki Taylor Swift, które zostały stworzone przez sztuczną inteligencję. Fałszywe obrazy w mgnieniu oka obiegły internet i stały się powodem wielu dyskusji na temat ciemnych stron AI. Jak się okazuje, problem nie dotyka tylko osób powszechnie znanych i może spotkać każdego.
Skradzione ciało
Wątek tworzenia deepfake’ów świetnie ukazany został w dokumencie „Skradzione ciało” w reżyserii Sophie Compton i Reuben Hamlyn. Film przedstawia przerażającą historię dziewczyny, która bez własnego udziału okazała się być bohaterką filmu pornograficznego, stając się tym samym ofiarą AI. Autor materiału bez zgody kobiety wykorzystał wizerunek jej twarzy i wkleił go do wcześniej nagranego filmiku. Po czasie okazało się, że problem jest znacznie większy, a dziewczyna z pomocą eksperta i koleżanki odkryła, na jak ogromną skalę wykorzystuje się technikę deepfake do terroryzowania kobiet. Obejrzany dokument na tegorocznym festiwalu filmowym Millenium Docs Against Gravity skłonił mnie, żeby dowiedzieć się na ten temat czegoś więcej.
Czym jest deepfake?
Nakładanie obrazów nieruchomych i ruchomych na obrazy lub filmy źródłowe przy wykorzystaniu systemów AI to nie wszystko. W grę zaczęła wchodzić również modyfikacja głosu. Szybki rozwój sztucznej inteligencji sprawia, że materiały oglądane przez użytkowników sieci przedstawiają coraz bardziej realistyczny obraz. Rozpowszechnianie cyfrowo zmienionych obrazów bez zgody zainteresowanych, często prowadzi do bardzo poważnych konsekwencji. Jak możemy sobie wyobrazić, ofiary krążących w sieci deepfake’ów przeżywają dramatyczne chwile, które wpływają nie tylko na własny stan psychiczny, ale często również na ich całą przyszłość.
Jak rozpoznać AI?
Mimo, że technologia rozwija się w zaskakującym tempie, wciąż należy pamiętać, że występuje w niej wiele błędów. Liczba pojawiających się w internecie deepfake’ów z każdym rokiem się podwaja, a my możemy pozostać uważni na zacierającą się granicę między prawdą a fałszem. W jaki sposób? Wielu z nas jest w stanie rozpoznać fałszywy obraz gołym okiem. Eksperci twierdzą, że w materiałach wygenerowanych przez AI zauważalne może być charakterystyczne „przeskakiwanie” obrazu, poświata lub nietypowa struktura skóry czy ułożenie sylwetki. Niektóre aplikacje już każą oznaczać materiały stworzone za pomocą sztucznej inteligencji, jednak w wielu przypadkach nasze oczy czy intuicja nie wystarczą. Z pomocą wówczas przychodzą specjalne narzędzia, dzięki którym możemy zweryfikować prawdę. Przykładowe strony internetowe, które mogłyby pomóc w weryfikacji to między innymi http://www.watchframebyframe.com lub https://www.aiornot.com
Deepfake a prawo
Jak twierdzą specjaliści, prawo za sztuczną inteligencją nie nadąża, a służby mają być na bieżąco szkolone w tym dynamicznie rozwijającym się temacie. Czy zatem odkrywając deepfake w sieci będzie można mówić już o przestępstwie? Kwestia jest niestety sporna, bowiem wiele kwestii prawnych w tym zakresie nie zostało jeszcze uregulowanych.
W chwili obecnej nie obowiązują szczegółowe regulacje na temat deepfake. Co prawda Parlament Europejski przyjął Rozporządzenie w sprawie AI, który również w zakresie ochrony przed deepfake nakłada na korzystających z AI pewne obowiązki, jednak regulacje te jeszcze nie obowiązują. Kraje UE mają dwa lata na wprowadzenie do krajowych systemów prawnych odpowiednich przepisów. Jeśli chodzi o Polskę, Ministerstwo cyfryzacji zapowiada przygotowanie projektów dodatkowych przepisów bazujących na regulacjach AI Act, ale póki co szczegóły regulacji nie są znane – mówi Magdalena Korol, adwokatka i partnerka w kancelarii Creativa Legal.
Wobec powyższego, do walki z tym zagrożeniem, niezbędne wydaje się być poczynienie dalszych kroków w zakresie prawnym.
Bez wątpienia brak odpowiednich i dostosowanych regulacji prawnych może sprawić, że deepfake’i będą wykorzystywane w sposób szkodliwy. Wprowadzenie kompleksowych przepisów regulujących kiedy i w jakich okolicznościach korzystanie z technologii deepfake jest dozwolone i uzasadnione, stanowi kluczowy element dla ochrony prywatności, zapobiegania dezinformacji, ochrony wizerunków osób znanych i mniej znanych oraz zapewnienia jasnych zasad odpowiedzialności firm technologicznych oferujących narzędzia do tworzenia deepfake’ów. Praktyka pokaże natomiast, czy w kontekście zjawiska deepfake konieczne stanie się stworzenie nowych regulacji, czy też wystarczające będzie wpasowanie bezprawnego wykorzystania przedmiotowej technologii do obowiązujących regulacji – dodaje Magdalena Korol.
Jak reagować na deepfake?
Każda sytuacja związana z nieuprawnionym użyciem materiału typu deepfake musi być indywidualnie zbadana. Należy także pamiętać, że w przypadku bezprawnego naruszenia naszego wizerunku przy użyciu tej technologii, prawnicy będą reagować na sytuację pod kątem przepisów ogólnych. To oznacza, że osoba naruszająca prawo do wizerunku może podlegać odpowiedzialności cywilnej i karnej. Dla przykładu, jeśli chodzi o odpowiedzialność karną, może dotyczyć ona zniesławienia, znieważenia, kradzieży tożsamości lub naruszenia intymności seksualnej.
Musimy pamiętać, że są to regulacje ogólne, powstałe na długo przed technologią deepfake, dlatego też każda sytuacja związana z jej nieuprawnionym użyciem musi zostać indywidualnie zbadana pod kątem realizacji przesłanek określonego przepisu. Zachowanie potencjalnego sprawcy i skutki naruszenia mogą różnić się szczegółami, które mogą mieć wpływ na możliwość zastosowania którejś z przedstawionych regulacji prawnych – podsumowuje Magdalena Korol.
Trzeba przyznać, że sztuczna inteligencja posiada swoje dobre strony i co do zasady została stworzona, by nam pomagać. Tworzenie obrazów za pomocą AI może być przecież w wielu branżach również pomocne. Musimy się jednak liczyć się z faktem, że żyjemy w czasach, kiedy dezinformacja szerzy się w niebezpiecznym tempie. Przerażający może być fakt, że do stworzenia sfałszowanego filmiku wystarczy tylko jedno zdjęcie. Czy upublicznianie wizerunku w sieci staje się więc powoli aktem odwagi? Być może zawsze była to forma śmiałości i przebicia własnej bariery strachu. Różnica może polegać na tym, że dzisiaj granica niechętnie jest przekraczana nie tylko w obawie przed oceną, ale również przed bezczelną kradzieżą tożsamości, za którą niestety wciąż trudno jest nam nadążyć.