AI zrobiła z Twojej córki PORNOSTAR? 108 fundacji żąda totalnego zakazu narzędzi nudyfikacji

Międzynarodowa koalicja WeProtect Global Alliance, skupiająca organizacje zajmujące się bezpieczeństwem dzieci w internecie, opublikowała pilny apel o całkowity i natychmiastowy zakaz narzędzi sztucznej inteligencji służących do tzw. nudyfikacji, czyli generowania nagich obrazów na podstawie zdjęć ubranych osób. Pod apelem podpisało się 108 organizacji z całego świata, w tym polska Fundacja Dajemy Dzieciom Siłę.
Narzędzia do nudyfikacji nie powinny być dostępne w żadnym społeczeństwie, które chce chronić swoje dzieci. Dziś jasno mówimy: ta funkcjonalność nie służy żadnemu dobremu celowi i powinna być jednoznacznie oraz powszechnie zakazana – brzmi kluczowy fragment apelu.
Autorzy dokumentu nie pozostawiają wątpliwości: technologia ta jest bezpośrednio i coraz powszechniej wykorzystywana do krzywdzenia dzieci.
Zdjęcia małoletnich, w tym ofiar wykorzystywania seksualnego, są przekształcane w coraz bardziej ekstremalne i szkodliwe formy.
Deepfake’i są teraz ściśle powiązane z nadużyciami seksualnymi, wymuszeniami, szantażem – podkreślono.
Sprawcy, w tym także młodociani, tworzą za ich pomocą nowe formy „gospodarki opartej na krzywdzie”, czerpiąc z niej korzyści majątkowe.
Ta technologia to nie tylko narzędzia – to nowy wektor wykorzystywania, który naraża kobiety i dzieci – szczególnie dziewczęta – na bezprecedensowe ryzyko – oceniono.
Koalicja formułuje konkretne żądania wobec rządów i ustawodawców. Domaga się pilnego uchwalenia i egzekwowania regulacji – najpóźniej w ciągu dwóch lat – które:
- Całkowicie zdelegalizują tworzenie, dystrybucję, posiadanie i komercyjne wykorzystanie aplikacji oraz funkcjonalności AI do nudyfikacji.
- Wprowadzą odpowiedzialność cywilną i karną dla firm, właścicieli, deweloperów, platform i użytkowników umożliwiających lub czerpiących korzyści z obiegu takich obrazów.
- Nałożą na platformy, sklepy z aplikacjami, usługi hostingowe i dostawców internetu obowiązek powszechnych blokad dostępu do tych narzędzi.
- Wprowadzą obowiązkowe programy edukacji medialnej, uczące o ryzykach związanych z nudyfikacją.
Firmy, deweloperzy i osoby tworzące lub rozpowszechniające te narzędzia muszą zostać pociągnięte do odpowiedzialności, zarówno prawnej, jak i karnej – czytamy.
Koalicja wzywa również bezpośrednio firmy technologiczne do wdrożenia zasad bezpieczeństwa już na etapie projektowania, usunięcia możliwości monetyzacji takich treści oraz zapewnienia pełnej przejrzystości w zakresie wykrywania i zwalczania nadużyć.
Apel nabiera szczególnej wagi w kontekście przytoczonych danych. W 2024 roku do amerykańskiej infolinii CyberTipline, prowadzonej przez National Center for Missing & Exploited Children (NCMEC), wpłynęło blisko 20 milionów raportów o potencjalnych materiałach przedstawiających seksualne wykorzystanie dzieci (CSAM). Wśród zweryfikowanych materiałów 44% zdjęć i 25% filmów było „nowych”, co oznacza, że mogły dokumentować aktualne krzywdy dziejące się w czasie rzeczywistym. Ponad 51 tysięcy raportów uznano za tak pilne, że natychmiast przekazano je organom ścigania.
Dane te unaoczniają globalną skalę problemu, tym bardziej że, jak zauważono w apelu, „zdecydowana większość zgłoszeń dotyczy przypadków spoza terytorium Stanów Zjednoczonych”. Tymczasem w Unii Europejskiej brakuje obecnie kompleksowych, obowiązkowych regulacji podobnych do amerykańskich, które nakazywałyby dostawcom usług obowiązkowe zgłaszanie takich treści. Działania platform w UE mają w dużej mierze charakter dobrowolny.
Sygnatariusze, w tym reprezentująca Polskę Fundacja Dajemy Dzieciom Siłę, podkreślają, że „sztuczna inteligencja musi być sojusznikiem, a nie zagrożeniem dla naszych dzieci”.
Zdaniem koalicji osiągnięcie tego celu wymaga natychmiastowego, globalnego zakazu narzędzi do nudyfikacji, które nieodwracalnie krzywdzą jednostki i podważają bezpieczeństwo całych społeczności. Czas na działanie legislatorów i firm technologicznych został wyraźnie odmierzony – to najbliższe dwa lata.
Czytaj więcej
Chcesz, abyśmy opisali Twoją historię albo zajęli się jakimś problemem? Masz ciekawy temat? Napisz do nas. Listy od Internautów już wielokrotnie nas inspirowały, a na ich podstawie powstały liczne teksty. Wiele listów publikujemy w całości. Napisz do Nas: portal@bumber.pl