Największe na świecie firmy zajmujące się AI zobowiązują się do ochrony bezpieczeństwa dzieci w Internecie

Wiodące firmy zajmujące się sztuczną inteligencją, w tym OpenAI, Microsoft, Google, Meta i inne, wspólnie zobowiązały się zapobiegać wykorzystywaniu ich narzędzi sztucznej inteligencji do generowania materiałów przedstawiających wykorzystywanie seksualne dzieci. Inicjatywą kierowała grupa Thorn zajmująca się bezpieczeństwem dzieci i organizacja non-profit All Tech Is Human skupiająca się na odpowiedzialnych technologiach.

Największe na świecie firmy zajmujące się AI zobowiązują się do ochrony bezpieczeństwa dzieci w Internecie
Podaj dalej

Największe konglomeraty technologiczne stają w obronie dzieci

Jak stwierdzili przedstawiciele organizacji Thorn, obietnice firm zajmujących się sztuczną inteligencją, „ustanawiają przełomowy precedens dla branży i stanowią znaczący krok w wysiłkach na rzecz ochrony dzieci przed wykorzystywaniem seksualnym w ramach rozwoju generatywnej sztucznej inteligencji”.

Celem inicjatywy jest zapobieganie tworzeniu materiałów o charakterze jednoznacznie seksualnym z udziałem dzieci oraz usuwanie ich z platform mediów społecznościowych i wyszukiwarek. Thorn twierdzi, że w samych Stanach Zjednoczonych tylko w 2023 r. zgłoszono ponad 104 miliony plików zawierających materiały podejrzane o wykorzystywanie seksualne dzieci. W przypadku braku działań zbiorowych generatywna sztuczna inteligencja może pogorszyć ten problem i przytłoczyć organy ścigania, które już mają trudności z identyfikacją prawdziwych ofiar.

We wtorek firmy Thorn i All Tech Is Human opublikowały nowy artykuł zatytułowany „Safety by Design for Generative AI: Preventing Child Sexual Abuse”, w którym nakreślono strategie i zalecenia dla firm tworzących narzędzia AI, wyszukiwarki, platformy mediów społecznościowych i firmy hostingowe i programistów do podjęcia kroków zapobiegających wykorzystywaniu generatywnej sztucznej inteligencji do krzywdzenia dzieci.

Przeczytaj również