Reklama

Technologickí giganti sa zaviazali k ochrane detí v ére generatívnej AI

Zdroj | Bret Kavanaugh
Stanislav Vinc
Zdroj | Bret Kavanaugh
Zdroj | Bret Kavanaugh

Popredné technologické spoločnosti vrátane Amazonu, Google, Meta, OpenAI a Microsoftu, sa v spolupráci s organizáciami Thorn a All Tech is Human podpísali pod dohodu o zvýšenú ochranu detí a boj proti ich zneužívaniu v rámci vývoja a využívania modelov generatívnej AI.

Umelá inteligencia, podobne ako svojho času internet, podľa organizácií rozširuje riziká zneužívania detí v digitálnom prostredí.

Vytváranie textov, obrázkov, zvukových nahrávok či videí, je v dnešnej ére generatívnej umelej inteligencie jednoduchšie než kedykoľvek predtým. Väčšina verejne dostupných komerčných nástrojov AI, obsahujú pomerne dôkladné ochranné vrstvy, ktoré by mali zabrániť sexuálnym predátorom v možnosti využiť ich na nekalé účely. Niektoré tieto ochranné prvky sa však predátorom darí obchádzať, iné majú takýto obsah už vo svojich základoch.

Obsah pokračuje pod reklamou

Portál The Verge v tomto prípade pripomína v decembri zverejnenú štúdiu výskumného tímu Stanfordskej univerzity, ktorý objavil odkazy smerujúce na obsah súvisiaci so sexuálnym zneužívaním detí priamo v jednej z populárnych databáz využívaných na tréning umelej inteligencie. Využívanie generatívnej AI na tieto účely dokazuje aj rapídne rastúci počet hlásení takéhoto obsahu príslušným organám. Len v roku 2023 a len v Spojených štátoch, bolo takto nahlásených 104 miliónov súborov.

Pozrite si

Vyše 1 300 dievčat absolvuje Girl’s Day 2024 v 56 firmách

Menované spoločnosti, ku ktorým sa navyše ešte radia aj spoločnosti Anthropic, Civitai, Metaphysic, Mistral AI, Stability.ai a Teleperformance, sa preto zaviazali k dôkladnej kontrole svojich modelov generatívnej AI a to vo všetkých fázach jej existencie, od vývoja cez nasadenie až po prevádzku.

Pri vývoji spoločnosti majú zabezpečiť, aby údaje použité na trénovanie modelov neobsahovali materiál CSAM (Child Sexual Abuse Material) alebo CSEM (Child Sexual Exploitation Material). Firmy by mali vylúčiť zdroje údajov, ktoré sú známe svojím rizikom. Pokiaľ takýto obsah v tréningových dátach objavia, musia ho nahlásiť, súbežne majú tiež testovať schopnosť svojich modelov generovať nevhodný obsah a modely na základe týchto testov upravovať.

V prípade, ak sa už počas prevádzky používatelia pokúsia použiť generatívnu AI na vytvorenie takéhoto obsahu, spoločnosti by to mali vedieť zachytiť. Zároveň používatelia majú mať možnosť vznik takéhoto obsahu jednoducho nahlásiť. V poslednej fáze údržby, sa spoločnosti zaväzujú k pravidelnej aktualizácii a zlepšovaniu svojich modelov, aby postupne vylepšovali ich ochranné prvky na základe nových poznatkov a hrozieb v oblasti bezpečnosti.

Google v nadväznosti na túto správu oznámil aj zvýšenie jeho finančnej podpory pre reklamné kampane Národného centra pre nezvestné a zneužívané deti (NCMEC) v Spojených štátoch. Spoločnostiam a organizáciám zároveň vo svojej správe pripomenul dostupnosť bezplatného balíka nástrojov Child Safety Toolkit, ktorý slúži na identifikáciu a boj proti šíreniu tohto typu nevhodného obsahu.

Zdroj
Ďalšia story
Zatvoriť

Newsletter

Ďakujeme za váš záujem! Odteraz vám už neunikne žiadna novinka.
Ľutujeme, ale váš formulár sa nepodarilo odoslať.