ЮНИСЕФ белгилейт: көйгөйдүн масштабдары андай, ар бир класста мындай кылмыштын курмандыгы болгон кеминде бир бала табылат.Дипфейктер — бул жасалма интеллект (ИИ) колдонуу менен түзүлгөн сүрөттөр, видеолор же аудиозаписдер, алар чыныгыдай көрүнөт же угулат. Мындай материалдар балдардын катышуусунда сексуализацияланган контентти түзүү үчүн улам көбүрөөк колдонулууда.
Изилдөөчүлөр "балдар дипфейктер менен байланышкан коркунучтар жөнүндө жакшы маалымдар" деп белгилешти. Изилдөөгө катышкан айрым өлкөлөрдө балдардын болжол менен үчтөн экиси ИИнин жалган сексуалдык сүрөттөр же видеолор түзүү үчүн колдонулушу мүмкүн экендиги боюнча тынчсызданууларын билдиришкен.
ЮНИСЕФ сексуалдык контент менен дипфейктерди түзүүнү балдарга карата зомбулукка теңдештирет деп баса белгилейт.
Фонд ошондой эле ИИни иштеп чыгуучулардын зомбулуктун алдын алуу үчүн сактык чараларын киргизүү боюнча иштеринин маанилүүлүгүн белгиледи. "ЮНИСЕФ коопсуздук боюнча стандарттарды эске алуу менен системаларды иштеп чыгуучулардын аракеттерин колдойт", – деп кошумчалашты уюмдан.
Деген менен, көптөгөн ИИ моделдери тиешелүү коргоо механизмдери жок түзүлөт. Генеративдик ИИ инструменттери социалдык тармактарга интеграцияланган учурда коркунуч күчөйт, анткени мындай сүрөттөр тез тарап кетет.
Уюм ИИни иштеп чыгуучуларды долбоорлоо этапында коопсуздукту интеграциялоого, көйгөйлөр пайда болгондон кийин эмес, чакырат. Бардык санариптик компаниялар ИИ аркылуу түзүлгөн балдарга карата сексуалдык зомбулук сүрөттөрүн камтыган материалдардын таралышын алдын алууга аракет кылышы керек, жөн гана аларды артка кылып жок кылуу менен чектелбеши керек.
Башкы беттеги иллюстрация: pngtree.com.