Негизги алып салуулар
- Deep Nostalgia - бул эски сүрөттөрдү жандандырууга мүмкүндүк берген жаңы программа.
- Технология адамдардын чыныгы жашоодо жасабаган нерселерди жасаган видеолорун түзүү канчалык оңой экенин көрсөтүп турат.
- Терең жасалма технология ансыз деле татаал болгондуктан, видеонун чыныгы же компьютерде жасалганын аныктоо кыйын, дейт эксперттердин бири.
Эксперттердин эскертүүсү боюнча, "терең фейк" деп аталган жаңы программалык камсыздоодон этият болуңуз, анда чыныгы адамдардын видеолорун окшоштурууга болот.
MyHeritage компаниясы чыгарган "Deep Nostalgia" коомдук медиада популярдуу болуп, колдонуучулар атактуу композиторлордон баштап, өлгөн туугандарына чейин баарын кайра жандандырышат. Программалык камсыздоо түрдүү реакцияларды жаратууда, кээ бир адамдар жараткан нерселерге кубанса, башкалары аларды коркунучтуу деп табышат. Технология адамдардын чыныгы жашоодо жасабаган нерселерди жасаган видеолорун түзүү канчалык оңой экенин көрсөтүп турат.
"Deepfake технологиясы татаалдашып жана кооптуу болуп баратат", - деди Аарон Лоусон, SRI Эл аралык Кеп технологиялары жана изилдөөлөр лабораториясынын директорунун жардамчысы (STAR) электрондук почта менен болгон маегинде. "Бул жарым-жартылай жасалма интеллекттин табиятына байланыштуу. "Салттуу" технология жакшыртуу үчүн адамдын убактысын жана күчүн талап кылган жерде, AI өзүнөн үйрөнө алат.
"Бирок AIнын өзүн өнүктүрүү жөндөмү эки миздүү кылыч", - деп улантты Лоусон. "Эгер AI кайрымдуулук кылуу үчүн жаратылган болсо, эң сонун. Бирок AI терең фейк сыяктуу зыяндуу нерсе үчүн иштелип чыкканда, коркунуч болуп көрбөгөндөй болот."
Программалык камсыздоо сүрөттөрдү жандандырат
Genealogy веб-сайты MyHeritage анимация кыймылдаткычын өткөн айда тааныштырган. Deep Nostalgia деп аталган технология колдонуучуларга MyHeritage веб-сайты аркылуу сүрөттөрдү жандандырууга мүмкүнчүлүк берет. D-ID деп аталган компания MyHeritage үчүн адамдын беттеринин кыймылын санарип кайра жаратуучу алгоритмдерди иштеп чыккан. MyHeritage веб-сайтына ылайык, программалык камсыздоо кыймылдарды сүрөттөргө колдонот жана адамдын жүзү сыяктуу кыймылдай турган мимиканы өзгөртөт.
Deep Nostalgia терең жасалма технология жеткиликтүү болуп баратканын көрсөтүп турат, деп билдирди Канзас штатынын университетинин компьютер илиминин профессору Лиор Шамир электрондук почта менен болгон маегинде. Ал тез өнүгүп, жасалма жана чыныгы видео менен аудионун ортосундагы тымызын айырмачылыктарды жок кылууда.
"Ошондой эле реалдуу убакыт режиминде терең фейктерге карай олуттуу жылыштар болду, демек, ынандырарлык терең фейк видеолор видеобайланыш учурунда түзүлөт ", - деди Шамир."Мисалы, такыр башка адамдын үнүн көрүп жана угуп жатканда, белгилүү бир адам менен Zoom жолугушуусу болот."
Тилге негизделген терең фейктердин саны да көбөйүүдө, деди Стивенс Технология Институтунун Стивенс Жасалма Интеллект Институтунун директору Джейсон Корсо электрондук почта менен болгон маегинде. "Белгилүү бир күн тартибине карата терең жасалма тексттин бүтүндөй абзацтарын түзүү абдан кыйын, бирок табигый тилди терең иштетүүдөгү заманбап жетишкендиктер муну мүмкүн кылууда", - деп кошумчалады ал.
Терең жасалманы кантип аныктоого болот
Терең жасалма аныктоо технологиясы жаңылануу баскычында болсо да, аны байкай турган бир нече жолдор бар, деди Корсо оозунан баштап.
"Кимдир бирөө сүйлөп жатканда ооздун ички көрүнүшүнүн өзгөрүлмөлүүлүгү өтө жогору, бул ынанымдуу жандандырууну кыйындатат" деп түшүндүрдү Корсо. «Бул кылса болот, бирок баштын башка бөлүгүнө караганда кыйыныраак. Терең ностальгия видеолору фотографиянын фейк жасоо учурунда "мен сени сүйөм" же башка фразаны айтуу жөндөмүн кантип көрсөтпөгөнүнө көңүл буруңуз. Мындай кылуу үчүн оозду ачуу жана жабуу талап кылынат, бул терең жасалма муун үчүн абдан кыйын."
Ghosting дагы бир белек, деп кошумчалады Корсо. Эгер баштын четинде бүдөмүк болуп жатканын көрсөңүз, бул "тез кыймылдын же булак сүрөттөгү чектелген пикселдердин натыйжасы. Кулак бир азга жарым-жартылай жоголуп кетиши мүмкүн же чач сиз күтпөгөн жерден бүдөмүк болуп калышы мүмкүн", - дейт ал деди.
Ошондой эле терең жасалма видеону байкаганга аракет кылып жатканда түстөрдүн өзгөрүшүнө көңүл бурсаңыз болот, мисалы, беттеги курч сызык, бир тарабы күңүрт түстүү, экинчи жагы ачыкыраак.
"Компьютердик алгоритмдер көбүнчө бурмалоонун мындай үлгүлөрүн аныктай алат" деди Шамир. "Бирок терең жасалма алгоритмдер тездик менен өнүгүп жатат. Терең фейктен жана алар оңой эле алып келе турган зыяндан коргоо үчүн катуу мыйзамдар талап кылынат."