Фейсбуктун Deepfake Технологиясы бизди куткарбайт дешет эксперттер

Мазмуну:

Фейсбуктун Deepfake Технологиясы бизди куткарбайт дешет эксперттер
Фейсбуктун Deepfake Технологиясы бизди куткарбайт дешет эксперттер
Anonim

Негизги алып салуулар

  • Deepfake жасоо оңой болгон сайын, аларды аныктоонун жаңы жана жакшыртылган жолдору артыкчылыктуу болуп калды.
  • Facebook'тун терең фейкти аныктоо технологиясы видеонун терең фейк экенин же жокпу аныктоо үчүн тескери машина үйрөнүүнү колдонот.
  • Эксперттердин айтымында, блокчейн технологиясын колдонуу видеонун реалдуу же чын эмес экенин аныктоонун эң жакшы жолу болорун, анткени ыкма контексттик маалыматтарга таянат.
Image
Image

Facebook терең фейк менен күрөшүү үчүн машина үйрөнүү моделине ишенет, бирок эксперттердин айтымында, машина менен үйрөнүү бизди терең фейктерге алданып калуудан сактабайт.

Facebook, Microsoft жана Google сыяктуу компаниялар интернетте жана социалдык тармактарда жайылып кетпеген терең фейктерге каршы күрөшүп жатышат. Методдор ар башка болгону менен, бул жалган видеолорду аныктоонун бир жолу бар: блокчейндер.

“[Блокчейндер] сизге терең фейкти текшерүү үчүн көп мүмкүнчүлүктөрдү берет, бул мен көрүп турган валидациянын эң жакшы формасы,” Стивен Вольфрам, Wolfram Research компаниясынын негиздөөчүсү жана башкы директору жана A New Kind of автору. Бул тууралуу Lifewire телефон аркылуу билдирди.

Facebook'тун Deepfake-Spotting Technology

Deepfake технологиясы акыркы бир нече жылда тездик менен өстү. Адаштыруучу видеолор кимдир-бирөөнүн жүзүн башка адамдын денесине коюу, фон шарттарын өзгөртүү, эринди жасалма синхрондоштуруу жана башкалар сыяктуу нерселерди жасоо үчүн машина үйрөнүү ыкмаларын колдонот. Алар зыянсыз пародиялардан атактууларды же коомдук ишмерлерди өздөрү кылбаган нерсени айтууга же кылууга чейин камтыйт.

Эксперттердин айтымында, технология тездик менен өнүгүп жатат жана технология кеңири жеткиликтүү жана инновациялык болгон сайын терең фейк ынандырарлык (жана жаратуу оңой) гана боло берет.

Image
Image

Facebook жакында Мичиган штатынын университети менен өнөктөштүктө өзүнүн терең жасалмаларды аныктоо технологиясы жөнүндө көбүрөөк маалымат берди. Социалдык тармактын айтымында, ал жасалма интеллект тарабынан түзүлгөн бир эле сүрөттөн аны өндүрүү үчүн колдонулган генеративдик моделге чейин тескери инженерияга таянат.

Фейсбук менен иштеген илимпоздор бул ыкма терең фейк жасоо үчүн колдонулган AI моделинин артындагы уникалдуу үлгүлөрдү ачууга таянарын айтышты.

“Сүрөттөрдү ачык таанууга жалпылоо менен, биз терең фейкти түзүү үчүн колдонулган генеративдик модель тууралуу көбүрөөк маалымат тыянак чыгара алабыз. Ал эми терең фейктердин коллекциясынын үлгүлөрүнүн окшоштуктарына байкоо жүргүзүү менен, биз бир катар сүрөттөр бир булактан келип чыккан-болбогондугун да биле алабыз”, - деп жазышкан изилдөөчүлөр Си Инь жана Тан Хасснер Фейсбуктун блогунда анын терең фейкти аныктоо ыкмасы жөнүндө.

Image
Image

Волфрамдын айтымында, сиз AIнын өркүндөтүлгөн моделин (терең жасалма) табуу үчүн машина үйрөнүүнү колдоносуз. Бирок, технологияны алдаганга ар дайым орун бар.

“Мен [терең жасалмаларды аныктоонун] татыктуу машина үйрөнүү жолу бар экенине таң калбайм”, - деди Вольфрам. «Бир гана суроо, эгер сиз жетиштүү күч жумшасаңыз, аны алдай аласызбы? Колуңдан келет деп ишенем.”

Deepfakes менен күрөшүүнүн башка жолу

Анын ордуна, Wolfram ал blockchain колдонуу терең фейктердин айрым түрлөрүн так аныктоо үчүн эң жакшы вариант деп эсептей турганын айтты. Анын блокчейнди машиналык үйрөнүүдөн колдонуу боюнча пикири 2019-жылга барып такалат жана ал акырында blockchain ыкмасы биздин терең файк көйгөйүбүздү так чече аларын айтты.

“Мен сүрөттү жана видеону көрүүчүлөр блокчейндерди (жана “маалыматтарды триангуляциялоону”) текшерип, веб-браузерлердин коопсуздук сертификаттарын текшергенине окшош деп күтөт элем”, - деп жазган Вольфрам Scientific American журналында жарыяланган макаласында.

Блокчейндер маалыматтарды блоктордо сактагандыктан, алар хронологиялык тартипте чынжырланган жана борбордон ажыратылган блокчейндер өзгөрүлгүс болгондуктан, киргизилген маалыматтар кайра кайтарылбайт.

Бир гана суроо: эгер сиз жетиштүү күч жумшасаңыз, аны алдай аласызбы? Колуңуздан келет деп ишенем.

Волфрам видеону блокчейнге коюу менен анын тартылган убактысын, жайгашкан жерин жана кандайдыр бир жол менен өзгөртүлгөнүн аныктоого мүмкүндүк берген башка контексттик маалыматты көрө аларыңызды түшүндүрдү.

“Жалпысынан, сүрөттү же видеону контекстке келтирген метаберилиштер канчалык көп болсо, ошончолук жакшыраак айта аласыз”, - деди ал. “Блокчейнде убакытты жасалмалай албайсыз.”

Бирок, Вольфрамдын айтымында, колдонулган ыкма - бул машинада үйрөнүү же блокчейнди колдонуу - сиз коргоого аракет кылып жаткан терең фейктин түрүнө жараша болот (б.а., Ким Кардашьяндын акылсыз сөздөрдү айтып жаткан видеосу же бир видео саясатчы билдирүү же сунуш кылууда).

“Блокчейн ыкмасы терең фейктердин кээ бир түрлөрүнөн коргойт, ошондой эле машинада үйрөнүү сүрөт иштетүүчү терең фейктердин айрым түрлөрүнөн коргойт,” деди ал.

Эң негизгиси, келе жаткан терең жасалма топон сууга каршы күрөшүүдө баарыбыз үчүн сергек болуу керек окшойт.

Сунушталууда: