Алексанын өлгөн туугандарын туурай алуусу эң коркунучтуу нерсе болушу мүмкүн

Мазмуну:

Алексанын өлгөн туугандарын туурай алуусу эң коркунучтуу нерсе болушу мүмкүн
Алексанын өлгөн туугандарын туурай алуусу эң коркунучтуу нерсе болушу мүмкүн
Anonim

Негизги алып салуулар

  • Amazon'дун Alexa үн жардамчысы үндү бир мүнөткө азыраак аудио менен көчүрө алат.
  • Сиз Alexaдан каза болгон ата-эненин үнү менен аңгеме окуусун сурансаңыз болот.
  • Бул терең жасалмалар менен бирдей, жакшылык үчүн гана колдонулат.
Image
Image

Amazon Alexa'нын эң акыркы трюки - өлгөн жакын адамыңыздын үнүн туурап үйрөнүү, алар сиз менен мүрзөнүн ары жагында сүйлөшө алышат.

Alexa үндү ынанымдуу тууроо үчүн бир мүнөттүк оозеки аудиону талап кылат. Amazon аны жакындарыңыз менен байланыштыра турган сооронуч катары эсептейт, бирок бул абдан коркунучтуу тажрыйба болушу мүмкүн. Жана бул үнү биз жакшы билген үн болсо да, бизди алдагандай терең жасалма аудио жасоо канчалык оңой экенин көрсөтөт.

"Amazon, албетте, Alexa жакын арада үйрөнүп, андан кийин каза болгон туугандарынын үнүн колдоно алат деп жарыялоо менен абдан уникалдуу жана таң калыштуу аймакка кирди ", - деди Билл Манн, Купуялыкты калыбына келтирүү уюмунун купуялык боюнча эксперти. Lifewire электрондук почта аркылуу. "Кээ бир адамдар үчүн бул эч кандай коркунучтуу эмес. Чындыгында, ал таасирдүү болушу мүмкүн."

Машинадагы элес

Амазон өзүнүн жылдык re:MARS конференциясынын бир бөлүгү катары кыска видеодо бул функцияны көрсөтөт. Анда бир бала Alexaдан чоң энеси ага ар бир баланын сүйүктүү коомдук домен чыгармасы болгон "Оз сыйкырчысын" окуп бере алабы деп сурайт. Жана бул абдан таасирдүү учур. Чоң эне окуй баштаганда адамдык сезимдерди сезбей коюу кыйын.

"Адамдар, өзгөчө батыш маданиятында өлүм менен күрөшөт. Кылымдар бою биз өлгөндөрдү эскерүүнүн жолдорун табууга аракет кылып келебиз, өлүм маскаларынан тартып, чач тарачтарга, эски сүрөттөргө, эски тасмаларды көрүүгө чейин, " Эндрю Селепак, Флорида университетинин социалдык медиа профессору Lifewireге электрондук почта аркылуу билдирди. "Deepfakes акыркы технологияны колдонуп, каза болгон жакынынын жаңы өлүм маскасын жасашат. Бирок, адамдын көз карашына жараша, бул коркунучтуубу же сүйгөн адамыңыз өлгөндөн кийин аны эстеп, кармап калуу ыкмасыбы?"

Бирок эстелик мори жубатарлык да, үрөй учурарлык да болушу мүмкүн. Үй-бүлө мүчөсүнүн досу каза болду, бирок алардын сүйлөгөнүн дагы эле угасың. Бул Alexa кызык, кээде коркунучтуу жүрүм-турум тарыхы бар экенин жардам бербейт. 2018-жылы, NYT баяндамачысы Фархад Манжу төшөккө жатып калганда, анын Amazon Эхосу "коркунучтуу кино түшүндө кыйкырган баладай ыйлай баштады"

Көп өтпөй Amazon Alexa кээде катуу күлүп жатканын мойнуна алды, бул өспүрүмдөр жана жертөлөлөр менен бирге 101-коркунучтуу тасма.

Алекса чоң энемдин үнүн менен ошол эле амалдарды тартса, кандай сезимде болосуң деп таң калууга болот.

Deep Fake

Алексанын үндү туураганды оңой үйрөнүшү бизди үндөрдү клондоштуруунун ыплас колдонууларына алып барат: терең жасалма.

Image
Image

"Deepfake аудио азыраак түшүнүктүү жана аз белгилүү болсо дагы жаңы эмес. Технология көп жылдар бою адамдын үнүн жасалма интеллект жана адамдын үнүн салыштырмалуу азыраак реалдуу аудиону колдонуп терең үйрөнүү менен кайра жаратуу үчүн жеткиликтүү, " дейт Селепак. "Мындай технология кооптуу жана кыйратуучу да болушу мүмкүн. Тынчсызданган адам каза болгон мурунку жигитинин же сүйлөшкөн кызынын үнүн кайра жаратып, жаңы аудиону жек көрүү жана зыяндуу сөздөрдү айтуу үчүн колдонушу мүмкүн."

Бул жөн гана Alexa контекстинде. Терең жасалма аудио, мисалы, көрүнүктүү саясатчылар өздөрү ишенбеген нерселерге ишене турган адамдарды ынандыруу менен андан да ашып кетиши мүмкүн. Бирок, экинчи жагынан, биз бул терең фейктерге - балким, бул Alexa үндөрү түрүндө - канчалык көнүп калсак, ошончолук карасанатай жасалмаларга ишенбей калабыз. Анан дагы, Фейсбукта калпты таратуу канчалык оңой экенин эске алганда, балким андай эмес.

Amazon бул функция Alexaга келип жатабы же бул жөн гана технологиялык демобу деп айта элек. Мен ушундай болот деп үмүттөнөм. Технология бул сыяктуу гуманисттик маанайда колдонулганда эң сонун болот жана Селепак айткандай, аны коркунучтуу деп айтуу оңой болсо да, бул эски видеолорду көрүүдөн же сакталган үн каттарын угуудан анча деле айырмаланбайт. жалкоолук менен жазылган телешоудогу каарман сыяктуу.

Эгер терең фейктерге арналган технология оңой жеткиликтүү болсо, эмне үчүн аны өзүбүз сооротуу үчүн колдонбойбуз?

Сунушталууда: