AI өзүнүн коркунучтуу тукумун кантип көзөмөлдөй алат

Мазмуну:

AI өзүнүн коркунучтуу тукумун кантип көзөмөлдөй алат
AI өзүнүн коркунучтуу тукумун кантип көзөмөлдөй алат
Anonim

Негизги алып салуулар

  • Жаңы документте жасалма интеллект кайсы изилдөө долбоорлору башкаларга караганда көбүрөөк жөнгө салууга муктаж болушу мүмкүн экенин аныктай алат деп айтылат.
  • Бул AI кандай кооптуу болушу мүмкүн экенин аныктоо үчүн күчөп бараткан аракеттин бир бөлүгү.
  • Эксперттердин биринин айтымында, AIнын чыныгы кооптуусу бул адамдарды дудук кылып коюшу.

Image
Image

Жасалма интеллект (AI) көптөгөн артыкчылыктарды сунуштайт, бирок ошондой эле кээ бир мүмкүн болуучу коркунучтарды да сунуштайт. Эми изилдөөчүлөр компьютерлештирилген чыгармаларына көз салуу ыкмасын сунушташты.

Эл аралык топ жаңы эмгекте AI изилдөө долбоорлорунун кайсы түрлөрү башкаларга караганда көбүрөөк жөнгө салууга муктаж болорун аныктай аларын айтат. Окумуштуулар биология менен математиканын концепцияларын айкалыштырган моделди колдонушту жана AI кандай кооптуу болушу мүмкүн экенин аныктоо үчүн күчөп бараткан аракеттин бир бөлүгү болуп саналат.

"Албетте, эгер биз ушундай чечим кабыл алсак, AIны "илимий фантастикалык" кооптуу колдонуу пайда болушу мүмкүн, бирок AIны коркунучтуу кылган нерсе AIнын өзү эмес, [аны кантип колдонобуз], " Тьерри Райна, Франциядагы École Polytechnique университетинин «Өзгөртүү технологиясы» кафедрасынын башчысы Lifewire электрондук почтасына берген маегинде билдирди. "Интеллектуалдык интеллектти ишке ашыруу же компетенттүүлүгүн жогорулатуу (мисалы, ал адамдын/жумушчунун көндүмдөрү менен билиминин актуалдуулугун бекемдейт) же компетенцияны жок кылуу болушу мүмкүн, б.а., AI болгон көндүмдөрдү жана билимдерди азыраак пайдалуу же эскирген кылат."

Өтмөктөр сакталууда

Жакында жарыяланган макаланын авторлору гипотетикалык AI таймаштарын имитациялоо үчүн модель курушканын жазган. Чыныгы дүйнөдөгү AI жарыштары кандай натыйжа берерин алдын ала айтуу үчүн алар симуляцияны жүздөгөн жолу жүргүзүштү.

"Биз өзгөчө маанилүү деп тапкан өзгөрмө жарыштын "узундугу" болду - биздин симуляцияланган жарыштар максатына жетүү үчүн кеткен убакыт (функционалдык AI продуктусу), - деп жазышты окумуштуулар. "AI жарыштары өз максатына тез жеткенде, биз коопсуздук чараларын сактабай коюуну коддогон атаандаштар ар дайым жеңишке жеткенин көрдүк."

Ал эми, изилдөөчүлөр узак мөөнөттүү AI долбоорлору анчалык коркунучтуу эмес экенин аныкташкан, анткени жеңүүчүлөр дайыма эле коопсуздукту көз жаздымда калтырган эмес. "Бул жыйынтыктарды эске алуу менен, жөнгө салуучулар үчүн ар кандай AI жарыштары канча убакытка созулаарын аныктоо маанилүү болот, алардын күтүлгөн мөөнөттөрүнүн негизинде ар кандай эрежелерди колдонуу", - деп жазышты алар. "Биздин тыянактар спринттерден марафондорго чейин бардык AI жарыштары үчүн бир эреже идеалдуу эмес жыйынтыктарга алып келерин көрсөтүп турат."

Дэвид Чжао, Coda Strategy компаниясынын башкаруучу директору, AI боюнча консультация берген компания Lifewire менен болгон маегинде кооптуу AIди аныктоо кыйынга турушу мүмкүн экенин айтты. Кыйынчылыктар AIга заманбап ыкмалар терең үйрөнүү ыкмасын колдонгондугунда.

"Терең үйрөнүү сүрөттөрдү аныктоо же кепти таануу сыяктуу көптөгөн колдонуу учурларында жакшы натыйжаларды берерин билебиз" деди Чжао. "Бирок адамдар терең үйрөнүү алгоритми кантип иштээрин жана анын натыйжасын кантип чыгарарын түшүнүү мүмкүн эмес. Ошондуктан, жакшы натыйжаларды берип жаткан AI коркунучтуу же коркунучтуу экенин айтуу кыйын, анткени адамдар эмне болуп жатканын түшүнө албайт."

Программалык камсыздоо критикалык системаларда колдонулганда "коркунучтуу" болушу мүмкүн, алар начар актерлор тарабынан пайдаланылышы мүмкүн же туура эмес натыйжаларга алып келиши мүмкүн, деди Мэтт Ши, AI фирмасынын MixMode стратегиясынын директору электрондук почта аркылуу. Ал кооптуу AI натыйжаларды туура эмес классификациялоого, маалыматтарды жоготууга, экономикалык таасирге же физикалык зыянга алып келиши мүмкүн экенин кошумчалады.

"Салттуу программалык камсыздоонун жардамы менен иштеп чыгуучулар алгоритмдерди коддошот, аларды адам текшерип, булак кодун карап, аялуу жерди кантип туташтыруу же мүчүлүштүктөрдү оңдоону аныктоого болот ", - деди Ши."Бирок AI менен логиканын негизги бөлүгү нейрондук тармактар жана башка ушул сыяктуу маалымат структураларына коддолгон маалыматтардын өзүнөн түзүлөт. Мунун натыйжасында "кара кутулар" болгон системалар келип чыгат, аларды кемчиликтерди табуу жана оңдоо үчүн текшерүү мүмкүн эмес. кадимки программа сыяктуу."

Алдыда коркунуч барбы?

Терминатор сыяктуу тасмаларда AI адамзатты жок кылууну көздөгөн жаман күч катары сүрөттөлсө да, эксперттердин айтымында, чыныгы коркунучтар прозалуураак болушу мүмкүн. Мисалы, Райна AI бизди акылсыз кыла алат деп эсептейт.

"Бул адамдарды мээни машыктыруудан жана тажрыйбаны өнүктүрүүдөн ажыратышы мүмкүн" деди ал. «Убактыңдын көбүн стартаптардын тиркемелерин окууга жумшабасаң, кантип венчурдук капиталдын адиси боло аласың? Андан да жаманы, AI белгилүү "кара куту" жана анча түшүндүрүлбөйт. Кандайдыр бир AI чечими эмне үчүн кабыл алынганын билбей туруп, андан үйрөнө ала турган нерсе өтө аз болот дегенди билдирет, мисалы, сиз Segway менен стадионду айдоо менен эксперт жөө күлүк боло албайсыз.”

Жакшы натыйжаларды берип жаткан AI кооптуу экенин айтуу кыйын, анткени адамдар эмне болуп жатканын түшүнө алышпайт.

Балким, AIнын эң чукул коркунучу бул бир жактуу жыйынтыктарды бериши мүмкүн, дейт AIнын юридикалык кесепеттери жөнүндө жазган юрист Лайл Соломон электрондук почта менен болгон маегинде.

"AI коомдогу ажырымды тереңдетүүгө жардам берет. AI негизинен адамдардан чогултулган маалыматтардан куралган ", - деп кошумчалады Сулайман. "[Бирок] кеңири маалыматтарга карабастан, ал минималдуу топтомдорду камтыйт жана ар ким эмнени ойлосо, ошону камтыбайт. Ошентип, комментарийлерден, жалпыга ачык билдирүүлөрдөн, сын-пикирлерден ж.б. чогултулган маалыматтар, мүнөздүү бир жактуулук менен AI дискриминацияны жана жек көрүүчүлүктү күчөтөт."

Сунушталууда: