Сынчылардын жана колдонуучулардын бир топ каршылыктарынан кийин, Apple балдарга карата зордук-зомбулукка каршы чараларын кечиктирип жатат.
Август айында технологиялык гигант адегенде iCloud жана Messages кызматтарында балдарга зомбулук көрсөткөн сүрөттөрдү аныктоо үчүн технологияны колдонгон жаңы саясатты жарыялаган, бирок андан кийин кооптонуулар пайда болгон. Эксперттер Apple колдонуучулардын купуялуулугун убада кылганы менен, технология акыры Apple бардык колдонуучуларын тобокелге салаарын эскертишти.
Жума күнү Apple жакшыртууларды киргизүү жана колдонуучунун купуялыгын толук камсыз кылуу үчүн технологиянын жайылышын толугу менен кечеңдете турганын билдирди.
"Кардарлардын, адвокаттык топтордун, изилдөөчүлөрдүн жана башкалардын пикирлеринин негизинде, биз келерки айларда балдардын коопсуздугу үчүн маанилүү болгон бул функцияларды чыгаруудан мурун, кошумча убакыт бөлүүнү чечтик", - деди Apple. сайтында жаңыланган билдирүү.
Балдардын сексуалдык зомбулук материалдарын аныктоо технологиясы ушул жылдын аягында iOS 15 чыгарылышында жеткиликтүү болушу керек болчу, бирок бул функция качан же качан ишке кирээри азырынча белгисиз.
Жаңы технология эки жол менен иштейт: биринчиден, сүрөттүн iCloud'га камдык көчүрмөсү сакталганга чейин сканерлөө аркылуу. Бул сүрөт CSAM критерийлерине дал келсе, Apple ал маалыматтарды алат. Технологиянын башка бөлүгү балдарды Жазышуулар аркылуу алган сексуалдык мүнөздөгү сүрөттөрдү аныктоо жана бүдөмүктөө үчүн машина үйрөнүүнү колдонот.
Бирок, жаңы саясат жарыялангандан кийин, купуялыкты коргоочулар жана топтор Apple негизинен жаман актерлор кыянаттык менен пайдалана турган арткы эшикти ачып жатканын айтышты.
Бул тынчсызданууларды чечүү үчүн, Apple CSAM технологиясын жарыялагандан көп өтпөй көп берилүүчү суроолор баракты чыгарды. Apple бул технология түзмөктө сакталган бардык сүрөттөрдү сканерлебей турганын, Жазышуулардагы шифрлөөнү бузуп, бейкүнөө адамдарды укук коргоо органдарына жалган жалаа жаппай турганын түшүндүрдү.