Мнение ученых Принстонского университета: Apple CSAM не может быть безопасной:

Специалисты и научные сотрудники Принстонского университета в США заявили, что система Apple CSAM (child sexual abuse material)  не может быть безопасной. К такому выводу ученые пришли, занимаясь разработкой аналогичной технологии  в течение нескольких лет.

Доцент Джонатан Майер и аспирант Анунай Кулшреста несколько лет прорабатывали систему обнаружения изображения жестокого обращения с детьми на телефонах пользователей. Идея ученых созвучна с Apple: ограничить распространение подобного контента, при этом сохраняя конфиденциальность.

Создав рабочий прототип, разработчики пришли к выводу, что при любом исходе технология оставляет нерешенной одну «вопиющую проблему» – система на техническом уровне ни при каких условиях не может ограничиваться только одним типом контента. Иными словами, ее работа подчинена содержимому базы данных, которое можно изменить и использовать в своих целях.

Подобную проблему выявили в китайском мессенджере WeChat, где аналогичный алгоритм используется для обнаружения диссидентских материалов. Легкость перепрофилирования системы для использования в политических и иных целях – это, по мнению ученых, и есть главная опасность CSAM.

ВАМ БУДЕТ ИНТЕРЕСНО