Мнение ученых Принстонского университета: Apple CSAM не может быть безопасной:

Специалисты и научные сотрудники Принстонского университета в США заявили, что система Apple CSAM (child sexual abuse material)  не может быть безопасной. К такому выводу ученые пришли, занимаясь разработкой аналогичной технологии  в течение нескольких лет.

Доцент Джонатан Майер и аспирант Анунай Кулшреста несколько лет прорабатывали систему обнаружения изображения жестокого обращения с детьми на телефонах пользователей. Идея ученых созвучна с Apple: ограничить распространение подобного контента, при этом сохраняя конфиденциальность.

Создав рабочий прототип, разработчики пришли к выводу, что при любом исходе технология оставляет нерешенной одну «вопиющую проблему» – система на техническом уровне ни при каких условиях не может ограничиваться только одним типом контента. Иными словами, ее работа подчинена содержимому базы данных, которое можно изменить и использовать в своих целях.

Подобную проблему выявили в китайском мессенджере WeChat, где аналогичный алгоритм используется для обнаружения диссидентских материалов. Легкость перепрофилирования системы для использования в политических и иных целях – это, по мнению ученых, и есть главная опасность CSAM.

Юлия Щербатова, журнал Leaders
Персоны

Юлия Щербатова

Косметология без мифов: Юлия Щербатова о трендах, филлерах и выборе врача Современная косметология — это сочетание науки, искусства и заботы о пациенте. В интервью для

Читать »
Федеральный проект «География России»: гастрольный ужин в Якутске
Гастрономия

Федеральный проект «География России»: гастрольный ужин в Якутске

Просветительский проект «География России» продолжается: ресторан RUSKI (354 Restaurant Group by Vasilchuki) при поддержке Комитета по туризму города Москвы и Гастрономической карты России развивает один

Читать »