Apple станет искать в фото владельцев iPhone насилие над детьми. Возмущаться из-за слежки поздно, данные уже ушли

Фото: Freepik

С помощью нейросетей Apple будет проверять телефоны на наличие изображений с сексуальным насилием над детьми. Если такие фотографии обнаружат, то данные передадут полиции. Некоторые опасаются, что подобные технологии поиска могут начать использовать и в других целях.

Как это будет работать?

Apple внедряет систему поиска материалов, связанных с сексуальным насилием над детьми (CSAM). На данный момент она будет работать только на устройствах клиентов из США.

Как рассказал руководитель аналитического центра Zecurion Владимир Ульянов, в программе есть три важных пункта. Во-первых, система будет отслеживать, что скачивают дети. Если она увидит, что ребенок пытается скачать или ему посылают что-то непотребное, то изображение будет показываться размытым. И перед тем как ребенок попытается сохранить его, на экране появится предупредительный вопрос: «Вы уверены?». Помимо этого, оповещение о скачивании придет его родителям.

Во-вторых, Siri и другие системы голосовых помощников в устройствах Apple будут выделять вопросы, которые могут показаться странными и будут иметь уклон в тему педофилии. В такие моменты голосовой помощник предложит владельцу обратиться за помощью к анонимному психологу.

В-третьих, прежде чем фотографии будут сохраняться в iCloud, нейросеть будет сравнивать их с базой данных известных изображений сексуального насилия над детьми, составленной разными организациями по безопасности детей. Эти изображения переводятся в хеши, числовые коды, которые можно сопоставить с изображением на устройстве Apple. Apple заявляет, что технология также будет улавливать отредактированные, но похожие версии исходных изображений.

Компания заявила, что система имеет чрезвычайно высокий уровень точности. Apple гарантирует, что вероятность неправильной пометки учетной записи будет менее одного случая на один триллион в год.

По сообщениям Би-би-си, каждый отчет с помеченным профилем будет проверяться вручную, чтобы подтвердить совпадение. Затем Apple отключит учетную запись пользователя и сообщит о нем в правоохранительные органы.

При этом родителям можно не бояться, что фотографию их младенца на пляже система посчитает за порнографический материал. Сейчас речь идет только о сравнении изображений пользователя с теми, что уже накоплены в базе.

Опасения за конфиденциальность

Ульянов отмечает, что сама идея хорошая, но к ней есть ряд вопросов. Возможность по любому поводу смотреть все фотографии пользователя и делать из них хеш напрягает. Эту систему можно использовать не только для сравнения с базой фотографий детского насилия, но и с любыми другими. Например, узнать, в каких митингах человек участвовал. Нет никакого механизма, который мог бы защитить пользователя от этого.

Эксперт по информационной безопасности в компании Cisco Systems Алексей Лукацкий также подчеркнул — смущает возможность отслеживания не только файлов с ненадлежащим контентом, а вообще всех картинок, которые хранятся у пользователей продукции Apple. Он отметил, что схожие алгоритмы уже используются платформами Twitter, Facebook и Google.

Президент «Консорциума Инфорус» Андрей Масалович отметил, что если отбросить возможность ошибок в автоматизированном процессе проверки фотографий, то в инновации нет никаких проблем. По его словам, у разработчиков устройств уже существует глубокий доступ к нашим гаджетам. Мы регулярно даем приложениям доступ к нашим контактам, галерее и геолокации. Обновление Apple не несет новых рисков для нашей информационной безопасности.

«Компания Apple уже сейчас обладает достаточно большим объемом данных о нас, особенно если мы используем на своих устройствах резервное копирование в iCloud. В данном случае никаких новых рисков именно от утечки или нарушения приватности не будет», — подтвердил Лукацкий.

Некоторые опасаются, что новые технологии поспособствуют тому, что власти тоже захотят получить доступ к нашей личной информации. Лукацкий уверен — этому не бывать. Apple жестко защищает интересы своих клиентов. Порой компания отказывается раскрывать доступ к информации своих пользователей, даже когда решение суда говорит об обратном.

    Пока ничего не найдено

    Задизайнено в Студии Артемия Лебедева Информация о проекте