↓
 ↑
Регистрация
Имя/email

Пароль

 
Войти при помощи
Временно не работает,
как войти читайте здесь!
Marlagram Онлайн
6 августа 2021
Aa Aa
Ну таки что ж? Яблокофоны берут новый рубеж слежки за своими якобы хозяевами...
...
компания Apple планирует в скором времени анонсировать систему сканирования фотографий, сохранённых в памяти смартфона. Система предназначена для обнаружения изображений жестокого обращения с детьми. В основе решения лежит алгоритм хеширования.
...
Apple собирается искать запрещённые фото на iPhone пользователей
Как сейчас и положено, зашли с обычных козырей - "защита детства", всё такое...
Конечно, оно может пока и не взлететь - но направление и тенденция прослеживаются.

PS
Во внутренней переписке Apple признаёт наличие проблемы с тем, как пользователи приняли функцию сканирования фотографий
...
Компания не собирается менять cвою позицию. Apple считает, что новая система анализа фотографий на iPhone и поиск там незаконных и запрещённых изображений является частью «важной миссии» по обеспечению безопасности детей. При этом, по мнению Марино-Мема, сохраняется «глубокая приверженность Apple к конфиденциальности пользователей».
...
Apple уточнила в описании системы анализа фотографий, что новый алгоритм будет работать пока что только в США. Сверка всех фото будет происходить перед тем, как пользователь выгрузит их из iPhone в iCloud. На серверах Apple не будут храниться отдельно подозрительные фотографии пользователей. Сотрудники компании будут анализировать только их хеши и передавать всю информацию в правоохранительные органы, которые смогут привлечь пользователя к ответственности. Также эти данные будут анализироваться организацией «Национальный центр пропавших без вести и эксплуатируемых детей». Если не выгружать фотографии в облачный сервис iCloud, то система ничего не будет анализировать на устройстве пользователя.

Со своей стороны Apple будет блокировать аккаунты пользователей с большим количеством запрещенного контента. Их владельцы в случае несогласия смогут по правилам iCloud подать апелляцию. Она будет вручную рассматриваться специалистами Apple в течение нескольких дней.

Apple заявила, что получила множество положительных отзывов о внедрении новой системы по анализу контента пользователей. Компания не уточнила, кто именно их прислал и предоставил.

Аналогичные системы анализа изображений в своих сервисах используют Microsoft, Google, Facebook, Twitter и Dropbox.
...

PPS
Apple призвали открытым письмом отказаться от планов сканировать фотографии на устройствах пользователей
...
Apple заверила, что пользователи могут выключить функцию iCloud Photos и тогда их контент не будет хешироваться и анализироваться. Также компания пояснила, что новая функция является базовой частью iOS и не может быть изменена в зависимости от страны использования iPhone — у всех пользователей в мире будут одинаковые условия сканирования их изображений. Apple заявила, что получила множество положительных отзывов о внедрении новой системы по анализу контента пользователей. Компания не уточнила, кто именно их прислал и предоставил. СМИ обнаружили, что это сделал Министр здравоохранения Великобритании и американский сенатор Ричард Блюменталь, который назвал новую систему Apple «инновационным и смелым шагом».
...

P3S
Apple раскрыла начальный порог срабатывания триггера системы сканирования фотографий пользователей — 30 запретных кадров
...
Учетная запись пользователя попадет под подозрение, если на его смартфоне будет обнаружено 30 и более совпадений хэшей изображений жестокого обращения с детьми, включая детскую порнографию, с базой данных ФБР и организации «Национальный центр пропавших без вести и эксплуатируемых детей». Также к этим базам могут быть добавлены данные от общественных организаций, но после согласования с Apple.

Далее эта информация будет проверяться сотрудниками Apple и передана в правоохранительные органы. В случае подтверждения фактов наличия запрещенного контента компанией будет сделана блокировка учетной записи пользователя с тридцатью и более запретными кадрами.

Сотрудники компании и уполномоченные властями лица не будут иметь доступа ко всей библиотеке фотографий пользователя на смартфоне в ходе расследования. Пользователь в случае несогласия блокировки сможет по правилам iCloud подать апелляцию. Она будет вручную рассматриваться специалистами Apple в течение нескольких дней.
...

P4S
Учёные утверждают, что Apple CSAM не может быть безопасной "ни при каких условиях"
...
Доцент Джонатан Майер (Jonathan Mayer) и аспирант Анунай Кулшреста (Anunay Kulshrestha) прорабатывали идею системы для обнаружения материалов о сексуальном насилии над детьми (CSAM — child sexual abuse material) в течение нескольких лет. Как и Apple, они хотели ограничить распространение подобного контента, сохраняя при этом конфиденциальность пользователей. Иными словами, целью был анализ контента в онлайн-сервисах со сквозным шифрованием.

После аналитической проработки системы учёные создали рабочий прототип. И быстро пришли к выводу, что при любом исходе данная технология оставляет нерешённой одну «вопиющую проблему». Систему можно легко перепрофилировать на решение задач слежки за пользователями и цензуры. На техническом уровне она ни при каких условиях не может ограничиваться только одним типом контента — её работа полностью подчинена содержимому базы данных, с элементами которой производится сравнение содержимого на клиентских устройствах.

Авторы проекта уточняют, что данная проблема носит не чисто гипотетический характер. К примеру, исследователи Citizen Lab при Университете Торонто обнаружили подобную систему анализа в китайском мессенджере WeChat, где аналогичный алгоритм используется для обнаружения диссидентских материалов.
...

P5S
Поиск детского порно на iPhone откладывается
...
Компания Apple приостанавливает внедрение системы поиска запрещённых фотографий с сексуальным насилием над детьми (CSAM) после анализа полученной негативной реакции. Компания заявила, что ей необходимо продолжить работу по улучшению этой функции. Apple отметила, что соберёт больше информации от различных групп и сторонников тех, кого это касается.
...
Apple ранее заявила, что эта система разрабатывалась много лет и не предназначена для государственного контроля за деятельностью граждан. Более того, пользователям в России и других странах мира не нужно беспокоиться об этой проблеме, потому что система будет доступна только в Соединённых Штатах Америки и только при условии включения сервиса iCloud.
...
Изначально внедрение функции ожидалось с выходом финальной версии iOS 15 уже в сентябре, новые сроки не сообщаются.
...

#3dnews #приватность #хабр #ixbt
6 августа 2021
8 комментариев
Лягушку варят постепенно. Хотел тоже написать про это.
И предлог прекрасный чтобы шариться по чужим файлам и записям.
И "законопослушному скрывать (от типа не делящегося ни с кем алгоритма) нечего" прямо сейчас ожидаю.
Угу. И тут попадают под раздачу нормальные родители. В первую очередь, родители пупсов.
Интересно, какой там алгоритм...

Сама "грешна" - как-то сфотографировали ребёнка в свежеотремонтированной ванной, с пеной разумеется. В то время ещё на плёнку. Но плечики-то торчали.
И потом, мы люди скромные, неудачные (чтобы в будущем ребёнку не было стыдно за голую попку) фотографии сразу уничтожали. А тут - не успели разглядеть, что там вышло, и сразу алгоритм "тук-тук"?

Впрочем, современные мамаши такое в инстаграммы пихают, прям стыдоба.(
Windows 10 в новом обновлении будет удалять программы "наносящие вред или незаконно установленные", в частности, торрент-трекеры. Пока эту опцию можно будет отключить. Но уже в следующем обновлении - нет.
А я предупреждал, что windows-10 это неспроста.
Marlagram Онлайн
Upd
Даже если Эппл будет каждую ночь испражняться на владельцев айфонов, они все равно будут душиться в очередях за этими "самыми лучшими телефонами".
Но в целом, контуры будущего уже прорисовываются.
Marlagram Онлайн
Упд.
Отложили...
Marlagram
Видел, что Сноуден по этому поводу сказал? :)
Marlagram
Но рано или поздно Генерал-педоискатель возьмёт своё:
https://youtu.be/fBgmN46c5pM?t=615
ПОИСК
ФАНФИКОВ







Закрыть
Закрыть
Закрыть