![]() К вопросу о том, что должны секретить разработчики ИИ с нейросетями. Предположим например, что дроидоделы StarWars входят в эту группу...
... Хотя метод «заточен» именно для конкретной нейросети, но в комментариях к прошлым научным статьям на эту тему обращали внимание на ремарку исследователей, что, скорее всего, атака подействует на многие модели, обученные на данном конкретном наборе данных — включая разные архитектуры свёрточных сетей и даже линейные классификаторы. Так что для проведения атаки достаточно гипотезы, на основе каких данных могла обучаться модель. «В конкретных терминах это означает, что вполне вероятно, появляется возможность создать дорожный знак о продаже дома, который для человеческих водителей кажется совершенно обычным, но для беспилотного автомобиля будет казаться пешеходом, который внезапно появился на тротуаре, — сказано в научной работе. — Состязательные примеры вызывают практический интерес, который нужно учитывать по мере того, как нейросети становятся всё более распространёнными (и опасными)». Для защиты от подобных атак разработчики ИИ будущего может держать в секрете информацию об архитектуре своих нейросетей, а главное — о наборе данных, который использовался при обучении. ... отсюда Но как-то это (кажется) дурной принцип - секретить такое... #Geektimes 9 ноября 2017
2 |
![]() |
|
Матемаг
Популярно, с водой и неточностями и без конкретных формул - Педро Домингос "Верховный алгоритм: как машинное обучение изменит наш мир". |
![]() |
|
Вода-то ладно... но неточности:( Спасибо за наводку, в любом случае.
|