В Содружества по научным и промышленным исследованиям Data61 организации разработал комплекс методов по защите алгоритмов машинного обучения от атак, подобно тому, как работают вакцины в живые существа.

Методы машинного обучения сейчас широко используется в большинстве отраслей промышленности и хорошо видны даже в подсказки Гугла, собрать огромное количество данных для работы, какие качества больше всего соответствуют критериям алгоритмов и которые могут быть уволены.

Машинное обучение лидер группы Data61, д-р Ричард НОК, заявил, что при добавлении слоя шума (т. е. ‘противник’) над изображением, злоумышленники могли обмануть моделей машинного обучения в неверной классификации изображения.

“Враждебные нападения способны обманывая модели машинного обучения в неправильной маркировке остановка движения вздох пронесся знак, который мог бы иметь катастрофические последствия в реальном мире”, – сказал НОК.

Мелких, повседневных версия враждебные атаки будет смотреть видео на YouTube с аккаунта с большой следовать за Теория заговора энтузиастов, и прежде чем вы знаете его вы делаете предложение продвигает плоской Земли лженаука или утверждая, что это безобидный овощ будет вылечить все, что беспокоит вас.

Последствия самоходный враждебные атаки легко отмахнуться или игнорировать, но как алгоритмы машинного обучения непосредственно в нашей посылок, искоренения инвазивных видов и ездят наши автомобили, ущерб от атаки становится гораздо более значительным.

Однако НОК моделей машинного обучения могут быть обучены распознавать и бороться с вредоносными данными в процессе подобном к вакцинации.

“Мы реализуем слабую версию противником, такие как небольшие изменения или искажения в коллекции изображений, чтобы создать более “трудными” набор обучающих данных.

“Когда алгоритм обучается на данных, подверженных воздействию небольшой дозы искажений, полученная модель является более надежной и невосприимчивой к враждебной атаки.”

Учитывая, что автономные автобусы и такси уже на Австралийских улицах, инокуляцию алгоритмы это место, людей, препятствия и дорожной разметки из атака кажется позитивным шагом вперед.

Главный исполнительный Data61 Адриан Тернер, сказал, что эти новые приемы защиты может спровоцировать новую линию машинного обучения, исследований и обеспечить позитивное использование преобразующих технологий ИИ.

Это играет на нажимаем КСИРО к более этичным использование искусственного интеллекта, особенно в отношении использования различных обучающих наборов данных для разработки решений ИИ, который не кодировать такие вещи, как расовая или гендерная предвзятость, присущая вещи, как исторические данные, найма и уголовной ответственности.

Это может также уменьшить случаи публичного позора, как Майкрософт ИИ ‘Тай’ , который был превращен в женоненавистник, антисемит менее чем за 24 часа благодаря магии щебет, обеспечивая чатботов, которые учатся по общей общественность может определить расистский троллинг и не подбирая фразы, которые они используют.

Data61 исследований на бумаги, Монж притупляет Байеса: твердость результаты для состязательности обучения, был представлен на ICML ПО в Лос-Анджелесе сегодня утром, и может быть найден здесь (PDF).

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here