Алгоритмы предвзято—и Facebook не является исключением.

Только на прошлой неделе технологический гигант был предъявлен иск со стороны США Министерство жилищного строительства и Городского Развития по пути он намеренно позволяют рекламодателям показывать свою рекламу по признаку расы, пола и религии—все защищенные классы в соответствии с законодательством США. Компания объявила , что прекращает этого позволяет.

Но новые доказательства показывает, что Facebook-это алгоритм, который автоматически решает, кто видит объявление, выполняет те же дискриминации в любом случае, подавать объявления, чтобы более двух миллиардов пользователей на основе их демографических данных.

Команда во главе с Мухаммед Али и Петр Sapiezynski в Северо-Восточном университете провели серию идентичных объявления, с небольшими вариациями в рамках доступного бюджета, заголовок, текст или изображения. Они обнаружили, что эти тонкие хитрости оказали значительное воздействие на аудиторию, каждое объявление—особенно когда реклама была для работы или недвижимости. Проводки для воспитателей и секретарей, например, показали более высокую долю женщин, в то время как проводки для дворников и таксистов было показано выше доля меньшинства. Объявления о домах для продажи также показали более белый пользователей, в то время как объявлений по аренде были показаны больше меньшинств.

“Мы сделали важные изменения в наше объявление-инструменты таргетинга и знаю, что это только первый шаг”, в Facebook пресс-секретарь сказал в своем заявлении в ответ на выводы. “Мы смотрим на наше объявление-системы доставки и лидеров отрасли, ученых и гражданского права специалисты по этой теме—и мы исследуем больше изменений.”

В некотором смысле, это не должно быть удивительно—уклоном в алгоритмы рекомендация была известная проблема на протяжении многих лет. В 2013 году, например, латания Суини, профессор государственного управления и технологий в Гарварде, опубликовал документ, который показал неявная расовая дискриминация Гугла рекламную алгоритм. Вопрос возвращается к тому, как эти алгоритмы принципиально работать. Все они на основе машинного обучения, которая находит закономерности в огромных объемов данных и применяет их для принятия решений. Есть много способов, что уклон может меняться во время этого процесса, но два наиболее очевидным в Facebook в случае, если касаются вопросов во время проблема разработки и сбора данных.

Предубеждение возникает во проблема кадрирования, когда цель машинного обучения модель смещена с необходимостью избегать дискриминации. Инструмент рекламы Facebook позволяет рекламодателям выбрать один из трех задач оптимизации: количество просмотров объявления, тем количество кликов и сумму взаимодействия получает, и количество продаж, которые она генерирует. Но эти бизнес цели не имеют ничего общего с, скажем, обеспечивать равный доступ к жилью. В результате, если алгоритм обнаружил, что он может заработать больше участия проявляют все дома в белый цвет пользователей на покупку, это будет дискриминировать черных пользователи.

Перекос возникает в процессе сбора данных при подготовке данных отражает существующие предрассудки. Рекламный инструмент Facebook это основывает свои решения по оптимизации на исторических предпочтений, что народ продемонстрировал. Если больше меньшинств занимаются с объявлениями по аренде и в прошлом, машинного обучения модель будет определять эту схему и применить ее в вечное пользование. Опять же, он не будет слепо брести по дороге труда и дискриминации—без жилья явно сказано, чтобы сделать так.

В то время как такое поведение в машинном обучении были изучены в течение некоторого времени, новое исследование предлагает более прямой взгляд в прозрачные сферы его влияние на доступ людей к жилью и трудоустройству. “Эти результаты взрывных!” Христианские Сандвиг, директор Центра по этике, обществе и вычислительной техники в Университете штата Мичиган, сказал экономист. “Этот документ говорит нам, что […] большие данные, используемые в этом случае, никогда не может дать нам лучшего мира. На самом деле, это, скорее всего, эти системы делают мир хуже, ускоряя проблем в мире, которые делают вещи несправедливые”.

Хорошая новость в том, возможно, есть способы решить эту проблему, но это будет нелегко. Многие исследователи ИИ в настоящее время проводит технические решения для машинного обучения характера, которые могли бы создать более справедливой модели интернет-рекламы. Недавно бумаги из Йельского университета и Индийского технологического института, например, предполагает, что это может быть возможным, чтобы ограничить алгоритмы для минимизации дискриминационного поведения, пусть и за небольшую плату получить доход от рекламы. Но политики должны играть большую роль, если платформы, чтобы начать инвестировать в таких исправлений—особенно если это может повлиять на их нижней строке.

Эта первоначально появилась в нашей рассылке ИИ алгоритм. Чтобы он напрямую доставляется в ваш почтовый ящик, зарегистрироваться здесь бесплатно.

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here