Более 1500 ученых из разных областей объединились, чтобы открыто отказаться от использования технологии, чтобы предсказать преступление, утверждая, что его бы воспроизвести несправедливости и причинить реальный вред.

В Coaltition для критических технологий написала открытое письмо к Springer Verlag в Германии, чтобы выразить свою глубокую обеспокоенность по поводу недавно разработанного автоматизированного распознавания лиц программного обеспечения, что группа scientistts из Harrisburg Университета Пенсильвании разработали.

Спрингер исследования природы книжная серия намерено опубликовать статью Гаррисберг ученые назвали глубокий нейросетевой модели для прогнозирования преступности с использованием обработки изображений.

Коалиция хочет публикации исследования – и другие в том же духе – будет отменено, утверждая в нем содержатся требования, основанные несостоятельны научные предпосылки, и методы исследований.

Разработанный Нью-Йоркской полиции ветеран и аспирант Джонатан Корн вместе с профессорами Натаниэль Эшби и Roozbeh Sadeghian, Гаррисберг университет исследователей программного обеспечения утверждает, 80 процентов точность и никаких расовых предубеждений.

Согласно Гаррисберг, когда университетские исследователи, автоматизированная технология распознавания лица уменьшает скрытые предубеждения и эмоциональные реакции для предупреждения преступности, правоохранительной и военной техники.

“Программное обеспечение может предсказать, если кто-то является преступником, основываясь исключительно на фотографию лица,” в Гаррисберг исследователи университета заявил.

Автоматизированные системы, отсеивать людей ищу людей, которые склонны к совершению преступлений в будущем, а ловить и наказывать их до деятельности illlicit иметь место, были предсказаны авторами Джордж Оруэлл и Филип Киндред Дик в 1940-х и 1950-х годов.

Преступление предсказание технология стала популярной в меньшинстве доклада, в 2002 году фильм по мотивам одноименного рассказа Дика.

С ускоряющим усвоение все более эффективным и мощным нейронных сетей для машинного обучения и искусственного интеллекта, так называемый “пре-преступности” системы теперь возможны.

Однако, несмотря на обещание менее предвзято предупреждению преступности в рамках машинного обучения на основе практики, утверждал, что справедливой, беспристрастной, подотчетной и прозрачной, коалиция ученые забили тревогу, утверждая, техник, но это все.

“Давайте быть ясно: нет никакого способа, чтобы разработать систему, которая может предсказать или определить “криминальность”, что не расисты – потому что категории “преступность” является расовым уклоном,” коалиция ученых сказал.

Данные, полученные со стороны системы уголовного правосудия не могут быть использованы для “идентификации преступников” или прогнозировать их поведение, как ей не хватает контекста и causaility, и может быть в корне неправильно, они утверждали.

Кроме того, люди, цвета стали относиться более жестко к правовой системе на каждом этапе, чем белые люди в такой же ситуации, многочисленные исследования показали.

Эта склонность в системе правосудия приводит к серьезным искажениям в данных ученых говорится.

Нет достаточной профессиональной подготовки и стимулов для машинного обучения ученых, чтобы приобрести навыки, необходимые для понимания культурной логики и неявные допущения, которые лежат в основе их модели, которые создал кризис действия в AI.

Менее двух лет назад, Amazon была вынуждена прекратить использование в секрете ИИ подбор двигателя после машинного обучения специалисты обнаружили алгоритм, не любил женщин и некоторые мужчины вместо.

Учебная машина должна двигаться за пределы информатики, коалиция сказала.

Игнорируя присущие и порой нечаянных погрешностей встроенных в машину рискам обучения, профилактики правонарушений технологию, которая воспроизводит несправедливость и наносит реальный вред, ученые добавили.

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here