Барбос прав в Австралии человека взяли кусок из быстро растущих распознавания лиц и биометрической соответствующий рынок, предложив правительству ввести временный запрет на использование спорной технологии для принятия решений, поскольку это шелушение и борется с людьми цвета.

В резко критической оценки нерегулируемого технологии позволили буйствовать, Австралийская комиссия по правам человека говорит, что “закон о введении моратория на использование технологии распознавания лица в принятии решения, которое имеет права, или же значительное, влияние на людей” необходимо“, до принятия соответствующего правовую основу была положена на место.”

Толчок за запрет содержится в АКПЧ последний документ для обсуждения (PDF-файл) о взаимосвязи между обязательствами в области прав человека и последние и появляющиеся технологии, как искусственный интеллект, автоматизация и машины и датчики, которые могут видеть и слышать, а вскоре может иметь серьезные последствия.

Речь идет, как и другие регуляторы, в том числе Австралийская комиссия по конкуренции и потребителям вмешаться и приструнить плот рынка и искажения конкуренции создается так называемый крупных технологических платформ, таких как Apple, Google и Facebook, которые создали олигополий данных.

В то время как поставщики технологий и платформ регулярно увольнять или платить лишь красивой декларацией прав человека и законов о неприкосновенности частной жизни и обязанностей, предыдущие австралийских и международных обзоров законов, регламентирующих использование технологий и данных производили жесткий регламент, как нарушение законов о раскрытии данных и GDPR.

В то время они были впервые высказана в обзоре закона О частной жизни, обязательные данные нарушения уведомления были отклонены данные копят бизнеса и технологий индустрии как бездейственной массы или красной лентой, что бы доехать до соответствием расходов для мало или вообще не вернуться.

Несмотря на существенное противодействие, данные нарушения схема стала реальностью, с АКПЧ это последний документ, получивший название “права человека и технологии” теперь следующий подобный путь снести все-равно, нет-ответственность’ бесплатный для всех с новым строгим стандартам, обязательства и законы.

С точки зрения откровенной предвзятости и дискриминации в отношении уже маргинализованных групп, распознавание лица, вероятно, берет пирог в дискуссионном документе, благодаря множеству присущих предубеждения и высокий процент ошибок для людей, чья этническая принадлежность не легко вписываются в алгоритм.

“Комиссия выражает озабоченность по поводу рисков, используя технологию распознавания лиц в принятии решений, что имеет юридическое или менее значительная, эффект для лица. В дополнение к его влияние конфиденциальности, текущая базовая технология склонен к серьезной ошибке, и эта ошибка чаще для цветных людей, женщин и людей с ограниченными возможностями, в частности,” отчет АКПЧ говорит.

“Предварительная комиссия считает, что законодательство необходимо для использования технологии распознавания лица, и что это должно включать надежные гарантии прав человека”.

Сторожевой таймер имеет также маркировку действующего законодательства и гарантий как “недостаточные” и говорит, что нужна новая законодательная база.

“В этих рамках должны быть разработаны в консультации с экспертами, государственными органами, гражданским обществом, и, главное, широкой общественности, которые будут субъектами данного вида наблюдения,” АЦПЧ сказал.

Искусственный интеллект также поставляется в большой служить, ряд предлагаемых новых мер раскрытия и режимов ответственности поплыл, чтобы заставить лучше поведение машины.

В пример, который будет несомненно раздражать правительство, АЦПЧ использует пример неудачной robodebt оценки как в ту сторону, чтобы использовать потоки данных и алгоритмы, отметив, что “большинство респондентов национального опроса были неудобными с австралийским правительством через AI, чтобы сделать автоматическую систему принятия решений, затрагивающих их интересы.”

“В Австралии, озабоченность сообщества, связанного с такой практикой, как автоматизированная программа взыскании задолженности Центролинк является символом более широкой проблемы о том, как новые технологии используются в государственном и частном секторах”, – отмечается в докладе.

На более широком уровне, АЦПЧ нужен режим “к ответственности АИ-информированного принятия решений” в том случае, если владельцы алгоритмы, по сути, привлечен к ответственности, когда люди нарушают законы и их машины нарушения обязательства.

На простом уровне есть предложение для любого режима ответственности сообщать человеку, когда решения принимаются машиной, но отмечает, существует множество законов и принципов, которые могут быть применены.

Пять основных направлений АЦПЧ сделать АИ-принятия обоснованных решений являются:

• обеспечение того, чтобы АИ-принятия обоснованных решений соответствует всем применимым законодательным требованиям, и это прямо предусмотрено законом, когда осуществляется государством

• повышение прозрачности, так что люди информируют, где AI был существенным фактором в принятии решения, которое затрагивает их

• обеспечение того, чтобы АИ-обоснованные решения объяснимы, в том смысле, что разумное и осмысленное объяснение может быть сформирован, то есть доведено до сведения заинтересованным лицом по требованию

• разбираться, кто несет юридическую ответственность за использование АИ-обоснованных решений системы, с мощными стимулами для действовать ответственно в разработке и использовании таких систем

• определение соответствующих механизмов для человеческого контроля и вмешательства.

АЦПЧ также предложил, что правительство “должно заниматься Австралийская комиссия по реформе законодательства с просьбой провести расследование ответственности АИ-принятия обоснованных решений”.

Другими словами, народ, который дал закон О частной жизни, ее первый набор зубов вскоре может вернуться на работу.

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here