Социально-медийных компаний обеспокоены тем, что deepfakes вскоре может затопить свои сайты. Но их обнаружении автоматически сложно. Чтобы решить эту проблему, Facebook хочет использовать ИИ, чтобы помочь бороться против ИИ автоматически фейки. До железнодорожного назначения, чтобы определить манипулировать видео, она выпускает самый большой когда-либо наборов данных из deepfakes—более 100 000 клипов с помощью 3,426 актеры и существующие лица-замена техники.

“В настоящее время Deepfakes не большая проблема”, – говорит Facebook по ЦТО, Майк Шрепфер. “Но урок, который я узнал на своей шкуре за последние пару лет не будут застигнуты врасплох. Я хочу быть действительно готовым к много плохих вещей, которые никогда не бывает, а не наоборот”.

Facebook также объявил победителя своего Deepfake обнаружения вызов, в котором 2,114 участники представили около 35 000 моделей, обученных на данных. Лучшая модель, разработанная Селим Сефербеков, машинного обучения инженер по картографии фирма Mapbox, был в состоянии обнаружить, является ли видео deepfake с точностью до 65% при испытании на 10,000 ранее невидимые зажимы, в том числе сочетание новых видео на Facebook и существующие взяты из интернета.

Чтобы сделать вещи более трудным, обучающий набор и тестовый набор включает в себя видео, что системы обнаружения могли быть сбиты с толку, Как человек дает советы по макияжу и видео, которые были переделаны при вставке текста и форм за выступающих граней, изменения разрешения и ориентации, и замедляя их.

А не на изучении криминалистической техники, таких как Ищу цифровые отпечатки в пикселях видео оставил на процесс генерации deepfake, пятерку записях, похоже, научились, когда-то посмотрел “выкл,” как человек может сделать.

Для этого, все победители использовали новый тип сверточная нейронная сеть (КНС), разработанная исследователями Google в прошлом году, называется EfficientNets. CNNs обычно используются для анализа изображений и обеспечивают эффективное обнаружение лица или признания объектов. Повышение их точности за определенный момент может потребовать однако специальной доработки. EfficientNets обеспечить более структурированный способ настройки, что делает его легче для создания более точных моделей. Но точно, что это такое, что делает их эффективнее других нейронных сетей на этой задаче не ясно, говорит Сефербеков.

Facebook не планирует использовать любой из выигрышных моделей на своем сайте. Для одного, 65% точности еще не достаточно хорош, чтобы быть полезным. Некоторые модели достигается более чем 80% точностью с обучающим данным, но этот упал, когда друг против невидимых клипс. Обобщение к новым видео, которое может содержать разные лица местами в помощью различных техник, – это самая трудная часть проблемы, говорит Сефербеков.

Он думает, что один из способов улучшить обнаружение обратить внимание на переходы между кадрами видео, отслеживать их с течением времени. “Даже очень высокого качества deepfakes есть мерцание между кадрами”, – говорит Сефербеков. Люди хорошо умеют отвечать на эти несоответствия, особенно в метраж лица. Но ловить эти явные дефекты автоматически потребует больше и разнообразнее и гораздо больше вычислительной мощности. Сефербеков пытался отследить эти переходы кадров, но не мог. “Процессор там действительно узкое место”, – говорит он.

Facebook предполагает, что обнаружение deepfake может также быть улучшена с помощью методов, которые выходят за рамки анализа самого изображения или видео, такие как оценка своего контекста или происхождения.

Сэм Грегори, который руководит свидетеля, проект, который поддерживает правозащитников в использовании видео-технологий, приветствует инвестиции в социальные медиа-платформы в обнаружение deepfake. Свидетель является членом партнерства на АИ, который посоветовал Facebook на свой набор данных. Гриша соглашается с Шрепфер, что стоит готовится к худшему. “У нас не было deepfake apocalyps,е, но эти инструменты очень неприятные, помимо гендерного насилия и дезинформации”, – говорит он. Например, DeepTrace лаборатории докладе отмечается, что 96% deepfakes были по согласию порнографии, в которой чужие лица оклеиваются этих исполнителей в порно клипы.

Когда миллионы людей имеют возможность создавать и обмениваться видео, доверяя тому, что мы видим, является более важным, чем когда-либо. Фейковая новость распространяется через Facebook со скоростью света, а сама возможность deepfakes сеет сомнения, делает нас скорее вопрос подлинные кадры , а также поддельные.

Более того, автоматическое обнаружение в ближайшее время может быть единственным вариантом. “В будущем мы увидим deepfakes, которую нельзя отличить от человека”, – говорит Сефербеков.

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here