Как разрешается проблема deepfakes

Эксперты бьют тревогу в свете растущей опасности от deepfakes — поддельных видеороликов, в которых люди делают то, что они не делали в самом ремесле. Используя развитие механического исследования, персонажи видео накладываются на другие лица, которые выглядят так естественно, как будто они почти неотличимы от реальных. При поддержке направленных видеороликов разрешается обесчестить президента или, скажем, посадить пострадавшую сторону в тюрьму вместо нечестного полицейского. Так, эксперты Нью-Йоркского института назвали дипфейками одной из главных опасностей для предстоящих президентских выборов в США. Кто либо если сумеет разрешить эту делему? Правда-разработка блокчейна в дуэте с искусственным интеллектом (ИИ).

Deepfakes = несоответствие

С любым дизайном, который будет становиться все более и более сложным. К сожалению, совершенствуются не только необходимые инновации, но и устройства читов. Еще 10 лет назад редактирование видео было довольно простым-по крайней мере, какой-то человек, способный отличить круг от квадрата, мог отследить подделку.

Но с тех пор ситуация кардинально изменилась. Вместо «колдовских» композиций «Ctrl + C, Ctrl + V» Читы используют генеративно-конкурентные нейронные сети (GAN) на складе ИИ. Это устройство готовит видеомонтаж настолько вменяемо, как будто иногда практически невозможно отличить подделку от оригинала. Поддельные видео, полученные в результате такой отделки, называются deepfakes и активно распространяются по всей сети.

Все акты непристойности элементарны:

  1. ИИ использует метод, 1 часть которого исследует фотографии и видео конкретного человека.
  2. Затем 2-я фракция метода применяет изображение жертвы хотя бы к какому-то видео, улучшая результат по тем временам, пока 1-я фракция метода не начнет путать копию с кривошипом.

Абстрактно, ваш сосед имеет возможность создать хоть какое-то поддельное видео с вашей ролью, например, в каком месте вы требуете милостыню. Впервые эти способности бывальщины были поставлены в 2016 году категорией старателей Мюнхенского технического института в области визуальных вычислений. С тех пор о развитии рекрутинга известно только одно.

  • Deepfake-разработка используется для создания порнофильмов со звездами. В общем, законно любоваться клипом с «Анджелиной Джоли» и «Сальмой Хайек» пришлось недолго. Практически все платформы, включая Reddit и Pornhub, инициировали запрет этих «шедевров» во время модерации контента.
  • На сероватом базаре труднее что-то предотвратить, потому что после этого рекламная информация каждой подделки полностью бездействует. Например, на просторах интриги разрешалось встретить рекламную информацию «новоиспеченной МММ» в голове с «куклой» покойного Сергея Мавроди, кой по их басенному типу не умер, а протянул инфаркт.
  • Однако далеко не все видео создаются в ущерб друг другу. Например, deepfake-разработка в мае была использована на выставке «дана в добром здравии» в честь 115-летия великого живописца. В результате фальшивый розыгрыш был произведен в музее на глазах у его собственных поклонников.
  • Но ведь большинство создателей deepfakes-нормальные граждане, которые создают видеоролики для развлечения или для презентации бурного развития разработки. Неописуемо впечатляющее видео, в котором художник Том Хейдер превращается в Тома Круза и обратно, при этом он совершенно естественен в двух ипостасях.
  • А теперь представьте себе, что у них есть все шансы сделать профессиональные манипуляторы с поддержкой такого устройства. Помимо безопасных видеороликов, здесь легко встретить фальшивые выражения известных людей и общественно-политических функционеров.

Фальшивый Барак Обама выглядит точно так же, как и настоящий. Источник.

Чтобы убедительно представить опасность, ученые из Вашингтонского института создали модель бывшего президента Белого дома Обамы. В ролике экспертов устоявшийся Обама ни в коей мере не выдает истинного.

1 из основных социально-политических опасностей 2020 года

5-й пункт в списке больше — главная проблема, так как позволительно обесчестить кого-то с поддержкой deepfakes. Просматривая срежиссированное видео, зрительская фракция узнает, что это, скорее всего, фейк, но всегда найдется другая фракция, которая поверит в сказанное и начнет расширять «анонсы» среди друзей.

Постоянное улучшение развития событий ухудшает ситуацию.

  • Еще год назад конные персонажи не могли подмигнуть, а теперь у них, наверное, нет проблем.
  • Больше всего ИИ позволяет имитировать не только лицо, но и движение тела или отдельных частей лица, например, караульного помещения.
  • Кроме того, это не составляет никакого труда, чтобы подделать голос.

Видео, которое содержит только губы и голос, еще труднее определить как подделку. Экспертам нетрудно добавить к стилистике человека тирады, что он вообще не говорил или даже полностью или полностью неправильно произносил слова. Самое страшное, как будто это, наверное, будет выглядеть впечатляюще.

Сейчас трудно более точно различить мастерски сделанный предмет, а в будущем это станет еще труднее. Согласно исследованию Нью-Йоркского Института, deepfake-video-1 из наиболее важных проблем, способных оказать существенное влияние на результаты президентских выборов в США в 2020 году. По мнению экспертов, срежиссированные видеоролики имеют все шансы взорвать доверие к кандидатам и усугубить цинизм избирателей. 2 октября сенаторы США доказали опасность deepfakes и призвали глобальные фирмы сформировать стратегии для аутентификации видео.

Deepfakes и другая дезориентация, влияющая на выбор в США в 2020 году. Источник.

Блокчейн = заключение

Доступ к подобным видеоредакторам доступен всем тем, кто испытывает жажду. Те, кто является, например, нарушителем закона или нечестным сотрудником полиции, имеют все шансы создать видео deepfake, в том числе подделать видеозаписи на груди полицейских номеров. И ситуация еще более серьезная, чем она имеет возможность появиться на 1-м виде.

Видеозаписи из сундуков полиции используются в качестве основных улик в криминальных и общественно-политических ситуациях. Поэтому всякие нестыковки, в том числе и абстрактные, на данном этапе просто недопустимы. К сожалению, однако, они ближе друг к другу: южноамериканские юристы и приверженцы Альянса за защиту гражданских завещаний ни раз подвергали полицейские видеоролики колебаниям, замечая добавление мимолетных трюков и ограничивая задержку сцен.

Axon-южноамериканская компания с респектабельным лозунгом «защита жизни» выпускает полицейскую технику более чем в 100 странах мира, в том числе и в сундуках. Не так давно компания driving figure обновила линейку устройств, выпустив совершенно новый Axon Body 3 room. В дополнение к другим улучшениям, он имеет возможность защищать видео с помощью кодирования и пароля, а также одновременно прикреплять цифровую подпись к записям, чтобы отслеживать появление видео. Обновления для системы безопасности щелкаются, чтобы помешать созданию deepfakes и помочь раскрыть их. На последних устройствах невозможно воспроизводить, загружать или редактировать видео без проверки подлинности.

«Опасность deepfakes достаточна, чтобы начать непрерывное сомнение по крайней мере в некоторых видео, в том числе видео на полицейских сундуках», — заявил адепт аксона.

Но из-за централизации все эти меры все равно не обеспечивают совершенной защиты, потому что специалисты аксона хотят идти дальше. Фирма исследует возможность интеграции в свои собственные комнаты разработки блокчейна, чтобы информация о манипуляциях вписывалась в публичный расчетный реестр и не имела возможности быть измененной каким-либо образом. Но, вероятно, closer действительно будет работать как гарантия защиты от скрытого редактирования полицейских видеороликов. Таким образом, для данного эпизода только развитие блокчейна способно защитить отрасль от одной из главных социально-политических опасностей будущего.

Шамир Аллибхай, генеральный директор стартапа Amber, который использует разработку блокчейна для проверки надежности видеоклипов на телефонах, также придерживается этой точки зрения. Он объявил, что необходимо создать открытые стереотипы для того, чтобы проверить подлинность всех видеороликов была возможность узнать, кто такой хороший и как скоро будет хороший.

Блокчейн и искусственный интеллект

Вполне возможно, что только поддерживать развитие блокчейна в этой задаче будет ИИ. В частности, он будет проверять видео на подлинность, сосредоточившись на использовании распределенного реестра. В 2019 году этот дуэт все активнее используется разными компаниями.

  1. Искусственный интеллект великолепно собирает,анализирует, сортирует и предоставляет их, что делает его лучше в выполнении врожденных действий.
  2. Блокчейн «смотрит» на свой собственный порядок так, чтобы никто никак не вмешивался в сервис искусственного интеллекта — он защищает их и их порядок от всех посягательств.

Axon-это далеко не единственная организация, которая учит умению внедрять разработку блокчейна. Число таких фирм растет с каждым годом. По данным Statista, в 2016 году их капитализация равна $210 млн, к 2019 году она выросла более чем в 4 раза — на $885 млн больше всего, к 2021 году ожидается рост на $2,3 млрд.

Рынок разработки блокчейна с каждым годом растет все быстрее. Источник.

Инновационные стереотипы движутся к тому, что в сфере управления этими ИИ при отсутствии блокчейна он никому не будет нужен ни в коем случае. Блокчейн-это опасно. «Мы не рассматриваем ИИ и блокчейн как 2 отдельных разрозненных разработки, а скорее как 2 разработки, которые имеют все шансы добавить друга друга довольно хорошо»,-заявил настил Ли, соучредитель и ведущий директор Mind AI.

Администрации в своем порядке идут навстречу молодым стартапам. Таким образом, ЕС расширяет доступ к высококачественным данным для планов, основанных на разработке блокчейна и искусственного интеллекта. Например, фирмы получают доступ к различным статистическим данным, таким как преимущества владения, информация о плохой погоде и транспортных средствах.

Как скоро мы можем ожидать массовой победы блокчейна и искусственного интеллекта над deepfakes?

Популярность deepfakes растет, а программы для их создания лежат в открытом доступе. Пользователи прикидываются Ким-Уном, ставят лицо Джессики Альбы на артистов порнопроб, заменяют внешность президента Аргентины Маурисио Макри на Адольфа Гитлера. При поддержке таких программ разрешается создавать массу провокаций, причем не просто бредовых, а самых деликатных-тех, в которые легко поверить.

Мы не стесняемся, как бы время от времени deepfakes не вылезали до такой степени, что скоро отличить чудака от копии при отсутствии специальных приспособлений станет просто нереально. Вполне возможно, подделки тоже станут самыми доказательными (попробуйте вспомнить, как Чарли Чаплин заимствовал всего 3 экземпляра на конкурсе двойников).

И это не прецедент, что даже если специально обученные профессионалы заинтересуются уроком, они не разрешат ошибку один раз. Никто ни в коем случае не отменял человеческий контракт. Обеспечить защиту от deepfakes можно только на промышленном уровне-с устранением всех ошибок. Альянс развития блокчейна и искусственного интеллекта является завершением этой трудности. Создание программ на основе искусственного интеллекта и блокчейна, а также интеграция разработок любым способом не только в кабинеты полиции, но и в комнаты видеонаблюдения, устройства корреспондентов и телефоны, оказали бы большое влияние на ситуацию. Уникальные видеоролики могли бы питать символы воды, которые свидетельствуют об их искренности, а такие сервисы, как YouTube, могли бы их распознавать. Посмотрев следующее видео, мы бы увидели метку, как если бы она была реальной. Вероятно, это позволило бы обеспечить подлинность почти всех видеороликов и полностью решить проблему deepfakes delem.

Помогать бороться с большим количеством фальшивых видеороликов будут гиганты базара. Facebook вложил $ 10 млн в создание организации «Deepfake Detection Challenge», Twitter устраняет поддельный контент и находит способы отслеживать высочайшее качество, а Google подобрал большой приемник deepfake-видео для анализа.

bit44.org

Обязательно подпишитесь на наш Telegram канал

ПОДПИСЫВАЮСЬ
ПОТОМ