Информационная цифровая фабрикация: можем ли мы предупредить проблему?

Манипулируя и искажая реальность, видео, созданные с помощью информационной цифровой фабрикации, пугают многих, но обоснован ли этот страх? Если да, то как мы можем устранить эти риски?

Основные выводы

  • Способность достоверно имитировать людей с помощью информационной цифровой фабрикации пугает и может иметь серьезные последствия для нашего политического и культурного ландшафта.

  • Что может создать искусственный интеллект, то можно и исправить с его помощью. Кроме того, существует несколько технологических решений для проблемы информационной цифровой фабрикации.

  • Технология корпорации Intel помогает компаниям разрабатывать решения, которые могут предупредить видео, созданные с помощью цифровой фабрикации.

BUILT IN - ARTICLE INTRO SECOND COMPONENT

Помните фильм «Назад в будущее»*? Машина, музыка, а в центре все этого — знаменитый дуэт Роберта Дауни мл. и Тома Холланда в роли профессора Брауна и Марти МакФлая. Разумеется, вы не можете этого помнить: в действительности Том Холланд еще не родился, когда фильм «Назад в будущее» вышел на экраны в 1985 году. 

Однако вы можете увидеть этот альтернативный актерский состав в одном из сотен новых видео, созданных с помощью информационной цифровой фабрикации, которые появились в Интернете за последние несколько лет. С помощью этой технологии видео могут с невероятной точностью переносить актеров в фильмы, в которых они не снимались, или знаменитостей в интервью, которых никогда не было. Люди все больше боятся последствий использования информационной цифровой фабрикации. Но насколько оправдан этот страх? Что мы можем сделать для решения этой проблемы? 

Что такое информационная цифровая фабрикация, и стоит ли нам беспокоиться?

Информационная цифровая фабрикация основана на технологии под названием генеративно-состязательные сети. Состязательная сеть состоит из двух нейронных сетей, одна из которых называется генератором, а другая — дискриминатором. 

Сначала генератор получает фотографию человека в качестве вводных данных, а затем пытается создать вторую фотографию, которая похожа, но отличается от предоставленной. Затем эта фотография отправляется в сеть дискриминатора, которая пытается понять, являются ли вводные данные подлинными или нет. Вот откуда происходит название «состязательная»: обе сети пытаются обмануть друг друга. 

Чем дольше две сети обучаются, тем лучше они формируют поддельные изображения, которые выглядят как настоящие. В конечном итоге создается изображение, которое неотличимо (по крайней мере для сети дискриминатора) от реальных фотографий какого-либо человека. Получается сфабрикованный материал. Вот как можно получить видео с генеральным директором Facebook Марком Цукербергом, продающим фальшивые процедуры лечения диализа, или смешные ролики, где он угрожает захватить мир.

Однако некоторые критики считают, что такие видео представляют серьезную угрозу. По их словам возможность создавать почти полностью убедительные, реалистичные представления может иметь страшные последствия во многих сферах жизни.

Видео, полученные с помощью цифровой фабрикации, вкладывают компрометирующие слова в уста политиков или позволяют им отказаться от фактически сказанного или сделанного на основании того, что материалы были сфабрикованы. Также существует значительный потенциал мошенничества. Если людей можно убедить с помощью фишингового письма от человека, который притворяется их банком и просит перевести деньги, то насколько убедительней будет видеозвонок от коллеги или родственника? Полицейская служба ЕС Европол рекомендовала в своем отчете, чтобы правоохранительные органы вложили значительные средства в разработку технологий, которые могут помочь в обнаружении мошеннических случаев информационной цифровой фабрикации.

Этот риск также распространяется на зловещий преступный мир порнографии в Интернете, где знаменитостей и других лиц вставляют в материал для взрослых без их согласия. Согласно отчету DeepTrace на сентябрь 2019 года почти 96% видео, созданных с помощью информационной цифровой фабрикации, имели порнографический характер. 

Однако есть те, кто считает, что эта угроза меньше, чем кажется. Фотографии фальсифицировали с 1860 года, а удаление с официальных фотографий политических противников, ставших жертвами репрессий, широко практиковалось в Советском Союзе под руководством Иосифа Сталина. Не далее как в 2004 году сфабрикованная фотография Джона Керри была размещена в газете «Нью-Йорк таймс»* во время президентской гонки. А размещать лживые материалы в печатной продукции было возможно с самого начала ее существования. Поэтому, по мнению скептиков, это всего лишь очередная технология, с которой нам придется смириться.

Выявление подделок

Несмотря на эти убеждения, понятно, что многие люди чувствовали бы себя безопаснее, если бы существовал надежный, технологичный способ отличить сфабрикованный материал от настоящего. И исследования в этом направлении действительно ведутся. Что может создать искусственный интеллект, то можно и исправить с его помощью.

Например, Zeff, специализирующаяся на искусственном интеллекте, — это всего лишь одна из компаний, которые хотят сделать так, чтобы системы обнаружения на базе ИИ были на шаг впереди. Изначально одним из явных признаков информационной цифровой фабрикации были неестественные блики. Однако после выявления этого признака в решения для информационной цифровой фабрикации были внесены изменения, которые сделали блики реалистичными. 

В ответ на это Zeff стала использовать искусственный интеллект для поиска кровотока под кожей, подлинно сымитировать который в сфабрикованных материалах до сих пор не под силу. Однако в подкасте Intel об искусственном интеллекте директор по обработке и анализу данных компании Zeff Бен Тейлор (Ben Taylor) прагматично подходит к надежности своего решения в долгосрочной перспективе, признавая, что это напоминает игру в кошки-мышки. «Это неразрешимая проблема, цель которой меняется. Какую бы эффективную идею мы не придумали, ее могут использовать для улучшения информационной цифровой фабрикации».

Альтернативное решение — это добавление цифровых слоев в фотографии, которые делают невозможным их использование для информационной цифровой фабрикации, из-за чего последняя утрачивает суть своего существования. Например, независимые исследователи разработали алгоритмический слой, который можно закодировать в изображение. Затем код искажает это изображение до неузнаваемости, если кто-либо пытается сфабриковать его. 

Будет ли информационная цифровая фабрикация представлять большую опасность — пока не ясно. Мы можем смириться с ней, либо технологии упростят ее обнаружение. Но, возможно, самую безопасную позицию занимает директор по технологиям Facebook* Майк Шрепфер (Mike Schroepfer): «Я хочу быть действительно готов к множеству плохих событий, которые никогда не произойдут, а не наоборот».

* Другие наименования и товарные знаки являются собственностью своих законных владельцев