Так вы сможете обнаружить “дипфейк” видео

13

САН-ФРАНЦИСКО. Один из основных инструментов для выявления «дипфейков» видео, созданных с использованием искусственного интеллекта, – это способность обнаруживать контрольные сигналы физиологии человека, которые машины еще не научились воспроизводить, объяснил эксперт в этой области.

Столкнувшись с повсеместной тревогой из-за этих видеороликов, в которых изображения синтетически модифицируются, чтобы, например, вложить в уста политика что-то, чего он никогда не говорил, директор по этике и правительству Инициативы по искусственному интеллекту Гарвардского Массачусетского технологического института Тиму Хвангу предписано прибегать к контрольным признакам.

Например, лица в Deepfake-видео моргают реже, чем в реальном мире, – сказал Хван.

Он объяснил, что это связано с тем, что при автоматизированном обучении – методике, используемой для изменения этих изображений – системы обучаются с данными, которые во многих случаях являются необъективными.

Чтобы сделать дипфейк на видео бывшего президента США Барака Обамы или нынешнего президента Дональда Трампа, обычно используют много изображений из Интернета, на которых они редко появляются с закрытыми глазами. Таким образом, система учится создавать образы Обамы или Трампа с открытыми глазами, на которых они почти не моргают », – сказал эксперт.

Эти контрольные признаки представляют собой предубеждения в исходных данных, которым “обучают” системы машинного обучения, которые не фиксируют все физиологические детали человека и позволяют, если внимательно наблюдать за изображениями, отличить реальное видео. ультра-ложного.

Технология обнаружения дипфейка очень хороша. Это может быть не такой большой проблемой, как думают люди », – сказал Хван. 

Хотя он предупредил, что ни методы обнаружения, ни методы обмана «всегда будут безупречными», так что, по его мнению, борьба с «дипфейком» будет «гонкой вооружений в постоянных изменениях».

Один из гипотетических сценариев, вызвавших наибольшую тревогу, заключается в том, что эти подтасованные видео используются для распространения дезинформации в ходе предсказуемо напряженной президентской избирательной кампании в США в следующем году, особенно после вмешательства российских хакеров в 2016 г.

Когда его спросили о такой возможности, директор по этике и правительству проекта, продвигаемого Гарвардскими университетами и Массачусетским технологическим институтом, ответил, что, по его мнению, этот риск был преувеличен, поскольку те, кто занимается распространением ложной информации Это «прагматичные люди», цель которых – создать максимальное количество контента с наименьшими усилиями.

Это можно сделать, например, набрав текстовые сообщения или манипулируя изображениями в Photoshop. По-прежнему намного проще создать ложную информацию, не требующую машинного обучения, как в случае дипфейков. Так что я думаю, что мы увидим гораздо больше этих техник вместо ультра-фальшивой экзотики », – сказал он.

В последние месяцы в Интернете стали популярны видеоролики, в которых с помощью этой техники манипулируют общественные деятели всех мастей: от политиков, таких как Трамп, Обама и бывший госсекретарь Хиллари Клинтон, до таких актеров, как Николас Кейдж, и предпринимателей из технологической индустрии, таких как Илон Маск (Тесла) и Марк Цукерберг (Facebook) и другие.

Я считаю, что люди по-прежнему будут нести основную ответственность за определение того, что реально, а что нет, но технологические платформы должны облегчить им задачу », – сказал эксперт, не обращая внимания на возможность того, что« дипфейки »будут все больше и больше присутствовать в сети.

Для этого он предложил интернет-компаниям, таким как Facebook, Twitter или Google, «сделать первый шаг» и объяснить пользователю Интернета, что на основе анализа их систем и других выявленных случаев определенный контент, вероятно, был создан синтетически., хотя окончательное решение о том, делиться этим контентом или нет, остается за пользователем.

Дипфейки отлично подходят для создания лучших марионеток, но не обязательно лучших кукловодов. Вы можете заставить Трампа сказать что-то очень достоверным образом, но никакая система машинного обучения не может определить, что Трамп должен сказать, чтобы контент звучал достоверно », – добавил эксперт.

Эксельсиор

Изображение, скриншот

Источник записи: https://www.globalmedia.mx

Этот веб-сайт использует файлы cookie для улучшения вашего опыта. Мы предполагаем, что вы согласны с этим, но вы можете отказаться, если хотите. Принимаю Подробнее