Осторожно, фейк! | Первый творческий форум ЦРТП

Стырх

Креатор
Регистрация
19 Ноя 2016
Сообщения
151
Реакции
629

Одно из понятий современной виртуальной реальности и жизни в интернете - фейк. На тему влияния фейков на общественное сознание рассуждают Игорь Ашманов и Анатолий Кузичев.
Время смут и войн – это время слухов и военных уток, которые люди всегда распространяли, чтобы подбодрить себя и закалить свою ненависть к врагам. А с появлением социальных сетей их распространение приобрело лавинообразный характер. Люди цепляются за любую информацию, которая, как им кажется, подтверждает правильность их позиции и оправдывает их поступки. Их мало волнует ее достоверность!
 

Кабум

Креатор
Регистрация
17 Июн 2016
Сообщения
133
Реакции
518
Генеративные нейросети породят новое поколение фейков

Распространение фальшивых новостей — это лишь первая волна фейкового контента, нашествие которого стоит ожидать в ближайшие годы. Генеративные нейросети (GAN) уже позволяют создавать видеоролики, на которых люди делают то, чего не делали, и говорят то, что никогда не говорили. Журнал The Economist объясняет, как устроен новый мультимедийный мир, в котором ничему нельзя доверять.

The Economist приводит в пример видеоролик Alternative Face v1.1, созданный немецким художником Марио Клингеманном. На видео певица Франсуаза Арди в возрасте 20 с небольшим лет (ей сейчас 73 года) воспроизводит речь Келлиэнн Конуэй — советницы президента США Дональда Трампа. Конуэй получила известность после использования парадоксального термина «альтернативные факты». Видеоролик как раз представляет собой «альтернативный факт» и медийное явление совершенно нового порядка. Alternative Face v1.1 создала генеративная нейросеть — система на основе машинного обучения. Проанализировав старые видеозаписи с Арди, программа генерировала уникальный видеоконтент, которого на самом деле не было, а поверх наложила аудиодорожку с комментариями Конуэй.

Генеративные нейросети могут вывести фальшивые новости на новый уровень, в котором фейковые видеоролики и аудиодорожки нельзя будет отличить от настоящих. Принцип работы GAN-систем прост. Нейросети изучают статистические характеристики аудиозаписи, а затем воспроизводят их в другом контексте. При этом они улавливают изменения в речи с точностью до миллисекунды. Достаточно ввести текст, который нейросеть должна воспроизвести, и получится правдоподобное выступление, например, Трампа или другого политика. Хотя на самом деле никакого выступления не было.

В апреле канадский стартап Lyrebird опубликовал набор алгоритмов, которые могут сымитировать голос любого человека. Для обучения системе достаточно прослушать звуковой файл длиной не больше 1 минуты. Алгоритм не только имитирует голос, но и может добавлять нужную эмоциональную окраску. «Фотошоп» для речи также представила компания Adobe. Аудиоредактор вырезает произнесенные слова и вставляет на их место новые.

Генерирование изображений пока дается нейросетям сложнее. Даже после просмотра сотен картинок с собаками и кошками, нейросеть не может нарисовать убедительное вымышленное животное. Созданные ученым Яном Гудфеллоу GAN-системы изменили ситуацию. При запуске GAN одна нейросеть пытается обмануть другую, имитируя реальное изображение. Вторая нейросеть при этом контролирует процесс и сопоставляет генерированный контент с реальной базой изображений.

GAN уже удается по описанию составить довольно точный «фоторобот» птицы, хоть и небольшого размера. К тому же системы постоянно совершенствуются. По прогнозам Гудфеллоу, через три года YouTube заполнят фейковые ролики. Другие эксперты считают, что на налаживание процессов медиафальсификации уйдет больше времени, но рано или поздно это точно произойдет.

Программа Face2Face уже позволяет переносить движения, мимику и фразы любого пользователя на видеоролик с другим человеком. Разработчики, например, показали, как можно удаленно поменять выражение лица Трампа на видео с помощью ПО.

Со временем в арсенале каждого интернет-пользователя окажется устройство для верификации контента. Это может быть программа для изучения метаданных или система, которая исследует задний план фото или видео, сопоставляя местность с данными на Google Earth. Защититься от нашествия фейков поможет и шифрование.

Источник:
 

sigus irus

Креатор
Регистрация
28 Апр 2017
Сообщения
120
Реакции
562
Будущее фейк-новостей: не верьте всему, что читаете, видите или слышите

Новое поколение инструментов для обработки видео и звука позволяет создавать реалистичные новостные кадры, например, теперь хорошо известную фальшивую речь Обамы.


Проект Университета Вашингтон использовал звук одной из речей Обамы для того, чтобы анимировать его лицо в совершенно другом видео.

В эпоху Photoshop, фильтров и социальных сетей многие из нас привыкли видеть отредактированные изображения – люди на них стройнее и красивее, или, как в случае со Snapchat, могут даже стать щенками.

Тем не менее, есть новое поколение инструментов для обработки видео и аудио позволяет создавать реалистичные видеокадры, на которых политики и общественные деятели говорят то, что не говорили на самом деле. Трамп заявляет о своей любви к водным видам спорта. Хиллари Клинтон описывает похищенных детей, которых держит в своём винном погребе. Том Круз, наконец, признаётся в том, что мы все время подозревали… что он — Брони. Всё это стало возможным благодаря достижениям в области искусственного интеллекта и компьютерной графики.

Это — будущее фейк новостей. Мы уже давно не верим всему, что читаем, но скоро нам придётся подвергать сомнению все, что мы видим и слышим.
На данный момент существует несколько исследовательских групп, которые работают над захватом и синтезом различных визуальных и аудио элементов человеческого поведения.

Программное обеспечение, разработанное в Стэнфордском университете, способно манипулировать видеозаписями таким образом, что общественный деятель на экране в режиме реального времени повторяет то, что говорит другой человек за кадром. Face2Face захватывает выражения лица этого человека, а затем переносит эти движения непосредственно на лицо персонажа в оригинальном видео. Исследовательская группа продемонстрировала свою технологию путём видеороликов с «участием» Джорджа Буша, Владимира Путина и Дональда Трампа.


Face2Face позволяет манипулировать знаменитостями и политиками, буквально вкладывая слова в их уста.

Сам по себе Face2Face — забавная игрушка для создания мемов и развлекательных ночных ток-шоу. Однако, с добавлением синтезированного голоса, он становится более убедительным — цифровая марионетка не только выглядит как политик, но она также может говорить как политик.

Исследовательская группа в Университете штата Алабама в Бирмингеме работает над симуляцией голоса. Имея всего 3-5 минут записи голоса жертвы — записанном в прямом эфире или вырезанном из видео на YouTube — злоумышленник может создать синтезированный голос, который может обмануть людей и биометрические системы безопасности, используемые некоторыми банками и смартфонами. Затем злоумышленник может говорить в микрофон, и программное обеспечение преобразует его слова в голос жертвы.

Канадский стартап Lyrebird разработал аналогичные возможности, которые, по его словам, могут быть использованы для превращения текста в аудиокниги, которые «прочтут» известные люди или персонажи видеоигр.

Хотя данная технология может приносить пользу, голосовой морфинг может сочетаться с технологией визуального морфинга для создания убедительных поддельных выступлений общественных деятелей.

Просто взгляните на результат проекта Synthesising Obama Университета Вашингтона, в котором исследователи использовали одну из речей Обамы и с помощью неё анимировали его лицо в совершенно другом видео с невероятной точностью (благодаря обучению нейронной сети с помощью бесчисленных часов видео), и вы поймёте, насколько коварны могут быть эти фальсификации.

Помимо поддельных новостей есть много других последствий, считает Нитеш Саксена, адъюнкт-профессор и директор по исследованиям Университета Алабамы в отделе компьютерных наук Бирмингема. «Вы можете оставить поддельные голосовые сообщения от лица чьей-то мамы. Или оскорблять кого-то и публиковать аудио-образцы в Интернете».

Эти технологии ещё не идеальны. Мимика в видео может показаться немного искажённой или неестественной, а голоса могут звучать немного роботизированно.
Но со временем они смогут точно копировать речь или внешний вид человека — до такой степени, что людям может быть очень сложно обнаружить подделку.

Учитывая уменьшение доверия к средствам массовой информации и необузданное распространение фальсификаций через социальные сети, для новостных организаций станет ещё более важным изучать контент, который выглядит и звучит как реальная запись.

Теперь «реальные» видео будут снабжаться особыми знаками, позволяющими установить время и место её создания, присутствовавших людей и даже соответствие погодных условий.

Люди также должны будут обращать внимание на освещение и тени в видео, независимо от того, являются ли все элементы, присутствующие в кадре, правильными, и отлично ли синхронизируется звук — говорит Мэнди Дженкинс из компании Storyful, которая специализируется на проверке новостного контента.

Поддельный контент может быть отсеян новостными агентствами, но в качестве любительской записи в социальных сетях он может разойтись очень широко и вызвать общественный, политический или дипломатический скандал. Представьте, что на такой записи Трамп объявляет войну Северной Корее, например.

«Если кто-то похож на Трампа и говорит, как Трамп, корейцы подумают, что это и есть Трамп» — говорит Саксена.

«Мы уже видим, что люди верят смонтированным и отредактированным аудио и видеозаписям» — добавляет Дженкинс — «а у данной технологии есть потенциал, чтобы сделать ситуацию ещё хуже».

Источник:
 

amberlen

Креатор
Регистрация
21 Янв 2017
Сообщения
113
Реакции
482
Как распознать ботов

Боты - это программы, которые управляют фейковыми аккаунтами в соцсетях. При этом они имитируют поведение настоящих пользователей: подписываются на других юзеров, лайкают, репостят, оставляют под чужими постами заготовленные комментарии. Особенно много их в микроблоге Twitter - по некоторым данным, около трети всех аккаунтов.

Как работают сети ботов


Обычно боты работают вместе. В самой крупной из разоблаченных сетей было 350 тысяч фальшивых аккаунтов, которые постили случайные цитаты из "Звездных войн". Чаще всего боты распространяют рекламу. Они могут сообщать погоду или отвечать на вопросы клиентов на сайтах компаний. Но бывает, что эти программы используют в политических целях. Особенно активны они были в начале конфликта России и Украины, во время кризиса с беженцами в Германии, выборов президента США в 2016 году.

Взаимными лайками и перепостами они искусственно выводят в тренды заказные темы или хэштеги.

Например, в 2015-2016 годах в Германии с их помощью активно раскручивались посты и хештеги против беженцев. И хотя в соцсетях хватало и страниц в поддержку их приезда, без аналогичной помощи ботов они выглядели куда менее популярными. В итоге могло сложиться ложное впечатление, что большинство немцев - против, а особенной популярностью в стране пользуются партии, критикующие политику "открытых дверей".

Так боты могут влиять на общественное мнение. Они смещают акценты, раскручивают фейковые новости, дискредитируют определенные точки зрения, атакуют в интернете конкретных людей.

Как отличить бота от обычного интернет-пользователя

Однозначно определить бота довольно сложно - даже "верифицированные" соцсетью аккаунты (в "Твиттере", например, они отмечены голубой "галочкой") могут управляться ботом. Скорее, можно говорить о том, насколько высока вероятность, что перед вами бот. Для этого нужно внимательно изучить подозрительный профиль.

Чем меньше в нем личной информации, тем вероятнее, что это бот. Иногда боты используют имена, сгенерированные с помощью алгоритма: они выглядят как случайные комбинации букв и цифр. Бывает, что фотография профиля женская, а имя - мужское. Обратите внимание на подписчиков: часто у бота почти нет друзей, либо среди них - другие боты.

Что за фото стоит на аватарке? Боты крадут чужие снимки. Проверить, нет ли других аккаунтов с тем же фото, можно через обратный поиск по картинкам в Google.Картинки или Yandex.Images.

Другие признаки бота

Кроме того, бота может выдать ненормальная активность. Если пользователь зарегистрировался недавно и ежедневно постит по несколько сотен твитов, - это бот. По мнению исследователей из Оксфордского университета, бота выдают даже 50 твитов в день либо в принципе их одинаковое количество ежедневно.

Почитайте, что именно постит этот аккаунт? Одинаковые темы, тональность, ретвиты одних и тех же СМИ без личных комментариев характерны скорее для бота.

Надежнее всего понаблюдать за странным аккаунтом какое-то время. Если сомнений не осталось, сообщите о нем администраторам социальной сети - бота должны заблокировать.

Источник:
 
Сверху Снизу