Генеративные нейросети породят новое поколение фейков

Talamasca

Cherish your life.
Заслуженный
Местное время
20:34
Регистрация
6 Фев 2017
Сообщения
126,533
Репутация
1,210
Уровень
1
Награды
15
Пол
Женский
Распространение фальшивых новостей — это лишь первая волна фейкового контента, нашествие которого стоит ожидать в ближайшие годы. Генеративные нейросети (GAN) уже позволяют создавать видеоролики, на которых люди делают то, чего не делали, и говорят то, что никогда не говорили. Журнал The Economist объясняет, как устроен новый мультимедийный мир, в котором ничему нельзя доверять.

... Генеративные нейросети могут вывести фальшивые новости на новый уровень, в котором фейковые видеоролики и аудиодорожки нельзя будет отличить от настоящих. Принцип работы GAN-систем прост. Нейросети изучают статистические характеристики аудиозаписи, а затем воспроизводят их в другом контексте. При этом они улавливают изменения в речи с точностью до миллисекунды. Достаточно ввести текст, который нейросеть должна воспроизвести, и получится правдоподобное выступление, например, Трампа или другого политика. Хотя на самом деле никакого выступления не было.

В апреле канадский стартап Lyrebird опубликовал набор алгоритмов, которые могут сымитировать голос любого человека. Для обучения системе достаточно прослушать звуковой файл длиной не больше 1 минуты. Алгоритм не только имитирует голос, но и может добавлять нужную эмоциональную окраску. «Фотошоп» для речи также представила компания Adobe. Аудиоредактор вырезает произнесенные слова и вставляет на их место новые.

Генерирование изображений пока дается нейросетям сложнее. Даже после просмотра сотен картинок с собаками и кошками, нейросеть не может нарисовать убедительное вымышленное животное. Созданные ученым Яном Гудфеллоу GAN-системы изменили ситуацию. При запуске GAN одна нейросеть пытается обмануть другую, имитируя реальное изображение. Вторая нейросеть при этом контролирует процесс и сопоставляет генерированный контент с реальной базой изображений.

GAN уже удается по описанию составить довольно точный «фоторобот» птицы, хоть и небольшого размера. К тому же системы постоянно совершенствуются. По прогнозам Гудфеллоу, через три года YouTube заполнят фейковые ролики. Другие эксперты считают, что на налаживание процессов медиафальсификации уйдет больше времени, но рано или поздно это точно произойдет.

Программа Face2Face уже позволяет переносить движения, мимику и фразы любого пользователя на видеоролик с другим человеком. Разработчики, например, показали, как можно удаленно поменять выражение лица Трампа на видео с помощью ПО.

Со временем в арсенале каждого интернет-пользователя окажется устройство для верификации контента. Это может быть программа для изучения метаданных или система, которая исследует задний план фото или видео, сопоставляя местность с данными на Google Earth. Защититься от нашествия фейков поможет и шифрование.

https://hightech.fm/2017/07/07/fake_spread
 

Toreador

Elapidae
Заслуженный
Местное время
20:34
Регистрация
1 Янв 2016
Сообщения
191,406
Репутация
2,535
Уровень
2
Награды
20
Местоположение
Москва
Пол
Мужской
@Talamasca, хм... к этой же новости:

Искусственный интеллект изуродовал тысячи снимков котов

Исследователь Алексия Джоликер-Мартино (Alexia Jolicoeur-Martineau) запустила набор алгоритмов Meow Generator на основе технологий машинного обучения, который изуродовал тысячи фотографий котов. На это обратило внимание издание MotherBoard.
14926068.png

Девушка взяла базу из 10 тысячами фотографий котов и загрузила ее в антагонистическую сеть — искусственный интеллект на основе двух противопоставленных друг другу нейросетей. Одна из них анализирует загруженные в нее изображения и создает свои, а другая определяет, какие из картинок настоящие, а какие были смоделированы. Это процесс повторяется до тех пор, пока искусственный интеллект не научится полностью воссоздавать снимки животных.

В процессе работы нейросети исказили тысячи изображений котов, но через несколько часов научились относительно точно воспроизводить их.
 

Nikita

Лоботряс
Заслуженный
Местное время
20:34
Регистрация
7 Окт 2016
Сообщения
6,940
Репутация
0
Пол
Мужской
Робот вместо Кобейна: зачем искусственный интеллект учат писать стихи

Сотрудники "Яндекса" научили нейросеть сочинять стихи в стиле Курта Кобейна. Авторы проекта рассказали ТАСС, что это значит и зачем это нужно
[MEDIASERVICE]https://youtu.be/c759T8zOe5A[/MEDIASERVICE]
Алексей Тихонов и Иван Ямщиков учат нейросеть писать стихи в стиле культовых музыкантов, после чего кладут их на музыку и выпускают альбомы. Таким образом разработчики "Яндекса" пытаются определить возможности и творческий потенциал искусственного интеллекта. Впоследствии эти знания используются в разработке новых сервисов и продуктов.
Летом 2016 года Тихонов и Ямщиков выпустили альбом "404", созданный на основе написанных искусственным интеллектом песен в стиле Егора Летова.
Следующим этапом стало создание стихов на английском языке. Выбор пал на лидера группы Nirvana Курта Кобейна. Нейросеть сгенерировала стихи в его стиле, Иван Ямщиков написал к ним музыку, а исполнил песни американский вокалист Роб Кэролл.
Некоторые поклонники Nirvana отметили, что композиции получились очень похожи на оригинал. И в шутку попросили разработчиков научить нейросеть генерировать стихи других музыкантов, например, тех, кто давно не выпускал новый альбом.


http://tass.ru/kultura/4378052
 

Toreador

Elapidae
Заслуженный
Местное время
20:34
Регистрация
1 Янв 2016
Сообщения
191,406
Репутация
2,535
Уровень
2
Награды
20
Местоположение
Москва
Пол
Мужской
Российские ученые заставили нейросеть сомневаться по-человечески

МОСКВА, 23 мар — РИА Новости. Международный научный коллектив, в который входят ученые из Саратовского государственного технического университета имени Ю. А. Гагарина (СГТУ), создал искусственную нейронную сеть и смоделировал состояние неопределенности выбора в момент принятия мозгом решения. Статья об исследовании опубликована в журнале CHAOS Американского института физики.

1509556236.jpg


В последнее время искусственные нейронные сети стали мощным инструментом для исследования искусственного интеллекта и анализа данных. Их широко применяют в социальных науках, робототехнике и нейронауке для классификации, прогнозирования и распознавания образов.

В нейронауке они помогают классифицировать нейронные сигналы, обнаруживать патологическую активность мозга (например, при эпилепсии) и нейродегенеративные заболевания. Однако способность сетей классифицировать состояния, при которых "мозговые" неопределенности приводят к неопределенности выходных данных, пока еще изучена слабо.

Ученые из Саратова вместе с коллегами из Центра биомедицинских технологий Технического университета Мадрида решили эту задачу при помощи нейросети типа "многослойный персептрон", которая позволяет распознавать состояния, возникающие при восприятии неоднозначного визуального образа. Тип сети они выбрали в результате долгих испытаний на предмет эффективности работы с визуальными стимулами.

"Цель нашей работы — уловить определенное состояние в общей активности головного мозга, анализируя методами искусственного интеллекта и машинного обучения сигналы магнитоэнцефалограмм (МЭГ) — записи магнитной активности нейронных ансамблей мозга. Идя таким путем, мы смогли распознать и подробно охарактеризовать состояния неопределенности человеческого выбора в момент принятия мозгом решения. Более того, мы смогли точно измерить тот период времени, в течение которого человек колеблется и не может сделать выбор", — рассказал один из авторов исследования, заведующий кафедрой автоматизации, управления и мехатроники, руководитель Научно-образовательного центра "Системы искусственного интеллекта и нейротехнологии" СГТУ профессор Александр Храмов.

По его словам, выявить такие состояния мозговой активности традиционными методами (например, с помощью частотно-временного анализа) довольно сложно. Но искусственный интеллект оказался здесь весьма эффективен, поскольку способен показать неочевидные особенности сигналов.

МЭГ-сигналы записывали в ходе нейропсихологического эксперимента: восприятия оптической иллюзии, так называемого "куба Неккера". Участники эксперимента должны были сконцентрироваться на изображении и принять решение по его интерпретации, а к анализу записанных сигналов применялась ИНС. Обучающей выборкой для нее стали отрезки сигнала, соответствующие восприятию самых простых и однозначных изображений. В такие моменты у человека меньше трудностей с интерпретацией, чему соответствуют наиболее устойчивые паттерны его нейронной активности.

Затем уже обученная сеть проанализировала оставшиеся сигналы, соответствующие восприятию неоднозначных изображений. Оказалось, что при этом она многократно переключала отклик. Если интерпретировать это, как "сомнения" нейросети, то таким образом можно успешно отслеживать и сомнения живого человека в процессе выбора.

Эти данные помогут ученым создать искусственный интеллект, который в сложном случае остановится перед принятием решения, что позволит перейти в режим ожидания и накопить информацию. Можно представить себе марсоход, который в ситуации сомнений обращается за помощью к операторам на Земле. В этом случае искусственный интеллект марсохода должен включать нейросеть с точкой остановки, связанной с невозможностью совершить выбор — то есть с сомнениями.
 

Toreador

Elapidae
Заслуженный
Местное время
20:34
Регистрация
1 Янв 2016
Сообщения
191,406
Репутация
2,535
Уровень
2
Награды
20
Местоположение
Москва
Пол
Мужской
Нейросеть научили создавать лица несуществующих людей. Их не отличить от настоящих, и это пугает

Компания NVIDIA разработала алгоритм, который создаёт человеческие портреты, и лица, сгенерированные искусственным интеллектом, невозможно отличить от настоящих. Нейросеть также протестировали в создании фото интерьеров, автомобилей и котиков.

Разработчики NVIDIA создали алгоритм, который создаёт человеческие лица. Достичь пугающего сходства получилось благодаря работе генеративно-состязательной нейросети — одна её часть, основываясь на огромной фотобазе, рисовала портреты несуществующих людей, а вторая — проверяла, хорошо ли ей удаётся.

После тысяч испытаний получились очень реалистические фото. Компания даже проводила опрос, и люди не могли отличить подделку от настоящего фото. В добавок нейросеть умеет добавлять к основному изображению новый аспект — форму глаз, цвет кожи, выражения лица, тем самым, создавая ещё множество вариантов человеческих портретов, сообщает Tech Crunch.

[MEDIASERVICE]https://www.youtube.com/watch?v=o46fcRl2yxE&ab_channel=MorraPetr[/MEDIASERVICE]

Все фотографии на видео были созданы с помощью алгоритма. Ни одного из этих людей вы не встретите случайно на улице — их не существует в природе.
 

Архи

…And Justice for All
Заслуженный
Местное время
22:34
Регистрация
3 Июл 2019
Сообщения
12,469
Репутация
0
Награды
2
Пол
Мужской
Deepfake

Deepfake: как нейросети раздевают знаменитостей и сводят нас с ума — и чем это опасно

pimg-1166193.jpg


Разве есть на свете что-то более странное и столь наглядно описывающее наше безумное время, чем вот это видео?

[MEDIASERVICE]https://youtu.be/b5AWhh6MYCg[/MEDIASERVICE]
Оффтоп

На нем актриса Элисон Бри рассказывает что-то про рестлинг, но узнать даму можно разве что по голосу и изящному декольте — в остальном она вылитый Джим Керри с карэ. Для тех, кто отстал от жизни, поясняем. Это вовсе не магия и не фотошоп, а качественный deepfake — синтезированное видео, использующее в качестве основы лица разных людей, которые мастерски накладываются одно на другое продвинутой нейросетью.

Как работают нейросети, и что они умеют

Нейросеть — система процессоров, способных к обучению. Например, нам нужно, чтобы нейросеть различала часы и трусы. Для этого мы загружаем в систему здоровенный пак картинок с часами и трусами, которым система выдает соответствующие числовые значения. После этого оператор вручную корректирует значения для часов и трусов, тем самым «обучая» нейросеть. Через какое-то время система начинает хорошо различать одно от другого, а также распознает и «понимает» значения новых подобных картинок.

31-1024x683.jpg

Картина, нарисованная нейросетью

По тем же принципам нейросети отлично работают в медицине как системы диагностики, в бизнес-аналитике и даже в искусстве. Нейросети пишут стихи, сценарии, песни и рисуют картины, опираясь на огромные базы данных. Отличным примером является творчество группы «Нейронная оборона», тексты и музыку для которой пишет нейросеть, шарящая в творчестве Егора Летова возможно даже лучше, чем он сам когда-то.

А вот научно-фантастическая короткометражка, сценарий к которой написала нейросеть:

[MEDIASERVICE]https://youtu.be/LY7x2Ihqjmc[/MEDIASERVICE]

Нейросети посложнее работают с большим количеством алгоритмов. В 2014 году студентом Стэнфордского университета Яном Гудфеллоу была создана генеративно-состязательная нейросеть (GAN), один алгоритм которой обучается на фотографиях человека и создает из этого изображение, а второй — «борется» с ним, пока первый алгоритм не начинает путать копию и оригинал. Именно эта постоянно усложняющаяся нейросеть и рождает дипфейки (deepfake — образовано из сочетания deep learning, «глубинное обучение» и fake, «подделка»).

Дипфейк, созданный нейросетью к 115-летию со дня рождения Сальвадора Дали:

[MEDIASERVICE]https://youtu.be/mPtcU9VmIIE[/MEDIASERVICE]

Впервые нечто отдаленно напоминающее deepfake появилось в Сети еще на заре ее становления. Связано это было, разумеется, с сексом.

В те далекие годы, когда юзеры еще переходили по сомнительным рекламным баннерам с сообщениями вроде «Что? Да! Теперь ты можешь раздеть любую девушку, стоит только…». По ссылке похотливый пользователь либо скачивал себе какой-нибудь троян, либо переходил на сайт с откровенными картинками, демонстрирующими невероятные возможности его «умного алгоритма», который «всего за сто рублей может раздеть догола девушку на любой фотографии».

74-3-600x286.jpg

Все это выглядело примерно вот так

Радостный юзер высылал указанную сумму куда-то в неизвестность, закачивал на сайт снимок и чаще всего не получал ничего, а в лучшем случае ему показывали шаблон с обнаженным женским телом, к которому было коряво подставлено лицо девушки с фото. Иногда пользователь получал и нечто более удобоваримое, однако в этом случае речь уже шла о ручной обработке снимка в фотошопе под заказ — но это уже совсем другая история.

В 2017 году в сети начали всплывать новости о том, что некая нейросеть научилась заменять в порно лица актрис лицами голливудских звезд.

Старожилы немного напряглись — неужели опять речь идет о тех самых шаблонах? Однако выяснилось, что дело не в них, а в той самой нейросети GAN, которая теперь может дополнять адаптивным алгоритмом видео и заменять лицо героя (героини) на любое другое.

deepfake-geri-donuyor-cyclegan-1024x538.jpg


Первые попытки сделать порно со знаменитостями выглядели так себе (нечеткие края лиц и дерганная мимика), но через какое-то время видосы с той же Галь Гадот стали настолько реалистичными, что даже PornHub запретил публикации подобных роликов.

Именно тогда интернет и заговорил о дипфейках как о новой «чуме XXI века», от которой может пострадать не только репутация известных людей, но и мир в целом, поскольку с развитием алгоритмов нейросетей технология и ее внедрение в обиход будут лишь усложняться. А это значит, что в скором времени каждый из нас без особых проблем сможет примерять на себя лица других, а также в прямом смысле раздевать кого-угодно одним лишь тапом по смартфону — сплошное раздолье для мошенников и шантажистов всех мастей.

350529_vQDph8qhJS_1561585318157_gadot.jpg


В 2019 году в сети появилась реклама приложения DeepNude, способного с помощью нейросети раздеть кого угодно.

Тут старожилы не просто напряглись, а чуть не выли от радости — теперь-то им точно удастся нормально раздеть не только любимую знаменитость, но и соседку. И приложение явно не разочаровало — нейросеть настолько ловко и удачно подбирала тон кожи, линии округлостей и даже цвет сосков, что на сайт с программой в день старта прибежала целая толпа народа, алчущая цифровой обнаженки.

В итоге похотливые юзеры просто уронили сайт, а может быть это сами создатели прикрыли лавочку, когда на их сомнительную нейросеть обратили внимание СМИ — здесь мнения разнятся. Но через несколько дней после открытия твиттер DeepNude разразился тирадой о закрытии проекта и о том, что «мир к нему еще не готов»:

D-FlHpGXsAI5WnP


В любом случае «провернуть фарш назад» было уже нельзя. Соцсети взорвались возмущенными постами о объективации женщин, посягательстве на частную жизнь и прочих нехороших вещах, которыми нейросеть DeepNude могла нарушить тихий быт женщин планеты — а ведь твиттере разработчики в свое время обещали еще и за мужчин взяться.

Все почувствовали себя крайне уязвимыми перед нейросетью, которую журнал Vice назвал «ужасающей», а сеть потихоньку заполнилась вот такими фотографиями (действительно ли это работа DeepNude или потрудились мастера фотошопа — неизвестно):

350528_xpGdYn3FkK_1561585213934_tyra.jpg


350527_Xu3hLcdoNL_1561585377765_swift.jpg


350526_gRBzeuyVPk_1561585273913_natalie.jpg


350525_sDlKZrrkYb_1561585350176_kim2.jpg

Чем же опасны дипфейки помимо того, что они всех подряд «раздевают»?

А опасность в том, что помимо репутационных потерь люди рискуют в скором будущем очутиться в мире, где любая информация может быть подделкой. Не будет доверия ни к самым правдоподобным видеозаписям, ни к изображениям, ведь все это может оказаться результатом работы продвинутой нейросети, управляемой откуда-то извне.

czkz1vu0g0k31.png

А еще нейросети смогут распознавать наши
лица даже с фотографий в низком качестве, так что укрыться от
них не получится


Качественные дипфейки станут серьезнейшими рычагами не только для мошенничества, шпионажа и вымогательства, но и для манипуляции общественным сознанием, и это не просто выкрик параноика — еще в прошлом году военные компании из США оплатили целую кучу опытов по созданию дипфейков и распознаванию работы новейших ИИ. Так что не спешите убирать шапочки из фольги — в ближайшем будущем они могут понадобиться.

Однако, несмотря на всю опасность, у дипфейков есть и плюсы. Да, какие-то из этих роликов выходят за грань дозволенного, но сегодня их подавляющее количество в Сети — всего лишь безобидные, по-хорошему отбитые и смешные видосы про то, как кому-то приклеили лицо Николаса Кейджа или Арнольда Шварценеггера. Только представьте возможность использования дипфейков в кино и пародиях — там их перспективы реально безграничны.

Отечественный дипфейк, в котором у «Ангелов Чарли» лица Михаила Ефремова:
[MEDIASERVICE]https://youtu.be/-QrLiwLK2NY[/MEDIASERVICE]

P.S. А еще совсем скоро у заснятых в неположенных местах и пикантных позах мужчин и женщин может появиться новая отмазка, что это не они ходили «налево», а какой-то злодей попросту подставил их, применив нейросети против порядочных людей. Воистину, это киберпанк, который мы заслужили.

источник
 

Toreador

Elapidae
Заслуженный
Местное время
20:34
Регистрация
1 Янв 2016
Сообщения
191,406
Репутация
2,535
Уровень
2
Награды
20
Местоположение
Москва
Пол
Мужской
А опасность в том, что помимо репутационных потерь люди рискуют в скором будущем очутиться в мире, где любая информация может быть подделкой. Не будет доверия ни к самым правдоподобным видеозаписям, ни к изображениям, ведь все это может оказаться результатом работы продвинутой нейросети, управляемой откуда-то извне.
И уже не такое большое, а будет совсем весело...
Однажды окажется, что без тебя тебя женили.::D:
 

Архи

…And Justice for All
Заслуженный
Местное время
22:34
Регистрация
3 Июл 2019
Сообщения
12,469
Репутация
0
Награды
2
Пол
Мужской
Однажды окажется, что без тебя тебя женили.

@Toreador, и на алименты подали.
Ребята, нейросеть может вернуть нам Элвиса и М.Монро.
Как там в Библии: [COPYRIGHT]...ибо вострубит, и мертвые воскреснут нетленными, а мы изменимся. [/COPYRIGHT] :shok:

[COPYRIGHT]Это грандиозно! Нет, это больше чем грандиозно... А что больше чем грандиозно?[/COPYRIGHT] (Фиби Буффе)
:d_coffee:
 

Talamasca

Cherish your life.
Заслуженный
Местное время
20:34
Регистрация
6 Фев 2017
Сообщения
126,533
Репутация
1,210
Уровень
1
Награды
15
Пол
Женский
@Архи, но это будут не они... и обрадуются ли живые актеры и певцы, что их так просто заменить?:smile:
 

Toreador

Elapidae
Заслуженный
Местное время
20:34
Регистрация
1 Янв 2016
Сообщения
191,406
Репутация
2,535
Уровень
2
Награды
20
Местоположение
Москва
Пол
Мужской
Ребята, нейросеть может вернуть нам Элвиса и М.Монро.
Как там в Библии: ...ибо вострубит, и мертвые воскреснут нетленными, а мы изменимся.
И мы узнаем много новых подробностей из их жизни....:nea_b:
 

Архи

…And Justice for All
Заслуженный
Местное время
22:34
Регистрация
3 Июл 2019
Сообщения
12,469
Репутация
0
Награды
2
Пол
Мужской
@Архи, но это будут не они...
Но никто всё-равно не знает какие они, когда остаются одни, когда их никто не видит.

и обрадуются ли живые актеры и певцы, что их так просто заменить?
Живые наверное будут давать свое согласие, подписывать какой-то контракт. Их отсканируют со всех сторон, снимут копию мозга и оцифруют. Будут как настоящие и вечно молодые.
Может нами тоже управляет нейросеть, мы же не знаем. То, что мы называем Богом и душой, это всё может быть нейросеть. Скорее всего.
 

Утренний сон

Совушка
Заслуженный
Местное время
20:34
Регистрация
31 Мар 2021
Сообщения
6,763
Репутация
40
Пол
Женский
Дипфейки можно отличить от реальных фото по зрачкам: это легко проверить со смартфона

Группа исследователей из университета Нью-Йорка нашла общий недостаток в лицах, которые сгенерированы компьютером: проблема в форме зрачка.
В интернете за последние пару лет появилось большое количество фейковых фотографий и видео с разными людьми, которые делают то, чего не происходило в реальной жизни. Также компьютеры научились генерировать лица людей, которых на самом деле никогда не существовало.

Такие фотографии начали появляться в поддельных профилях пользователей социальных сетей: подобные аккаунты притворяются реальными людьми, чтобы заниматься вымогательством и другими видами обмана в интернете.

Искусственные лица делают с помощью GAN — это нейронная сеть, которая обучается на изображениях людей, а потом на основе них генерирует свои. Потом сгенерированное лицо отправляют в другую нейронную сеть, которая пытается определить, настоящее оно или поддельное. Те, что посчитали поддельными, отправляют обратно на доработку.

Этот процесс продолжается несколько раз, в результате изображение становятся все более реалистичным. Но авторы новой работы отмечают, что такая обработка все равно не идеальна. Исследователи выяснили, что многие GAN обычно создают менее круглые зрачки. По таким необычным глазам можно понять, перед тобой реальный человек или сгенерированная картинка.

Авторы отмечают, что обычные пользователи могут просто увеличить изображение глаз человека, чтобы понять, если ли неровности на зрачке или нет. Также на основе этой особенности можно делать ПО, чтобы фильтровать фотографии в социальных сетях.

a-way-to-spot-computer-1.jpg

https://hightech.fm/2021/09/10/computer-generated/amp
 

Marvin

Продвинутый
Заслуженный
Местное время
20:34
Регистрация
31 Янв 2020
Сообщения
11,746
Репутация
406
Награды
2
Местоположение
Минск
Пол
Мужской
Дипфейки можно отличить от реальных фото по зрачкам: это легко проверить со смартфона

Это тоже поправят. А вообще, если задуматься, очень многое изменилось за три года с создания темы и мем "не важно, как было, важно как покажет CNN" уже не такой нерушимый.
 

Создайте учетную запись или войдите в систему, чтобы комментировать

Вы должны быть участником, чтобы оставить комментарий

Создать аккаунт

Создайте учетную запись в нашем сообществе. Это просто!

Авторизоваться

У вас уже есть учетная запись? Войдите в систему здесь.

Верх Низ