Автор Опубликовано: 28.01.2025Просмотры: 390

Дипфейки. Насколько опасно это явление?

Встреча состоялась 06.12.2024, авторизация текста – январь 2025
Участвуют:
Кирилл Зендриков

Кирилл Зендриков

Директор департамента информационного, методического и экспертного сопровождения ФРИИ, формировал ТЗ на обсуждаемое исследование

Игорь Вениаминович Задорин

Игорь Задорин

основатель и руководитель Исследовательской группы ЦИРКОН

Сергей Давыдов

Сергей Давыдов

ведущий специалист-исследователь Исследовательской группы ЦИРКОН

Анастасия Сапонова

Анастасия Сапонова

заместитель руководителя Исследовательской группы ЦИРКОН

Сергей Алимбеков

Сергей Алимбеков

заместитель Директора ФРИИ

Сергей Алимбеков: Сегодня мы собрались на площадке ФРИИ, и наше мероприятие носит экспертный характер. Мы реализуем совместно с Министерством цифрового развития РФ программу «Акселератор спринт», в рамках которой мы помогаем ускорять развитие IT-стартапам по запросу государства и проводим ряд исследований, помогающих стартапам развиваться и позволяющих нам лучше понимать ту экосистему, где мы живем, действуем и работаем. Мы давно уже исследуем наше окружение, и поэтому любая наша деятельность сопровождается деятельностью исследовательской, мы ее также иногда называем экосистемной деятельностью, чтобы лучше понимать, где, как и с чем мы работаем, и как следствие, улучшать условия нашего окружения.

Сегодня мы поговорим об одном из таких исследований.

Игорь Вениаминович Задорин наш ключевой спикер, поскольку его команда проводила исследование, тема которого «Дипфейки: риски и возможности для бизнеса». И мы сегодня обсуждаем эту тему потому, что та область деятельности проектов, которые мы акселерируем, носит название «Новые коммуникационные интернет-технологии». И раз уж мы эту область исследуем, то дипфейки как феномен, который относительно недавно возник, является составной частью этой области. Есть стартапы, которые генерируют дипфейки, есть стартапы, которые анализируют дипфейки и пытаются показать, что это такое, и как от них избавляться. Возникает целый комплекс деятельностей вокруг этого процесса, и естественно, мы не могли обойти его вниманием.

Кирилл Зендриков: Я сделаю небольшое философическое введение и задеру градус абстракции, чтобы не обсуждать конкретные кейсы: кто и как кого скомпрометировал с помощью дипфейковых технологий, а зайдем от абстрактного к конкретному. И начну я с такой банальности, что с какого-то момента мы с вами живем в изменившейся реальности. Цифровой мир существует как отдельная реальность, данная нам в измерениях, ощущениях, взаимодействиях, и начиная с какого-то момента, каждый объект реального мира обретает свою представленность в цифровом мире, начинает оставлять там следы, которые называются данными. Этот цифрой мир уже настолько глубоко проник в нашу жизнь и взаимодействует с нами – что самое удивительное и странное – что мы уже не можем говорить, какой из этих двух миров первичен. Что является отражением чего?

Например, мы можем посмотреть, что такая сущность как авиабилет в цифровом мире существует как оригинал, а в реальном мире – она существует в виде многочисленных копий и распечаток. Квантор, или метка  того что есть  реальность начинает куда-то смещаться. Граница между реальным и виртуальным размывается.

И здесь с нашей точки зрения важным моментом является то, что все процессы нам теперь приходится рассматривать в связке физического  и цифрового миров.

У этого явления есть несколько интересных феноменов и следствий. Во-первых, размывание самого понятия реальности, настолько, что мы уже не можем сказать, какой мир является отражением, двойником, а как – оригиналом

Во-вторых, самые разные процессы, в том числе и коммуникационные, начинают переноситься в цифровой мир, и ответ на вопрос: может ли человек отличить сущность реального объекта, пришедшего к нему через цифровой мир, от сгенерированного объекта, не вполне очевиден. Степень достоверность цифровых систем настолько высока, что органы чувств и личный опыт начинают отказывать.

Цифровой мир резко ускоряет систему социальных коммуникаций и взаимодействий, и что самое главное, порождает новые социальные практики. Если заглянуть немного в историю, то можно увидеть любопытный эффект: смена носителя информации часто сопровождается различными – в том числе и драматичными – социальными событиями. Возьмем в качестве примера смену носителя о стоимости денег. Переход от металлических денег, где стоимость монет определялась металлом и его весом, к медным, а затем и бумажным деньгам, на которых указан тот же номинал, но материал из которого они сделаны особой ценности не имеет, приводил к «медным бунтам», и инфляции,  а затем и к появлению новых социальных институтов, таких как валютные биржи, оценивавшие деньги разных стран не по весу, а по какому-то другому свойству, стоящему за ними.

И каждый такой исторический сдвиг сильно меняет социальные практики. Поэтому мы и обращаемся к нашим коллегам социологам, которые про социальные практики понимают, знают, умеют изучать и могут про это рассказывать.

Если от этой моей общей конструкции перейти к теме дипфейков, то я бы зафиксировал несколько фундаментальных вещей.

Во-первых, дипфейки как сущности возникают в рамках коммуникационных процессов. То есть, когда у нас есть два человека, и один другому пытается передать какое-то сообщение, другой в то же время – это сообщение получает. И эти сообщения – отправленное и полученное – не тождественны. Психологи, изучающие процессы коммуникации давно фиксируют эту нетождественность. Но если эти сообщения начинают перемещаться через цифровой мир через три процесса: оцифровки (забрасывания в цифровй мир), преобразования и воспроизведения (возвращения из цифрового мира обратно), то эта нетождественность становится фактом, который надо понимать, принимать и закладывать в базовую конструкцию.

Соответственно, здесь мы видим три точки, где может происходить искажение и влияние на возникновение дополнительной нетождественности: на этапе оцифровки, на этапе преобразования и хранения и на этапе воспроизведения. Эти области весьма подходят для фальсификаций и творчества хороших и не очень людей..

Когда мы начали изучать это тему и смотреть, можно ли здесь найти подходы к решению этой задачи, мы столкнулись с еще одной иллюстрацией старого принципа, что любая сложная проблема имеет простое, понятное и неправильное решение.

Если у нас возникают дипфейки, то давайте мы найдем некое техническое средство, которое будет их определять, например,  по количеству пальцев, по дополнительным признакам, по наличию фоновых шумов и следов от фотографической матрицы. Но как только находится такой алгоритм выявления дипфейков, тут же находится следующий алгоритм и способ обработки, который эту схему ломает.

В частности, если мы говорим о пункте 1, то развитие цифровой вычислительной фотографии делает неотличимыми сгенерированные имиджи от тщательно обработанных реальных фотографий. Современные фотокамеры уже при фотографировании реального объекта включают в себя такое количество постобработки, что идентифицирующая программа сразу считает это изображение фейковым.

То же самое касается и передачи. Но вот с воспроизведением – немного сложнее.

Как же быть? Что делать?

И тут нам вспомнилась старая история, натолкнувшая на интересное соображение. Когда мы начали разбираться в том, кто больше всего страдает от возникновения дипфейков, то увидели, что есть такая область человеческой деятельности как судебная система, где, казалось бы, появление дипфейков, фальсификаций в фото и видео доказательствах должно было следователей и судей напугать, поскольку как же им теперь правду устанавливать?
Однако обнаружилось, что они вообще не напрягаются по поводу этой проблемы. Как так? Оказывается, все очень просто, ведь юриспруденция и суд как социальная практика сложилась еще 2000 лет назад, когда единственным инструментом и единственным материалом, на основе которого судья должен был принять решение, являются свидетельские показания. А люди всегда врут. И в этом смысле судебная технология была построена на том, что любая информация и любое утверждение могут быть недостоверными. В какой-то краткий исторический период у этой системы появилась  подпорка в виде фотографий и видео, которым можно было доверять, а теперь эта подпорка исчезла. Ну и ладно, у юристов и без того есть много интересных наработок.

Поэтому поиск решения проблемы фальсификаций и дипфейков заключается не только в технологических решениях, но и в разработке новых или анализе и масштабировании естественно сложившихся социальных практик, которые как-то помогают людям со всем этим бороться живя в двух слоях – цифровом и реальном
Мы потому и обратились к уважаемым социологам с просьбой помочь нам разобраться и задали им три вопроса:

  1. Какие подходы к решению проблемы дипфейков рассматриваются и применяются в России и мире, и как с этим работать?
  2. Какие новые социальные практики возникли или возникают для решения проблемы дипфейков?
  3. Какие новые инструменты, сервисы и инфраструктуры могут быть востребованы в этих практиках, чтобы эти практики реализовались? Что это будет: измеритель лжи, правдофон или еще какая-нибудь удивительная штука, которую можно было бы запустить нашим стартапам и начать продавать?

Если это реальная боль, если на самом деле эта проблема многих волнует, то люди будут готовы заплатить за нее денег. Ведь ответ на чью-то боль – это всегда чей-то успешный бизнес.

На этом я свою теоретическую вводную часть заканчиваю и предаю слово коллегам, которые расскажут, что они в этой области нарыли.

Игорь Задорин: Прежде всего хотелось бы, конечно, сказать, что предложение провести такое исследование легло на благодарную почву, потому что Исследовательская группа ЦИРКОН уже давно занимается вопросами исследования новых социальных практик, которые возникают, когда мир меняется. В 2009 году мы по заказу Минцифры (тогда еще Минкомсвязи) начали большой мониторинг по медиаграмотности. Первый вызов касался того, что теперь наши граждане находятся в серьезном, насыщенном и богатом разнообразным контентом медиапространстве. И с этим пространством надо не просто сосуществовать, надо работать, взаимодействовать, а не все это могут.

Поэтому и возник такой концепт, как медиаграмотность, и, соответственно, его надо было изучать и разрабатывать рекомендации по развитию.

Надо сказать, что были проведены довольно большие измерения, причем в регулярном режиме 5 лет каждый год, и рекомендации были разработаны, но как-то не сильно это все зашло в Министерство, и там отказались от дальнейших работ по медиаграмотности. Зато предложили измерять цифровую грамотность, потому что мир изменился, и теперь человек все чаще и чаще находится в том самом цифровом мире, о котором говорит Кирилл Юрьевич, а навыков обращения с этим миром опять же нет. Надо посмотреть, как наши граждане относятся к этому миру и могут ли они в нем грамотно существовать.

Тогда мы провели несколько исследований по цифровой грамотности. Какие-то движения после этих исследований были инициированы, и, надо признать, что какое-то повышение уровня владения цифровыми устройствами и навыками обращения с цифровой реальностью, плюс общения с цифровыми субъектами и контрагентами произошло.

Но мир не дает нам скучать, возникли новые вызовы и новые угрозы, которые опять же подвигают нас к необходимости исследования и изучения того, насколько наше общество и люди готовы к восприятию и столкновению с новой реальностью, которая порождена в том числе и искусственным интеллектом.

Исследование, которое было заказано Фондом развития интернет-инициатив, касалось не просто дипфейков, а того, что называется «недобросовестным использованием ИИ и соответствующих технологий на его базе, которые позволяют производить новые реальности».

Понятно, что сейчас далеко не все готовы сосуществовать с этой реальностью. В некотором смысле очень многие граждане поставлены в тупик. Скажу сразу, это исследование – даже не первый подход к снаряду, а скорее предварительный пилот. Мы изначально говорили о том, что необходимо разворачивать не только исследования, но и одновременно – большую программу по обучению и подготовке наших граждан к цифровой гигиене. А цифровая гигиена – это новое понятие – она включает в себя не только цифровую грамотность, не только способность распознавать разного рода угрозы и фейки и критически относиться к поступающей информации, но и правильным образом предупреждать их появление, равно как и предупреждать транзакции с мошенниками и фейковыми объектами.

Эта цифровая гигиена, конечно, весьма обширная область исследований, и ею надо, безусловно, заниматься. В данном случае мы непосредственно на общество как на объект исследования пока не выходили, но попробовали посмотреть, что уже делается за рубежом, что описывается в литературе, и сделали небольшой опрос экспертов, то есть тех людей, которые уже хорошо понимают и представляют возможные риски и соответствующие способы их минимизации.

На слайде представлены основные цели и задачи исследования. И тут я передам слово Сергею Геннадьевичу – главному актору этого проекта.

Сергей Давыдов: Когда нам была поставлена задача, мы сначала пришли в ужас от угроз, которые дипфейки несут человечеству, но потом начали вспоминать предшествующий опыт, и немного упокоились. Меня лично успокоили две вещи:

  1. Теория Маршала Маклюэна, который говорил: «The medium is the message». Это высказывание можно понимать в том смысле, что любое новое медиа, – а медиа – это не только телевидение, радио и интернет, но и, например, одежда, и деньги, – является вызовом для общества и сообществ, и людям необходимо каким-то образом адаптироваться к меняющимся условиям. Судя по тому, сколько всяких медиа появлялось в истории, а человечество все же не вымерло и даже не испытало большого ущерба, то мы и дипфейки, наверное, тоже преодолеем.
  2. Исследование, в котором я участвовал восемь лет назад, и там был такой сценарий: из различных публикаций были собраны стейтменты, описывающие возможные угрозы от медиа в целом. Чего они только не несут человечеству: и информационное выгорание из-за роста объемов информации, и разного рода опасения, что медиа нас научат плохому и пр. – в сумме 36 утверждений. И этот список был передан вузовским и школьным преподавателям, которые должны были эти угрозы ранжировать: на что надо обращать внимание, а что – не так важно. И результатом этого исследования стал очень простой вывод: все, что было нами перечислено, по единодушному мнению референтной группы не является угрозой.

Вместо этого преподаватели назвали две вещи, которые реальны и значимы:

  1. Пропаганда и политическое давление.
  2. Коммерческое и рекламное давление, навязывание потребительских стереотипов.

Принимая во внимание эти соображения, мы и взялись за тему дипфейков.

Сам по себе термин «дипфейк» непрост, и относиться к нему надо настороженно, поскольку под этим словом понимаются две разные вещи: метод обработки данных и собственно медиаконтент, полученный с применением этого метода. В чем тут опасность? Само слово «фейк», которое заложено внутрь термина, предполагает обман, «утку» и какие-то нехорошие намерения. У этого есть история: считается, что само слово «дипфейк» появилось в Snapchat в связи с тем, что некие умельцы делали порнографический контент с заменой людей, публиковали его и называли все это дипфейками. Но обработка сама по себе не обязательно влечет за собой неправомерное обманное использование. Использование технологий может быть вполне добросовестным и не несущим за собой никаких угроз и негативного влияния. Это первое, что мы увидели, когда начали свой анализ.

Дальше мы представили историю дипфейков по мере ее разворачивания. История эта не очень продолжительна – всего около 15 лет, – но, тем не менее, технология уже прошла определенные фазы. Началось все в период с 2010 по 2013 годы, когда самих дипфейков еще не было, но уже существовали определенные технологии, которые заложили фундамент для более сложных моделей, появившихся позднее.

2014 – 2015 годы – это время появления в недрах Стэнфордского университета концепции так называемых GANs (Generative Adversarial Networks), благодаря которой создание дипфейков – как замена лиц – стало возможным и в дальнейшем получило развитие.

2016 – 2017 годы – это время развития синтетического аудиоконтента. В частности, в 2016 г. такую технологию предcтавил Google.

2017 – 2018 годы –период, когда дипфейки популяризируются и выходят на массовую аудиторию. В частности, появилось приложение под названием FakeApp, которое можно было свободно скачать, позволявшее создавать видео с заменой лиц. Это была игрушка с низким качеством изображения, но, тем не менее, достаточно популярная, показавшая, что такое – возможно. Научили пользователей плохому, что называется.

2019 – 2021 годы – это, с одной стороны, дальнейшее расширение сферы применения дипфейков, с другой стороны, – массовая интеграция в различные сферы использования. Здесь появляется много новых инструментов.

Ну, и период, начиная с 2022 года по настоящий момент, мы обозначили его как взрывной рост использования дипфейков, и появление тех социальных вызовов, которые нам приходится анализировать.

Дипфейки используются в совершенно разных сферах, и это не только обманные технологии, а, например, индустрия развлечений, маркетинг и реклама. В качестве иллюстрации можно вспонить приведем известный кейс, когда американский актер Брюс Уиллис снялся в российской рекламе, но снялся не сам, потому что болен и уже не может работать на съемочной площадке, но предоставил возможность использовать свой образ. И такие варианты становятся все более широко используемыми и не вызывают ни у кого никаких вопросов и претензий.

Также финансовая сфера, где идентификация человека по изображению лица является важным инструментом допуска к финансовой информации и управлению финансами. Здесь важно идентифицировать различные образы одного человека, чтобы, например, старение со временем не влияло на работу этих технологий. С другой стороны, элементы сгенерированного искусственного контента должны фиксироваться этими системами.

Государственно-политическая сфера – самая скользкая. На иллюстрации мы видим, как повязали Трампа, чего на самом деле никогда не было. Подобного рода кейсов достаточно много. Недавние выборы в США подарили нам несколько таких примеров. В одном из штатов осуществлялся обзвон избирателей от имени Байдена с просьбой не ходить на голосование, чего, естественно, Байден не предлагал. На раннем этапе обман был раскрыт, но при этом широко обсуждался, информационная волна от него была.

Каким образом можно бороться с недобросовестным использованием дипфейков?

Сейчас я зафиксирую три направления этой работы, а дальше коллеги расскажут подробнее.

  1. Ограничение производства дипфейков. Делать инструменты, которые могут быть использованы для этого, недоступными. Не выкладывать их на платформы, запрещать, блокировать, наказывать, если у кого-то такие инструменты будут выявлены, и т.д.
  2. Минимизация распространения дипфейков. Блокирование контента социальных медиа – там, где дипфейки могут появляться и появляются, обязать эти платформы подобный контент отслеживать, сканировать и запрещать, применяя санкции по отношению к тем пользователям, которые все это размещают и распространяют.
  3. Развитие цифровой гигиены. Когда мы не смогли ограничить производство и распространение, и дипфейки все-таки попадают к конечной аудитории. И здесь пользователи должны сами распознать обман и защититься от потребления нечистоплотного контента: повязанного Трампа, говорящего ерунду Байдена или соседа, который якобы попал в аварию и просит финансовой помощи. Надо научиться понимать, что все эти «люди» не вполне реальны, и на самом деле все было не так, или не совсем так, как виртуальная реальность пытается нам представить.

Я передаю слово Анастасии Сапоновой, поскольку дальше речь пойдет о правилах цифровой гигиены, которыми конечные пользователи должны руководствоваться.

Анастасия Сапонова: Пока Сергей Геннадьевич говорил, я увидела, сколько улыбок вызвали те забавные случаи, которые он приводил в качестве примера. У нас уже такое скептическое отношение к цифровой гигиене сложилось, и об этом говорят эксперты, но об этом чуть позже. А пока давайте поговорим о том, что же такое цифровая гигиена, и как мы ее понимаем.

Мы дали себе базовое определение, что цифровая гигиена – это некоторый набор навыков, который позволяет избегать рисков в цифровой среде. Можно долго говорить о том, как цифровая гигиена соотносится с цифровой грамотностью, но лучше это отнести на дискуссию после презентации.

В целом, существует огромное количество литературы и рекомендаций по тому, как относиться к источнику информации критически, как хранить пароли, как защищать свои данные, стараясь ничего не выкладывать в открытом доступе. Сюда же относятся и другие пункты, которые можно увидеть на слайде: осторожность в сети и цифровое благополучие. Есть даже книжка «Цифровая гигиена» Игоря Ашманова и Натальи Касперской, советую всем прочитать.

В рамках цифровой гигиены можно выделить 3 уровня:

  1. Уровень индивида, который в рамках данного исследования нам наиболее интересен, и мы его будем обсуждать дальше,
  2. Уровень организаций, что уже больше связано с кибербезопасностью,
  3. Уровень регулирующих органов

На каждом из этих уровней могут приниматься определенные решения, которые позволяли бы соблюдать цифровую гигиену и определенным образом избегать потенциальных рисков в цифровой среде.

В чем же проблема с индивидуальным уровнем?

Первая же рекомендация – критическое отношение к незнакомым источникам (в т.ч. по отношению к дипфейкам) – уже не работает. Нам нужно критически относиться не только к незнакомым источникам, но и к знакомым тоже, потому что часть мошеннических схем с дипфейками работает именно на близких социальных связях.

Остальные пункты тоже можно и нужно пересматривать. Эти правила носят общий универсальный характер, и эта универсальность во многом провоцирует необязательность их исполнения. Если мы будем критически ко всему относиться и не хранить пароли нигде, кроме как в голове, то сложно себе представить, как это совместить с нашей жизнедеятельностью.

Когда мы говорим конкретно о том, что можно поменять в этих универсальных правилах, которые, конечно же, логичны, но с жизнью не всегда соотносятся?

Тут можно выделить три экспертные точки зрения.

Первые эксперты говорят, что уровень угроз еще не настолько критичен, чтобы бить тревогу. Да, отдельные люди попадаются и некоторые обманутые переводят деньги мошенникам, да, появляются фейковые сообщения, а еще кому-то кирпич на голову падает… То есть, все это происходит, но бить в колокола еще рано.

Есть вторая точка зрения, которая говорит о том, что уже стоит пересмотреть некоторые прикладные правила и проводить более интенсивную разъяснительную работу и знакомить пользователей с технологиями дипфейков. Один из наших экспертов, например, проводит обучающие семинары, которые построены в таком формате, что слушатели обучаются создавать дипфейки, исходя из позиции, что лучший способ научиться распознавать дипфейки – это научиться их самому создавать и тем самым минимизировать риск от столкновения с подобным контентом в сети.

Есть и третья, более радикальная позиция, которая, по сути, подрывает основу цифровой гигиены и говорит о том, что мы уже не можем верить своим глазам и ушам, и нам нужны некоторые прорывные технологии от бизнеса, помогающего нам соблюдать цифровую гигиену [основанную на тотальном недоверии всему].

Эксперты рассказали про те технологические решения, которые приурочены к каждой из областей основных правил цифровой гигиены, выведенных нами. Конечно, некоторые из них, такие как антивирусные программы, существуют уже давно. Некоторые существуют только на уровне прототипов, как приложения-скафандры – мы потом назвали их цифровыми телохранителями, – которые будут сканировать угрозы и уведомлять нас о них.

Уровень проработанности каждого технологического решения сильно разный, но, как мне кажется, здесь есть довольно перспективные направления, например, с персонализированными ассистентами на базе ИИ, которые сканируют телефонные разговоры (конечно же, без записи звонка) и подсказывают, что диалог, который происходит, мы ведем с мошенником.

Другой пример – программы, которые маркируют подозрительные ссылки.

Почему-то, когда мы говорим о дипфейках, в публичном пространстве звучат такие идеи, что, мол, надо развивать приложения, позволяющие определить сгенерировано ли видео, или нет. Но на данный момент эти технологии не работают, и наши эксперты, кстати, фактически не говорили о подобных приложениях как о каком-то потенциальном решении. Точность этих приложений от 28% до 86%, и вообще они – идеальная база для обучения искусственного интеллекта, который дипфейки создает. Пытаясь бороться с дипфейками, мы, с другой стороны, стимулируем их развитие.

Также активно обсуждается маркировка синтетического контента. Некоторые эксперты, критикуя эту идею, высказывают абсолютно альтернативную: маркировать надо не то, что производится ИИ как фейки, а добросовестный контент, производимый физическим лицом. И действительно, как мы можем заставить мошенников маркировать свою продукцию?

У нас ведь даже есть технологии, которые работают, например, ЭЦП – электронная цифровая подпись, – которую можно использовать не только для документов, но и вообще при создании любого контента. Если какой-то контент подписан авторизованным лицом, мы знаем, кому предъявлять претензию.

Суммируя те технологические решения, о которых я говорила ранее, можно выделить три основных типа программного обеспечения:

  1. Цифровой нотариус, помогающий удостоверять подлинность. И такие программы уже есть, и они перечислены в нашей брошюре, которую мы сегодня представляем. В ней мы собрали целый список различных технологических решений, существующих на данный момент.
  2. Цифровой телохранитель, регулярно сканирующий информационное пространство и подсказывающий имеются ли в каждом конкретном случае какие-то опасности, или нет.
  3. Цифровой советник – это те технологии, к которым можно обращаться по случаю, ad hoc, и проверять с определенной долей вероятности, которая, как мы надеемся, в будущем будет увеличиваться, и даже уже самостоятельно принимать решение о том, доверять ли контенту, или не доверять.

Игорь Задорин: И вот те гипотезы, которые были озвучены коллегами, мы попробовали проверить в рамках экспертного опроса. Надо сразу сказать, что мы получили неожиданно хороший и приятный отклик, потому что за очень короткое время на наше предложение заполнить коротенькую анкету отозвались 33 специалиста в области интернет-продукции, которые заняты искусственным контентом разного рода: от мультипликации до социологии цифровой грамотности.

Мы задавали немного вопросов. И прежде всего это, конечно, вопрос об остроте угроз – насколько эта проблема воспринимается как реальная опасность.

И даже по простой шкале от 0 до 3 уже обнаружилась некая дифференциация. Заметим, то, чего опасался Кирилл Юрьевич по поводу дискредитации судопроизводства, с точки зрения экспертов «не страшно». Так же не страшна и манипуляция рынками и «дискредитация демократических институтов». Поскольку в судах все время врали и врут, на рынках тоже все время врали и врут, ну, и демократические институты во время выборов также где-то врали и врут. То есть все к этому давно привыкли. Эти угрозы в нашем исследовании получили минимальные оценки остроты.

А что действительно вызывает серьезные опасения? – Все, что связано с военно-политической сферой. Эксперты действительно увидели серьезную опасность в манипулировании даже не массовым сознанием, а сознанием лиц, принимающих решения. Кстати, специалисты по информационным войнам как раз и говорят о том, что есть большая разница между тем, что называется информационной войной, ориентированной на массовую пропаганду и продвижение определенных месседжей-установок в массовой аудитории, и специальными информационными операциями, которые направлены на искажение восприятия реальности лицами, принимающими решения.

Наши эксперты отреагировали на этот пункт довольно адекватно, разглядев в этом самые главные угрозы, которые несут дипфейки, равно как и пункт использования дипфейков в финансовом мошенничестве.

Война и деньги – главные объекты (поля) угроз.

Понятно, что сейчас предлагается не так много различных способов борьбы с этим. Про цифровую гигиену здесь уже упоминалось, но хотелось выяснить, какие еще способы борьбы с дипфейками считаются более или менее эффективными. Начну с самого нижнего уровня.

На что эксперты точно не надеются – это на внедрение этических кодексов. То есть эффективность этических механизмов подвергается сомнению.

Основная надежда возлагается на цифровую гигиену. При этом как на массовую цифровую гигиену граждан, так и на цифровую гигиену/безопасность в специальных корпоративных институтах, тут главная опора – это специалисты по безопасности, юристы, журналисты и т.д. Именно они, прежде всего, должны обладать теми знаниями, умениями, навыками и соответствующими инструментами и способами предупреждения и минимизации этих рисков.

И еще один очень важный момент. На каком этапе развития фейковой информации – ее жизненного цикла – эксперты видят наибольшую эффективность в борьбе: на этапе производства, этапе распространения или потребления? Это был наш основной вопрос.

С одной стороны, эксперты подтвердили нашу базовую гипотезу, что сейчас упор делается на этап потребления или развития индивидуальных навыков профилактики и защиты от недобросовестного контента. Похоже, что цифровая гигиена действительно сейчас кажется наиболее актуальной. Но с другой стороны, при более глубоком разговоре с экспертами, особенно благодаря семинару Фонда развития интернет инициатив, в ходе которого удалось провести отдельное дополнительное обсуждение предварительных результатов исследования, стало понятно, что упор на цифровую гигиену связан не только с тем, что она кажется самой эффективной, но и с опасением (почти бесспорным), что мы никогда не справимся с дипфейками на этапе их производства.

Эксперты не верят в то, что можно предупреждать дипфейки на этапе производства.

Вся культура предыдущего развития технологий была ориентирована на то, что научно-технический прогресс а) невозможно остановить, б) это страшно интересно и в) в этом задействовано уже множество субъектов, и уже есть целая отрасль индустрии, кующая определенный контент на базе искусственного интеллекта.

Я сейчас выражу некоторое личное мнение, но оно в рамках обсуждения на семинаре показалось очень важным, и этот вопрос отчасти мог бы быть вынесен на обсуждение и в рамках дискуссии текущего мероприятия. Давайте вспомним, как в 30-х годах такие же увлеченные люди активно разрабатывали и изучали разные модели цепной реакции урана и других радиоактивных элементов. Потом в какой-то момент пришли серьезные дяди, закрыли все публикации и развернули проект по созданию ядерного оружия. В результате атомная бомба была создана и применена. При этом замечательных разработчиков этого дела просто изолировали, а на уровне международных соглашений ввели очень серьезные ограничения/запреты на распространение ядерно-оружейных технологий и испытаний их новых вариантов – и в т.ч. по этой причине не произошло массовизации «открытия», распространения оружия и его применения.

А теперь представим, что если бы та же самая концепция условной «гигиены» появилась на аналоге ядерного оружия? Поскольку технический прогресс не остановить, ядерное оружие будет каким-то образом развиваться, производиться и распространяться, а мы можем только строить убежища с каждым годом все более крепкие, более глубокие и более надежные, и вдобавок обретать навыки, куда ложиться лицом при взрыве, как было написано раньше в учебниках по гражданской обороне.

Вот такого рода навыки нам сейчас фактически предлагают эксперты по предупреждению дипфейков. Нам всем угрожает фактически новое «ядерное оружие», а в качестве защиты предлагается противогаз.

И продолжая аналогию, неизвестно, дожили бы мы до настоящего момента, если бы в свое время, помимо строительства бомбоубежищ, не были приняты решения по ограничениям производства и распространения ядерного оружия. Фактически человечество поставило уникальный эксперимент по торможению научно-технического прогресса в определенной отрасли. Семьдесят лет удерживалось нераспространение ядерного вооружения! То же самое пока происходит с удерживанием технологии клонирования человека.

И в этой связи, конечно же, как мне кажется, если мы оценим дипфейки как по-настоящему серьезную угрозу, сопоставимую с оружием массового поражения и традиционными видами вооружений (а в рамках современных военных конфликтов это действительно оружие), возможно надо будет принимать решения по предотвращению этого зла на этапе производства и распространения. Причем точно так же жестко, как предупреждалось развитие очень опасных технологий в области вооружений.

К сожалению, сейчас – с учетом того, что это производство находится не в рамках государственного регулирования, а в рамках рыночного регулирования, – у этого производства и распространения довольно много заинтересованных сторон. И поэтому тут уже принимать решение по регулированию и управлению инфраструктурой на уровне правил и законов – в некотором смысле сложнее. Но возможно сейчас мы переживаем время, когда последний шанс на это еще есть. А вот когда начнется процесс массовизации, и у каждого гражданина – по аналогии с оружием – появится по маленькой ядерной бомбе (по маленькой студии дипфейков), остановить это будет уже существенно сложнее.

У нас есть еще и другие данные опроса, где подтверждается, что на уровне развития бизнеса и бизнес-решений, конечно же, будут востребованы различного рода инструменты идентификации личности, цифрового нотариуса, телохранителя и советника. Но эта востребованность проявляется на уровне легкой помощи конечному потребителю этого беспримесного зла. Если мы помогаем потребителю немного совладать с дипфейками – это тоже некоторая стратегия. Но и на ранних стадиях надо это зло предупреждать. Пострадавшему от наркотиков надо, конечно, помогать. Но лучше на ранних стадиях уничтожать производство этого социального яда.

Сергей Алимбеков: Спасибо за интересный доклад. Хочу выразить личную благодарность по двум причинам. Во-первых, ваше исследование – это предмет научного героизма, потому что вы вошли в неизведанную и очень горячую область. Во-вторых, даже в этом первом докладе мы уже увидели конкретные кейсы и ниши, куда можно пойти стартапам. Зачастую исследования очень далеки от реальной деятельности проектов в Акселераторе. Но тут мы видим реальные боли, проявленные через академическое исследование, которое получилось весьма полезным для нашей будущей работы. Актуальность темы налицо – это очевидно.

Давайте теперь перейдем к дискуссии: вопросам, комментариям, суждениям.

Ольга Голубева: Если проследить тенденцию, которая развивается сейчас в США, то дипфейки наполняют пространство. Не будет ли с начала сопротивления, что какие-то подрывные факты сменятся потом баннерной слепотой? И тогда новостные медиа займут лидирующие позиции, потому что им будут больше доверять.

Кирилл Зендриков: Позволю себе немного переформулировать вопрос. Формулируется следующая гипотеза. По мере того, как люди будут знакомиться с дипфейками и понимать, что их много, и вот они все здесь, то со временем пользователи контента придумают как их не замечать или быстро игнорировать фейковые сущности, и тогда они смогут выстроить какие-то другие каналы коммуникации, которые могут быть более доверенными.

Ольга Голубева: В целом да.

Кирилл Зендриков: У меня есть свое видение этого. У коллег из ЦИРКОНа в одном из предыдущих исследований по медиапотреблению есть кейс, где фиксируется рост доверия к телевидению. Многие годы интернет отъедал у телевизора внимание и доверие, но по мере того, как фейковая история в интернете начала расти и раскручиваться, и доля фейкового контента начала увеличиваться, внимание пользователей стало смещаться в сторону более официальных и традиционных каналов коммуникации.

Сергей Давыдов: Ответ на этот вопрос мы спрятали внутрь презентации, где были ссылки на старые фотографии и цитаты из фильмов Люмьеров, потому что мы это уже в каком-то смысле проходили. Когда появилась фотография, вскоре возникли фотомонтажи. Потом кино с его соотношением документальности и художественного вымысла, комбинированными съемками, можно сказать, – фейковостью. Сейчас, когда мы смотрим кино, мы понимаем, что все это может быть придумано и срежиссировано, в том числе, и в классической документалистике. Точно так же произойдет и здесь. Дети, которые страдают от буллинга из-за порно-фейков со своими одноклассниками, например, страдают оттого, что все вокруг верят, что это происходило на самом деле. Но когда верить перестанут, все это успокоится. Соответственно, граница между документальной, нотариально заверенной реальностью и фейком будет прочерчена. Как она будет прочерчена, мы пока не знаем, но обязательно простроим. И важные люди, вроде Трампа, смогут отделить себя и то, что с ними реально происходит, от того, что не происходит и не происходило никогда. Да, другие пользователи будут смотреть эти картинки. Но они не будут относиться к ним как к реальности. Они будут смотреть на то, как якобы Трампа якобы повязали якобы полицейские, как на горячительное медиа, как на некую эмоциональную подпитку. И такого рода контент всегда существовал.

Игорь Задорин: У меня на это более радикальная точка зрения. Если совсем утрировать и ваш вопрос, и ответы коллег, то все это сводится к тому, что сейчас Ложь еще недостаточно массовое явление, и она, мол, воспринимается, как угроза, поскольку может кого-то обмануть. А давайте сделаем ее тотальной, и тогда она потеряет свою ценность.

Мы еще пять лет назад на наших социологических конференциях проводили секции по фейкам, и некоторые участники говорили то же самое: «А что тут такого? Фейк и фейк… Кто-то научится распознавать, кто-то нет. Просто в итоге все перестанут всему верить».

Я хочу сказать, и заострить на этом внимание, что вопрос, который поднят, не технологический, это вопрос социальной нормы. Если мы готовы к тому, чтобы сделать ложь социальной нормой, то есть убрать от нее атрибут Зла, то с духовной точки зрения, или с религиозной – это вообще-то грех.

Мы же сейчас близки к тому, чтобы сказать: «Да, ладно, все всё равно врут. Ну будет еще такая изощренная, сделанная искусственным интеллектом ложь как дипфейки, ну, что это изменит». Категорически не согласен с такой мягкотелой позицией. Мы все равно должны говорить, что хоть все и врут, но – это Зло. Нельзя с дипфейков убирать номинацию зла! А когда мы делаем фейки тотальными, признаем их нормальными и приемлемыми, мы в некотором смысле, убираем эту номинацию, говоря, что ложь – это нормально.

Даже при тотальном распространении лжи в обществе, мы все равно должны идентифицировать это как зло, ненормальность и грех.

Тотальное распространение, на мой взгляд, не является средством защиты. Проведем аналогию. Не надо мусорить, это плохо! А потом кто-то приходит и говорит: «Да это нормально. Давайте сейчас завалим все мусором, люди к этому привыкнут, и это уже не будет восприниматься как антинорма. Все же вокруг мусорят, в чем проблема?!»

Не надо мусорить в информационном пространстве! И надо фейки фиксировать как ложь и зло.

Анастасия Сапонова: Выскажу небольшое уточнение к вашему радикальному тезису. Мы же помним, что есть и добросовестное использование дипфейков, а есть – недобросовестное. Ваш тезис и тех, и тех затрагивает?

Игорь Задорин: Я бы заметил, что здесь, конечно же, серьезная проблема в названии. По всей видимости, для того, что можно назвать добросовестным использованием искусственного интеллекта для производства синтетического контента, должно быть придумано другое слово. Термин «дипфейк», который уже по своей этимологии ассоциируется с ложью, должен быть пригвожден к позорному столбу без всяких исключений. А для добросовестного контента – давайте придумаем какой-то другой термин.

Анастасия Сапонова: Синтетический контент, например.

Игорь Задорин: Да хоть так. Синтетический контент.

Сергей Алимбеков: Честно говоря, на этом уже можно было бы и закончить нашу беседу, потому что мы как-то сразу перескочили в онтологическую плоскость.

Ольга Голубева: Я согласна с Игорем Задориным, что надо строго разобраться в понятиях и даже какой-то словарь ввести. Я представляю организацию «Союз женских сил», и у нас очень остро стоит вопрос о ментальном здоровье детей, которые сейчас полностью погружены в цифровой мир. Их гуру находятся там, и даже школу они воспринимают через призму цифрового мира. База в них уже не заходит. Нивелируется грань между специалистами в цифровом контенте и учителями. И это большая проблема. Конечно, спасение утопающих – это дело самих утопающих. Но, я считаю, что и на уровне производства, и на государственном уровне все сейчас транслируется через синтетический контент, продуцирующий [искаженный] взгляд на жизнь, закладывающийся с ранних лет. И это страшно.

Владимир Орлов: Тренд с дипфейками в любом случае будет развиваться, но меры, о которых мы говорим, все время запаздывают. И здесь, конечно же, надо пытаться работать на опережение и предупреждение. Поскольку технобизнес находится на острие этого тренда и пребывает в эйфории, необходимо этику, о которой говорили, не забывать.

Есть общественная организация «Родители Москвы». Их позиция очень созвучна с тем, что говорит Игорь Задорин. И если раньше мне казалось, что они сгущают краски – мы ведь тут все про прогресс и про будущее, – то сейчас я вижу, что мы скатываемся куда-то не туда…

Поэтому у меня вопрос и предложение: есть ли действительно по-настоящему рабочая группа, координационный совет, где были бы представлены лучшие представители инновационного бизнеса, института развития, государственных структур, общественные деятели, и где пытались бы решать комплексные вопросы, понимая, насколько они сквозные? А ведь техномонополии не только влияют на поведение потребителя, он же еще и избиратель, и получается, что техномонополии посягают на монополию государства. И этот тренд опасен. Нужно урезонить амбиции технолидеров. И как тогда наладить взаимодействие, чтобы развиваться, но корректировать при этом вектор развития, чтобы он был более гуманным, этичным, более общественным.

Сергей Алимбеков: Правильно ли я понимаю, что вы предлагаете экспертам разработать какие-то общественные механизмы и их организационные способы для борьбы и управления теми явлениями, которые порождают дипфейки?

Анастасия Сапонова: У нас в исследовании был такой вопрос. Мы просили наших экспертов назвать несколько (3 – 4) институциональных организации в России, которые, по их мнению, вносят наибольший вклад в борьбу с дипфейками. Можете ли вы догадаться, какой ответ был самым популярным?

Сергей Алимбеков: Лига безопасного интернета?

Анастасия Сапонова: Кстати, нет.

Сергей Алимбеков: На правах ведущего, я себе позволяю немного троллинга.

Анастасия Сапонова: Ответ есть в брошюре. Но я его озвучу. В целом полянка голая. Из тех институтов, которые хоть кем-то из экспертов были названы по 3 – 4 раза, можно выделить три:

  • МВД
  • Сбер
  • Лаборатория Касперского

Сергей Алимбеков: Шикарный состав.

Анастасия Сапонова: Можно видеть насколько разные даже у людей, которые погружены в тему, взгляды на то, кто сейчас этим занимается. Никто.

Игорь Задорин: Все в растерянности. Этот набор говорит о непонимании проблемы. И это скорее крик, вопль: «Хоть кто-нибудь, ответственный, появись!»

Мне бы еще хотелось отреагировать по поводу общественных механизмов. На мой взгляд, надо начинать с того, чтобы назвать зло Злом и отделить хорошее от плохого. Значит, необходимо сначала ввести какие-то номинации. После этого то, что мы называем этическими нормами, начнут преобразовываться в правовые. Иногда случается, что правовые нормы опережают этические, но это – скорее исключение, и такие нормы не очень эффективны. Например, ограничение курения в помещениях было введено вопреки общественной норме, но стало эффективным, когда это попало в тренд ЗОЖ.

Надо в каждом месте постоянно говорить, что дипфейки

  1. токсичны,
  2. контр и антиэкологичны с точки зрения сознания,
  3. и это не вопрос потребительского рынка, а вопрос ментального здоровья

И если люди хотят все это потреблять, это вовсе не значит, что теперь это надо производить и делать на дипфейках бизнес, удовлетворяющий потребности. Мало ли что люди еще захотят потреблять… Синтетические наркотики, например. Люди же готовы платить за это. Давайте налаживать производство, так? Но почему-то умные головы все-таки допускают, что это уже подрыв основ человеческого общества, поскольку потребление наркотиков идет не с целью удовлетворения определенных функций и надобностей человека, а является механизмом изменения его сознания и психики.

И дипфейки – это в определенном смысле аналог продукции, изменяющей сознание. Если к этому так относиться, то после можно вводить уже и правовые нормы.

Сергей Алимбеков: Мне понравилась ваша аналогия. Сильно звучит. Борясь с курением, алкоголем и прочими вредными вещами, так же, кстати, как и с фастфудом, мы ведь выступаем за здоровый образ жизни. И в этом смысле дипфейки – это вредная пища для ума. Если человек хочет оставаться ментально здоровым, то надо поменьше глотать фейков, хотя это может быть и вкусно.

Кирилл Зендриков: Вернусь к вопросу о том, какие подходы здесь вообще существуют. Когда мы начали копать тему, стало интересно, а что по этому поводу думают наши вероятные противники? И обнаружилось, что в Конгрессе США было несколько слушаний по теме дипфейков. А они ребята простые, как швабра. Как говорил Черчилль: «Американцы всегда найдут правильное решение любой проблемы после того, как перепробуют все неправильные». И вот они последовательно эту часть отрабатывали. Первое решение было таким: упразднить среду распространения дипфейков. А где распространяются дипфейки? В социальных сетях, поскольку в них работает механика рекомендательной системы с положительной обратной связью, которая выносит наверх самую популярную новость. И вот, они вызывают в Конгресс Цукерберга и говорят: «Ты и будешь нести ответственность за то, чтобы фейки не распространялись. Делай, что хочешь, но обеспечь». Ключевой подход здесь – назначить ответственного и в качестве такового обозначить технологическую среду. Не сработало.

Тогда было предложено следующее решение: прищучить тех, кто генерирует фейковый контент. Давайте его маркировать. Логика здесь была проста: в мире не так много компаний, способных создавать качественный ИИ-контент, и все они – американские. Так что нам мешает вменить им в обязанность производить маркировку? И все бы хорошо, но, во-первых, американцы уже не лидеры на ИИ-рынке, появились и неподконтрольные организации. Во-вторых, для решения собственных боевых задач эту метку придется снимать. В-третьих, скорость развития и распространения технологии такова, что для ее реализации уже не нужно иметь большие машины, достаточно и смартфона.

Сергей Алимбеков: Карманный ядерный реактор?

Кирилл Зендриков: Да. И этот реактор уже случился.

Третье решение, которое Конгресс предложил, – делать диагностические системы и распознавалки на основе нейросетей. И здесь возник очень любопытный феномен «отчета об успехах». Где-то на рубеже 2020 года прошло сообщение, что достигнута точность 80%. Еще немного, и все… проблема решена. Вот-вот, сейчас, дайте нам только денег. 2021 год – тишина. 2022 год – тишина. 2023 год – опять тишина. А весной 2024 года публикуется документ о том, что надо запустить исследование по оценке подходов к разработке систем по выявлению дипфейков на уровне технологий.

Они откатились, поняв, что ничего не получается. И задвинув прежние «достижения» необходимо подойти к этой истории сначала.

И в этом смысле, я бы все-таки вернулся к тому, с чего начал. Поскольку мы живем в связке  цифрового и физического  миров, то, может быть, нам удастся найти решение не в технических, а в социальных практиках?

Если посмотреть на правила цифровой гигиены о том, как противодействовать мошеннику: отключите телефон и позвоните тому родственнику, который вам только что якобы звонил, с другого номера или с другого устройства. И в этом плане необходимо осуществить выход из цифрового поля решения проблемы в некую социальную практику. И возможно под это могут найтись интересные технические решения. Правдофон, например, – это телефон, в котором гарантированно нет никакого искусственного интеллекта. Мы давно уже обсуждаем его в шутку.

Вячеслав Осипов  Я позволю себе сначала комментарий, чтобы вступить в дискуссию и немного сместить градус в другую сторону. А потом и вопрос задам.

Мне не очень нравится аналогия с ядерным оружием. Возьмем модель крайнего случая: тотального обмена ударами. Если перенести это на дипфейки, то тотальный обмен фейковыми ударам приведет совсем к другому результату. Убежищ нам не нужно. Мы просто выключим смартфон, и все.

Тогда у меня родилась другая аналогия. В свое время, может быть, кто-то помнит, были запрещены принтеры, потом были запрещены цветные принтеры, потому что на цветных принтерах будут, мол, печатать фальшивые документы, удостоверения. Но потом карманный ядерный реактор в виде принтеров появился практически у каждого.

Вопрос в другом. Когда мы говорим о дипфейке, называя его безусловным злом, ложью и искажением реальности во вредоносных историях, тут спору нет.

Но мы аккуратненько отставили в сторону синтетический контент официальный, валидный и разрешенный, который не нарушает ничьи права. И здесь есть тонкий момент. Если мы переснимаем фильмы с участием тех актеров, которых уже нет в живых, и там фейковый актер произносит слова, которых реальный живой человек может быть никогда бы и не произнес. Хотя родственники не против, и все официальные разрешения получены, насколько мы не переходим здесь ту грань, когда это можно делать, а когда – нельзя? Как с таким легальным контентом поступать, особенно если учесть, что наш мозг не очень различает реальное от нереального?

Кирилл Зендриков: Мы немного прокачивали эту тему и в качестве предельного кейса рассматривали такую историю. Смотрите. Режиссер снимает фильм и приглашает актеров, чтобы они изобразили несуществующих людей. И в этом смысле актер является инструментом, с помощью которого режиссерский замысел воплощается в реальность. Технология дипфейков позволяет человека-актера из этой схемы убрать и создать сущность, которая на экране будет выглядеть, как человек, только никакого прототипа за ним не будет. И тут вопрос об ответственности героев произведения за произнесенные ими слова – это вопрос к автору реплики. Да, мы понимаем, что в существующем кино актер – это такой человек, который узнаваем и является для многих моральным авторитетом, но в фейковой истории актерская человечность упраздняется и его образ превращается в инструмент для автора, который рассказывает какую-то историю.

И, кстати, у законодателей – теперь уже на американских, а европейских – был еще и четвертый подход к регулированию дипфейками. Проблема не в том, что кто-то где-то что-то сгенерировал, а проблема в том, что кто-то кого-то обманул и в результате некто понес ущерб. Есть потерпевший, есть злодей, а зачем вы к ножу прикопались? Это ведь всего лишь инструмент преступления.

Вячеслав Осипов Если это полностью синтетический образ, от вопросов не возникает. А если синтетический образ реального актера, то…

Игорь Задорин: На мой взгляд, произнесено ключевое слово «ущерб». Можно, отталкиваясь от него, оценивать вред дипфейков. Если они наносят ущерб репутации, имуществу, здоровью, то должны быть и последствия для того, кто этот ущерб нанес. Я, кстати, выставил ущербы по рейтингу угроз. Люди считают ущерб здоровью – самой значительной угрозой.

Понятно, что субъекты, которые, так или иначе, будут стараться реализовать свои цели за счет других – неискоренимы. Вопрос в том, как к этому относиться? Это шутки, смешочки и прибауточки, или это ущерб?

Пока мы находимся в стадии некоторого эйфорического отношения к дипфейкам – вот, как это здорово и весело! И не оцениваем их через последствия для других людей, которых это касается. Как только мы станем относиться к фейкам как к угрозам потери репутации, имущества и здоровья, тогда соответствующие органы, названные экспертами в числе первых, смогут что-то сделать, а не сидеть сложа руки.

Анастасия Сапонова: Как раз актеры, которые проводят забастовки в Голливуде, как раз и относятся к дипфейкам, как к угрозе. Потому что кинокомпания может выкупить права на использование их образа за три доллара и очень сильно сэкономить на гонорарах.

Сергей Давыдов: Я думаю, что актеры как-нибудь решат свои имущественное вопросы. Но тут важно не только то, кому и сколько заплатить, а можно ли вообще взять образы Владимира Высоцкого или Виктора Цоя и заставить их сказать что-нибудь, например, про СВО. Это будет эксплуатация.

Есть фильмы про Джеймса Бонда. И там сменилось определенное число актеров, начиная с Шона Коннери. Если мы возьмем его образ и выпустим еще один фильм про Джеймса Бонда, вряд ли кто-то будет против, потому что сложился канон, и он непосредственно участвовал в его создании.  Но если режиссер (с рогами) захочет сделать что-то совершенно новое, воспользовавшись образом актера для каких-то принципиально иных, собственных идей, наверное, это уже будет здорово. Нарушение канона должно стать барьером. В этом случае лучше взять себе актеров-единомышленников и работать с ними.

Гость…: Давайте вернемся от вопросов авторского права к дипфейкам. Вы пытались проводить линию между корректировкой изображения и дипфейками? И является ли обложка любого модного журнала дипфейком, когда актриса восьмидесяти лет выглядит на двадцать?

И второе. Если запретить дипфейки – это значит запретить всю рекламу?

Сергей Давыдов: Здесь у нас произошла подмена понятий. Мы сначала определили, что такое дипфейк, а потом стали говорить о дипфейках как о зле. И это уже совершенно другое понимание. И если отвечать на ваш вопрос, то, да, конечно, обложка журнала подкорректирована. Это цифровая обработка, и это не дипфейк. Дипфейк – это замена, или подмена одного образа другим, это некие манипуляции с личностью – ее голосом или изображением. Это узкое понимание.

Когда же Игорь Вениаминович говорит про дипфейки, он имеет в виду их токсичное использование.

Игорь Задорин: Использование, наносящее ущерб. Здесь ключевое слово – ущерб.

Сергей Давыдов: Да. Само слово «дипфейк» используется в этих двух режимах, которые временами путаются. Видимо, надо здесь с терминами разобраться и как-то их разделить.

Игорь Задорин: Исследование, подчеркиваю, так и называлось: «Недобросовестное использование технологий искусственного интеллекта для производства новой реальности». Поэтому мы и ведем разговор про угрозы. В понятиях действительно надо разобраться, но фокус нашего интереса был не на технологических различиях, а на социальных последствиях.

Кирилл Зендриков: И все-таки мы в данном случае не концептуалисты. И в этом смысле мы не идеологи разработки того или иного подхода. Наша задача здесь в большей степени исследовательско-наблюдательская: что происходит, как бывает, куда катится этот мир, и что по этому поводу говорят эксперты.

Конечно, мы немного сдвинулись в сторону и начали высказывать позицию и отношение, но это в большей степени личностная часть.

Сергей Алимбеков: Это научный героизм. Вы сделали шаг на эту территорию, а дальше полетело…

Игорь Задорин: Когда явление новое, мы, конечно, часто вынуждены оперировать аналогиями. И здесь уже много аналогий прозвучало. И я хочу отнестись к последнему вопросу также с аналогией. Допинг в спортивном соревновании – это плохо. Есть такая установленная норма. А дальше начинаются технические подробности: вот такое средство – это допинг, или не допинг? А в таких дозах – допинг или не допинг? А применение за два часа до соревнования – допинг или не допинг?

Сергей Алимбеков: Или сегодня это средство – не допинг, а завтра – допинг.

Игорь Задорин: Да. И по этому поводу, безусловно, можно много разговаривать, но все эти разговоры возможны только после того, как была установлена норма: допинг – это плохо. И в этой связи мы сейчас говорим о необходимости нормативной установки. А дальше, конечно, можно уже разбираться в деталях: допустимо, или недопустимо; приемлемый ущерб или неприемлемый.

Мария Прокина: В этом году мы продолжали исследовать социально-технологические тренды, и тоже немного смотрели в сторону дипфейков. Мне кажется, что в этой теме есть интересная ветка, которая стоит немного особняком. Это – аудио-дипфейки, они же войс-клоны, они же голосовые слепки. Иногда кажется, что войс-клоны могут быть даже более опасными, чем классические дипфейки, потому что когда человек листает ленту в социальных сетях, он натыкается на визуальный ряд и может заподозрить, что там что-то происходит не так. Когда же он слышит аудио-отрывок, где голосом политика или звезды произносит скрипт, то здесь пользователь начинает смущаться. А сегодняшние войс-клоны могут быть практически идеальными, неотличимыми от действительности. Если мы говорим о цифровой гигиене, то ее основополагающие принципы будут чем-то отличаться от истории, когда мы говорим о дипфейках с визуальным рядом? И будет ли отличаться психологический подход к пользователям? Как научить людей реагировать именно на войс-клоны?

Сергей Давыдов: Честно говоря, я не вижу здесь принципиальных отличий. Например, наша культура использования телефона сейчас меняется достаточно сильно. Я очень боюсь за своих родителей, которые пользуются обычным городским телефоном, поскольку в нем защита минимальна. Но я им уже сказал, что если я вдруг позвоню и начну что-то неожиданное просить, перезвоните мне, чтобы убедиться, я это был, или не я. Можно договориться о кодовом слове.

У меня на телефоне сейчас порядка десяти подозрительных звонков в день просто автоматически блокируются системой безопасности. И здесь тоже возникают определенные правила: договариваться заранее о созвоне, подтверждать идентификацию и т.д.

Сергей Алимбеков: Вопрос, похоже, связан с тем, что правила должны быть жестче. Должны ли они быть жестче в голосовых историях?

Анастасия Сапонова: То определение дипфейка, которое мы используем, предполагает метод обработки аудио или графики. То есть те правила цифровой гигиены, о которых мы говорили, универсальны. Если вы получаете какой-то подозрительный аудио- или видеоконтент, вам необходимо выходить в аналоговое пространство: либо идти к этому человеку, либо связаться по защищенному каналу коммуникации. Тут правила все те же.

Сергей Алимбеков: Да, общие правила те же, но тут накладывается какой-то психологический эффект: когда я смотрю, я могу заметить какую-то ошибку, а когда слушаю…

Анастасия Сапонова: Это пока вы можете заметить ошибку.

Сергей Алимбеков: Применить здравый смысл к картинке легче. Листая ленту, я чувствую и задним умом понимаю, что нахожусь в опасной среде. А когда идет звонок с городского телефона, и мне голосом моих родственников начинают быстро вдувать информацию, что кто-то на машине разбился, – это уже немного другая история.

Игорь Задорин: Я отвечу на вопрос про жестче или не жестче. Жестче! Всё жестче!

Смех

Чем отличается зрение от слуха? Это все органы чувств. Представьте себе фейк, ориентированный не на аудио и не на зрительные восприятия, а на обоняние. Если этот фейк провоцирует соответствующее поведение, приводящее к ущербу, чем он отличается от другого фейка?

Любое искажение реальности, которая «доступна нам в ощущениях» по всем пяти чувствам, приводящее к соответствующему некорректному поведению, должно быть наказано.

Конечно, 80% информации мы получаем при помощи зрения, но если нам через обоняние или осязание, влияние которого всего 1 – 2%, будет нанесен серьезный ущерб, чем это отличается от видеоущерба?

Сергей Алимбеков: Ровно тем, что через другие органы чувств злоумышленнику влезть проще.

Гость…: Вы хотите запретить рекламу?

Сергей Алимбеков: Минуточку, мы ничего не запрещаем. Мы пока обсуждаем дипфейки.

Игорь Задорин: У нас сейчас есть понятие «недобросовестной рекламы», которая регулируется без всякого отношения к дипфейкам. Мы говорим о дипфейках, которые сознательно приводят к ущербу.

Гость…: У меня вопрос: какие-то предложения по конкретным действиям для ученых, представителей государственных структур, бизнеса есть? Или пока только абстракции?

Сергей Алимбеков: Коллеги же ответили: МВД, Сбербанк и Лаборатория Касперского…

Смех

Получается, на самом деле, ответа нет. Нет организации, которая за эту проблему полностью бы взялась. Поляна пустая. Если вы социальный предприниматель, – вот вам флаг в руки.

У нас еще есть немного времени на последний вопрос или суждение.

Молчание

Тогда я это сделаю. Просьба к отвечающим не уходить в глубокий анализ.

За время дискуссии у меня сложилось ощущение, что технология – это просто инструмент. Нож в плохих руках – как об этом уже говорилось – и нож в хороших руках – это разные вещи.

Теперь у нас новый этап технологий – искусственный интеллект – и это тоже угроза, и не только в области дипфейков, но и с возникновением серьезных этических проблем. Однако за все время развития технологий человечество как-то справлялось с пугающими инновациями и всеми этими вызовами, значит, справится и в очередной раз. Но с другой стороны, вызовы становятся все серьезнее и серьезнее. И нам все время нужно совершать в обществе какие-то усилия, чтобы находить правильные ответы на технологические вызовы.

Сегодня, как мне кажется, мы договорились до понимания того, что ответ должен формулироваться в нравственном поле. И я хочу подвесить вопрос: не случилось ли так, что технологии достигли такого уровня, что ответ на вызовы могут дать только моральные нормы, нравственное поле, религия и борьба добра со злом? Мы уже подошли к этой черте?

Давайте каждый выскажет пару слов по этому поводу.

Сергей Давыдов: Это не новая ситуация. Как минимум с Первой мировой войны мы живем в мире, где технологии могут уничтожить все просто массово. Но мы научились с ними работать и сосуществовать.

Игорь Задорин: Я с коллегами в известной степени спорю. Когда Сергей Геннадьевич говорил о том, что под понятие «дипфейк» попадают две разные сущности – технология и продукт этой технологии – я не могу с этим согласиться. Наверное, это сейчас реальность. Но в моем понимании – это неправильная реальность. Технология не должна называться «глубокой ложью». Если это технология, которая может быть амбивалентной, ее необходимо называть по-другому. А продукт, причем определенный – тот который ориентирован на причинение ущерба и вреда, уже называть «дипфеком».

Заметим, игра в слова – это не игра. Это моделирование окружающего мира для множества людей, которые будут встречаться с этим. Назвать технологию «дипфейком» и сказать, что это можно понимать и так, и эдак – это уже лукавство. Тут необходимо принимать серьезные меры, чтобы разделить технологическую и продуктовую части понятия.

Возникает вопрос: новые технологии всегда амбивалентны? Я сейчас перечитываю историю «опиумных войн», и надо же: европейцы принесли в Китай новую технологию – настоятельно рекомендовали употреблять опий – и на 100 лет напрочь вырубили всю большую страну!

В этом смысле, да, действительно, есть технологии, которые могут быть оценены ценностно. И соответственно, к ним надо так же относиться.

Сергей Алимбеков: Давайте на этом завершим нашу дискуссию. Спасибо всем. И вот qr-код брошюры, о которой рассказывала Анастасия.

И это не дипфейк. Настоятельно рекомендую ознакомиться.

Редакционный комментарий

Обсуждение

Об авторе: Игорь Задорин
Руководитель исследовательской группы «ЦИРКОН».

Пишите нам свое мнение о прочитанном материале. Во избежание конфликтов offtopic все сообщения от читателей проходят обязательную премодерацию. Наиболее интересные и продвигающие комментарии будут опубликованы здесь. Приветствуется аргументированная критика. Сообщения: «Дурак!» – «Сам дурак!» к публикации не допускаются.

Без модерации вы можете комментировать в нашем Телеграм-канале, а также в сообществе Русская Истина в ВК. Добро пожаловать!

Также Вы можете присылать нам свое развернутое мнение в виде статьи или поста в блоге.

Чувствуете в себе силы, мысль бьет ключом? Становитесь нашим автором!

Оставьте комментарий

Читайте еще: