Дания только что объявила войну дипфейкам — и ваше лицо под угрозой

В Дании министр культуры Якоб Энгель-Шмидт выдвинул революционное предложение, направленное на предоставление людям законного контроля над их цифровой идентичностью, включая черты лица, голос и физическую форму в интернете. Этот шаг был предпринят как ответ на растущее распространение AI-сгенерированных deepfake видеоматериалов в сети.

🧐

Купил акции по совету друга? А друг уже продал. Здесь мы учимся думать своей головой и читать отчётность, а не слушать советы.

Бесплатный телеграм-канал

Каково значение этого? Если закон будет принят, Дания станет первой европейской страной, которая установит правовую собственность на личные цифровые образы, давая возможность людям удалять несанкционированные цифровые копии и требовать оплаты. Неспособность удалить такие копии по запросу может привести к значительным финансовым санкциям для онлайн-платформ.

«Люди могут быть пропущены через цифровую копировальную машину и использоваться не по назначению для разных целей, а я этого не хочу принять.» — сказал Энгель-Шмидт газете The Guardian

Закон одинаково распространяется на артистов и исполнителей, гарантируя им защиту от создания несанкционированных копий их живых выступлений или цифровых исполнений.

широкая парламентская поддержка

Политики согласны: это уже не просто научная фантастика. Поддержанное девятью из десяти датских законодателей, данное предложение будет продвигаться быстро. Лето следующего года назначено периодом для публичного обсуждения, а формальная подача поправки запланирована на осень.

Энгель-Шмидт оптимистично настроен относительно того, что другие части Евросоюза могут принять подобные меры, которые могли бы проложить путь к общеконтинентальной защите.

Для уточнения, уже существуют подобные усилия в различных штатах США и в рамках предложенного федерального законодательства. В мае президент Дональд Трамп принял закон «Take It Down Act», который запрещает несогласованное распространение сексуально откровенных изображений или видеофайлов, будь то они созданы искусственным интеллектом или являются подлинными. Если жертва просит об этом, платформы должны удалить такой контент в течение 48 часов.

Много вопросов остаются открытыми

К счастью, юмор продолжает процветать, хотя и с определенными исключениями вроде сатиры и пародии, которым позволено существовать — следовательно, ваши изменения мемов и YouTube-пародии, скорее всего, не исчезнут в ближайшее время. Однако клевета, дезинформация или злонамеренные дипфейки? Это совершенно другая история.

Юридическая терминология остаётся неясной в отношении журналистских сценариев, что вызывает оживлённые дискуссии о свободе СМИ и важности публикации информации в интересах общественности.

Как насчет сценария, в котором персонаж или цифровая модель имеет поразительное сходство с живым индивидуумом? Требует ли владение такой копией совместного права среди идентичных братьев и сестер? Может ли эта ситуация привести к странным или непрактичным юридическим конфликтам?

Давайте признаем: действительно ли закон предоставляет власть обычным людям или это лишь очередное устройство, которым могут манипулировать богатые и влиятельные?

Хороший шаг

Помимо технических аспектов, вероятно, будет полезно заняться решением данной проблемы. Технологии создания дипфейков стали доступнее и зачастую невозможно отличить их от реальных видеозаписей. К сожалению, это новшество уже привело к ощутимому ущербу, включая распространение политической дезинформации и создание несогласованного контента для взрослых. Более того, важно признать, что эта проблема непропорционально затрагивает женщин: исследования Sensity AI показывают, что 90% дипфейков содержат несогласованный контент, причем 90% из них являются откровенными материалами с участием женщин.

Если бы я обнаружил себя в модификации Grand Theft Auto или еще более удивительно на аккаунте OnlyFans, моей первой мыслью было бы сочетание шока и недоумения. ‘Как это могло произойти?’ — спрашивал бы я сам себя, исследуя цифровой мир, который походил на меня.

Смотрите также

2025-07-04 21:09