Аналитика

Блокчейн против ИИ: Кто докажет подлинность контента в интернете?

В условиях наводнения интернета контентом, созданным искусственным интеллектом, блокчейн-инструменты предлагают решение для сертификации человеческого творчества. Их цель — восстановить доверие пользователей и предоставить неопровержимое доказательство происхождения медиафайлов.

Автор: Хелен Партц. Опубликовано 15 минут назад.

Как часто, видя изображение в сети, вы задавались вопросом: «Это реально или создано ИИ?» Чувствовали ли вы себя в ловушке реальности, где искусственный и человеческий контент сливаются воедино? Нужно ли нам вообще их различать?

Искусственный интеллект открыл мир творческих возможностей, но принес и новые вызовы, изменив наше восприятие онлайн-контента. От наводнивших соцсети изображений, музыки и видео до дипфейков и ботов-мошенников — ИИ теперь затрагивает огромную часть интернета.

Цифры говорят сами за себя

Согласно исследованию Graphite, объем контента, созданного ИИ, превзошел человеческий в конце 2024 года, в основном из-за запуска ChatGPT в 2022 году. Другое исследование показывает, что по состоянию на апрель 2025 года более 74,2% страниц в выборке содержали контент, сгенерированный ИИ.

По мере того как ИИ-контент становится все более изощренным и почти неотличимым от работы человека, человечество сталкивается с насущным вопросом: насколько пользователи действительно могут отличить реальное от искусственного, вступая в 2026 год?

Усталость от ИИ и рост спроса на человеческое творчество

После нескольких лет ажиотажа вокруг «магии» ИИ пользователи сети все чаще испытывают так называемую усталость от ИИ-контента — коллективное истощение в ответ на неослабевающий темп инноваций.

Согласно опросу Pew Research Center, весной 2025 года в среднем 34% взрослых по всему миру были больше обеспокоены, чем воодушевлены растущим использованием ИИ, в то время как 42% испытывали смешанные чувства.

«Усталость от ИИ-контента упоминается в многочисленных исследованиях, поскольку новизна такого контента медленно исчезает, и в его нынешней форме он часто кажется предсказуемым и доступным в изобилии», — заявил Cointelegraph Адриан Отт, главный директор по ИИ в EY Switzerland.

«В некотором смысле ИИ-контент можно сравнить с полуфабрикатами», — провел он параллель между эволюцией этих двух явлений. «Когда он впервые стал доступен, он наводнил рынок. Но со временем люди начали возвращаться к местной, качественной еде, происхождение которой им известно», — добавил Отт.

«С контентом может произойти то же самое. Можно утверждать, что людям нравится знать, кто стоит за мыслями, которые они читают, и картина оценивается не только по качеству, но и по истории художника».

Он предположил, что такие маркировки, как «создано человеком», могут стать сигналами доверия в онлайн-контенте, подобно маркировке «органический» на продуктах питания.

Сертификация реального контента как рабочий подход

Хотя многие могут утверждать, что большинство людей способны отличить ИИ-текст или изображение, вопрос обнаружения ИИ-контента сложнее.

Сентябрьское исследование Pew Research показало, что как минимум 76% американцев считают важным уметь распознавать ИИ-контент, и только 47% уверены, что могут делать это точно.

«Пока одни верят поддельным фото, видео или новостям, другие могут отказываться верить чему-либо вообще или с легкостью отвергать реальные кадры как «созданные ИИ», если они не вписываются в их картину мира», — отметил Отт из EY, подчеркивая проблемы управления ИИ-контентом.

По его словам, глобальные регуляторы, кажется, движутся в сторону маркировки ИИ-контента, но «всегда найдутся способы обойти это». Вместо этого он предложил обратный подход: сертифицировать реальный контент в момент его создания, чтобы подлинность можно было проследить до реального события, а не пытаться обнаружить подделку постфактум.

Роль блокчейна в доказательстве происхождения

«Поскольку синтетические медиа становится все труднее отличить от реальных кадров, полагаться на аутентификацию постфактум больше неэффективно», — заявил Джейсон Кроуфорт, основатель и CEO стартапа Swear, разрабатывающего программное обеспечение для аутентификации видео.

«Защита придет от систем, которые встраивают доверие в контент с самого начала», — подчеркнул он ключевую концепцию Swear, которая обеспечивает достоверность цифровых медиа с момента их создания с помощью технологии блокчейн.

Программное обеспечение Swear использует подход блокчейн-«отпечатков пальцев», где каждый фрагмент контента привязывается к реестру блокчейна, чтобы обеспечить доказательство происхождения — верифицируемую «цифровую ДНК», которую нельзя изменить незаметно.

«Любая модификация, какой бы незаметной она ни была, становится идентифицируемой при сравнении контента с его оригиналом, верифицированным в блокчейне, на платформе Swear. Без встроенной аутентичности все медиа, прошлые и настоящие, сталкиваются с риском сомнений... Swear не спрашивает: «Это фейк?», а доказывает: «Это реально». Этот сдвиг делает наше решение как упреждающим, так и готовым к будущему в борьбе за защиту правды».

На сегодняшний день технология Swear используется среди цифровых создателей и корпоративных партнеров, в основном для визуальных и аудиомедиа, записываемых с помощью различных устройств, включая видеокамеры и дроны.

«Хотя интеграция с социальными сетями — это долгосрочная цель, наше текущее внимание сосредоточено на индустрии безопасности и наблюдения, где целостность видео имеет критическое значение», — отметил Кроуфорт.

2026 год: ответственность платформ и точки перелома

Вступая в 2026 год, пользователи интернета все больше обеспокоены растущим объемом ИИ-контента и своей способностью отличить синтетические медиа от созданных человеком.

В то время как эксперты по ИИ подчеркивают важность четкой маркировки «реального» контента, остается неясным, как быстро онлайн-платформы осознают необходимость приоритизации доверенного, человеческого контента на фоне наводнения интернета ИИ.

«В конечном счете, это ответственность провайдеров платформ — давать пользователям инструменты для фильтрации ИИ-контента и выделения качественного материала. Если они этого не сделают, люди уйдут», — сказал Отт. «Сейчас отдельные пользователи мало что могут сделать самостоятельно, чтобы удалить ИИ-контент из своих лент — этот контроль в основном остается за платформами».

По мере роста спроса на инструменты для идентификации человеческого контента важно понимать, что коренная проблема часто заключается не в самом ИИ-контенте, а в намерениях, стоящих за его созданием. Дипфейки и дезинформация — не совсем новые явления, хотя ИИ значительно увеличил их масштаб и скорость.

В 2025 году лишь горстка стартапов сосредоточена на идентификации аутентичного контента, и проблема еще не обострилась до точки, где платформы, правительства или пользователи предпринимают срочные, скоординированные действия.

По словам Кроуфорта из Swear, человечество еще не достигло точки перелома, когда манипулирование медиа вызывает видимый, неоспоримый вред: «Будь то в судебных делах, расследованиях, корпоративном управлении, журналистике или общественной безопасности. Ждать этого момента было бы ошибкой; основа для аутентичности должна быть заложена сейчас».

0 комментариев

Основные монеты

Цена, изменение за сутки и динамика за 7 дней

Комментарии

Обсуждаем подходы и делимся практикой.

0 комментариев

Комментировать новости могут только авторизованные пользователи. Пожалуйста, выполните вход или регистрацию.

Пока нет обсуждений.