Россияне массово попадают на ИИ-контент: научились распознавать и не верят маркировке
Частота встреч с материалами, созданными нейросетями, за год выросла вдвое. При этом пользователи стали лучше распознавать дипфейки, но скептически относятся к официальным отметкам, считая их бесполезными против мошенников.
Искусственный интеллект прочно вошел в повседневную жизнь россиян. Почти половина граждан ежедневно встречает сгенерированные нейросетями видео и изображения. За год частота контакта с таким контентом значительно выросла, и пользователи научились лучше отличать подделку от реальности. Однако доверия к официальной маркировке ИИ-контента это не добавило — большинство считает, что мошенники легко обойдут любые отметки.
Каждый день — новый контент от нейросетей
Исследование компании OMI (Online Market Intelligence), с результатами которого ознакомилась «Газета.Ru», показало взрывной рост потребления ИИ-контента. Сейчас 42% респондентов сталкиваются с такими материалами ежедневно (годом ранее было 33%), а 44% — еженедельно (39% в 2025 году). Доля тех, кто видит сгенерированные видео или изображения редко (несколько раз в месяц или реже), сократилась с 28% до 14%.
Также читайте: YouTube объявил войну ИИ-контенту, платформа запускает жёсткую фильтрацию
Среди наиболее распространенных типов ИИ-контента лидируют короткие видео — тиктоки, рилсы, шортсы. Их замечают 67% опрошенных, тогда как год назад было только 44%. Изображения и фотографии видят 66% (рост с 62%), музыкальные композиции — 34% (с 30%), анимацию — 31% (с 27%). Чаще стали встречаться и музыкальные клипы с использованием нейросетей (30% против 24%), а также новости, созданные ИИ (15% против 12%)
Как отличают генерируемый контент
Пользователи стали лучше распознавать сгенерированный контент по сравнению с 2025 годом. Главные признаки, на которые обращают внимание:
- неестественные формулировки и детали — 53% (рост на 15%);
- слишком «идеальный» или «гладкий» вид материалов — 46% (было 37%);
- стиль написания текста или рисунка — 30%;
- фактические ошибки — 22% (было 15%);
- однотипность фраз или элементов — 22%.
Также 21% опрошенных определяют достоверность по источнику и склонны меньше доверять ресурсам, которые, как известно, используют ИИ и чат-ботов.
Маркировка ИИ не помогает
Осведомленность о существовании маркировки ИИ-контента остается высокой — о ней знают 43% респондентов, и 78% из них видели такие отметки. Однако доверие к пометкам упало. Доля тех, кто считает, что маркировка повышает надежность информации, сократилась с 35% до 26%.
Одновременно с 17% до 24% выросло число скептиков, которые стали относиться к маркировке с меньшим доверием. Для 50% опрошенных наличие отметки вообще никак не влияет на доверие к контенту (рост на 3%).
Более половины (52%) уверены, что обязательная маркировка не защитит от мошенников — злоумышленники легко удалят отметку или воспользуются сервисами без маркировки. При этом реально сталкивались с мошенничеством через дипфейки только 20% участников. Чаще всего это были видео (22%) и аудио (21%) форматы, реже — визуальный контент (17%).
Кто в ответе за ИИ-контент
Треть опрошенных (31%) считают, что ответственность за достоверность и распространение сгенерированного контента должны нести сами создатели. Подавляющее большинство (86%) уверены в необходимости повышать осведомленность о возможностях и особенностях работы ИИ.
Наиболее эффективными каналами информирования россияне назвали:
- социальные сети — 52%;
- сайты поисковых систем — 46%;
- публикации в СМИ — 44%;
- телевизионные и радиопрограммы — 42%;
- образовательные платформы — 35%;
- интеграцию тем ИИ в школьные и университетские курсы — 34% .
Ранее сообщалось, что интерес российского бизнеса к нейросетям вырос более чем на 3000%, что объясняет лавинообразное увеличение количества ИИ-контента в информационном пространстве.
Ранее на сайте «Пронедра» писали про Правовые и этические дилеммы вокруг нейросетей: мнение эксперта о Grok и ответственности за контент