Нарциссы и психопаты чаще обращаются к искусственному интеллекту: что стоит за выводами ученых

20:32, 19 Окт, 2025
Ирина Валькова
искусственный интеллект
Иллюстрация: pronedra.ru

Исследование калифорнийских ученых показало, что люди с выраженными чертами нарциссизма и психопатии чаще используют нейросети и искусственный интеллект в повседневной жизни. Однако, как предупреждают специалисты, речь идет не о прямом влиянии ИИ на личность, а о своеобразном совпадении интересов и психологических установок.

Когда технологии становятся зеркалом личности

Команда исследователей из Калифорнии проанализировала данные более чем 900 студентов, уделив особое внимание их поведению в интернете и отношению к новым технологиям. Одним из ключевых инструментов анализа стали истории браузеров и частота взаимодействия с системами искусственного интеллекта — от чат-ботов до генеративных нейросетей.

Результаты оказались неожиданными: участники с высокими показателями нарциссизма и психопатии не только активнее обращались к ИИ, но и выражали к нему более позитивное отношение. Они чаще использовали интеллектуальные системы для решения личных и учебных задач, создания контента и даже самопрезентации в соцсетях.

«Люди с нарциссическими чертами склонны искать подтверждение собственной уникальности и превосходства. Искусственный интеллект, предоставляющий быстрый и эффектный результат, становится для них удобным инструментом самовыражения», —

объясняют авторы исследования.

ИИ как инструмент власти и контроля

Психопатические личности, по словам ученых, могут видеть в ИИ возможность манипуляции или усиления влияния. Такие пользователи часто применяют нейросети для получения преимуществ в работе, общении или даже в обмане других людей.

«Искусственный интеллект позволяет им действовать без эмоциональных ограничений, использовать вычислительные системы для достижения целей, не испытывая при этом сочувствия или чувства вины», —

отмечают исследователи.

Подобные тенденции уже находят подтверждение в практике: эксперты в области кибербезопасности неоднократно предупреждали о росте случаев мошенничества с использованием ИИ, включая имитацию голоса близких людей или создание фальшивых видео.

Не причина, а следствие

При этом авторы исследования подчеркивают: речь идет исключительно о корреляции, а не о причинно-следственной связи. Искусственный интеллект не формирует нарциссические или психопатические черты — он просто чаще привлекает тех, кто уже обладает подобными особенностями личности.

Другими словами, ИИ становится своеобразным «магнитом» для людей, стремящихся к контролю, признанию и эффективности. Его возможности идеально сочетаются с их психологическими установками: желание быть первым, лучшим, умнее всех — и при этом сохранять эмоциональную дистанцию.

От научного наблюдения к социальным последствиям

Специалисты предупреждают: распространение ИИ в обществе может усиливать уже существующие черты цифрового нарциссизма — стремление к постоянному самопиару, идеализации собственной личности и зависимости от внешнего восхищения.

«Чем больше мы перекладываем задачи на нейросети, тем выше риск утраты эмпатии и навыков реального общения», —

считает клинический психолог, кандидат психологических наук Марина П.

Эксперты также отмечают, что массовое использование ИИ может изменить баланс социальных ролей. В будущем на первый план выйдут не столько эмпатия и кооперация, сколько способность эффективно управлять интеллектуальными системами.

Что дальше

Исследование калифорнийских ученых открывает новое направление для психологии личности в цифровую эпоху. Понимание того, какие типы людей тянутся к искусственному интеллекту и почему, может помочь в создании этических стандартов использования ИИ, образовательных программ и даже новых подходов к онлайн-безопасности.

ИИ становится не просто инструментом, а зеркалом человеческой психики. И то, что оно отражает, порой говорит о нас больше, чем хотелось бы признать.

Ранее журналисты сайта «Пронедра» писали, что нейросети в школьной системе: эксперт Зубченко рассказала, как использовать ИИ для роста детей, а не для списывания

Поделитесь этой новостью
Комментарии (0)

Ваш адрес email не будет опубликован. Обязательные поля помечены *