«Лаборатория Касперского» изучила, как россияне общаются с нейросетями, в своём новом исследовании — «ИИ в жизни и на работе»*. Подавляющее большинство (87 %) чаще всего разговаривают с чат-ботами вежливо и уважительно, но 19 % из них иногда могут и нагрубить программе. Эксперты напоминают, что не стоит делиться с ИИ конфиденциальными данными и безоговорочно доверять информации, получаемой от чат-ботов.
Как рассказали в пресс-службе «Лаборатории Касперского», по мере плотного вхождения таких сервисов в жизнь людей пользователи выработали определённые практики взаимодействия с ними. Так, 43 % всегда приветствуют нейросети, а 30 % ещё и прощаются. Многие воспринимают чат-боты как полноценных собеседников и соблюдают те же нормы, к которым привыкли в разговорах с живыми людьми.
Более половины участников опроса (53 %) никогда не критикуют нейросети. Почти половина респондентов (46 %) всегда благодарят за помощь, а каждый пятый ещё и хвалит программу. Такое поведение может объясняться как уверенностью в корректности данных и выводов от нейросетей, так и, наоборот, недоверием и страхом, что машина запомнит того, кто ей недоволен, и в будущем сможет использовать это против человека.
«С чат-ботами пользователи в целом склонны общаться более мягко и вежливо, чем с людьми. Это связано, во-первых, с ощущением безопасности: отсутствует риск того, что нас осудят, не примут, перебьют, мы более расслаблены и ведём себя спокойнее. Во-вторых, здесь проявляется такой психологический механизм, как антропоморфизм — склонность приписывать нечеловеческим объектам человеческие свойства. Так работает наш мозг: мы стремимся структурировать окружающий мир через знакомые социальные категории», — комментирует Елена Сорокина, психолог, специалист сервиса Alter.
Однако довольно значительное число пользователей не всегда остаются сдержанными в диалогах с нейросетями. Например, половина (51 %) иногда спорят с чат-ботами, 30% в некоторых случаях подшучивают над ними, а 12% даже время от времени прибегают к оскорблениям.
«Языковые модели могут подстраиваться под контекст: если обратиться к ним, например, как к "сударю", ответ может быть в стиле литературы XIX века, если на грани грубости, то дальнейший диалог будет соответствующим. Однако разработчики моделей могут отдельно обучать их снижать накал беседы при явно оскорбительных запросах. В целом ИИ-помощники обучаются быть позитивными, поддерживающими, неконфликтными, вне зависимости от того, как с ними общается пользователь. Существует даже феномен подхалимства нейросетей — склонность соглашаться с мнением человека, приводить аргументы в его поддержку. Из-за этого люди могут начать обсуждать с ними крайне личные аспекты жизни, больше доверять ответам. С этим, в свою очередь, могут быть связаны некоторые киберриски», — предостерегает Владислав Тушканов, руководитель группы исследований технологий машинного обучения в «Лаборатории Касперского».
* Исследование проведено внутренним исследовательским центром «Лаборатории Касперского» летом 2025 года в крупных городах России. Всего опрошен 1 001 человек.
