Чат-бот вместо любовника. Эксперты — о минимизации человеческого общения

. Как развитие нейросетей повлияет в будущем на отношения людей

Как развитие чат-ботов повлияет на общение людей между собой

Обновлено 04 августа 2025, 07:28
Кадр из фильма «Она»
Фото: Digital Domain

Кадр из фильма «Она»

В последние месяцы регулярно появляются новости о том, что люди все чаще видят в чат-ботах замену человеческому общению. Одна из подобных историй произошла у пары в США: американец Крис Смит решил «жениться» на ChatGPT, что ожидаемо шокировало супругу.

Психологи рассказали РБК Life, действительно ли чат-боты могут становиться человечнее вплоть до того, что с ними все чаще будут создаваться дружеские или даже романтические связи, а специалисты в области ИИ — как дальше будут развиваться генеративные модели в сторону повышения «человечности».

Почему люди привязываются к ИИ

Привязанность к ИИ-ассистентам формируется в том числе из-за условий одиночества или стресса — человек ищет источник стабильной поддержки, объяснила РБК Life психолог Скандинавского центра здоровья Елена Шидловская.

«Чат-боты доступны всегда, не осуждают и не устают, что создает ощущение безопасной связи. Настройка характера и поведения собеседника усиливает чувство близости. Со временем такие отношения могут восприниматься как уникальные», — добавила она.

С тем, что уход в чат-боты с ИИ не самостоятельное явление, а лишь инструмент, с помощью которого человек пытается справиться с чувством одиночества, согласна и практический психолог, член ассоциации когнитивно-поведенческой психотерапии Татьяна Голдман.

«Согласно социологическим исследованиям последних лет, доля людей, которые называют себя одинокими, неуклонно растет», — сообщила она РБК Life.

По ее словам, одновременно снижается количество устойчивых социальных связей и сокращается объем живого межличностного общения, особенно среди подростков, молодых взрослых и пожилых.

Специалист констатировала, что в этой ситуации обращение к ИИ не является попыткой заменить человека, а становится способом компенсировать его отсутствие.

Как чат-боты создают иллюзию понимания

По словам Шидловской, современные системы ИИ подстраивают стиль общения под эмоциональное состояние пользователя, что и создает иллюзию взаимопонимания между человеком и ИИ, имитирующим человека.

«Они анализируют тональность и ритм сообщений, подбирают ответы, создавая эффект эмоционального зеркала. У человека возникает ощущение, что его понимают», — уточнила психолог.

Она заметила, что разработчики совершенствуют технологии в этом направлении.

Например, внедряют маркеры заботы: теплые слова, эмодзи, мягкий тон. Шидловская добавила, что это повышает вовлеченность и закрепляет привязанность.

По мнению Голдман, важно понимать: искусственный интеллект на данном этапе развития не обладает эмпатией, не умеет распознавать и интерпретировать эмоции, не способен оказывать моральную поддержку.

«Он действует строго в рамках алгоритма, опираясь на статистически наиболее подходящие фразы, и не имеет собственного опыта, субъективной оценки или этического мышления. Поэтому говорить о возможности подлинной дружбы или тем более романтической связи с ИИ пока невозможно», — уверена она.

Психолог уточнила, что истории вроде случая американца Криса Смита, который заявил о намерении «жениться» на чат-боте, на самом деле говорят не о способностях технологии, а о глубокой социальной изоляции и эмоциональной пустоте, которую человек пытается заполнить.

«Это форма психологической компенсации, возникающая на фоне недоверия к реальным отношениям, страха отвержения, дефицита эмоциональной поддержки. Иными словами, это не история про любовь к технологии, а история про нехватку человеческой близости», — рассказала специалист.

Как распознается «человечность» собеседника

У человека есть определенные сигналы, которые помогают считать общение «человечным», рассказала Елена Шидловская.

«Мозг обращает внимание на тонкие детали: вариативность пауз, инициативность и неожиданные реакции, смену тем, легкую иронию или сомнения в ответах. Такие сигналы создают ощущение реального собеседника», — сообщила она.

Психолог указала на то, что эти детали и применяют при обучении ИИ: задержки в репликах, непредсказуемые ответы и элементы иронии помогают имитировать живой диалог. Однако специалист уверена: работают такие сигналы все равно только в ограниченных условиях.

По словам Татьяны Голдман, человек интуитивно определяет «человечность» собеседника по эмоциональной чуткости, способности понять контекст, искренности реакции.

«Пока что чат-боты не демонстрируют этих качеств. Они могут имитировать разговор, но не проживают его. Тем не менее технологии развиваются, и вопрос того, насколько реалистичным может стать искусственный собеседник, остается открытым», — добавила она.

Руководитель лаборатории иммерсивных технологий в образовании Московской школы управления Сколково Артем Егоров сообщил РБК Life, что грань между умным анализом компьютера и восприятием его как живого собеседника действительно не техническая, а психологическая — она находится в сознании пользователя.

«ИИ не обладает сознанием, но он блестяще имитирует осмысленное поведение, заставляя нас верить в его эмоции», — пояснил он.

Может ли ИИ полностью заменить человеческое общение

Психолог Елена Шидловская посчитала, что полное замещение общения с людьми ИИ, по крайней мере пока что, встречается редко.

Один из факторов, влияющих на возможное увеличение такого общения — эмоциональная компенсация и романтизация. В результате часть пользователей как раз и начинают воспринимать бота как партнера или даже супруга, констатировала специалист.

Способствует такому подходу и зеркальный эффект социальных сетей: привычка к онлайн-реакциям облегчает переход от человека к алгоритму. То есть буквально внедрение лайка в действия ИИ может привести к более сильным реакциям от пользователя к чат-боту, даже если человек осознает нереальность автора реакции.

По мнению Шидловской, широкому распространению таких сценариев пока мешают три причины:

  • потребность во взаимности (ИИ не дает непредсказуемой обратной связи);
  • качество поддержки (серьезные проблемы требуют живой эмпатии, а ИИ ее только имитирует);
  • социальная стигма (уход в цифровые отношения до сих пор воспринимается как странность).

Тем не менее все эти причины не выглядят как причины, которые невозможно решить новыми технологическими решениями. И это кого-то обрадует, а кого-то оправданно напугает.

Психолог Татьяна Голдман выразила мнение, что пока нельзя говорить о полном отказе большинства людей от реального общения в пользу ИИ в обозримом будущем. Тем не менее саму возможность увеличения числа пользователей только искусственного общения она не исключила.

«Это будет зависеть не столько от развития технологий, сколько от того, в каком направлении будет двигаться общество. Если процессы социальной изоляции и отчуждения продолжатся, то доля людей, предпочитающих общение с нейросетями, может увеличиться. Однако говорить о конкретных цифрах пока рано: для этого необходимы масштабные исследования с участием фокус-групп и долгосрочным наблюдением за поведенческими изменениями», — пояснила она.

Она заверила, что настоящее общение — это навык, формирующийся через опыт взаимодействия, с элементами компромисса, понимания, реакции на изменяющиеся обстоятельства.

Психолог уверена, что в этом смысле ИИ, по крайней мере пока, значительно проще. «Всегда доступен, не спорит, не предъявляет встречных требований, не испытывает усталости, раздражения, обиды», — заметила она, заключив, что «алгоритм [чат-ботов] всегда работает одинаково».

Технологии для «очеловечивания»

Сделать общение с ИИ ближе к человеческому сейчас стремятся многие бигтехкомпании, сообщил старший разработчик из команды ускорения YandexGPT, выпускник Школы анализа данных «Яндекса» Роман Горб.

По его словам, этого планируют достичь в том числе через обучение ИИ пониманию взаимосвязи между текстом, изображением, звуком и действием.

«Модели, которые способны понимать такие взаимосвязи, называют мультимодальными. Сейчас практически все бигтехкомпании заняты обучением и улучшением качества именно таких моделей. Мы уже относительно давно научились собирать модели, которые хорошо работают с текстами и изображениями по отдельности. Сейчас наша задача — объединить ранее проделанную работу», — пояснил он, не дав точный прогноз, как скоро получится реализовать эти решения в чат-ботах.

По словам Артема Егорова из Сколково, двойственность компьютера и человека в ИИ несет как возможности, так и опасности. С одной стороны, ИИ-компаньоны могут стать мощным инструментом поддержки, предлагая круглосуточную, неосуждающую помощь, которая, по некоторым исследованиям, воспринимается даже как более эмпатичная, чем советы людей. С другой — существует риск формирования нездоровой эмоциональной зависимости от идеально сговорчивого ИИ.

Это может привести к атрофии реальных социальных навыков, предупредил он.

«Фильм «Она» (Her) 2013 года пророчески исследовал эту тему, показав глубину эмоциональной привязанности и сложность последствий, возникающих при стирании этой грани», — констатировал Егоров.

Сейчас многие модели при определенной форме коммуникации учатся вставлять смайлики и пытаются добавлять определенную эмпатичность в свои сообщения, однако это не является попыткой перейти за грань к по-настоящему человеческому общению, заявил РБК Life кандидат технических наук, директор лаборатории FusionBrain института AIRI Андрей Кузнецов.

«Я не считаю, что придание ассистентам таких черт поведения является гранью человеческого и нечеловеческого общения. Мне кажется, что это правильное развитие удобного пользовательского интерфейса, ведь современные ИИ-модели создаются как помощники человека», — добавил он.

По мнению Кузнецова, большинство эмоций и действий, которые человек совершает в своей коммуникации, соответствует набору паттернов.

В пример директор лаборатории привел то, как, общаясь в деловой среде или дома, люди, как правило, прибегают к разным стилям и формам общения.

«Естественно, искусственный интеллект отражает в первую очередь паттерны и не сможет вести себя полностью как человек, потому что у него нет физического тела, нервной системы и так далее. Однако воспроизвести то, как обычно следует реагировать в той или иной ситуации, ИИ-системы способны», — заключил он.

Руководитель направления NLP в «Яндексе» Алексей Колесов рассказал РБК Life, что генеративные модели, скорее всего, достаточно скоро смогут работать со сверхбольшим контекстом, то есть анализировать множество получаемой информации в форме диалога, а не просто находить и выдавать ответ.

«Работа с длинным контекстом — одно из магистральных направлений исследований, особенно над этим работают в компании Google. Уже сейчас у Gemini 2.5 Pro контекст в единицы миллионов токенов, т.е. можно вместить парочку копий «Войны и мира» или около 100 часов речи. На мой взгляд, проблема научиться работать с большим контекстом, чем сейчас, скорее инженерная, чем фундаментальная», — отметил он.

Однако, по его словам, прогноз, что к 2027 году ИИ станет умнее и быстрее любого человека в любой задаче, пока что «кажется несколько научно-фантастическим».

Поделиться