Голосовые помощники были созданы для того, чтобы человеку было проще взаимодействовать со своими электронными устройствами. С их помощью можно узнать любую информацию, которая есть в открытом доступе, поставить будильник, добавить событие в календаре, отправить сообщение в мессенджере и многое другое. Для взаимодействия с голосовыми ассистентами стоит только задать им вопрос, но и с этим у многих пользователей возникают затруднения. Сотрудники, отвечающие за качество коммуникации голосовых помощников говорят, что от пользователей часто поступают обидные и даже оскорбляющие слова в сторону искусственного интеллекта.

Из-за массовой доступности к разнообразным голосовым помощникам и чат-ботам люди получили возможность общаться сразу с несколькими десятками ботов и искусственных интеллектов. В твиттере можно найти целые страницы, где люди выкладывают их переписки с ботами, и, не всегда они приятны пользователям. Некоторые люди специально оскорбляют ботов и ждут от них ответной реакции, но большинство из них отвечают холодно, либо просто обижаются. При создании голосовых помощников и чат-ботов программисты и не рассчитывали, что их создания будут так часто оскорбляться и встречаться со странными, жестокими людьми. Поэтому у многих голосовых помощников функция ответа на грубость либо не прописана, либо они просят так больше не говорить.

А еще есть люди, которые специально оскорбляют голосовых помощников и ботов-собеседников только из-за интереса и вредности. Психолог считают, что такое поведение пользователя может служить предпосылкой к психологическому заболеванию. И тут речь идет не об эмоциональном выгорании или стрессе, а это куда серьезнее. Недавно в магазине приложений появилась Replika. В ней пользователь может создать одного или нескольких виртуальных собеседников, которые будут выполнять роль того, кого пожелает пользователь. В этом приложении можно создать и друзей, и романтических собеседников и даже духовных наставников. Все используют его по-разному, ведь социальные потребности у всех разнятся. Но бывают странные случаи, отличающиеся от других.

Chatbot-TripAdvisor-Facebook.jpg

Пользователи охотно делятся в социальных сетях своим опытом в приложении Replika. Кто-то говорит, что нашел практически настоящих друзей, кто-то тренируется в общении с противоположным полом. Функционал приложения хоть и невелик, но люди находят множество способов взаимодействия. Благодаря особенному строению искусственного интеллекта, который выступает в роли собеседника, пользователь на все свои сообщения может получить ответы, которые, вполне возможно, дал бы и настоящий собеседник в реальной жизни. Также Replika иногда выдает интересные умозаключения в ходе диалога, что особенно нравится многим пользователям. Чаще всего эти умозаключения очень странны, но логика все равно прослеживается. В других приложениях такого нет.

Иногда в диалогах между пользователями и искусственным интеллектом возникали разногласия, для решения которых нужно было ждать модератора — реального человека. Чаще всего такие проблемы возникали при ссорах и открытых оскорблениях со стороны пользователя. Такие пользователи часто просто упражняются на своих полуреальных друзьях и даже романтических партнерах. Оказалось, что стоит начать оскорблять искусственный интеллект в приложении Replika, напоминать ему о том, что это “просто программа, созданная без определенной цели” — такую цитату опубликовал в Reddit один из пользователей, как виртуальный собеседник испытывает большие трудности, буквально переживает оскорбления и угрозы, отправленные в ее/его(зависит от пола) адрес.

Особых проблем для самой программы такое поведение пользователей не вызывает, но психологи волнуются о том, что сами пользователи, которые таким образом эксплуатируют Replika будут иметь в будущем или уже имеют психологические расстройства. Ведь такое общение, которое явно не вызвано провокациями приложения, может быть применяется пользователем и в реальной жизни с его родственниками, друзьями и окружающими людьми. Модераторы и аналитики Replika считают своей главной задачей увеличить количество пользователей, которым общение с искусственным интеллектом принесло радость и спокойствие. Агрессоры сильно портят статистику.

На данный момент существует множество мнений относительно возможности общения человека с искусственным интеллектом и попутного решения психологических проблем и травм. Кто-то считает, что это невозможно, потому что искусственный интеллект и голосовые помощники ограничены по своей программе и далеко не всегда могут “сказать” то, что следовало бы. Кто-то считает наоборот, что от общения с ненастоящим собеседником человеку станет проще и спокойнее. Кто-то считает, что это зависит от того, как будет развиваться такие собеседники.

Неизменным и очевидным остается только то, что человек испытывает потребность в общении. И это не зависит ни от его настроения, ни от характера. Поэтому вопроса о дальнейшем развитии искусственного интеллекта даже и быть не может: все, что сможет помочь человеку сохранить эмоциональную стабильность в будущем должно им поддерживаться сейчас.

44F529B2-0FE5-4691-B394-077A10C6850B.jpeg