Можно ли раскрывать душу Сири и Алисе?

«Сири, поговори со мной!», «Алиса, как дела?» — если вы хоть раз произносили эти фразы, то понимаете, что технологии не просто вошли в нашу жизнь, но и стали «таблеткой» от одиночества. Голосовым помощникам доверяют проблемы, жалуются не начальство, задают вопросы о смысле жизни. Существуют даже специальные мобильные приложения, которые определяют уровень счастья своего пользователя и скачки его настроения.

Но можно ли настолько искренне доверять искусственному интеллекту? А если этого не стоит делать, то почему?

Капитализм и социализм эмоций

Исследование института креативных технологий (Лос-Анджелес) доказало, что люди ведут себя честнее, если уверены, что общаются именно с машиной, а не с живым существом. Так подсознательно они оберегают свою психику от чужой критики, ярлыков, пристрастности.

интернет

Но тут кроется парадокс: искусственному интеллекту не стоит в этом доверять, потому что «чувствовать» он учится у человека и так или иначе воспроизводит настроения и формулировки, актуальные на текущий момент в определенной культуре. А это далеко от объективности. И если за машинным обучением не следить, рано или поздно все в любом случае скатится в стереотипные выводы и обидные оскорбления.

Так, Google Ассистент — это детище так называемого «эмоционального капитализма, который ставит разум выше чувств, а их подчиняет логике рыночных интересов. В сложной ситуации этот виртуальный помощник предложит вас обнять: по убеждению его создателей, это хорошо нейтрализует негатив.

А вот отечественная Алиса — это порождение эмоционального социализма, который воспринимает страдания как неизбежность, и она является воплощением «жесткой» любви. Если ей пожаловаться, что вам психологически плохо, она посоветует терпеть. По словам руководителя сервиса Ильи Субботина, Алису нельзя было делать очень милой и няшной — россиянам ближе сарказм и даже черный юмор, чем нежности-обнимашки.

Однако Алиса все-таки отражает настроения своих создателей. Так, активистка Дарья Чермошанская распространила такую историю. Она спросила виртуальную собеседницу, нормали ли, если муж ударил жену, и машинная девица ответила: «Конечно», добавив, что супруга должна благоверного «кормить, любить и не бросать». После шумихи вокруг обнародования этой информации компания «Яндекс» вынуждена была держать ответ. Она признала такие высказывания неприемлемыми и пообещала поработать над поведением Алисы. Через полгода в ответ на тот же вопрос механический голос ответил: «Может, но не должен».

Антидот от дискомфорта

При этом широкое распространение получили также специальные мобильные приложения, которые определяют уровень счастья своего пользователя и скачки его настроения, сигнализируют об учащении пульса и пр. Разработчики заявляют, что их проекты борются с депрессией и биполярным расстройством. Но в то же время пользователь испытывает вину, если избавиться от депрессии не получается.

Современные технологии культивируют комплексы неполноценности (соцсети, приложения для знакомств), и тут же вы можете купить «антидот», который поможет успокоиться и выйти из этого дискомфортного состояния.

Кроме того, ученые указывают на еще одну опасность чрезмерно тесного общения с искусственным интеллектом: если вести с неживым собеседником многочасовые разговоры, рано или поздно мышление, язык и чувства человека станут шаблонными. А значит, его поведение станет легче монетизировать!

Чтобы не попасть на такую удочку, очень важно избегать стереотипного мышления и не впускать клише в свое сознание. Отличным противоядием от таких явлений служит курс Викиум «Критическое мышление» — он учит фокусировать внимание на главном, отгораживаться от эмоций, не вестись на рекламные уловки и даже не совершать необдуманных покупок. Пройдя этот курс, вы будете принимать грамотные, адекватные, взвешенные решения и избавитесь от предсказуемости в мышлении и поведении.

Читать далее