Доверие к ИИ грозит проблемами — выяснили психологи
Искусственный интеллект (ИИ) становится не просто помощником, но и эмоциональным спутником для многих людей. Некоторые даже называют ИИ своими «возлюбленными» или обращаются к нему в трудные моменты. Но что происходит, когда мы начинаем доверять машинам слишком сильно? Новое исследование, опубликованное в Trends in Cognitive Sciences, вызывает опасение у научного сообщества: эмоциональная привязанность к ИИ может менять наше поведение, разрушать человеческие связи и даже приводить к трагедиям.
Что выяснили ученые?
Психологи из Университета науки и технологий Миссури изучили, как длительные отношения с ИИ влияют на людей. ИИ, такие как чат-боты, умеют имитировать заботу и понимание, становясь для некоторых «идеальными» друзьями. Но эта близость таит риски: от нереалистичных ожиданий в реальных отношениях до манипуляций и обмана.
«Способность ИИ теперь действовать как человек и вступать в долгосрочные коммуникации действительно открывает новый "ящик пандоры"», — говорит ведущий автор исследования Даниэль Шанк.
Исследователи предупреждают, что ИИ может давать вредные советы. Например, чат-бот может казаться заботливым, но «галлюцинировать» — то есть выдавать ложную информацию с уверенностью что это так и есть. В крайних случаях это приводило к трагедиям, включая самоубийства после общения с ИИ. Хотя такие случаи редки, они показывают, насколько опасным может быть доверие к машинам.
Когда человек месяцами общается с ИИ, он начинает видеть его как друга или даже партнера. Это проще, чем строить связи с людьми: ИИ всегда доступен, не осуждает и подстраивается под настроение. Но это создает проблемы:
- люди могут ждать от друзей или партнеров такого же «совершенства», как от ИИ, что вредит отношениям;
- зависимость от ИИ снижает желание общаться с людьми, повышает социальную изоляцию;
- ИИ собирает личные данные, которые могут быть использованы для обмана или мошенничества.
«Если мы начнем думать об ИИ как о том, кто имеет в виду наши интересы, мы можем поверить, что он дает лучший совет, хотя на самом деле он может давать ложные ответы», — объясняет Шанк.
ИИ-компаньоны работают в тени, их разговоры приватны, и никто не проверяет, что они говорят. В отличие от соцсетей, где контент виден многим, в том числе и модераторам, чат-боты действуют как «секретные агенты». Они могут убедить человека в ложных идеях — например, теориях заговора — или подтолкнуть к опасным действиям, оставаясь «дружелюбными». Были случаи, что чат-боты даже рекомендовали прием неверных препаратов, когда люди обращались к ним за советом, что приводило с серьезным последствиям.
Особенно тревожит, что ИИ не запрограммированы на безопасность. Они стремятся поддерживать беседу, а не давать правдивые или безопасные советы. Это делает их потенциально более влиятельными, чем новости или посты в интернете. Кроме того, у многих ИИ последнего поколения отключена цензура.
Ученые призывают изучать психологию отношений с ИИ. Пока технология опережает исследования, и без новых правил люди рискуют стать жертвами машин, которые кажутся друзьями, но не несут ответственности.