Искусственный интеллект ошибается и врёт так же, как раньше, но теперь он делает это мило — и вы ему доверяете
Проанализировали 2000 диалогов с ИИ-чат-ботами и выяснили: вежливость повышает доверие, даже когда они несут бред.
Люди начинают видеть в ИИ-чат-боте нечто похожее на собеседника не тогда, когда модель отвечает точнее, а тогда, когда она звучит дружелюбнее. К такому выводу пришли авторы нового исследования, где разбиралось не качество самих систем, а то, какие именно черты в их поведении заставляют пользователей приписывать им личность, эмоции и внутренние намерения.
Авторы проанализировали более 2000 взаимодействий между людьми и большими языковыми моделями, в которых участвовали 115 человек. При этом исследователи не переобучали систему и не меняли ее базовые возможности. Команда последовательно варьировала стиль ответов по нескольким параметрам: теплоте, компетентности и эмпатии, а затем смотрела, как меняется восприятие модели по шкалам антропоморфизма, доверия, полезности, сходства с человеком, раздражения и чувства близости.
Самое сильное влияние оказала теплота, то есть то, насколько дружелюбным, располагающим и приятным кажется тон модели. Именно этот параметр заметно менял все ключевые оценки сразу. Когда бот отвечал более тепло, участники чаще воспринимали его как нечто более человеческое, сильнее ему доверяли, выше оценивали практическую пользу, чувствовали больше близости и меньше раздражались. Даже степень антропоморфизма – склонность приписывать системе человеческие черты, в первую очередь зависела именно от манеры общения.
С компетентностью картина вышла другой. Она тоже влияла на восприятие, но уже не так широко. Более уверенные, точные и содержательные ответы повышали доверие, полезность и снижали раздражение, однако почти не меняли ощущение человечности. Иначе говоря, хороший результат помогает считать систему полезным инструментом, но сам по себе не заставляет видеть в ней подобие личности.
В работе есть и важная оговорка про пределы дружелюбия. Когда теплый тон не подкреплен содержанием, он начинает работать против модели. Вместо ощущения живого общения возникает впечатление натянутой любезности. Авторы описывают такой эффект как superficial agreeableness, то есть внешнюю приветливость без содержательной опоры. Проще говоря, бот начинает не помогать, а поддакивать.
Эмпатию исследователи разбили на две разные составляющие. Первая связана с тем, понимает ли модель, что именно хочет сказать пользователь, улавливает ли смысл вопроса и логику разговора. Вторая касается уже эмоциональной стороны, когда система старается показать участие, сочувствие или поддержку. Первая составляющая проявилась почти во всех метриках и влияла заметно шире. Вторая в основном усиливала чувство близости, но почти не меняла доверие и оценку пользы.
Отдельный результат касается самих тем разговора. Когда участники обсуждали с моделью фактические вопросы, например биологию или историю, взаимодействие оставалось заметно более сухим. Когда разговор переходил к субъективным или лично значимым темам, таким как отношения или образ жизни, чувство связи с моделью усиливалось.
У такого эффекта есть и обратная сторона. В статье прямо сказано, что антропоморфизм повышает вовлеченность, но одновременно может вести к избыточному доверию и повышать уязвимость человека к ошибкам, манипуляциям и ложным выводам. Чем убедительнее система звучит как человек, тем охотнее пользователь начинает достраивать за нее то, чего в ней может и не быть: понимание, надежность, компетентность и добрые намерения.
Какой можно сделать вывод? Если задача разработчика состоит в том, чтобы удерживать внимание и делать общение комфортным, дружелюбный стиль помогает очень сильно. Если же важно, чтобы человек оценивал систему прежде всего по точности и надежности, такая подача легко сбивает фокус. Приятный тон в таком случае не исправляет слабые места модели, а просто маскирует их лучше.