Кредит: Pixabay/CC0 Public Domain
Новое междисциплинарное исследование, проведенное учеными из Вашингтонского университета в Сент-Луисе, выявило неожиданный психологический феномен на стыке человеческого поведения и искусственного интеллекта: когда участникам сказали, что они обучают ИИ играть в торг, они активно корректировали свое поведение, чтобы казаться более честными и справедливыми, импульс с потенциально важными последствиями для разработчиков ИИ в реальном мире.
«Похоже, что у участников была мотивация обучать ИИ честности, что обнадеживает, но у других людей могут быть другие цели», — сказала Лорен Трейман, аспирантка Отделения вычислительных и информационных наук и ведущий автор исследования. «Разработчики должны знать, что люди намеренно изменят свое поведение, когда узнают, что оно будет использоваться для обучения ИИ».
Исследование опубликовано в Proceedings of the National Academy of Sciences. Соавторами являются Воутер Кул, доцент кафедры психологии и наук о мозге в Arts & Sciences, и Чиен-Джу Хо, доцент кафедры компьютерных наук и инженерии в McKelvey School of Engineering. Кул и Хо являются научными руководителями Треймана.
Исследование включало пять экспериментов, в каждом из которых участвовало около 200–300 человек. Испытуемым было предложено сыграть в «Ultimatum Game», в которой им нужно было договориться о небольших денежных выплатах (всего от 1 до 6 долларов) с другими игроками-людьми или компьютером. В некоторых случаях им говорили, что их решения будут использованы для обучения бота ИИ игре.
Игроки, которые думали, что они тренируют ИИ, были последовательно более склонны добиваться справедливой доли выплаты, даже если такая справедливость стоила им нескольких долларов. Интересно, что это изменение поведения сохранялось даже после того, как им сказали, что их решения больше не используются для тренировки ИИ, что предполагает, что опыт формирования технологий оказал долгосрочное влияние на принятие решений.
«Как когнитивные ученые, мы заинтересованы в формировании привычек», — сказал Кул. «Это классный пример, потому что поведение продолжалось даже тогда, когда оно больше не требовалось».
Тем не менее, импульс, лежащий в основе поведения, не совсем ясен. Исследователи не спрашивали о конкретных мотивах и стратегиях, и Кул объяснил, что участники могли не чувствовать сильного обязательства сделать ИИ более этичным. Возможно, сказал он, эксперимент просто выявил их естественные склонности отклонять предложения, которые казались несправедливыми.
«Они, возможно, на самом деле не думают о будущих последствиях», — сказал он. «Они могли просто выбрать легкий путь».
«Исследование подчеркивает важность человеческого элемента в обучении ИИ», — сказал Хо, компьютерный ученый, изучающий взаимосвязи между поведением человека и алгоритмами машинного обучения. «Значительная часть обучения ИИ основана на человеческих решениях», — сказал он. «Если не учитывать человеческие предубеждения во время обучения ИИ, то полученный ИИ также будет предвзятым. За последние несколько лет мы увидели много проблем, возникающих из-за такого рода несоответствия между обучением ИИ и его развертыванием».
Например, некоторые программы распознавания лиц менее точны при идентификации цветных людей, сказал Хо. «Это отчасти потому, что данные, используемые для обучения ИИ, предвзяты и нерепрезентативны», — сказал он.
Трейман сейчас проводит последующие эксперименты, чтобы лучше понять мотивы и стратегии обучения ИИ людьми. «Очень важно учитывать психологические аспекты компьютерной науки», — сказала она.
Дополнительная информация: Лорен С. Трейман и др., Последствия обучения ИИ для принятия решений человеком, Труды Национальной академии наук (2024). DOI: 10.1073/pnas.2408731121
Информация о журнале: Труды Национальной академии наук Предоставлено Вашингтонским университетом в Сент-Луисе