Когда ИИ помогает принимать решения, когда люди должны их пересматривать?

Важные новости

Когда ИИ помогает принимать решения , когда людям следует отказаться?» /></p>
<p> Точность при предоставлении пояснений не выше базовой. Фото: <i>Материалы конференции CHI по человеческому фактору в вычислительных системах</i> (2024 г.). DOI: 10.1145/3613904.3642621 </p>
<p>Рынок искусственного интеллекта стоимостью 184 миллиарда долларов не демонстрирует никаких признаков замедления. Большую часть этого рынка составляют организации, от предприятий до государственных учреждений, которые полагаются на искусственный интеллект при принятии решений. Исследование IBM, проведенное в 2023 году, показало, что 43% руководителей используют ИИ для принятия стратегических решений.</p>
<p>Но полагаться на ИИ может быть проблематично, учитывая его хорошо документированную историю предвзятости, включая стереотипы по признаку расы и пола. Это может привести к ошибочным рекомендациям и несправедливому обращению, когда ИИ считает, что демографические факторы препятствуют предоставлению банковского кредита или собеседования определенным людям.</p>
<p>Один из способов смягчить эти проблемы, по мнению экспертов, — заставить системы ИИ объяснять сами себя. Просматривая «объяснения» ИИ о том, как они принимают решения, менеджеры по найму людей или кредитные специалисты, например, могут решить, стоит ли игнорировать рекомендации ИИ.</p>
<p>Но новое исследование Техасского университета МакКомбса показывает, что сами объяснения могут быть проблематичными. Они могут подпитывать восприятие справедливости, не будучи основанными на точности или равенстве.</p>
<p>«Мы обнаружили, что этот процесс не приводит людей к фактическому принятию более качественных или более справедливых решений», — говорит Мария Де-Артеага, доцент кафедры информации, рисков и управления операциями.</p>
<p>В своем исследовании Де-Артеага и ее соавторы — научный сотрудник Техасского университета Якоб Шеффер и Никлас Кюль из Байройтского университета, Германия — заставили систему искусственного интеллекта прочитать 134 436 онлайн-биографий и предсказать, является ли каждый человек учителем или профессором.</p>
<p>Затем участникам-людям разрешили прочитать биографии и выбрать, следует ли игнорировать рекомендации ИИ. Было два типа объяснений, и каждый участник видел одно из них:</p>
<ul>
<li>Объяснения, выделяющие ключевые слова, относящиеся к задаче, такие как «исследования» или «школы».</li>
<li>Объяснения, выделяющие ключевые слова, связанные с полом, такие как «он» или «она».</li>
</ul>
<p>Исследование показало, что участники на 4,5 процентных пункта чаще отвергали рекомендации ИИ, когда объяснения подчеркивали пол, а не значимость задачи.</p>
<p>Основная причина: предполагаемая гендерная предвзятость. Участники с большей вероятностью считали рекомендации несправедливыми, когда они фокусировались на поле.</p>
<h2>Иллюзия точности и справедливости</h2>
<p>Но участники не всегда были правы. Когда дело дошло до идентификации профессоров или учителей, переопределение по гендерному признаку было не более точным, чем переопределение по задачам. Фактически, ни один из типов объяснений не улучшил точность человеческой оценки по сравнению с участниками, которым не давали объяснений.</p>
<p>Почему объяснения не привели к лучшим решениям? Де-Артеага фокусируется на участниках, которые видели слова, относящиеся к задаче, и предполагали, что они свободны от гендерных предубеждений.</p>
<p>Но исследования показали обратное: алгоритм может развить гендерную предвзятость, изучая корреляции между, казалось бы, релевантными для задачи слова и род. Объяснения не обнаруживают такой предвзятости. Люди ошибочно полагают, что ИИ гендерно-нейтрален, и отказываются игнорировать это мнение.</p>
<p>«Есть надежда, что объяснения помогут людям распознать, являются ли рекомендации неверными или предвзятыми», — говорит Де-Артеага. «Но существует разрыв между тем, что делают объяснения, и тем, что мы хотели бы, чтобы они делали».</p>
<p>Хотя объяснения ИИ, которые пытаются приблизительно оценить важность определенных факторов, могут быть изначально несовершенными, Де-Артеага и ее соавторы предлагают несколько способов сделать их разработку и развертывание более полезными для лиц, принимающих решения.</p>
<ul>
<li>Установите более конкретные и реалистичные цели для объяснений, основанные на решениях, которые необходимо принять, и оцените, достигают ли они желаемой цели.</li>
<li>Предоставьте более релевантные подсказки в объяснениях, например, те, которые связаны со справедливостью в системе ИИ.</li>
<li>Расширьте сферу объяснений, предоставив больше информации о том, как работает алгоритм. Например, знание того, какие данные доступны системе, а какие нет, может помочь людям лучше использовать алгоритмы.</li>
<li>Изучайте психологические механизмы, действующие, когда люди решают или не решают отменить решение ИИ. Рекомендации должны быть разработаны так, чтобы отражать, как люди на самом деле взаимодействуют с ИИ, а не как исследователи хотели бы, чтобы они взаимодействовали.</li>
</ul>
<p>По ее словам, цель состоит в том, чтобы разработать инструменты, которые помогут людям успешно дополнять системы ИИ, а не просто предлагать объяснения, которые создают ложное чувство доверия.</p>
<p>«Это одна из проблем с объяснениями», — говорит она. «Они могут заставить вас больше доверять системе, даже если система не заслуживает вашего доверия».</p>
<p>«Объяснения, справедливость и уместное доверие при принятии решений с участием человека и искусственного интеллекта» опубликовано в <i>Материалах конференции CHI по человеческому фактору в вычислительных системах</i>.</p>
<p><strong>Дополнительная информация:</strong> Якоб Шеффер и др., Объяснения, справедливость и уместное доверие при принятии решений с участием человека и искусственного интеллекта, <i>Материалы конференции CHI по человеческому фактору в вычислительных системах</i> (2024). DOI: 10.1145/3613904.3642621 Предоставлено Техасским университетом в Остине</p>
</div></div><div class=

Новости сегодня

Последние новости