ИИ для проверки психического здоровья может нести предвзятость по признаку пола и расы

Важные новости

ИИ для Скрининг психического здоровья может иметь предвзятость по признаку пола и расы». /></p>
<p> Фото: <i>Frontiers in Digital Health</i> (2024). DOI: 10.3389/fdgth.2024.1351637 </p>
<p>По данным нового исследования, проведенного ученым-компьютерщиком из Калифорнийского университета в Боулдере Теодорой Часпари, некоторые инструменты искусственного интеллекта для здравоохранения могут сбиваться с толку из-за того, как разговаривают люди разных полов и рас.</p>
<p> < р>Исследование основано на, возможно, невысказанной, реальности человеческого общества: не все говорят одинаково. Женщины, например, склонны говорить на более высоком тоне, чем мужчины, в то время как похожие различия могут возникать, скажем, между белыми и черными говорящими.</p>
<p>Теперь исследователи обнаружили, что эти естественные различия могут сбивать с толку алгоритмы, которые проверяют людей на наличие проблем с психическим здоровьем, таких как тревожность или депрессия. Результаты дополняют растущий массив исследований, показывающих, что ИИ, как и люди, может делать предположения на основе расы или пола.</p>
<p>«Если ИИ плохо обучен или не включает в себя достаточно репрезентативных данных, он может распространять эти человеческие или общественные предубеждения», — говорит Часпари, доцент кафедры компьютерных наук.</p>
<p>Она и ее коллеги опубликовали свои выводы 24 июля в журнале <i>Frontiers in Digital Health</i>.</p>
<p>Часпари отметил, что ИИ может быть многообещающей технологией в мире здравоохранения. Тонко настроенные алгоритмы могут просеивать записи разговоров людей, выискивая едва заметные изменения в том, как они говорят, которые могут указывать на скрытые проблемы с психическим здоровьем.</p>
<p>Но эти инструменты должны работать последовательно для пациентов из многих демографических групп, сказал компьютерный ученый. Чтобы выяснить, справится ли ИИ с этой задачей, исследователи загрузили аудиосэмплы реальных людей в общий набор алгоритмов машинного обучения.</p>
<p>Результаты выявили несколько тревожных сигналов: например, инструменты ИИ, по-видимому, недооценивали женщин, которые были подвержены риску депрессии больше, чем мужчины, — результат, который в реальном мире может помешать людям получить необходимую им помощь.</p>
<p>«С помощью искусственного интеллекта мы можем выявлять эти тонкие закономерности, которые люди не всегда могут воспринять», — сказал Часпари, который проводил работу в качестве преподавателя Техасского университета A&M. «Однако, хотя эта возможность есть, есть и большой риск».</p>
<h2>Речь и эмоции</h2>
<p>Она добавила, что то, как люди говорят, может быть мощным окном в их глубинные эмоции и благополучие — то, что поэты и драматурги давно знали.</p>
<p>Исследования показывают, что люди с диагнозом клинической депрессии часто говорят тише и более монотонно, чем другие. Люди с тревожными расстройствами, в свою очередь, склонны говорить более высоким тоном и с большим «дрожанием», измерением придыхания в речи.</p>
<p>«Мы знаем, что речь во многом зависит от анатомии человека», — сказал Часпари. «Что касается депрессии, то были некоторые исследования, показывающие изменения в том, как происходят вибрации голосовых связок, или даже в том, как голос модулируется голосовым трактом».</p>
<p>За эти годы ученые разработали инструменты ИИ, чтобы искать именно такие изменения.</p>
<p>Часпари и ее коллеги решили рассмотреть алгоритмы под микроскопом. Для этого команда использовала записи разговоров людей в различных сценариях: в одном из них люди должны были выступить с 10–15-минутной речью перед группой незнакомцев.</p>
<p>В другом случае мужчины и женщины разговаривали дольше в обстановке, похожей на визит к врачу. В обоих случаях говорящие по отдельности заполняли анкеты о своем психическом здоровье. В исследовании приняли участие Майкл Янг и Абд-Аллах Эль-Аттар, студенты бакалавриата Техасского университета A&M.</p>
<h2>Исправление предубеждений</h2>
<p>Результаты, казалось, были повсюду.</p>
<p>Например, в записях публичных выступлений участники-латиноамериканцы сообщили, что в среднем они чувствовали себя намного более нервными, чем белые или чернокожие ораторы. Однако ИИ не смог обнаружить эту повышенную тревожность. Во втором эксперименте алгоритмы также отметили равное количество мужчин и женщин как подверженных риску депрессии. В действительности, ораторы-женщины испытывали симптомы депрессии гораздо чаще.</p>
<p>Часпари отметил, что результаты команды — это всего лишь первый шаг. Исследователям необходимо будет проанализировать записи гораздо большего количества людей из самых разных демографических групп, прежде чем они смогут понять, почему ИИ ошибался в определенных случаях, и как исправить эти предубеждения.</p>
<p>Но, по ее словам, исследование является признаком того, что разработчикам ИИ следует проявлять осторожность, прежде чем внедрять инструменты ИИ в медицинский мир: «Если мы думаем, что алгоритм на самом деле недооценивает депрессию для определенной группы, нам нужно сообщить об этом врачам».</p>
<p><strong>Дополнительная информация:</strong> Майкл Янг и др., Деконструкция демографических предубеждений в моделях машинного обучения на основе речи для цифрового здравоохранения, <i>Frontiers in Digital Health</i> (2024). DOI: 10.3389/fdgth.2024.1351637 Предоставлено Университетом Колорадо в Боулдере</p>
</div></div><div class=

Новости сегодня

Последние новости