Исследование исследует роль ИИ в помощи социальным работникам в принятии важных решений

В дискуссиях об искусственном интеллекте (ИИ) и автоматизации Санмай Дас обнаружил одну закономерность: хотя многие люди считают, что некоторые рабочие места могут быть заменены ИИ, они уверены, что их работа слишком сложна и многогранна для передачи машинам.

Эта динамика находится в центре его исследований в Центре искусственного интеллекта и аналитики данных Сангани, где он является заместителем директора по ИИ для социального воздействия. Он и его студенты изучают как потенциал, так и подводные камни делегирования принятия решений в сфере социальных услуг, особенно в отношении бездомности.

Социальные работники часто перегружены работой и должны балансировать между набором конкурирующих целей. Им часто приходится решать, кому могут потребоваться более интенсивные вмешательства, такие как консультации и определённые медицинские ресурсы, а кому может быть достаточно менее интенсивных ресурсов.

Существует также необходимость удовлетворения насущных потребностей при одновременном стремлении направить людей на путь к более стабильному и долгосрочному жилью — и всё это при ограниченном муниципальном бюджете.

«Вопрос, над которым мы думаем уже давно: „Как мне решить, как сделать такую приоритизацию? Кому какие ресурсы выделить?“ — сказал Дас. — А затем: „Каковы последствия этого, как с точки зрения распределения, так и с точки зрения эффективности? Делаем ли мы всё возможное, чтобы помочь людям выйти из бездомности?“»

С этой целью Дас провёл несколько исследований, которые дали интересные результаты. Несколько его первых проектов были посвящены тому, насколько хорошо ИИ может предсказывать, как разные типы домохозяйств отреагируют на различные вмешательства, и как эту информацию можно использовать для оптимизации распределения ресурсов.

В первом исследовании учёные представили варианты сценариев вмешательства для людей, столкнувшихся с бездомностью, неэкспертам. Учитывая ограниченные ресурсы, некоторые люди сосредоточились на работе с наиболее уязвимыми, в то время как другие отдавали приоритет тем, кто, по их мнению, получит наилучшие результаты.

Интересно, что когда людям также показывали прогноз ИИ о том, насколько хорошо их подопечные справятся с выбранным ими вмешательством, они, как правило, склонялись к распределению ресурсов в пользу тех, кто, по их мнению, получит наилучшие результаты.

Во втором эксперименте Дас и его команда изучили реальные данные о решениях социальных работников, пытаясь понять результаты, когда они принимали дискреционные решения о распределении услуг для бездомных в определённых случаях.

Он обнаружил, что, несмотря на большую загруженность и необходимость совмещать множество приоритетов, их дискреционные решения улучшили результаты с обеих сторон.

«Интересно, что данные, похоже, показывают, что социальные работники способны выявить то, что трудно определить в целом, — сказал Дас. — Они довольно последовательны в принятии решений, и когда они принимают дискреционные решения, они делают это таким образом, что помогает домохозяйствам, которым выделяются более интенсивные ресурсы, но не слишком сильно ущемляет домохозяйства, которым выделяются менее интенсивные ресурсы, чем можно было бы ожидать».

В новой статье, опубликованной на сервере препринтов arXiv, Дас и его команда попросили группу больших языковых моделей (LLM) принять такие же решения о вмешательстве в ситуацию с бездомностью. Они обнаружили, что решения LLM были похожи на выбор неспециалистов из первого эксперимента, но при этом были крайне вариативными, практически не коррелируя с существующими системами оценки уязвимости и медицинской слабости.

Вместе работа Даса и его студентов и коллег рисует картину технологии с потенциалом, но не готовой просто заменить человеческое суждение, особенно для такой важной задачи.

«Неясно, что эти LLM готовы просто „подключиться“ в качестве замены той работе, которую выполняют люди», — сказал Дас.

Это лежит в основе работы Даса в этот зарождающийся момент развития генеративного ИИ.

«Санмай в своих проектах действительно думает о людях и последствиях автоматизированных решений для их жизни или работы, и о том, что произойдёт, если они будут ошибочными», — сказал Нарен Рамакришнан, директор Центра Сангани. «Это самый важный аспект».

Один из обязательных курсов для получения сертификата о высшем образовании в области аналитики данных в Институте перспективных вычислений Вирджинии называется «Этика и профессионализм в науке о данных». Он включает примеры экспериментов, которые пошли не так, в том числе в таких областях, как прогнозирование действий полиции, которое может быть основано на неравенстве исторических данных и создавать усиливающуюся петлю.

«Необходимо более глубокое понимание технологий общественностью, — сказал Рамакришнан. — Вы не делаете никому одолжения, если представляете их как магические или таинственные».

Тем не менее, Дас в настоящее время использует методы машинного обучения, чтобы попытаться изучить эффективное принятие решений, которое социальные работники приняли в его втором эксперименте, чтобы лучше понять их мотивацию и анализ. Он надеется, что технологии могут стать инструментом, помогающим облегчить их работу, позволяя при этом их опыту продолжать направлять сложные и сложные решения.

«ИИ очень полезен, и он может делать множество разных вещей, но то, как вы структурируете это взаимодействие, имеет все виды последствий для решений, которые вы получите в конце дня, — сказал он. — И это может оказать значительное влияние на жизнь людей».

Предоставлено:
[Virginia Tech](https://phys.org/partners/virginia-tech/)

Источник