Четверг, 23 апреля 2026
$74.59 €87.77 ¥10.95
2.3 C
Санкт-Петербург

Ученые выясняют, при каких условиях люди выберут ИИ вместо человеческих суждений

По мере внедрения ИИ в различные сферы жизни общества понимание готовности людей принимать решения, основанные на ИИ, становится важнейшей научной и социальной проблемой. Вопрос о том, могут ли люди принимать решения, основанные на суждениях людей или ИИ, в ситуациях, когда они не уверены в своих собственных, остается открытым.

Ученые выясняют, при каких условиях люди выберут ИИ вместо человеческих суждений
Фото: Unsplash

С внедрением ИИ в различные сферы жизни общества важно понимать готовность людей принимать решения, основанные на ИИ. Вопрос о том, могут ли люди принимать решения, основанные на суждениях ИИ, остается открытым. В исследовании, опубликованном в журнале Scientific reports, основное внимание уделяется «несотрудничеству с людьми с плохой репутацией» в рамках косвенной взаимности, так как люди избегают оценок оправданного отступничества.

Авторы изучили, какие решения люди приняли бы, если бы ИИ и люди принимали разные решения. Эксперименты показали, что люди считают решение ИИ более правильным только тогда, когда ИИ выносил положительное решение, а человек — отрицательное. Исследование предлагает новый взгляд на анализ человеческих норм, изучая различия в принятии решений ИИ и людьми.

Для стабильного кооперативного поведения необходимы социальные нормы, оценивающие оправданный отказ от сотрудничества как положительный. Если бы таких норм не было, те, кто отказывается от сотрудничества с плохим человеком, считались бы плохими, что привело бы к цепочке отказов от сотрудничества. Однако недавнее исследование показало, что люди нейтрально относятся к оправданному отступничеству, избегая оценок. Оправданное отступничество также можно рассматривать как форму наказания, которое, хотя и служит механизмом поддержания кооперации, не всегда приводит к приобретению хороших репутаций.

Два эксперимента показали, что люди считали решение ИИ более правильным только тогда, когда ИИ выносил положительное решение, а человек — отрицательное. Исследование показывает, что принятие решений ИИ зависит от оценки скрытых намерений, стоящих за общественными нормами, и предлагает новый взгляд на анализ человеческих норм.

Авторы статьи выяснили, что склонность к умозаключениям может объяснить, почему люди в определенных ситуациях были более склонны принимать ИИ. Колебания людей в оценке оправданного отказа от сотрудничества, скорее всего, связаны с конкурирующими критериями оценки. С одной стороны, критерии могут включать понятия «нельзя мириться с халявщиками» и «я могу понять, почему не стоит помогать эгоистичным людям». С другой стороны, критерии могут включать убеждения «месть — это плохо» и «мы должны помогать всем, кто в этом нуждается».

Эти силы обычно находятся в конфликте, и большинство людей решают воздержаться от суждений. Ученые предположили, что участники чувствовали, что оценка людьми оправданного дезертирства как хорошего подразумевала попустительство актам мести, тогда как оценка ИИ выглядела как рациональная оценка.

Исследователи также уточнили, что эксперимент не дает доказательств этого механизма, и в будущих исследованиях необходимо будет изучить мотивы этих суждений и только наблюдая за различиями в восприятии решений, принятых ИИ и людьми, можно будет приподнять завесу, скрывающую механизм принятия решений людьми.

Узнавайте о новостях первыми в наших официальных каналах в Telegram и Дзене

Поделиться:

Читайте также

Астрономы впервые измерили точную мощность релятивистских струй, исходящих от черной дыры Лебедь X-1. Полученные данные подтвердили, что джеты уносят около 10% энергии, выделяемой при поглощении материи.Характеристики системыCистема Cygnus X-1 расположена на расстоянии семи тысяч световых лет от Земли и считается одним из самых ярких рентгеновских источников на небе. Она представляет собой черную дыру звездной массы, которая примерно в 21 раз превышает массу Солнца и питается веществом от голубой сверхгигантской звезды-компаньона. Расстояние между черной дырой и звездой-донором составляет около 48 миллионов километров и равняется примерно 20% дистанции от Земли до Солнца.Голубая сверхгигантская звезда поставляет материал черной дыре через мощные звездные ветры. Это вещество не может падать прямо на черную дыру из-за углового момента. Вместо этого оно формирует сплющенное вихревое облако...
В 2027 году страховые пенсии россиян планируется проиндексировать дважды. Окончательное решение будет принято осенью при подготовке бюджета.Индексация пенсий в 2027 годуПредседатель комитета Государственной думы по труду, социальной политике и делам ветеранов Ярослава Нилова сообщил, что в 2027 году страховые пенсии планируется индексировать дважды. По словам депутата, повышение может произойти 1 февраля по фактической инфляции и 1 апреля с учетом возможностей бюджета Социального фонда.Нилов отметил, что двухэтапная схема точнее подстраивается под экономику, однако разовая индексация с начала года эффективнее защищает пенсионеров от инфляционных скачков.Новый подходДоцент Финансового университета при правительстве РФ Ольга Борисова считает, что преимущество одной индексации в год заключается в том, что пенсионеры видят итоговый размер прибавки. Это делает процесс планирования семейного бюджета простым и понятным. По словам эксперта,...

Интересное

Новости дня

По теме

Подпишись на наши соцсети

Сообщить новость

Отправьте свою новость в редакцию, расскажите о проблеме или подкиньте тему для публикации. Сюда же загружайте ваше видео и фото.

ИЛИ ПИШИТЕ