Может ли ИИ быть моральным советчиком — выяснилось в эксперименте

Проблема в том, что искусственный интеллект может давать советы, которые выгодны большинству, но не учитывает мнение меньшинства.
whiteMocca/Shutterstock/FOTODOM

ИИ-разработки все чаще проникают в сферы, связанные с этикой и моралью. Однако новое исследование, опубликованное в Cognition учеными Университета Кента (Англия), показывает, что люди с недоверием относятся к искусственным консультантам, даже если их советы идентичны советам людей.

Почему люди не доверяют моральному ИИ?

AMA – это системы на основе искусственного интеллекта, разработанные для помощи в принятии моральных решений. Они анализируют этические принципы и предлагают рекомендации без предвзятости. Однако исследование показало, что люди не хотят доверять ИИ в решении моральных дилемм, особенно если его советы основаны на утилитаризме (максимизация пользы для большинства).

Эксперимент продемонстрировал, что:

  • Люди отвергают моральные советы ИИ чаще, чем советы людей, даже если они совпадают.
  • Советы, основанные на четких моральных правилах (например, «нельзя причинять вред»), вызывают больше доверия, чем те, которые предлагают жертвовать интересами одних ради блага большинства.
  • Даже если человек соглашается с советом ИИ, он все равно ожидает разногласий в будущем, что говорит о глубоком скептицизме.

По мере развития технологий AMA могут начать применять в сфере медицины, права и управления и для психологической помощи. Однако доверие к моральному ИИ – не только вопрос точности, но и соответствия человеческим ценностям.

Исследователи считаю, что разработчики ИИ должны учитывать восприятие людьми моральных решений, иначе даже самые рациональные алгоритмы останутся невостребованными.