Аннотация
По мере того, как наш мир становится все более зависим от данных, алгоритмы чаще и чаще используются для принятия обоснованных решений в различных областях, начиная от финансов и заканчивая управлением персоналом. Сфера здравоохранения не является исключением, и искусственные интеллектуальные системы получают все большее распространение в этой области. В то время как ИИ может помочь нам принимать более обоснованные и эффективные решения, он также служит источником множества моральных и этических проблем. Одним из самых глобальных является вопрос доверия. Когда машина заменяет человека в сфере здравоохранения, пациентам и медицинским работникам может стать трудно доверять тому процессу и результатам лечения, которые предлагает ИИ. Кроме того, механизм «черного ящика» в системах искусственного интеллекта ставит вопрос: кто несет ответственность за принятые решения, и кто должен за них отвечать в случае ошибки? К этим вопросам добавляется проблема эмоциональной фрустрации — разрыв контакта «человек–человек» рискует ввести пациентов и медицинских работников в состояние эмоционального разочарования от неспособности вести живую коммуникацию с роботизированным механизмом и, как следствие, привести к падению эффективности лечения и комплаентности. Несмотря на увеличение внимания к этим проблемам в последние годы, технические решения этих сложных моральных и этических вопросов часто разрабатываются без учета социального контекста и мнения агентов, которых затрагивает технология. Кроме того, призывы к более этичному и социально ответственному ИИ часто фокусируются на основных правовых принципах, таких, как «прозрачность» и «ответственность» и не учитывают намного более проблематичную область человеческих ценностей. Для решения этой проблемы в статье предлагается рассмотреть "ценностно-чувствительный" подход к разработке ИИ, который может помочь перевести основные права и ценности человека в контекстно-чувствительные требования к алгоритмам искусственного интеллекта. Этот подход может помочь создать маршрут от человеческих ценностей к ясным и понятным требованиям для дизайна ИИ. Помимо представления ключевых требований к алгоритмам этико-чувствительного ИИ, предлагается посмотреть, какие философские истоки имеют те ценности, о которых мы говорим сегодня в рамках обсуждения этичного искусственного интеллекта: честность, добросовестность, ответственность, эмпатия, долг перед жизнью. Автор предлагает рассмотреть их сквозь призму этики добродетели и деонтологии.