Всeмирнaя oргaнизaция здрaвooxрaнeния пoдгoтoвилa дoкумeнт, в кoтoрoм oписaны 6 ключeвыx принципoв этичнoгo испoльзoвaния искусствeннoгo интeллeктa в сфeрe мeдицины. Дaннoe рукoвoдствo стaлo пeрвым кoнсeнсусным oтчётoм пo этикe испoльзoвaния ИИ в медицинских учреждениях.
В документе подчеркиваются планы на будущее ИИ в области здравоохранения и его (внутренние для помощи врачам в лечении пациентов, особенно в районах с ограниченными ресурсами.
Только он также подчеркивает, точно подобные технологии неважный (=маловажный) являются быстрым решением проблем здравоохранения, особенно в странах с низким и средним уровнем доходов, и подобно как правительства и регулирующие органы должны тщательно отследить, где и как ИИ используется в здравоохранении.
Целый ряд предлагает следующие 6 цифра этических принципов в своём руководстве:
Щит автономии: люди должны кому (присуще надзор и последнее словцо за всеми решениями, касающимися здоровья. Решения невыгодный должны приниматься до ужаса машинами, а врачи должны еть возможность отменять их в что бы ни время. ИИ приставки не- должен использоваться с целью оказания помощи кому-либо кроме их согласия, а сведения пациентов должны оказываться защищены.
Обеспечение безопасности человека: разработчики должны изо дня в день отслеживать любые инструменты искусственного интеллекта, чтоб убедиться, что они работают должным образом и малограмотный причиняют вреда.
Снабжение прозрачности: разработчики должны выпускать информацию об архитектуре инструментов искусственного интеллекта. Системы ИИ критикуют следовать то, что они представляют с лица «чёрные ящики», а исследователям и врачам избыток сложно понять, якобы они принимают решения. Тьма хочет видеть достаточную самоочевидность, чтобы системы ИИ могли фигурировать полностью поняты и доступны пользу кого проверки пользователям и регулирующим органам.
Активизирование ответственности: когда аюшки?-то идет приставки не- так с технологией ИИ, на выдержку, если решение, принятое инструментом, приводит к причинению вреда пациенту, должны браться механизмы, определяющие, кто такой несёт ответственность (за примером далеко ходить не нужно, производители и клинические пользователи).
Оборудование справедливости: инструменты присутствовать доступны на нескольких языках и обучены работе с различными наборами данных. В последние чуть-чуть лет тщательное расследование общих алгоритмов в здравоохранении показало, что-то некоторые из них имеют расовую лицеприятность.
Продвижение устойчивых систем ИИ: разработчики должны кто наделен возможность регулярно реконструировать свои инструменты, а учреждения должны ебать возможность корректировать работу, разве что инструмент кажется неэффективным. Учреждения разве компании также должны влагать только те инструменты, которые позволяется отремонтировать, даже в системах здравоохранения с ограниченными ресурсами.