Прикладные проблемы внедрения этики искусственного интеллекта в России. Отраслевой анализ и судебная система - Евгений Михайлович Стырин
Шрифт:
Интервал:
Закладка:
5. В настоящее время значительное внимание уделяется разработке таких программ медицинской помощи пациентам, которые могли бы отчасти разгрузить врачей, а именно предоставить всю информацию о лечении напрямую [Petervan, Rysewyk, Pontier, 2018]. Подобные программы создают методики лечений по прямому запросу пациента – на основе их жалоб и симптомов. При развитии данных технологий пациент освобождается от посещения врача и в то же время не занимается самолечением: фактически его лечением занимается умный помощник или «умный ИИ-доктор». Подобная технология имеет много плюсов. Среди очевидных – избавление врачей от большой и подчас рутинной работы. В случае простых состояний, таких как головная боль, повышенное давление или высокая температура, «умный доктор» вполне может сформировать план лечения и поход к человеку-врачу не понадобится. Менее очевидный, но вполне реальный плюс – решение проблемы психологических страхов, связанных у некоторых людей или детей с посещением медицинских учреждений или врачей. При использовании программ-помощников некоторые пациенты могут полностью избавиться от так называемого «страха белых халатов».
Кейс. Британская компания Your.MD запустила в 2015 году программу [Arkin, Borenstein, 2016], которая позволяет пациенту сформулировать любой симптом на простом языке и узнать от программы вероятный диагноз и рекомендации по лечению. Например, пациент может сказать: «Меня тошнит» или «У меня горячий лоб», программа выделит симптом, чтобы потом найти ему соответствие в огромной картотеке, созданной Your.MD и насчитывающей более 1,5 млн симптомов. Далее программа найдет наилучшее соответствие симптому и предложит план лечения. Еще одна, Medtronic, разработала приложение, способное предсказывать вероятность кризов за несколько суток до события и рекомендовать принять сильнодействующее лекарство либо увеличить терапевтическую дозу препарата до значительных доз. Еще одно медицинское приложение OME использует данные генетики. Приложение предоставляет рекомендации на основании генетических данных пользователя и оценивает риски заболеваемости той или иной патологии в зависимости от болезней родственников.
Внедрение данной технологии при всех своих плюсах сопровождается целым комплексом этических проблем. Далеко не все врачи приветствуют широкое внедрение программ, которые предоставляют пациентам данные об их состоянии здоровья. Беспокойство вызывает не только очевидные риски неверного прогноза, но, скорее, неадекватные решения, которые могут принимать сами пациенты на основе полученных данных. Так, известно, что решение об удалении яичников, которое было принято известной актрисой Анджелиной Джоли, представлялось разным медикам спорным. В ходе консилиумов не удавалось выработать единого мнения. На основании генетической экспертизы риск возникновения рака яичников оценивался в 50 %. Программа ИИ, к который прибегли для повышения достоверности оценки, предоставила примерно те же результаты. После этого сама актриса настояла на проведении операции, притом, что единого мнения по этому случаю по-прежнему не было. Врачи опасаются, что люди могут принять неверное и неоправданное решение в отношении своего здоровья при использовании различных диагностических приложений. В силу недостаточной профессиональной подготовки, различных психологических особенностей, таких как мнительность или ипохондрия, пациенты могут склоняться к радикальным мерам в тех случаях, когда с адекватной медицинской точки зрения они выглядят неоправданными. Возможны и другие случаи, когда пациенты в силу своих особенностей не придадут достаточного внимания тем предписаниям, которые выдаст программа. Они могут саботировать решения, предлагаемые ИИ-помощником, но проявить большую ответственность при посещении человека-врача, который может стать дополнительной психологической поддержкой или попытаться убедить пациента лично. Еще одной проблемой использования ИИ-врачей в виде различных программ и приложений является трудность установления ответственности в случае назначения неверного лечения или различных врачебных ошибок для тех случаев, когда врачом выступает компьютерная программа. Следует ли возлагать ответственность на производителя программы (программистов) или того, кто реализует данный продукт? В случае с человеком-врачом ответственность за неверное лечение или причинение вреда пациенту несет сам врач, однако в случае с использованием компьютеризированного помощника эта мера неочевидна. Наконец, проблематичными становятся отношения между пациентом и врачом. В силу названных трудностей врачи могут избегать активного внедрения ИИ-помощников, поскольку реакция пациентов на полученные рекомендации может быть непредсказуемой. Если пациент станет настаивать на радикальных и неоправданных методах лечения на основе полученных прогнозов и врач окажет ему содействие, то в какой степени будет распределяться ответственность между всеми участниками процесса, не вполне ясно. Врачи также могут склоняться