Человек + машина - Джеймс Уилсон
Шрифт:
Интервал:
Закладка:
Вот некоторые способы устранения существующих недостатков. Во-первых, сделайте так, чтобы алгоритмы отвечали за свои действия и определяли глубинные причины возникающих проблем, ведь так их можно исправить. Подотчетность существует не только для сотрудников. Во-вторых, предоставьте людям возможность ставить под сомнение действия системы искусственного интеллекта. Исходите из того, что сотрудники имеют свое мнение, предоставляют ценный контекст и могут обеспечить качество сервиса. В-третьих, создайте условия для выставления рейтингов при оценке действий алгоритмов или машин, а не только людей. В-четвертых, постоянно ищите несоответствия между контролем и ответственностью. Чтобы полностью нивелировать эффект от разработки систем, которые приводят к появлению зон моральной деформации, необходимо привести в соответствие ценности и нормы.
Анализ юридических, психологических и других вопросов
Начните с организации постоянного диалога с отделом нормативно-правового обеспечения. Система искусственного интеллекта поможет обеспечить соблюдение нормативно-правовых актов (посредством получения отчетов и систематизации данных), однако эта же система может создавать определенные трудности. В некоторых случаях адаптивные системы искусственного интеллекта вызывают нежелательную ответную реакцию. Выясните, как система искусственного интеллекта согласуется с действующими протоколами управления рисками и где следует улучшить эти протоколы, чтобы привести их в соответствие с динамичной системой искусственного интеллекта, принимающей решения. Важную роль в этом процессе играют сотрудники, функции которых относятся к левой части «недостающей середины», — специалисты по обучению, разъяснению и эксперты по устойчивости систем искусственного интеллекта.
В целом, если вы предоставляете сотрудникам возможность вносить коррективы в результаты работы системы искусственного интеллекта (что позволяет им чувствовать себя активными участниками процесса, а не просто его безмолвными исполнителями), их доверие к ИИ возрастает. Рассмотрим в качестве примера инженера, который добивается такой скромной цели, как увеличение производительности нефтяной скважины на 2%. Для этого инженер может воспользоваться программой искусственного интеллекта, корректируя ее параметры и внимательно отслеживая результаты. В частности, он может сыграть роль эксперта по устойчивости, делая все необходимое, чтобы программа работала. Таким образом, когда инженер добивается поставленной цели с помощью системы искусственного интеллекта, он учится доверять системе. Как показывают исследования, предоставление пользователям определенного контроля над алгоритмом повышает вероятность того, что они сочтут его превосходным и продолжат использовать искусственный интеллект в будущем[138].
Однако не всегда есть возможность контролировать реальные алгоритмы. Обратимся к такой сложной задаче, как распределение больничных коек. Одна компания разработала цифровую модель больницы и схему размещения пациентов. В эффективно работающей больнице коэффициент использования больничных коек колеблется от 70 до 80%, однако с помощью этой программы больница может повысить этот показатель до 90% и более. Эту программу установили в одной из больниц, рассчитывая на рост в 10–15%, однако никакого повышения не произошло. Выяснилось, что свою роль сыграл человеческий фактор. В частности, медсестра, которая долгое время работала с одними и теми же врачами, полагалась на собственный опыт в принятии решений. Когда поступали рекомендации по размещению пациентов, она просто игнорировала их, не веря, что алгоритм справится лучше[139].
Как менеджеры помогли медсестрам научиться доверять искусственному интеллекту? Они просто объяснили, почему размещение определенного пациента на определенной больничной койке является оптимальным. (Специалист по разъяснению может принять участие в разработке программного интерфейса и включить в него краткое описание системы или обоснование соответствующего метода распределения больничных коек.) Менеджеры обнаружили, что без предоставления таких разъяснений люди больше доверяют суждениям человека, чем рекомендациям алгоритма. С другой стороны, менеджеры пришли к выводу, что им необходимо предоставить определенную свободу действий сотрудникам, отвечающим за распределение больничных коек, наделив их полномочиями принимать решения[140].
Таким образом, для формирования доверия к системам искусственного интеллекта необходимо сделать так, чтобы люди, работающие с этими системами, были заинтересованы в результате и чтобы у них было ощущение контроля над внутренним устройством системы, как в примере с инженером-нефтяником. В идеале системы искусственного интеллекта необходимо проектировать таким образом, чтобы они объясняли свои решения и помогали людям сохранять определенную автономию в принятии решений. Разработка процессов, полностью основанных на доверии, требует времени и экспериментирования, однако примеры из текущей практики показывают, что если все стороны (люди, машины, а также люди и машины, работающие вместе) пользуются доверием друг друга, это позволяет улучшить результаты для всех.
Прежде всего следует отметить, что качество данных играет важнейшую роль в системах искусственного интеллекта. По существу, данные — это топливо для искусственного интеллекта. Чтобы обеспечить его поставку, представьте данные в качестве сквозной цепочки снабжения. Мы имеем в виду принципиально новое представление о данных не как о статическом процессе с обособленным управлением в рамках одного из функциональных подразделений компании, а как об охватывающей всю компанию динамичной направленной деятельности по сбору, очистке, интеграции и хранению информации. Поскольку данные используются алгоритмами машинного обучения, глубокого обучения и другими приложениями на основе искусственного интеллекта, они должны быть богатыми (по разнообразию, качеству и полезности) и большими (по объему). Здесь важно помнить, что системы искусственного интеллекта обучаются на основе циклов обратной связи, а значит, алгоритмы совершенствуются одновременно с повышением качества и увеличением количества данных. Другими словами, качество систем искусственного интеллекта напрямую зависит от качества данных, на основе которых они обучаются. В силу этого компании должны сфокусироваться на тех специалистах из области «недостающей середины», которые помогают собирать данные и готовить их к анализу. Их работа чрезвычайно важна, поскольку предвзятость данных может привести к серьезным последствиям, таким как искажение результатов и принятие ошибочных решений. В настоящее время около 90% времени, которое люди тратят на обучение систем искусственного интеллекта, приходится на подготовку данных и конструирование признаков, а не на составление самих алгоритмов[141].