Неуязвимость. Отчего системы дают сбой и как с этим бороться - Андраш Тилчик
Шрифт:
Интервал:
Закладка:
Первый шаг – это сбор информации{223}. Он подразумевает тщательный сбор данных об успешно миновавших предаварийных ситуациях и изучение того, что пошло не так. Например, авиакомпании собирают информацию не только о случаях успешного предотвращения аварийных ситуаций, но и прямые данные о полетах.
Второй шаг – устранение выявленных проблем. Сообщения о преодоленных предаварийных ситуациях не должны пылиться в коробке с названием «Для замечаний и предложений». Например, в одном госпитале в штате Иллинойс медсестра чуть не перепутала лекарства, предназначенные для двух разных пациентов из одной палаты{224}. У пациентов были одинаковые фамилии, а названия прописанных им препаратов были очень похожими. Медсестра вовремя предотвратила ошибку и написала соответствующую докладную. В результате пациентов перевели в разные палаты, чтобы помочь следующей медсестре избежать подобной ошибки.
Третий шаг заключается в том, чтобы «докопаться» до корней проблем и устранить причины их возникновения. Менеджер по контролю качества лекарств в местном госпитале обратил внимание на повторяющиеся ошибки с назначением препаратов в одном из отделений. Фармацевты стали «копать» глубже, чтобы понять причины ошибок. Оказалось, что медсестер, которые готовили лекарства к раздаче пациентам в общем коридоре, постоянно что-то отвлекало. В связи с этим менеджеры госпиталя выделили для подготовки лекарств к раздаче отдельное помещение, в котором была создана необходимая обстановка, не отвлекавшая сестер{225}.
После того как мы поняли проблему, также надо осознать, что предаварийные ситуации нельзя скрывать. Информация о случаях, попадающих в категорию «на волосок от…», должна доводиться до всех – либо в рамках какой-то организации, либо в рамках целой отрасли экономики, как это происходит благодаря новостной рассылке Callback. Общее понимание возможных промахов проясняет для людей тот факт, что ошибки являются нормальной частью системы{226} и каждый может с такими проблемами столкнуться.
А на заключительном этапе мы должны удостовериться, что решения, принятые в ответ на предупреждающие сигналы, действительно работают. На некоторых авиарейсах, например, в кабине присутствует еще один пилот, который наблюдает за действиями экипажа и обращает внимание на такие вещи, как пропущенные элементы контрольного списка или ошибочные операции. Такой подход позволяет авиакомпаниям проводить аудит собственных решений. В противном случае эти решения могут потеряться в повседневной суете, как это произошло в вашингтонском метро. Иногда те самые люди, которые должны использовать найденные решения, даже не знают об их существовании. Контроль исполнения решений позволяет добиться того, чтобы лекарство не приносило больше вреда, чем сама болезнь. А такое может происходить, например, когда решение проблемы излишне усложнено или когда дополнительный мониторинг создает слишком много ложных сигналов тревоги.
В основе всего этого находится корпоративная культура, созданная в организации. Как сказал нам Бен Берман, капитан авиалайнера и участник расследований многих авиационных происшествий, «если вы собираетесь расстреливать всех гонцов, то никто ничего вам не расскажет об ошибках и сбоях, которые существуют в вашей системе»{227}. Открыто знакомя всех с неудачами или ошибками, которые не обернулись неудачей только чудом, без возложения на кого-то вины или без угрозы наказания, мы можем создать такую организационную культуру, в которой люди будут воспринимать ошибки как возможность чему-то научиться, а не как призыв к «охоте на ведьм». «Успешный сотрудник, всегда получающий благодарственные письма от генерального директора, еще не показатель безопасности организации»{228}, – писал Боб Уотчер, врач госпиталя Калифорнийского университета в Сан-Франциско, изучавший дело о Пабло Гарсия и передозировке антибиотиков, о чем было рассказано ранее в этой книге. Настоящим мерилом безопасности выступает такая ситуация, в которой кто-то, озвучивший проблему, может оказаться неправ, но тоже получает благодарственное письмо.
Возможно, вы читаете это и думаете: «Да, это все хорошо для авиакомпаний и больниц. Но что остается делать мне в том случае, если в моей организации не происходит ошибок, которые напрямую связаны с конкретными производственными происшествиями?»{229}. Тогда что же вам вообще отслеживать? И что можно сказать о тех проблемах, которые прямо с безопасностью не связаны, но которыми вы не хотели бы делиться с конкурентами?
Ответ знает датский социолог и исследователь культуры организаций Клаус Реруп{230}. Используя информацию о целом ряде интересных событий – включая рок-концерты, крушения паромов и сбои в больших транснациональных корпорациях, – Реруп изучает, как организации реагируют на небольшие сигналы о предстоящей неудаче, чтобы предотвратить беду.