Человек + машина - Джеймс Уилсон
Шрифт:
Интервал:
Закладка:
В 2016 году Tesla объявила, что все новые автомобили будут оснащаться оборудованием для беспилотных поездок, в частности комплектом датчиков и бортовым компьютером, управляемым нейронной сетью[46]. Самое интересное: автономные ИИ-программы не будут развернуты полностью. Tesla планирует тестировать водителей на симуляторах, запущенных в фоновом режиме на бортовых компьютерах. Только когда программа уверенно научится водить машину и будет это делать безопаснее человека, автономные программы будут готовы к повсеместному внедрению. Тогда Tesla официально представит программу и удаленно обновит программное обеспечение автомобилей. Иными словами, водители Tesla обучают автопарк компании.
Tesla обучает ИИ-платформу на множестве рассредоточенных испытательных стендов и с использованием наилучших доступных баз данных — в реальных условиях, с участием собственных водителей. В данном случае навыки вождения человека — точнее, множества людей — имеют решающее значение при обучении системы. Искусственный интеллект позволяет Tesla переосмыслить все НИОКР-процессы и на этой основе ускорить разработку собственной системы. Такой инновационный подход к проведению НИОКР позволяет Tesla оставаться лидером в сегменте беспилотных автомобилей.
Не только Tesla задействует искусственный интеллект в научных исследованиях и конструкторских разработках, по-новому сочетая работу машин и людей. В этой главе мы поговорим о том, как именно искусственный интеллект обеспечивает экспериментальную работу, как он трансформирует бизнес-процессы, прежде всего связанные с обслуживанием клиентов, пациентов и других людей, работа с которыми позволяет получить полезную информацию.
Вы узнаете, как искусственный интеллект стимулирует НИОКР в фармацевтике и естественных науках, подкрепляет исследовательскую интуицию, помогает проверять гипотезы и на несколько порядков ускоряет разработку продукта. Благодаря данным, в изобилии поступающим от клиентов и пациентов, меняются традиционные методы исследования и процессы разработки продуктов и услуг. Ранее главная задача компании состояла в поиске флагманского товара для массового рынка, а теперь на первый план выходит адаптация продукта под нужды конкретного клиента, одновременно дающая максимальный экономический эффект.
Для понимания некоторых базовых принципов следует вспомнить историю вопроса. Научный метод — самый понятный и широко применяемый исследовательский подход в мире. Это серия последовательных воспроизводимых шагов. Сначала ставим вопросы и делаем наблюдения. Затем выдвигаем рабочие гипотезы. После этого ставим эксперимент, чтобы проверить прогнозы, сделанные на основе гипотез. После эксперимента обобщаем информацию. Наконец, формулируем теорию. Научный метод можно визуализировать как циклический процесс. Все полученные данные и теории открывают путь для новых наблюдений и дальнейших исследований.
Поскольку этапы научного метода так четко очерчены, неудивительно, что искусственный интеллект потенциально позволяет реорганизовать этот процесс. До настоящего времени научно-исследовательские институты и наукоемкие производства не пересматривали научный метод как таковой, но некоторым удалось существенно расширить или сократить его отдельные этапы. В следующих разделах мы расскажем, как искусственный интеллект трансформирует каждый этап научного метода, с учетом того, какие задачи больше подходят людям, какие — машинам, а где им лучше всего работать вместе.
Новые возможности на этапе наблюдения
Айзек Азимов утверждал, что «самая волнующая фраза, какую можно услышать в науке, — фраза, возвещающая о новых открытиях, и это вовсе не “Эврика!”, а “Вот забавно”»[47]. Этап наблюдения в научном процессе нелинеен и полон неожиданных поворотов: ученые погружаются в отчеты о последних исследованиях, обнаруживают необычную химическую реакцию или разговор с коллегой наводит их на мысль по-новому определить исследовательскую задачу.
Только задумайтесь, насколько сложными стали научные наблюдения в наше время, ведь сейчас необходимо учитывать огромное количество исследований и сортировать колоссальные объемы данных. В 2009 году исследователи из Университета Оттавы отметили, что после 1665 года было опубликовано более 50 миллионов научных работ, а в наше время ежегодно публикуется более 2,5 миллиона[48]. И это только статьи. Что же тогда можно сказать обо всем объеме данных — структурированных и неструктурированных, каталогизированных, очищенных, сортированных и несортированных, анализируемых? Мы живем в цифровом мире, ежедневно генерируя умопомрачительные объемы данных. Какие наблюдения можно сделать с их помощью? Как дойти до той точки, когда что-то покажется нам «забавным» или достойным дальнейшего изучения?
Если человеку-исследователю свойственны творческие озарения, то машина, безусловно, превосходит его в структурировании и представлении большого объема данных. Компания Quid использует искусственный интеллект для переосмысления одного из этапов исследовательского процесса, связанного с изучением и обобщением информации. Платформа Quid обрабатывает естественный язык и создает визуализации на основе больших объемов текстовых данных — от патентов до новостных репортажей, — а также сортирует тексты в виде «сетей идей». В интерфейсе, с которым удобнее всего работать через сенсорный экран, концепты, кластеры и фрагменты информации группируются по критерию сходства, а между идеями выявляются сильные и слабые взаимосвязи.
Учиться на ошибках
Исследователи-химики из Хаверфордского колледжа (штат Пенсильвания) воспользовались машинным обучением для извлечения ценной информации из записей об удачных и неудачных экспериментах. Они проанализировали почти четыре тысячи химических реакций, приводящих к образованию кристаллов (записи о них накапливались в лаборатории более десяти лет), в том числе реакций, не давших ожидаемого результата, несмотря на все усилия. Когда анализ данных был завершен — каждая реакция была описана почти по трем сотням признаков, — они задействовали алгоритм машинного обучения, при помощи которого попытались выявить совокупность условий, приводящих к росту кристаллов.
Алгоритму удалось верно спрогнозировать кристаллизацию в 89% случаев, обойдя исследователей с их 78% (они полагались на интуицию и опыт). Алгоритм использовал модель дерева решений, позволившую составить разветвленную блок-схему, описывавшую каждый последующий шаг таким образом, что ученые смогли проследить логику принятых решений. Благодаря такой прозрачности исследователи смогли сформулировать новые гипотезы[49].