какую проблему пока не смог решить искусственный интеллект
Почему искусственный интеллект не решит всех проблем
Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни, ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.
Вера во всемогущество ИИ
Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя.
Нейросети – легче сказать, чем сделать
В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся «революции ИИ», они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.
Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных. Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.
Бросая вызов бюрократии данных
Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии. Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ.
По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами. Сходным образом профессор робототехники из MIT, Родни Брукс, пишет, что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».
Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам. Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом. Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов. Но до сих пор тема безопасности ИИ не получает должного внимания.
Машинное обучение – это не волшебство
Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.
Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.
Долгое время Facebook считала, что проблемы типа распространения дезинформации и разжигание ненависти можно алгоритмически распознать и остановить. Но под давлением законодателей компания быстро пообещала заменить свои алгоритмы на армию из 10 000 рецензентов-людей.
В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа «IBM Watson for Oncology» была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается сложно доверять машине. В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.
Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.
Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта. Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать.
Способности есть, а разума нет: задачи, с которыми ИИ не справляется
«Машине надо принять решение кем пожертвовать — тем, кто внутри автомобиля, или тем, кто бросился под колёса», — профессор кафедры информационных технологий СПбГУ Татьяна Гаврилова объясняет, какие алгоритмы лежат в основе искусственного интеллекта и с какими трудностями сталкиваются его разработчики.
От живого мозга до искусственного интеллекта
За последние пять лет вокруг искусственного интеллекта поднялась большая волна публикаций, выступлений, страхов, а также хайпа — обсуждений, шумихи и агрессивной рекламы. Это свидетельствует в первую очередь о спекуляции и профанации. Новостные порталы наперебой рассказывают, как нейронная сеть обучилась очередному потрясающему трюку. Следует понимать, что искусственная нейронная сеть — это не модель мозга. Нейрофизиологи отмечают, что механизм работы мозга до сих пор слабо изучен, а его модель далека от математической формализации.
В 2013 году Европейская комиссия оценила научно-исследовательский проект The Human Brain Project и выделила на исследования грант на сумму в один миллиард долларов. Цель этого проекта — создать полнофункциональную компьютерную модель человеческого мозга. Представить всю многосложность работы мозга: как нейроны соединяются и взаимодействуют между собой, как формируются воспоминания, и принимаются решения. В 2019 году на Европейской конференции с докладом выступил нейробиолог, директор и основатель The Human Brain Project Генри Маркрам. Он вместе с командой показывал изображения мозга, подсвеченные на томографе с разных сторон, подчёркивая, что, чем больше они забирались вглубь мозга, тем меньше становилось понятно, как он работает. Всё это время они двигались по пути миниатюризации, но, очевидно, что нужна макромодель мозга. Здесь можно провести аналогию с известной метафорой: сколько бы муравей ни ползал внутри телевизора, он всё равно не поймёт, что это за устройство.
Чат-боты говорят, но не понимают
Первую разговорную программу «Элиза» разработали ещё в 60-х. Её работа была похожа на сеанс психотерапии. Примерный диалог мог выглядеть следующим образом:
— Здравствуйте. Как вы себя чувствуете?
— Голова болит.
— Как часто это происходит?
— Каждый раз, как с матерью поговорю.
— У вас проблемы с мамой. Расскажите об этом подробней.
Программа содержит набор заготовок. Выявляет ключевое слово в каждом предложении и создает иллюзию разговора, без какого-либо осмысления вообще. Таким образом Элиза могла умело поддерживать беседу на протяжении нескольких часов, производя на людей хорошее впечатление.
Сегодняшняя Алиса от «Яндекса» — эта та же самая Элиза, с подключённой платформой сервисов и гораздо более богатой лексикой. Вся интеллектуальность подобных чат-ботов сводится к переобучению. Если размечать для них ответы плохие, непригодные, то она будет их в дальнейшем отсеивать, а хорошие, подходящие — оставлять. Настоящая разумность программы, её способность не просто определять, что изображено на картинке или преобразовывать устную речь в текст, но понимать значение информации и мыслить, проявится только при подключении к базе знаний. Это некое понимание о мироустройстве. Вот этого пока не может никакая программа. Искусственный интеллект, работающий с базой знаний называется Symbolic AI (символический ИИ).
Сейчас активно используются два направления: искусственная нейронная сеть и машинное обучение. Их развитием занимаются не в научных лабораториях под руководством учёных, а в IT-компаниях. Программисты и разработчики искусственных нейронных сетей признают, что ничего мыслящего, кроме мозга нет. Поэтому если они хотят создать интеллектуальную систему, то вынуждены моделировать работу мозга, потому что больше нечего. Но кардинальный прорыв будет у тех, кто сумеет скрестить модели представления знаний и машинного обучения.
К слову, некоторые компании уже активно используют роботов при трудоустройстве на работу. Они особенно хороши на массовых отборах, куда поступает более 1000 резюме. Робот анализирует анкеты и оценивает кандидатов на релевантность, но окончательное решение всё равно принимает человек. Учёные Технологического института Джорджии выяснили, в каком случае люди охотно доверяют роботу. Это происходит, если им заранее сообщить, что он предназначен для выполнения определённой задачи. Такие роботы также проводят выходные интервью. Люди ведут с машиной более откровенный диалог о причинах увольнения и о том, с какими трудностями сталкивались в процессе работы. Таким образом роботы собирают очень хорошую, а главное весомую, обратную связь. Кроме того, люди боятся врать роботу. Им кажется, что у машин больше информации. Например, два главных вопроса для отбора кладовщиков были следующими: есть ли у вас судимость и употребляете ли вы алкоголь? И люди без утайки отвечали на эти вопросы роботу.
Что не так с беспилотниками
Современный беспилотный транспорт несовершенен и имеет ряд недостатков. Самый явный кроется в машинном зрении. Вопрос даже не в технической сфере, проблема машинного зрения не решена концептуально. Камеры и датчики обрабатывают с большой скоростью определённые сигналы, в результате чего в памяти компьютера образуются двоичные картины, которые надо интерпретировать. В этом и заключается основное затруднение. Если, к примеру, дорогу переходит пешеход, то любой водитель легко это считает. Не потому, что у него зрение лучше, чем у камеры беспилотника, а потому, что у водителя в сознании есть модель движущегося человека. Моделей зрения пока не существует. Неизвестно, как человек обрабатывает визуальную информацию. Сейчас проектируют моделирующие устройства, которые позволяют с некоторой степенью уверенности распознавать целый ряд объектов.
Представьте, что вы попросили человека, ничего не понимающего в автомобилях, принести поперечный рычаг. Очевидно, что он не сможет этого сделать. Потому что он не автомеханик, и у него нет в голове модели рычага. Но если сказать, что это железяка изогнутой формы — человек принесёт. Каждый знает, что такое «железяка», и понимает, как выглядит «изогнутая форма». Робот даже после пояснений не справится. Для этого его нужно обучить, закладывая понятия обо всех этих объектах под разными углами и с разной степенью доступа.
Находясь в офисе, человеку не обязательно отодвигать стул от стола, чтобы идентифицировать предмет. Достаточно взглянуть на спинку. Только потому, что у людей есть полная модель стула, и мы по одной его части, воссоздаем целое. Мы знаем, что стул — неотъемлемый атрибут офисного интерьера. Поэтому из огромного подбора объектов, которых можно воссоздать по этому фрагменту — выбираем один. Универсальных программ, которые могли бы делать подобное — нет. Никакой искусственный интеллект не содержит сейчас модели мира и знаний, позволяющих ему однозначно толковать картину, которую он видит.
Допустим, где-то за кустами спрятался человек, готовый выбежать на дорогу. Часть его тела скрыта за густой листвой. Видимой части будет недостаточно, для того чтобы машина смогла считать это как потенциальную опасность. Более того, если вы увидите спрятавшегося за кустами слона, то, вероятно, решите, что это человек в маске слона, потому что в нашем районе слоны не водятся. Уж этих знаний у машины точно нет.
Проблема интерпретаций приближается к своему разрешению, во всяком случае прогресс есть. В алгоритм машинного обучения на огромных выборках можно поместить 100 автомобилей, и ясно, что 101, даже другой марки, с большой вероятностью, программа распознает правильно. Хотя в ней не будет заложен конкретно этот автомобиль. Стоит также отметить, что для обучения программы важно соблюдать многообразие подбора. Если, например, вы будете учить программу только на седанах, а потом подъедет кабриолет, то она, наверняка, его не распознает, потому что в выборке вообще не было машин без крыши.
Вторая сложность представляет собой этическую дилемму, в которой машине предстоит сделать моральный выбор. Допустим, беспилотный транспорт везёт пассажира. Навстречу выскочил человек, и единственный способ избежать столкновения — это въехать в рядом стоящий столб. Машине надо принять решение кем пожертвовать — тем, кто внутри автомобиля, или тем, кто бросился под колёса. Это совершенно неразрешимая для неё задача. Уже имеются первые аварии и даже жертвы. В Аризоне беспилотный внедорожник, принадлежащий компании Uber, сбил насмерть пешехода. Их вина в том, что они выпустили на трассу сырой, не прошедший все тесты, алгоритм.
Проблема беспилотников — это в первую очередь нехватка базовых представлений о мире. Люди всегда принимают решения в контексте. Никакой искусственный интеллект не имеет полную картину мира, какую имеет человек к 18 годам. По этой причине водительские удостоверения выдают именно с 18 лет [в России], хотя зрение отлично сформировано уже и в 14. Не достигнув совершеннолетия, человек не может принимать взвешенные решения, в том числе этического и эмоционального характера.
Мы имеем дело с очень молодыми и незрелыми алгоритмами, которые требуют доработки. Они способны исправно работать, но исключительно под контролем человека.
Искусственный интеллект на смену полиграфа
На рынке искусственного интеллекта ведущие мировые компании активно инвестируют в сферу эмоциональных вычислений. Такая технология выявляет самые незаметные изменения в мимике. Программа выбирает определённое количество точек на лице и сравнивает с базой фотографий, на которых эмоция уже распознана.
Компания Microsoft заявила, что у них есть подобный алгоритм, но она не даст его в распоряжение правительства. Это очень опасный инструмент, который можно использовать против человека. Представьте, что вы входите в кабинет к начальнику, а он видит, что вы его ненавидите и думаете о нём плохо. Возникает серьёзная этическая проблема.
Аналогичных программ «распознавалок» будет ещё очень много. Прекрасных, замечательных в том числе. Они будут полезны, особенно в медицине. Машины уже сейчас помогают врачам диагностировать болезни. Допустим, американская программа IBM Watson ставит диагнозы по анализам лучше, чем некоторые начинающие врачи. В качестве обучающей выборки в неё было заложено шесть тысяч историй болезней. Это титанический труд и, безусловно, огромные деньги.
Умеет ли машина сочинять
Машина не в силах порождать нечто качественно новое. Оригинальные тексты песен, стихосложения, музыкальные композиции — это всё основано на принципе пермутации, или, проще говоря, перестановки. Что касается поэзии, то там алгоритм действий следующий: программа находит общие моменты и определённые сочетания. Берёт ключевые слова, добавляет к ним слова других авторов и перекручивает под нужную ритмику. Русский язык сложный, но если не заботиться о рифме, то белый стих «сочинить» можно.
С музыкой всё еще проще. Программа определяет какие аккорды наиболее характерны для того или иного исполнителя и использует их же, но в иной последовательности. В основе этого «творчества» лежит перетасовка звукоряда и отбрасывание откровенной какофонии.
Были программы, которые сочиняли народные сказки. Для этого провели анализ сценариев, использовав книгу Владимира Проппа «Морфология сказки». Оказалось, что модель развития событий включает в себя несколько очевидных элементов: в сказках всегда есть положительный и отрицательный герои. Также обязательно присутствует даритель, дорога, препятствие и в конце счастливый конец. Отличительной особенностью таких сказок была эклектика. Программа комбинировала героев и их действия, рассказывая, например, про Ивана-дурака, который борется со Змеем Горынычем. Безусловным минусом являлся бедный язык повествования. Слушателям становилось скучно. Живой сказитель всегда юмора добавит, а где-то занятных речевых оборотов. По этой же причине программа не может переводить на другие языки метафоры или фразеологизмы. Онлайн-переводчики работают с большими объёмами информации. Стоит отметить, что качество их перевода за последние годы заметно улучшилось. Теперь они не переводят каждое слово в отдельности, как делали это раньше, а ищут целое предложение где-либо в текстах. Самая большая трудность возникает с семантикой. Для этого нужна база знаний, чтобы понимать смысл выражений. К примеру: цыплята готовы к обеду. Неясно, как правильно перевести эту фразу, если не знаешь, где человек находится в этот момент — на птицеферме (Chickens are ready for dinner) или в ресторане (Chickens are prepared for lunch).
Без познаний человека никакая интеллектуальная деятельность невозможна. Знание нельзя ничем заменить. Вопрос в том, как эти умения оцифровать. Как превратить опыт в какую-то осмысленную схему, которой можно было бы делиться с машиной.
Что ИИ может и (пока) не может сделать для вашего бизнеса
Искусственный интеллект – это подвижная мишень. И вот, как лучше в неё прицелиться.
Кажется, что искусственный интеллект (ИИ) окружает нас со всех сторон. Мы сталкиваемся с ним дома и в телефоне. Мы и опомниться не успеем – если верить предпринимателям и бизнес-инноваторам – как ИИ будет присутствовать практически во всех продуктах и услугах, которые мы покупаем и используем. Кроме того, область его применения к решению бизнес-задач растёт как на дрожжах. В то же самое время растут и сомнения по поводу последствий появления ИИ; мы беспокоимся о том, как повлияет автоматизация на рабочее место, наличие работы и общество.
Иногда реальность теряется между страхами и триумфами заголовков, рассказывающих о Alexa, Siri и AlphaGo, поскольку у ИИ-технологий – у машинного обучения и его подмножества, глубинного обучения – есть множество ограничений, на преодоление которых потребуется потратить ещё очень много сил. В этой статье описаны подобные ограничения, и она должна помочь директорам лучше понять, что именно затормаживает их попытки внедрения ИИ. Также мы опишем многообещающие прорывы, направленные на снятие некоторых ограничений и создание новой волны возможностей.
Наши перспективы зависят от комбинации работы на переднем крае – исследований, анализа, оценки сотен реальных случаев использования – и совместной работы с некоторыми передовыми мыслителями, учёными и инженерами, работающими на передовых участках, связанных с ИИ. Мы попытались извлечь суть их опыта и помочь директорам предприятий, которые, как показывает наш опыт, часто руководствуются только собственной инициативой и не всегда хорошо понимают, где находится передний край или что уже доступно для ИИ.
Проще говоря, проблемы и ограничения ИИ создают для лидеров проблему «подвижной мишени»: им сложно добраться до передового края, поскольку тот постоянно передвигается. Также часто разочарование наступает, когда попытки использования ИИ натыкаются на барьеры реального мира – это может уменьшить мотивацию к дальнейшим инвестициям или привести к появлению точки зрения «поживём-увидим», в то время как остальные будут продолжать рваться вперёд. Недавнее исследование Всемирного института Маккинзи показывает, что между лидерами и отстающими в вопросе применения ИИ растёт разрыв – и это видно и в сравнении разных индустрий, и внутри каждой из них (экспонат 1).
Экспонат 1: лидеры применения ИИ в недалёком будущем собираются вложиться в него ещё больше. По вертикали: оценка повышения трат на ИИ в % в ближайшие три года; по горизонтали: процент компаний, уже использующих ИИ
Директора, пытающиеся сократить разрыв, должны иметь возможность информировано работать с ИИ. Иначе говоря, им нужно понять, не только в каких областях ИИ может подстегнуть инновации, идеи и принятие решений, привести к росту прибыли и эффективности – но и где ИИ пока ещё не способен помочь. Более того, они должны принять взаимосвязь и различия между техническими и организационными ограничениями – культурные барьеры, недостаток персонала, способного создавать готовые ИИ-решения для бизнеса, и проблему «последней мили» встраивания ИИ в продукты и процессы. Если вы хотите стать лидером, понимающим некоторые из критических технических проблем, замедляющих прогресс ИИ, и готовым воспользоваться многообещающими разработками, способными преодолеть эти ограничения и в потенциале изменить траекторию развития ИИ – продолжайте читать.
Проблемы, ограничения и возможности
Полезной точкой отсчёта будет понять недавние успехи технологий глубинного обучения (ГО). Это, вероятно, наиболее захватывающие разработки в области ИИ, и они добились взрывного увеличения эффективности в вопросах классификаций и предсказаний, без традиционного обучения под присмотром. ГО использует крупномасштабные нейросети, способные содержать в себе миллионы симулированных «нейронов», распределённых по слоям. Наиболее распространённые варианты сетей называются свёрточные нейронные сети (СНС) и рекуррентные нейронные сети (РНС). Эти нейросети обучаются, используя тренировочные данные и алгоритмы обратного распространения.
Хотя в этой области достигнут впечатляющий прогресс, сделать ещё предстоит многое. Критический момент – подстроить ИИ к определённой задаче и доступным данным. Поскольку эти системы не программируются, а тренируются, различные процессы их работы для точного выполнения сложных задач часто требуют огромного количества помеченных данных. Получение крупного набора данных может оказаться сложным делом. В некоторых областях их просто может не быть, но даже если они есть, на простановку меток может уйти огромное количество человеческих ресурсов.
Кроме того, в этих моделях может быть сложно расшифровать, каким образом математическая модель, натренированная при помощи ГО, приходит к определённому предсказанию, рекомендации или решению. Полезность чёрного ящика, пусть он даже выполняет своё предназначение, может оказаться ограниченной, особенно в тех случаях, когда его предсказания или решения влияют на сообщество и имеют последствия, связанные со здоровьем человека. В таких случаях пользователю часто нужно знать «почему» – например, как именно алгоритм пришёл к таким рекомендациям – если его действия могут иметь юридические или регуляторные последствия. Почему определённые факторы, а не какие-то другие, оказались критичными в данном случае.
Давайте изучим пять связанных между собой факторов, в которых эти ограничения и появляющиеся варианты их обхода начинают играть свою роль.
Ограничение 1: разметка данных
Большая часть современных ИИ-моделей тренируется при помощи «контролируемого обучения». Это значит, что люди должны пометить и разбить на категории исходные данные – а такая работа может оказаться трудной и подверженной ошибкам. К примеру, компании, разрабатывающие робомобили, нанимают сотни людей, вручную размечающих многие часы видеозаписей, чтобы помочь тренировке этих систем. В то же время появляются новые многообещающие технологии – например, потоковый контроль (продемонстрирован Эриком Хорвицем с коллегами из Microsoft Research), в котором данные можно помечать в процессе естественного использования. Неконтролируемый или частично контролируемый подходы уменьшают необходимость в получении крупных размеченных наборов данных. Две перспективные техники – обучение с подкреплением и генеративно-состязательная сеть.
Обучение с подкреплением. Эта техника неконтролируемого обучения позволяет алгоритмам обучаться просто методом проб и ошибок. Методология использует метод кнута и пряника: за каждую попытку выполнения задачи алгоритм получает вознаграждение (например, высокую оценку) если его поведение оказалось успешным, или наказание – в ином случае. С ростом количества повторов растёт и эффективность, и во многих случаях она превосходит возможности человека – пока среда обучения соответствует реальному миру.
Обучение с подкреплением знаменито использованием при обучении компьютеров компьютерным играм – недавно в эту схему встроили и ГО. В мае 2017 года, к примеру, это помогло ИИ-системе AlphaGo обыграть чемпиона мира Кэ Дзэ в игру го. В качестве другого примера Microsoft начала предоставлять услуги, пользующиеся обучением с подкреплением и адаптирующиеся к предпочтениям пользователей. Потенциальное применение обучения с подкреплением подходит для различных типов предприятий. Среди возможностей: торговля ценными бумагами с помощью ИИ, который приобретает или теряет очки за приобретение или утерю финансов; движок рекомендаций продуктов, получающий очки за каждую продажу, сделанную по рекомендации; ПО, строящее маршруты для грузоперевозок, получающее награду за сделанные вовремя доставки или уменьшение потребления топлива.
Обучение с подкреплением также может помочь ИИ превзойти естественные и социальные ограничения разметки человеком, разработав решения, до которых прежде никто не додумался, и стратегии, использование которых не приходило в голову даже опытным игрокам. Недавно, к примеру, система AlphaGo Zero, используя обучение с подкреплением нового типа, победила своего предшественника AlphaGo, научившись играть в го с нуля. Это значило начать с совершенно случайной игры с самой собой, вместо того, чтобы тренироваться на партиях, сыгранных людьми и с людьми.
Генеративно-состязательные сети (ГСС). В этой модели обучения с частичным контролем две сети соревнуются друг с другом за улучшение и уточнение их понимания некоей концепции. К примеру, чтобы распознать, как выглядят птицы, одна сеть пытается найти различия между настоящими и поддельными изображениями птиц, а её конкурент пытается обмануть её, выдавая картинки, очень похожие на изображения птиц, но таковыми не являющиеся. Когда у двух сетей начинаются ничьи, репрезентация птицы у каждой модели становится более точной.
Способность ГСС выдавать всё более правдоподобные примеры данных может значительно уменьшить необходимость в разметке наборов данных людьми. К примеру, для тренировки алгоритма распознавания опухолей на медицинских изображениях обычно потребовались бы миллионы размеченных людьми изображений, где были бы указаны типы и этапы развития опухоли. Используя ГСС, натренированную выдавать всё более реалистичные изображения различных типов опухолей, исследователи могут тренировать алгоритм распознавания опухолей, комбинирующий куда как меньшую базу размеченных людьми данных с выходными данными от ГСС.
И хотя использование ГСС для постановки точных диагнозов заболеваний ещё далеко от реализации, исследователи уже начинают использовать ГСС во всё более сложных контекстах. Сюда входят: понимание и производство произведений искусства в стиле определённого художника; использование изображений со спутников и распознавания географических особенностей для создания актуальных карт быстро развивающихся территорий.
Ограничение 2: получение массивных тренировочных наборов данных
Уже было показано, что простые технологии ИИ, использующие линейные модели, в некоторых случаях могут приблизиться к возможностям экспертов по медицине и в других областях. Текущая волна машинного обучения, однако, требует тренировочных наборов данных – не только размеченных, но и больших по количеству, а также всеобъемлющих. Методы ГО требуют тысяч записей для составления относительно неплохих моделей, способных на классификацию, а в некоторых случаях – и миллионов записей для того, чтобы приблизиться к уровню человека.
Сложность состоит в том, что такие массивные наборы данных может быть сложно получить или создать во многих коммерческих случаях. Каждое небольшое изменение в поставленной задаче может потребовать другого крупного набора данных и новых тренировок. К примеру, обучение автономного средства передвижения движению по горнодобывающему участку, где часто сменяется погода, может потребовать набора данных, включающего в себя различные условия окружающей среды, с которыми может встретиться машина.
Техника обучения за один раз (one-shot learning) способна уменьшать потребности в крупных наборах данных и позволять модели ИИ обучаться особенностям объекта на небольшом количестве реальных демонстраций или примеров (в некоторых случаях, даже на одном). Возможности ИИ приблизятся к человеку, способному достаточно точно распознавать различных представителей одной категории после того, как он познакомится только с одним примером – допустим, с одним грузовиком-пикапом. В этой методологии, пока ещё находящейся в стадии разработки, учёные сначала предварительно тренируют модели в симулированной виртуальной реальности, в которой существуют варианты задачи, или, в случае распознавания образов – изображение объекта. Затем, после того, как модели продемонстрируют несколько вариантов объекта в реальном мире, которых ИИ не видел в виртуальной реальности, тот будет использовать уже имеющиеся знания для выработки правильного решения.
Такого рода обучение с одного раза может в результате помочь создать систему, сканирующую тексты на предмет нарушения авторских прав или распознающую корпоративный логотип в видеоролике, после знакомства всего с одним его примером. Сегодня подобные приложения находятся в своей ранней стадии. Но их польза и эффективность могут быстро расширить возможности использования ИИ в различных индустриях.
Ограничение 3: проблема объяснимости
Объяснимость – не новая проблема для ИИ-систем. Но она растёт вместе с успехами и принятием ГО, из-за которого увеличивается не только разнообразие приложений, но и их непрозрачность. Чем больше и сложнее модель, тем труднее объяснить в человеческих понятиях, почему было принято то или иное решение (это сделать ещё сложнее, если всё происходит в реальном времени). Это одна из причин, по которым использование некоторых инструментов ИИ не так сильно расширяется в тех областях, где объяснимость полезна или даже необходима. Более того, с расширением областей применения ИИ требования регуляторов также могут повысить необходимость в моделях ИИ с большим уровнем объяснимости.
Два зарождающихся многообещающих подхода к увеличению прозрачности моделей – это локально-интерпретируемые моделе-агностические объяснения (local-interpretable-model-agnostic explanations, LIME) и техники внимания (экспонат 2). LIME пытается определить, на каких частях входных данных в основном основывает свои расчёты натренированная модель, чтобы выработать промежуточную, интерпретируемую модель. Эта техника рассматривает по нескольку сегментов данных за раз и наблюдает за тем, как меняются результаты предсказаний, чтобы подстроить промежуточную модель и выработать более точную интерпретацию (к примеру, исключая глаза вместо носа, чтобы проверить, что из них более важно для распознавания лиц). Техники внимания визуализируют те части входных данных, на которые в основном полагается модель при принятии определённого решения (например, концентрируясь на рту, чтобы определить, изображён ли на картинке человек).
Экспонат 2
Ещё одна технология, использующаяся уже некоторое время – это обобщённые аддитивные модели (ОАМ). Используя модели с одной особенностью, ОАМ ограничивают взаимодействие особенностей, в результате чего каждая из них становится более интерпретируемой для пользователей. Ожидается, что взятие на вооружение этих и других технологий, стремящихся снять завесу таинственности с ИИ, очень сильно поможет увеличить применение ИИ.
Ограничение 4: обобщаемость обучения
В отличие от людей, модели ИИ с трудом переносят свой опыт с одного набора обстоятельств на другой. По сути, всё, чего достигла модель в определённом случае применения, остаётся применимым только к этому случаю. В результате компаниям приходится постоянно тратить ресурсы на тренировку очередной модели, хотя задачи по их применению очень похожи.
Один многообещающий ответ на этот вызов – переносимое обучение. В этом подходе ИИ модель тренируют на решение определённой задачи, а затем быстро применяют это обучение к похожей, но отличающейся работе. Исследователи из DeepMind продемонстрировали подающие надежды результаты с переносом обучения в экспериментах, в которых тренировки с использованием виртуальной реальности переносились на управление реальными роботизированными конечностями.
Переносимое обучение и другие обобщаемые подходы развиваются, и они могут помочь организациям быстрее создавать новые способы применения и добавлять к существующим и работающим методам новую функциональность. К примеру, при создании виртуального помощника, переносимое обучение может обобщить предпочтения пользователей из одной области (допустим, музыки) к другой (допустим, к книгам). Примеры использования не ограничиваются цифровыми продуктами. Переносимое обучение может помочь, например, нефтегазовой компании расширить использовании ИИ-алгоритмов, натренированных на предсказательное обслуживание скважин, на другое оборудование – например, на трубопроводы и бурильные платформы. Переносимое обучение даже в принципе способно произвести революцию в бизнес-аналитике: представьте себе ИИ-инструмент, анализирующий данные, и понимающий, как оптимизировать прибыль авиалиний, способный адаптировать свою модель к изменениям в погоде или местным экономикам.
Другой подход – использование чего-либо, приблизительно описывающего обобщённую структуру, в применении к различным проблемам. Например, AlphaZero от компании DeepMind использовала одну и ту же структуру для трёх разных игр: оказалось возможным при помощи этой обобщённой структуры натренировать модель игре в шахматы за один день, чтобы потом она выиграла у программы-чемпиона мира.
Наконец, представьте возможности нарождающихся техник метаобучения, пытающихся автоматизировать разработку моделей машинного обучения. К примеру, команда Google Brain использует AutoML для автоматизации разработки нейросетей для классификации изображений на крупномасштабных наборах данных. Сегодня эти техники работают так же хорошо, как разработанные людьми. Эта разработка выглядит многообещающе, особенно в связи с тем, что многие организации испытывают дефицит талантливых работников. Также возможно, что метаобучение превзойдёт возможности человека и улучшит результаты. Важно понимать, что эти технологии пока находятся на ранних стадиях развития.
Ограничение 5: предвзятость данных и алгоритмов
Пока мы фокусировались на ограничениях, которые можно преодолеть техническими методами, уже находящимися в разработке, некоторые из которых мы описали. Предвзятость – это проблема другого рода. Потенциально разрушительные социальные последствия могут ожидать нас, когда человеческие пристрастия (сознательные или бессознательные) будут определять, какие данные использовать, а какие игнорировать. Более того, когда процесс и частота сбора данных разнятся в зависимости от различных групп и поведения, можно ожидать возникновения проблем с тем, как алгоритмы будут анализировать эти данные, обучаться на них и делать предсказания. Среди неблагоприятных последствий: решения о найме сотрудников, сделанные на основе дезинформации, искажённые научные или медицинские прогнозы, неверные финансовые модели и решения по криминальным делам, и неправильные юридические решения. Во многих случаях эта предвзятость остаётся необнаруженной или проигнорированной под соусом «передовой науки о данных», «патентованных данных и алгоритмов» или «объективного анализа».
Развёртывая машинное обучение и ИИ-алгоритмы в новых областях, мы можем столкнуться с новыми проявлениями этих проблем с предвзятостью, возникающих в наборах данных и алгоритмов. И они обычно так и остаются там, поскольку для того, чтобы их распознать и предпринять шаги по их устранению, необходимо глубоко разбираться как в технологиях работы с данными, так и в существующих социальных взаимодействиях, включая и сам процесс сбора данных. В целом, предвзятость – одно из самых сложных препятствий, и однозначно самое социально обременительное.
Сейчас идёт множество исследований, как теоретических, так и собирающих данные по наилучшим методам использования ИИ, пытающихся решать описанные проблемы в академической, некоммерческой и частной областях. И давно пора – эта проблема, скорее всего, будет становиться всё более критичной, и поднимать всё больше вопросов. Рассмотрим, к примеру, тот факт, что множество из этих предсказательных подходов, основанных на обучении и статистике, негласно предполагают, что будущее похоже на прошлое. А что мы будем делать в социально-культурном окружении, когда предпринимаемые нами действия будут изменять его – а где принятие решений на основе прошлого поведения может затормозить прогресс (или, что ещё хуже, выработать сопротивление переменам)? Множество лидеров, включая и бизнес-лидеров, вскоре могут столкнуться с необходимостью поиска ответов на такие вопросы.
Как попасть в движущуюся мишень
На появление решений для описанных ограничений и распространение коммерческой реализации указанных здесь передовых разработок могут уйти годы. Но захватывающий спектр возможностей, связанных с использованием ИИ, говорит о том, что самым главным ограничением ИИ может оказаться воображение. Вот несколько советов для лидеров, старающихся быть на переднем крае, или, хотя бы, не отстать от передовых тенденций.
Изучайте новую информацию, подстраивайтесь, не отставайте.
Хотя большинству директоров предприятия не обязательно знать разницу между свёрточными и рекуррентными нейронными сетями, вам необходимо быть в общем знакомым с возможностями современных инструментов, обладать общим ощущением того, когда в краткосрочной перспективе могут произойти прорывы, и видеть перспективы того, что лежит за горизонтом. Опрашивайте ваших экспертов по данным и машинному обучению, поговорите с пионерами ИИ, чтобы подстроиться под современные знания, посетите пару конференций по ИИ, чтобы получить информацию о реальных фактах; новостные статьи могут быть полезными, но могут и оказаться частью шумихи. Ещё один хороший способ не отставать от новых разработок – исследования, проводимые знающими специалистами, такие, как AI Index (проект группы «Столетнее исследование ИИ» из Стэнфорда).
Начните использовать сложную стратегию работы с данными.
ИИ-алгоритмам требуется помощь в раскрытии новых идей, таящихся в данных, создаваемых вашей системой. Им можно помочь, разработав всеобъемлющую стратегию по работе с данными, концентрирующуюся не только на технологиях, необходимых для сбора данных с отдельных систем, но и на доступности данных, системе их получения, разметке и управлении. И хотя новые технологии обещают уменьшить количество данных, необходимых для тренировки ИИ-алгоритмов, контролируемое обучение, требующее больших объёмов данных, до сих пор остаётся преобладающей технологией. И даже технологиям, нацеленным на минимизацию требуемого объёма данных, всё равно нужны какие-то данные. Поэтому ключевым моментом всего это будет точное знание ваших собственных данных и то, как их лучше всего использовать.
Мыслите нестандартно.
Техники по переносу обучения пока находятся в зачаточном состоянии, но всегда есть возможность добиться решения с помощью ИИ в нескольких областях, а не только в одной. Если вы решили такую задачу, как предсказательное обслуживание оборудования на большом складе, можно ли применить подобное решение к потребительским продуктам? Можно ли использовать эффективные подсказки «что ещё купить» в нескольких каналах распространения продукта? Поощряйте отделения компании делиться друг с другом знаниями, которые могут раскрыть способы использования лучших ИИ-решений и идей в нескольких областях вашей компании.
Станьте новатором.
Просто не отставать от современных ИИ-технологий и примеров использования не достаточно для того, чтобы оставаться конкурентоспособным в долгосрочной перспективе. Убедите ваших специалистов по обработке данных или договоритесь со сторонними экспертами на решение полезной задачи при помощи зарождающихся технологий – таких, например, которые были упомянуты в этой статье. Постоянно узнавайте о том, что можно сделать и что стало доступным. Многие инструменты машинного обучения, наборы данных и модели, натренированные для стандартного применения (включая речь, зрение и распознавание эмоций) уже доступны для широкого пользователя. Иногда они доступны в виде проектов с исходным кодом, в других случаях – через программные интерфейсы (API), созданные передовыми исследователями и компаниями. Следите за этими возможностями, они могут помочь вам заметить преимущества для первопроходцев.
Перспективы ИИ огромны, а технологии, инструменты, и процессы, требуемые для претворения этих обещаний в жизнь, пока ещё не полностью готовы. Если вы думаете, что можете подождать, дать технологии полностью оформиться, а потом успешно воспользоваться ею одним из первых – подумайте заново. Очень сложно совершить прыжок из стоячего положения, особенно если цель движется очень быстро, а вы не понимаете, что могут и чего не могут делать современные технологии ИИ. И пока исследователи и пионеры в области ИИ подготовились к решению самых острых из сегодняшних проблем, пора начинать понимать, что происходит на переднем крае ИИ, чтобы вы смоли правильно настроить свою организацию, и помочь ей обучиться новым возможностям, использовать их и может даже продвигать их дальше.