Google последовательно продвигает идею, что самым перспективным способом развития ИИ для людей будет включение по умолчанию в машинные алгоритмы места для человека. Так будет безопаснее и эффективнее. Безопаснее, поскольку люди смогут сохранить контроль над процессами внутри ИИ, эффективнее, потому что ряд задач алгоритмы решают пока чисто механически, а человек — творчески. Помимо этих двух причин, с реалистичностью которых можно поспорить, взаимодействие машины и человека позволит нам сохранить рабочие места. Первые два инструмента контроля в рамках инициативы PAIR (People + AI Research) как раз и были недавно анонсированы и предложены для широкого использования.
Цель инициативы — подружить человека с ИИ в максимальном числе отраслей и сфер применения через совместную работу.
Инициатива Google представляет интерес для самой корпорации. Публично обсуждая инструменты взаимодействия с человека с машинами, компания получает в союзники и будущие пользователи своих решений представителей всех уровней, которые определяют будущее применение ИИ — ученых, отраслевых специалистов и пользователям. Особо интересует Google медицина, сельское хозяйство, развлечение и производственные решения. Эксперименты широкой общественности в этих сферах дадут корпорации новые удобные кейсы применения ИИ и подготовят потребителей к использованию новых приложений.
Во главе PAIR стоят Фернанда Вьегаш и Мартин Ваттенберг, которые специализируются на распознавании процессов, проходящих при обработке больших массивов данных. А это суть машинного обучения. Именно в неконтролируемом самообучении машин видят угрозу большинство футурологов. Надо вовремя увидеть направление мыслей машины. Для этого Фернанда и Мартин разработали два инструмента визуализации больших данных и планируют визуализировать процессы машинного обучения — Facets Overview и Facets Dive. Один предназначен для мониторинга функции, другой — для детальных исследований преобразования каждой части набора данных.
Разработанные инструменты способны улавливать аномальные значения функций, отсутствия типичных признаков и нормальных результатов, сбои тестирования и настройки. А главное — путем гибких настроек софт позволяет видеть шаблоны и структуры, неочевидные или не существовавшие изначально. Что для людей статистические обобщения, то для машин — основания для выводов, оценить обоснованность и приемлемость для человека которые они не в состоянии. Мы должны видеть какие шаблоны и «умозаключения» данных построила для себя машина, чтобы вовремя поправить ошибки — опасные или безопасные для нас.
Предыстория инициативы PAIR
Ранее в направлении формирования полезных людям кейсов Google уже соучредила с коллегами «Партнерство по искусственному интеллекту», внесла номинацию «человеко-ориентированного взаимодействия» в свою премию для исследователей, а также опубликовала рекомендации для разработчиков программ с машинным обучением.
Google выделила 7 типичных ошибок, которые полезно избегать при создании приложений, востребованных у конечных пользователей:
- Не ожидайте, что машинное обучение определит, какие проблемы решить. Ищите проблемы самостоятельно. Занимайтесь маркетингом раньше, чем сядете кодить.
- Подумайте, насколько оправдано решение задачи с помощью машинного обучения. Есть много математических и программных инструментов, которые работают проще, быстрее или точнее на узких задачах. Эвристический анализ может уступать машинному обучению по точности, но требует меньше времени и расчетов. Предположите, как задачу мог бы решить человек, каким путем вы могли бы улучшить его результаты для показателей каждого из 4 секторов матрицы ошибок, какие ожидания и стереотипы есть сейчас у пользователей сходных задач.
- Попробуйте изменить входные условия задачи и смоделируйте, как задачу мог бы решить человек, имитирующий мышление машины.
- Оцените возможные ошибки в алгоритмах, насколько они критичны для лояльности будущих пользователей. Ошибки могут приводить к одновременному росту частоты появлений ложных и истинных решений, так и наоборот — к сокращению всех решений вообще. Надо понять что важнее: полнота или точность, и найти баланс.
- Учитывайте что пользователи будут «умнеть» по мере привыкания к новым технологиям. Часть «глупых» алгоритмов надо вовремя отключить, иначе пользователи начнут раздражаться на их наличие.
- Используйте обучение с подкреплением, мотивируя пользователей ставить правильные метки и теги.
- Поощряйте воображение разработчиков на тему того, как пользователи могут применить и тестировать будущее приложение.
Крупнейшие ИТ-компании ищут пути партнерского взаимодействия с ИИ
Искусственный интеллект — предмет большого количества дискуссий в научном и мире. Специалисты многих стран работают над созданием искусственного разума, который мог бы превзойти своего создателя. Некоторые ученые считают, что ИИ — это благо. Других специалистов сильная форма искусственного интеллекта пугает. В прошлом году бизнесмены, ученые, эксперты в сфере робототехники и других сферах подписали открытое письмо, в котором предостерегают производителей оружия от разработки боевых систем со 100% автономностью. В числе подписавшихся: Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк.
Многие аспекты проблемы искусственного интеллекта отображены в сюжете ряда фильмов, описаны в научно-фантастических произведениях. По словам ученых, решать возникающие вопросы нужно до появления сильной формы ИИ, то есть сейчас. Крупнейшие технологические компании, включая Google, Microsoft, IBM сейчас ведут работу по созданию искусственного интеллекта. Для того, чтобы не дать искусственному интеллекту выйти из-под контроля, Google, Amazon, IBM, Facebook и Microsoft основали организацию, которая и будет заниматься решением различных вопросов, имеющих отношение к ИИ.
Эта организация получила название Partnership on Artificial Intelligence to Benefit People and Society. «Каждая новая технология что-то изменяет, и такие изменения зачастую пугают людей, которые их не понимают», — говорит руководитель подразделения искусственного интеллекта Facebook [Янн Ле Кун]. «Одна из целей этой организации — объяснить и показать возможности ИИ, попытаться найти вопросы на базовые этические вопросы».
В июне о необходимости разработать «красную кнопку», которая должна остановить вышедший из-под контроля ИИ рассказывали представители Google. Не основной организации, а подразделения, которое занимается вопросами искусственного интеллекта. Сотрудники DeepMind и ученые из Оксфордского университета утверждают, что ИИ вряд ли будет все время вести себя так, как запланировано людьми. И если что-то пойдет не так, то должно быть средство для решения этой проблемой. «Большая красная кнопка» может послужить гарантией возможности прерывания работы компьютерной системы, отвечающей за работу ИИ, плюс избежать влияния искусственного интеллекта на людей и внешний мир.
Даже те ученые, которые опасаются ИИ, говорят, что останавливать проведение исследований в этой области нельзя. Более разумное решение — это ускорение работы по созданию системы контроля над ИИ. Проблема состоит в том, что разработкой виртуального разума занимаются тысячи человек. А систему контроля разрабатывают единицы. Но, как говорилось выше, сейчас к этой команде добавились представители новой организации Partnership on Artificial Intelligence to Benefit People and Society.
Команда проекта будет работать в трех направлениях. Первое — усиление существующих и установление новых связей между теми людьми и компаниями, кто занимается созданием ИИ. Второе — сбор мнений о проблеме искусственного интеллекта в обществе и академической среде. Третье — информирование общественности о продвижении в плане создания сильной формы ИИ.
Ле Кун считает, что налаживание диалога между разрозненными командами специалистов по ИИ необходимо для продолжения успешной работы в этой сфере. Больше всех преуспели в создании слабой (пока — слабой) формы ИИ все те же Microsoft, Facebook, Google и другие компании. Если же объединить их усилия, то работа может стать более эффективной. Есть, правда, одно опасение. Если даже группа и сможет достичь согласия по ряду этических вопросов, то гарантии того, что разработанные принципы будут реализованы, нет. Другими словами, если один из членов организации решит пойти против разработанных этических норм, его никто не будет останавливать. Главная задача группы — взаимодействие с общественностью.
Григорий Бакунов описал цель новой организации следующим образом: «Фейсбук, Амазон, Гугл, Твиттер, IBM и Майкрософт решили объединиться и начать собирать исследования и общие практики для искусственного интеллекта. Что это cкорее всего значит на самом деле: централизованный банк, куда каждый игрок будет вносить свой кусок данных, позволяющий еще больше знать как о каждом человеке по отдельности, так и массах людей. В современном AI вторичны, а первичны данные и приемы по работе с ними».
Эффективность работы такой организации вызывает сомнения у некоторых ученых. Философ из Университета Кеннесо Дамиен Уильямс [Damien Williams] говорит, что просто свести людей вместе для работы над проблемами ИИ недостаточно для решения этих проблем. Раз уж группа создана, она должна установить новые стандарты в сфере искусственного интеллекта. Должны быть разработаны нормы и положения, которые смогут исключить возможность использования ИИ в целях, которые сложно назвать этическими. Но это — чрезвычайно тяжелая задача. Хотя выполнять ее все равно нужно.
Понравилась статья? Тогда поддержите нас, поделитесь с друзьями и заглядывайте по рекламным ссылкам!