Искусственный интеллект как функциональная составляющая сложных информационных систем: мнение профессионала

В настоящее время технологии искусственного интеллекта проходят пик интереса со стороны самых разных специалистов. В тоже время, нет единого экспертного мнения на предмет использования искусственного интеллекта в качестве особенно важной функциональной составляющей сложных информационных систем. Экспертное мнение по этой проблеме высказал Александр Пилюгин, который является руководителем отдела унифицированных коммуникаций компании INLINE Technologies. В своем интервью Александр расскажет о месте ИИ в комплексным инфраструктурных решениях для бизнеса, а также о том, какие ИТ-сегменты информатизации уже можно рассматривать как потенциальные для внедрения ИИ. Помимо этого, в интервью обозначается важность системной интеграции при организации интеллектуальных бизнес-решений.

Со слов Александра, при рассмотрении перспектив внедрения ИИ на предприятии речь должна идти не о доработке ИИ-моделей, а о реконфигурации ИТ-инфраструктуры для их эффективного использования.

Начнем с провокационного вопроса: оправдан ли сегодняшний ажиотаж вокруг ИИ его эффективностью и полезностью?

АЛЕКСАНДР ПИЛЮГИН: Прежде скажу, искусственный интеллект — вещь совсем не новая. И напомню, что такая его область, как машинное обучение (Machine Learning, ML), возникла еще в середине прошлого века, с появлением первых компьютеров. По сути ML — раздел математики, занимающийся корреляцией событий с предсказаниями. Активно развиваться это направление стало в 90-е годы за счет резко возросшей производительности компьютеров и новых возможностей обработки информации. И на самом деле большинство решений, которые мы относим к ИИ, — математические модели, разработанные в соответствии с принципами ML.

Сегодняшний ажиотаж вокруг искусственного интеллекта спровоцировали ИТ-гиганты вроде Google, Яндекс, Apple, Amazon, Microsoft. Они, безусловно, хотели заразить человеческое сообщество идеей. И люди, поверившие в неограниченный потенциал новой технологии, в ее возможности изменить мир, стали думать, что без ИИ жить уже нельзя. Но конечно же, это не совсем так.

Да, тот же ChatGPT — прекрасная штука, отлично может работать для решения определенных задач, в некоторых случаях позволяет сэкономить время. Но в каких-то профильных задачах он имеет свойство ошибаться, поэтому его применение в рабочем процессе необходимо контролировать, тестировать, проверять.

Согласно Gartner Hype Cycle, искусственный интеллект находится на пике завышенных ожиданий, то есть, на стадии, когда все про него говорят, а пользоваться эффективно еще не научились.

Мы хорошо знаем о применении ИИ в беспилотных автомобилях. Например, на участке трассы М11 Москва — Тверь курсирует довольно много беспилотных автомобилей Яндекса, но все они с оператором, наблюдающим за поведением машины. Конечно, со временем искусственный интеллект «высадит» человека из автомобиля, но, когда это случится, мы не знаем. И скорее всего, это будет не сегодняшний ИИ. По всей видимости, произойдет, условно, очередной технологический прорыв в границах пятого технологического уклада. Но будет это нескоро, и уже не на цикле хайпа, а в рамках выпуска на рынок промышленных решений, разработанных конкурирующими производственными компаниями.

Несомненно, искусственный интеллект полезен, но он — не панацея, а инструмент, которым надо умело пользоваться, оценив его возможности. Да, инструмент мощнейший, но к его употреблению мы только подступаем, делаем, так сказать, первые шаги.

Выскажу мысль, которую кто-то посчитает крамольной: там, где на данный момент можно обойтись без ИИ, не надо упорствовать в его применении. Искусственный интеллект — тяжелая, сложно поддерживаемая система, и его нужно использовать только в случаях, когда он может существенно помочь в автоматизации какого-либо процесса.

А в каких ИТ-сегментах искусственный интеллект уже заметно укоренился и ему уже можно доверять?

АЛЕКСАНДР ПИЛЮГИН: В первую очередь, надо сказать, что искусственный интеллект в ИT-отрасли сейчас крайне популярен и также крайне мало используется. Мы еще не достали из него все, что в нем есть, и не знаем, где его задействовать в полном объеме. Так, те же большие языковые модели (LLM, Large Language Models) имеют очень узкую область применения в ИТ с точки зрения помощи человеку в выполнении конкретной задачи.

Для искусственного интеллекта работать с биометрическими базами — не вопрос. Анализ данных биометрии, в том числе в системах физической безопасности, — сфера, где ИИ достиг высот и где его можно использовать смело, в промышленных масштабах. Биометрия по голосу, биометрия по лицу, я уже не говорю про аутентификацию по отпечаткам пальцев — области, в которых мы можем доверять ИИ. И такие решения, мы знаем, применяются коммерческими банками. А вот для государственных органов полноценного отраслевого продукта пока нет. Здесь проблема в том, что решение с искусственным интеллектом готово, но экосистема вокруг него не выстроена: массив биометрических данных не сформирован, юридическое согласие граждан не получено, законодательная основа не проработана.

На базе искусственного интеллекта построена и технология распознавания синтеза речи. Она вполне отработана, превращена в продукт и может быть внедрена в продуктивный контур того или иного заказчика. И может работать как внутри организации или ведомства, так и с внешними субъектами. Сегодня решения по распознаванию синтеза речи часто применяются при построении центров обработки мультимедийных вызовов.

Здесь надо обратить внимание на то, что у используемого в каком-либо контакт-центре бота нет задачи повторить оператора, а есть задача оператора заменить, т. е. выполнить часть его функций. А это, как мы понимаем, — автоматизация определенных бизнес-процессов.

Еще одна ИТ-сфера, где присутствие ИИ становится все более заметным — это информационная безопасность. Так, искусственный интеллект отлично справляется с выявлением паттерна атаки. Он применяется в анализе вредоносного трафика, выявляет модель атаки, тем самым позволяя администратору быстрее определить ее вектор и быстрее на нее отреагировать.

Какие ИБ-решения с применением искусственного интеллекта вы можете назвать в качестве примера?

АЛЕКСАНДР ПИЛЮГИН: Есть решения класса XDR, выполняющие сбор информации из EDR- и SIEM-систем, песочницы и других хранилищ, а затем производящие средствами ИИ анализ для построения корреляционных взаимосвязей между массивами событий от различных источников.

И если SIEM-система прежде всего информирует администратора, то XDR обеспечивает дальнейшую автоматизацию управления системами ИБ. Скажем, при атаке она может либо уведомить уполномоченного сотрудника, либо самостоятельно дать команду на отключение атакованного компонента ИТ-инфраструктуры и применение других первичных мер реагирования. Кстати, не так давно подобную систему мы внедрили у одного из крупных операторов связи в рамках проекта по построению центра противодействия киберинцидентам.

Компания INLINE Technologies специализируется на построении комплексных информационных систем. Поэтому вы как нельзя лучше можете определить место ИИ в инфраструктурных и бизнес-решениях.

АЛЕКСАНДР ПИЛЮГИН: Сейчас можно говорить о том, что инфраструктурные решения с применением искусственного интеллекта достаточно развиты и продуктивизированы. Они могут быть использованы при построении систем физической и информационной безопасности, голосовой биометрии и интерактивных голосовых систем, а также в системах поддержки принятия решений. Но, конечно, выбрать «правильный» продукт невозможно без аналитики, аудита, некой бизнес-логики. И понятно, что, помимо искусственного интеллекта, в этих системах должны быть инфраструктурные блоки, благодаря чему и выстраивается бизнес-решение.

В частности, для того, чтобы построить на предприятии интеллектуальную систему ТОиР, недостаточным будет заложить в нее некий элемент предсказания и моделирования на основе ИИ. Необходимо создать вокруг него инфраструктурную обвязку, включая датчики состояния разнообразного оборудования, инструменты сбора информации с этих датчиков, подсистему цифровых двойников, наконец, хранилище больших данных —– без всего этого никуда.

ИИ может строить корреляционные модели, предсказывать такие события, как выход из строя производственных агрегатов, следить за состоянием оборудования в проактивном режиме и т. д. Он может с очень высокой скоростью осуществлять отбраковку деталей на основе визуального контроля, тем самым становясь важной частью системы управления и контроля того или иного производственного цикла. Или пример из недавнего опыта нашей компании. В ФССП России при модернизации центра телефонного обслуживания был внедрен голосовой бот для обработки обращений граждан. Он в полном смысле — искусственной интеллект: общается с людьми, распознавая и синтезируя речь, обучен профильному лексикону и сценариям взаимодействия. И для него специально создана база знаний, отдельная инфраструктура связи, инфраструктура хранения и обработки информации, инфраструктура информационной безопасности. Плюс к этому для ИИ заранее был составлен и структурирован словарь, категоризированы запросы по основным тематикам. Эта большая работа по обучению бота велась и во время внедрения, и продолжается сейчас — на основе постоянного мониторинга.

Как видим, здесь искусственный интеллект — лишь небольшая часть большой информационной системы, которая помогает реализовать довольно простой сервис — «беседу» с человеком на родном ему языке, в довольно свободной форме. Ровно так же, как, скажем, в общем сервисе контроля доступа транспорта на охраняемый объект искусственный интеллект по распознаванию изображений выполняет частную задачу — определяет номера машин. Это делается через видеокамеры довольно несложной моделью по компьютерному зрению, взаимодействующей с базой допускаемых автомобилей, комплексами управления пропуском и т. п.

Нередко искусственный интеллект используется в системах поддержки принятия решений, где он реализует уже более сложные задания, поскольку гораздо быстрее человека обрабатывает большие массивы информации. Правда, эти системы отстают с точки зрения продуктивизации, так как их построение требует глубокого погружения в бизнес-процессы, а они у каждой организации или предприятия уникальные. Таким образом, системы поддержки принятия решений с применением ИИ необходимо адаптировать под конкретного заказчика и под конкретную ситуацию.

Конечно, в областях, скажем так, гуманитарных, например, в судебной практике, ИИ не принимает решение. Но он может помочь его принять: предоставить или проанализировать информацию, предложить варианты вердикта и др. Здесь, безусловно, решение человека имеет высший приоритет, по крайней мере на сегодняшний день.

В заключение хочу подчеркнуть: совершенно необязательно, что решение с применением ИИ, используемое на одном предприятии, подойдет для другого, даже из той же отрасли. Речь должна идти не о доработке ИИ-моделей, а о реконфигурации ИТ-инфраструктуры для их эффективного использования в производственной деятельности предприятия.

Какие компетенции INLINE Technologies позволяют ей использовать элементы ИИ в интеграционных проектах?

АЛЕКСАНДР ПИЛЮГИН: Я уже сказал о том, что искусственный интеллект — это лишь небольшая часть в составе комплексного решения. Поэтому говорить о компетенциях инженеров и технических экспертов нашей компании в контексте только ИИ — значит сужать тему. Хотя бы потому, что у них есть знания и опыт для работы как с ИИ, так и с продуктами, необходимыми для его «запуска» внутри того или иного бизнес-решения, для реализации того или иного сервиса в контуре заказчика. Наши специалисты могут создать любой инфраструктурный блок: защищенную сеть, систему хранения данных, вычислительную инфраструктуру ЦОД. Более того, мы умеем проектировать и строить и сами центры обработки данных, причем как в стационарном, так и модульном исполнении, с полным инженерным оснащением.

А с недавних пор у нас появилась неплохая экспертиза в реализации голосовых и чат-ботов. Это и анализ потребностей заказчика, и обучение модели ИИ по конкретной, закрепленной в техническом задании тематике, и развитие этой модели на основе постоянного мониторинга и контроля ее поведения.

В какой степени интегратор, не являясь разработчиком ИИ-продукта, может им «распоряжаться»?

АЛЕКСАНДР ПИЛЮГИН: Да, мы не разработчики и не можем поменять исходный код ИИ-модели, не можем забрать у вендора его интеллектуальную собственность. Но это не значит, что интегратор ограничен в использовании ИИ-продукта для реализации бизнес-решения. Ровно так же, как, не будучи разработчиком операционной системы, например «РЕД ОС», он может применять ее для создания вычислительной инфраструктуры. Этот же подход касается и других программных продуктов: будь то физическая или информационная безопасность, передача или хранение данных, унифицированные коммуникации.

Скажем, практически любая голосовая модель неплохо распознает человеческий голос. Но этого мало — созданный на ее основе бот должен понимать суть обращения и адекватно на него реагировать, выдавать релевантный и информативный ответ. Для чего модель нужно дообучить или переобучить. Это задача сбора и правильной разметки данных и передачи их самой модели. И это в состоянии сделать системный интегратор. Более того, интегратору никто не мешает как технологическому партнеру взаимодействовать с разработчиком и, если потребуется, попросить его изменить модель и даже поменять на другую, более подходящую.

Повторюсь: модель искусственного интеллекта — малая часть большого решения, которую, при правильном подходе, несложно заменить. И хотя поддержка ИИ-модели остается на стороне производителя, интегратор отвечает за перевод потребности заказчика на язык бизнес-логики, адаптацию ИИ-продукта, подбор оптимальной инфраструктуры и сопровождение решения.

Вы сказали о необходимости дообучения ИИ, без чего он, вероятнее всего, превратится в плохого советчика. А как это реализуется на практике?

АЛЕКСАНДР ПИЛЮГИН: Есть такой термин «шифтинг». Он обозначает перенос или смещения сознания в вымышленную или параллельную реальность и вполне может быть применим к предмету нашего разговора. Ведь нередко случается, что ИИ-модели как бы уплывают в сторону неправильных предсказаний. И не потому, что они плохие, а потому, что меняются внешние обстоятельства и сами предсказания должны быть построены по-другому. Поэтому, повторю, модели надо дообучать. Это дело полезное со всех точек зрения: способствует улучшению качества предсказания, заставляет проверить бизнес-процесс и весь процесс внедрения на ошибки, позволяет увидеть неоптимальные вещи. Или, например, повысить производительность для высоконагруженных систем, что тоже очень важно.

Процесс обучения ИИ-модели непосредственно при внедрении достаточно сложный и трудоемкий. А вот процесс дообучения гораздо проще, потому что модель автоматически берет на себя функцию по снятию данных, она сама их набирает и собирает в набор, сама автоматически размечает. Безусловно, она допускает ошибки, но ведь легче проверить разметку, чем переразмечать большие массивы данных.

Любые модели ИИ требуют контроля, а это — постоянный мониторинг. В некоторых случаях надо следить за тем, чтобы они не обучались неправильно — это относится к безопасности самого искусственного интеллекта. И нужно быть готовым к тому, что ИИ-модель начнет «блефовать». Соответственно, нужна карта рисков и план действий в подобной ситуации с указанием того, какие риски отслеживаются, на что они влияют и насколько критичны, как будут устраняться.

Для проверки «правдивости» модели необходимо делать слепки за разные периоды, по которым можно будет верифицировать ее текущее поведение. И это — отдельное, проектируемое решение, логическая надстройка над искусственным интеллектом. Это та компетенция интегратора, которую он должен и может привносить.

В принципе, никто не мешает организовать процесс дообучения или переобучения ИИ-модели в автоматическом режиме, что позволит уменьшить количество человеческого труда и снизить влияние человеческого фактора. При правильно выстроенном мониторинге и контроле за искусственным интеллектом — это, возможно, один из верных ходов. Кто именно может дообучать ИИ-модель: разработчик, интегратор или заказчик — предмет договоренности между ними и вопрос организации решения с использованием искусственного интеллекта.

Как всякая информационная система, искусственный интеллект требует обеспечения безопасности. От чего в первую очередь его надо защищать?

АЛЕКСАНДР ПИЛЮГИН: Поскольку ИИ — работающая с большим объемом трафика и подвергаемая атакам информационная система, то применительно к нему надо рассматривать как минимум две большие группы угроз.

Первая — стандартная — связана с обычными ИБ-рисками: злонамеренный вывод системы из строя, утечка и кража данных и т. д. То, к чему мы привыкли и от чего умеем защищать.

Вторая — специфическая — атаки, направленные на неявный сбой ИИ, фальсификация результатов его работы, кража самого искусственного интеллекта. И здесь в каждом случае важно определиться, насколько критична та или иная угроза и как ей противостоять. Скажем, модель ИИ, которая что-то советует внешней аудитории, становится публичным сервисом. И даже когда ее разработчик не собирается передавать свою интеллектуальную собственность кому-либо, путем итераций вопросов и ответов можно построить математическую функцию, которая будет с высокой точностью повторять алгоритм работы данной ИИ-модели. Таким образом, она будет воспроизведена на стороне, т. е. по факту произойдет кража искусственного интеллекта. Но, наверное, это не так страшно, поскольку в такой ситуации ИИ-модель выполняет лишь утилитарное действие.

А вот фальсификация результатов работы ИИ, сдвиг его предсказания в какую-либо сторону — гораздо более серьезная угроза. Это может происходить тогда, когда искусственный интеллект начнут, так сказать, кормить исключительно несбалансированными данными, которые он будет накапливать и на анализе которых будет самообучаться. Например, в США для отслеживания правонарушений по камерам видеонаблюдения ИИ поначалу обучали с использованием общей статистики арестов, согласно которой большую часть противоправных действий совершали афроамериканцы. И система стала в первую очередь фиксировать и накапливать их нарушения, пропуская аналогичные проступки со стороны белого населения. На этих «предвзятых» данных она и самообучалась.

Защититься от подобных ложных корреляций ИИ, во-первых, можно, отслеживая кто и какие примеры передает на его обучение. А во-вторых, разработчик — самостоятельно или совместно с интегратором — может сформировать набор, на котором ИИ-модели предстоит обучаться, и контролировать сдвиги ее предсказаний. И корректировать ее работу при необходимости. Еще раз скажу: после внедрения функционирование ИИ-модели необходимо мониторить и реагировать на его отклонения. В этом как раз и состоит обеспечение безопасности искусственного интеллекта.

Если искусственный интеллект является частью какого-либо промышленного решения, механизмы мониторинга и регулирования работы ИИ-модели могут закладываться производителем на этапе создания.

Два года назад в стране был принят Кодекс этики в сфере ИИ. Какое практическое значение он может иметь для развития интеллектуальных решений?

АЛЕКСАНДР ПИЛЮГИН: Этическая проблематика на сегодняшний день прежде всего касается чат-ботов. Просто потому, что они непосредственно общаются с человеком. И здесь крайне важно исключить вероятность подталкивания ИИ к совершению неэтичных действий. Другая область, требующая пристального внимания с точки зрения этики — видеоаналитика. Необходимо, чтобы ИИ был обучен таким образом, чтобы не дискриминировать людей, скажем, по расовой или половой принадлежности. Кодекс этики в сфере ИИ, на мой взгляд, — хорошая возможность сформировать этические правила поведения искусственного интеллекта, которые должны будут учитываться всеми участниками сообщества при разработке его самого и решений с его использованием. Правда, пока Кодекс далек от идеала, это, что называется, проба пера. Но поскольку подходы к этике, безусловно, придется дорабатывать, он, полагаю, будет развиваться, подстраиваясь под актуальные тренды.

Этичное поведение ИИ-моделей — это то, над чем надо работать в первую очередь разработчикам искусственного интеллекта. В зоне же ответственности системного интегратора — правильное понимание задачи заказчика, оценка возможных рисков, в том числе, рисков неэтичной работы ИИ, подбор наиболее подходящей интеллектуальной модели, а также взаимодействие с производителем по адаптации решения и обучению этике ИИ.

Коль скоро INLINE Technologies работает с решениями на базе искусственного интеллекта, она тоже присоединилась к Кодексу. Мы считаем это важным, потому что видим себя медиатором между теми, кто потребляет технологию искусственного интеллекта, то есть нашими заказчиками, и теми, кто ее разрабатывает.

Источник: https://www.tadviser.ru/