
Исследования в области нейронных сетей, начавшиеся в 40-50 годах прошлого века, получили существенное развитие в наши дни. Традиционно для их полноценной реализации использовались современные вычислительные архитектуры. В последнее десятилетие всеми основными аппаратными средствами стали процессоры общего назначения (CPU) и специализированные графические процессоры (GPU) или тензорные процессоры (TPU), основанные на полупроводниковой технологии CMOS. Именно на базе такой комбинации аппаратных средств функционирует подавляющее большинство существующих нейронных сетей, демонстрируя впечатляющие результаты, которые находят широкое применение в различных практических и коммерческих областях. Параллельно с совершенствованием специализированных процессоров и ускорителей, в 2010-х годах начались исследования по созданию альтернативных вычислительных архитектур,
более эффективно работающих с нейронными сетями. Разработчики предположили, что логическая структура таких процессоров должна быть основана на принципах организации головного мозга живых существ, где большое количество миниатюрных исполнительных элементов, подобных нейронам, соединены между собой множеством сигнальных соединений, аналогичных синапсам. Такие архитектуры получили название нейроморфных.
Ожидается, что специально разработанные нейронные сети смогут работать на нейроморфных процессорах с существенно меньшими затратами ресурсов. В настоящее время несколько моделей таких процессоров были созданы на основе привычной полупроводниковой технологии CMOS.
Первые шаги
Первые опыты взаимодействия с процессорами нового типа раскрыли целый пласт проблем, связанных с их разработкой, начиная от постановки задачи, решаемой конкретным процессором, и заканчивая деталями реализации элементов процессора на физическом и логическом уровнях. Дальше мы детально рассмотрим все эти проблемы.
Тем временем, исследователи пытаются найти новые технологические подходы для более естественной и органичной имитации работы нервной сети человека. Для этого предполагается отойти от полупроводниковой (CMOS) основы и использовать принципиально новые типы устройств, например мемристоры, а также задействовать аналоговые формы сигналов и вычислений вместо цифровых. Некоторые наиболее смелые исследователи пытаются строить вычислительные структуры по принципу «wetware»— то есть с использованием реальных живых нейронов. Далее мы рассмотрим эти новые подходы несколько подробнее.
Все еще темные глубины мозга
В отличие от нейросетей и нейроморфных процессоров, нейроинтерфейсы имеют ещё более глубокую историю исследований. Отдельные попытки внешнего искусственного воздействия на нервную систему человека предпринимались начиная с XVIII века, а работы по считыванию активности нервных импульсов человека и животных проводятся с начала XX века. Осязаемых результатов в области целенаправленного воздействия на нервную систему удалось достичь начиная с 60-70-х годов XX века, когда некоторые специальные внешние устройства, соединённые с головным мозгом незрячих людей при помощи набора электродов в той или иной мере позволяли вернуть этим людям способность распознавать ряд визуальных образов. В последнее время медицина успешно использует большой объём наработок в этой области, позволяющий компенсировать человеку отсутствующие или утраченные функции организма: зрение, речь, движение и т.п.
И манит, и пугает
Наблюдаемый в наши дни рост интереса к нейроинтерфейсам вызван возможностью выхода этой технологии за сугубо медицинские рамки. Объём данных, необходимых человеку в профессиональной деятельности и даже в повседневной жизни, вырос настолько, что традиционные интерфейсы обмена данными (текст, аудио, видео) скоро перестанут справляться. Возможность передачи данных от человека к внешнему устройству и обратно со скоростью мысли выглядит очень привлекательной в этом аспекте. Поэтому поиски способов надёжного и универсального обмена данными с человеческим мозгом ведутся сразу в нескольких направлениях с использованием множества существующих возможностей считывания нервных импульсов, начиная от электроэнцефалограммы и мониторинга определённых групп мышц, и заканчивая группами электродов, вживляемыми непосредственно в головной мозг.
Главная проблема, с которой сталкиваются исследователи сейчас, это корректная интерпретация считываемых сигналов. Есть основания полагать, что методы машинного обучения, в том числе и нейросети, могут упростить процесс интерпретации таких сигналов, но для этого требуется совершенствование как самих алгоритмов машинного обучения, так и аппаратной базы для их исполнения.
«Нейроморфным» процессор называют потому, что его архитектура и принципы действия имеют сходство с биологическими нейронными сетями. Эта схожесть является одним из направлений развития нейронных процессоров. В широком смысле нейронный процессор — это специализированный класс микропроцессоров, которые используются для аппаратного ускорения работы алгоритмов искусственных нейронных сетей, компьютерного зрения, распознавания голоса и изображений, машинного обучения и других методов искусственного интеллекта. К классу нейронных процессоров могут относиться разные по устройству и специализации типы чипов, в частности, один из них — нейроморфные процессоры. В отличие от традиционных вычислительных архитектур (фон-Неймановских), логика и устройство нейроморфных процессоров изначально узкоспециализирована для работы именно импульсных нейронных сетей.
Для более глубокого понимания стоит отдельно разобраться с развитием нейронных сетей, так как, не вдаваясь в детали, нейроморфный процессор – это и есть реализация искусственной импульсной нейронной сети на аппаратном уровне.
Что такое нейронные сети и как они развивались
Итак, нейронная сеть (также искусственная нейронная сеть, ИНС) — это математическая модель, а также её программное или аппаратное воплощение, которые строятся по принципу организации и функционирования биологических нейронных сетей, то есть сетей нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и попытках их смоделировать. Сегодня с помощью ИНС решаются такие классы задач, как распознавание, классификация, прогнозирование, оптимизация и сжатие информации, аппроксимация, ассоциативное управление и многие другие [1]. ИНС обычно делят на три поколения в зависимости от количества их вычислительных элементов и производительности.
Первому поколению ИНС (Artificial Neural Network, ANN) дали старт работы в области нейронных сетей У. Маккалока и У. Питтса [2]. В 1943 году они разработали модель нейронной сети на основе математических алгоритмов и теории деятельности головного мозга. В 1948 году Н. Винер вместе с соратниками опубликовал работу о кибернетике, основной идеей которой является представление сложных биологических процессов при помощи математических моделей. Далее, уже через год, в 1949 году Д. Хебб предложил первый алгоритм обучения.
В 1958 году нейрофизиолог Фрэнк Розенблатт разработал первую нейронную сеть, названную “перцептроном”, а также построил первый нейрокомпьютер Марк-1 [3]. Позже в 1960-х годах их модель была улучшена за счет дополнительных скрытых слоев (Multi-Layer Perceptron) и для большей точности названа “MADALINE” (от “Many ADALINE”, многослойная нейронная сеть) профессором Стэнфордского университета в США Бернардом Уидроу и его студентом Хоффом [4]. Однако, ИНС первого поколения были очень далеки от аналогичной биологической модели. По сути, это были бинарные деревья решений — алгоритмы анализа данных и принятия решений, основанные на условиях “if” и “else”.
Второе поколение ИНС добавило в деревья решений первого поколения ИНС вычислительные функции, которые работают между каждым видимым и скрытым слоем. Так сформировалась структура, названная “глубинная нейронная сеть” (Deep Neural Network, DNN) [5].
Модели второго поколения ИНС решали более прикладные задачи (машинное зрение, распознавание речи, и т.д.), что сказалось на их архитектурной реализации не в пользу биологически достоверного дизайна. Их развитие в больше степени было определено математической и компьютерной науками. Они по-прежнему активно исследуются и пользуются большим спросом со стороны рынка и науки. Большинство текущих разработок в области искусственного интеллекта (ИИ) основаны на этих моделях, они успешно доказали свою точность в когнитивных процессах [6].
Импульсные нейронные сети и их преимущества
Третье поколение ИНС “импульсные нейронные сети” (Spiking Neural Network, SNN) появилось в конце 1990-х годов [7-12]. Их дизайн в большей мере соответствовал биологическому устройству нейронных сетей [13]. В отличие от ИНС первого и второго поколения, нейроны в импульсных сетях обмениваются дискретными импульсами одинаковой амплитуды. Импульс выдаётся, если нейроны собирают достаточно данных, чтобы превысить внутренний порог, то есть работают они не постоянно. Такие нейронные структуры обладают большой параллельностью распространения импульса [14]. Теоретически, благодаря этим двум особенностям импульсные сети потребляют меньше энергии и работают быстрее, чем ИНС второго поколения [15]. Выделим некоторые преимущества SSN перед нейросетями первого и второго поколения [13]:
- Эффективное моделирование временных, пространственно-временных или спектрально-временных данных;
- Эффективное моделирование процессов в разных временных масштабах;
- Соединение функций более высокого уровня с генетикой «более низкого» уровня;
- Интеграция модальностей, таких как звук и изображение, в одной системе;
- Прогностическое моделирование и прогнозирование событий;
- Быстрая и массово-параллельная обработка информации;
- Компактная обработка информации;
- Масштабируемые структуры (от десятков до миллиардов импульсных нейронов);
- Низкое энергопотребление, если модель реализована на нейроморфных чипах.
Крупномасштабные SNN могут быть реализованы как в программном симуляторе, таком как NEST с высокопроизводительными вычислениями, так и в \нейроморфных чипах [16]. Моделирование SNN, реализованное на классических центральных процессорах (CPU) или графических процессорах (GPU), не оптимально для реализации их потенциала с точки зрения энергоэффективности и параллелизма [16]. SNN могут полноценно демонстрировать свои конкурентные преимущества низкого энергопотребления и массовой параллельной работы только тогда, когда они реализованы на нейроморфных чипах.
Сильные стороны архитектуры нейроморфного процессора
В настоящее время направление нейроморфных процессоров вызывает огромный интерес во всем мире, и такие чипы постепенно становятся доступными для научного и промышленного использования. Параллельно с доступностью чипов ученые в сфере искусственного интеллекта улучшают и открывают новые и более эффективные механизмы обучения импульсных нейросетей.
Под нейроморфными процессорами, как правило, понимают сверхбольшие интегральные схемы (СБИС), предназначенные для моделирования импульсных нейронных сетей. Ключевое отличие архитектуры нейроморфных процессоров от традиционной фон-Неймановской архитектуры заключается в том, что в них память и вычислительные ядра объединены, поэтому расстояния передачи данных сведены к минимуму, что минимизирует задержки и расход энергии при постоянных переносах данных от процессора в память и обратно в ходе вычислений. В то время как системы классической фон-Неймановской архитектуры — это многомодульные системы, состоящие из блоков обработки, ввода/вывода и памяти, которые взаимодействуют друг с другом через различные логические элементы исключительно последовательно [17]. И в силу того, что большинство вычислений в нейронных сетях основано на потоке данных, постоянное переключение между блоками обработки и блоками памяти ястановится крайне узким местом, которое значительно влияет на производительность такой системы в целом [6] [13].
Почему GPU, ASIC и FPGA недостаточно хороши при работе с нейронными сетями
Графические процессоры (GPU) обладают высокой параллельной вычислительной мощностью по сравнению с центральными процессорами (CPU) [6], поэтому они довольно быстро стали доминирующими вычислителями для реализации нейронных сетей второго поколения.
В настоящее время центры обработки данных в основном используют миллионы взаимосвязанных графических процессоров для обеспечения параллелизма, но это решение требует повышенного энергопотребления, имеет ограничения по возможностям масштабирования и требует внушительных бюджетов на приобретение таких аппаратных платформ [17]. При этом графические процессоры ускорили исследования глубинных нейронных сетей, и продолжают поддерживать многие интересные направления развития технологий искусственного интеллекта, прочно закрепившись на рынке.
Однако, будущие периферийные приложения, такие как робототехника, носимые устройства или автономные автомобили требуют все более сложных ИНС, работающих в режиме реального времени, с малой задержкой и со значительно более низким энергопотреблением [6]. Это требует появления новых архитектур и их процессорных реализаций, которые будут удовлетворять этим постоянно растущим требованиям.
Так сложилось, что требование энергоэффективности сориентировало промышленность на разработку ускорителей, специально созданных для поддержки задач глубокого обучения. К ним относятся интегральные схемы специального назначения (Application-Specific Integrated Circuit, ASIC) и программируемые пользователем вентильные матрицы (Field-Programmable Gate Array, FPGA). ASIC хорошо оптимизированы для решения задач ИНС, они производительнее и работают с меньшим энергопотреблением, чем FPGA. Однако спроектировать ASIC дорого, и их нельзя реконфигурировать в отличии от FPGA. Поэтому FPGA служат прототипом для дальнейшего проектирования дорогостоящих ASIC с глубоким обучением [6]. Оба решения более энергоэффективны по сравнению с графическими процессорами, но имеют очень ограниченные возможности по масштабированию, меньшую эффективность по энергопотреблению и меньшую производительность в сравнении с нейроморфными процессорами. Это обусловлено архитектурными ограничениями в виде канала передачи данных между процессором и блоками памяти [17], которые сегодня требует новых подходов за пределами традиционной фон-Неймановской архитектуры.
Резюме
Таким образом, нейроморфный процессор — это особый процессор, архитектура которого максимально приближена к структуре биологических нейронных сетей, и который создавался специально для оптимизации вычислений импульсных нейронных сетей. Целью развития нейроморфной процессорной архитектуры является достижение способности параллельной обработки информации с энергопотреблением, ограниченным десятками ватт. Для этого память и блоки обработки должны быть объединены (in-memory computing). Нейроморфные процессоры в силу заложенной архитектуры больше подходят для когнитивных приложений, основанных на вероятностных моделях, динамическом и самопрограммируемом поведении, чем для точных вычислений [13].
Самые яркие проекты по созданию нейроморфных процессоров
Сегодня в мире существует совсем немного специализированных процессоров, чипов или крупномасштабных систем, которые можно отнести к нейроморфным. Попытаемся раскрыть их суть, разобрать отличительные черты и выделить некоторые особенности.
TrueNorth: процессор, имитирующий миллион нейронов
TrueNorth — это продукт компании IBM и первый специализированный процессор, созданный для эффективной эмуляции ИНС. Чип IBM TrueNorth стал результатом десятилетней работы в рамках программы DARPA SYNAPSE, направленной на создание высокоплотной и энергоэффективной платформы, способной поддерживать когнитивные приложения. Ключевым компонентом является большой 28-нм CMOS-чип, содержащий 5,4 млн. транзисторов и 4 096 нейросинаптических ядер, каждое из которых состоит из 256 нейронов с 256 синаптическими входами. Микросхема полностью цифровая и работает асинхронно, за исключением тактовой частоты 1 кГц, которая определяет основной временной шаг.
Важно отметить, что чипы TrueNorth можно напрямую соединять друг с другом для формирования более крупных систем, это означает возможность неограниченной масштабируемости.
С точки зрения применения, TrueNorth подходит для использования в различных отраслях и сферах деятельности. Система подходит для решения задач по видеоаналитике, распознаванию речи и пр. TrueNorth предлагает очень энергоэффективную обработку в реальном времени многомерных данных [2] [3] [4] [5] [6].
Энергоэффективный симулятор мозга Neurogrid
Neurogrid был разработан группой Brains in Silicon в Стэнфордском университете в рамках проекта, который был запущен в конце 2009 года. В настоящий момент система используется для проведения экспериментов по моделированию и визуализации [12].
Neurogrid — это многочиповая система со смешанным режимом. В системе используется подпороговые аналоговые схемы для моделирования динамики нейронов и синапсов в биологическом реальном времени с помощью цифровой импульсной связи. Все сигналы в нейрон поступают в одну из четырех общих цепей синапсов. Из-за «древообразной» структуры «вход» в один нейрон воздействует на соседние нейроны через резистивную сеть.
Каждый чип Neurocore включает в себя маршрутизатор, который может передавать пакеты пиковых значений между своим локальным чипом, его родительским чипом и двумя дочерними чипами.
Neurogrid состоит из 16 нейроядер/чипов, каждый из которых содержит 65 тыс. нейронов (всего 1 млн. нейронов), реализованных в подпороговых аналоговых схемах. Отдельное нейроядро изготавливается на матрице размером 11,9 мм × 13,9 мм. Плата из 16 нейроядер имеет размер 6,5 × 7,5, при этом вся плата потребляет примерно 3 Вт.
Режим работы Neurogrid в режиме реального времени делает его подходящим для управления роботами, в частности в рамках исследования Neurogrid был подключен к роботизированной руке для управления протезной конечностью и демонстрировал довольно многообещающие показатели. Дальнейшее финансирование проекта направлено на использование очень низкого энергопотребления технологии для разработки чипа, который может быть имплантирован в мозг для управления протезом конечности, а также для разработки технологии управления дронами [2] [3] [7].
BrainScaleS: ускорение в 10 000 раз
Нейроморфная система BrainScaleS была разработана в Гейдельбергском университете в рамках серии проектов, финансируемых Европейским союзом. BrainScaleS — это ускоренные нейроморфные вычисления, основанные на аналоговых нейронных цепях, превышающих пороговые значения. Проект нацелен на исследования в области вычислительной нейробиологии.
Ключевые особенности BrainScaleS:
- Использование надпороговых аналоговых схем для реализации физических моделей нейронных процессов, что дает гораздо более быстрые схемы, работающие со скоростью, в 10 000 раз превышающей биологическую
- Использование интеграции в масштабе пластины для доставки большого количества аналоговых нейронов, которые могут быть очень эффективно соединены между собой, чтобы обеспечить ускорение в 10 000 раз.
Крайне высокая скорость работы системы BrainScaleS предопределяет ее использование в областях, где необходимо длительный промежуток времени «сжать» до нескольких дней или даже часов. Например, долгосрочные учебные задачи, такие как моделирование нескольких лет развития детей, где ускорение в 10 000 раз потенциально может превратить годы в часы [2] [3].
SpiNNaker: суперкомпьютер, моделирующий работу мозга
SpiNNaker — это цифровая многоядерная система, работающая в реальном времени. Система реализует нейронные модели и модели синапсов в программном обеспечении, работающем на небольших встроенных процессорах. SpiNNaker был разработан для обеспечения масштабируемости и энергоэффективности за счет использования интеллектуальных методов коммуникации. Принцип его работы состоит в том, чтобы минимизировать расстояния, на которые должны быть перемещены часто используемые данные: код и наиболее часто используемые данные находятся в пределах одного-двух миллиметров от ядра, а редко используемые данные находятся в SDRAM, которая является примерно в 1 см от сердцевины.
Каждый узел SpiNNaker содержит 18 процессорных ядер ARM 968, каждое с 32 Кбайтами локальной памяти команд и 64 Кбайтами локальной памяти данных, 128 Мбайт общей памяти, маршрутизатор пакетов и вспомогательные схемы. Один узел может моделировать до 16 000 цифровых нейронов с 16 миллионами синапсов, потребляя 1 Вт энергии. Существует два размера печатных плат SpiNNaker: меньший из них представляет собой плату с 4 узлами (64 000 нейронов), больший — плату с 48 узлами (768 000 нейронов). Плата с 48 узлами потребляет до 60 Вт. Нейроморфная вычислительная система SpiNNaker HBP включает в себя миллион процессоров на 48-узловых платах и способна имитировать импульсные сети в масштабе мозга мыши в биологическом реальном времени.
Во многих отношениях система SpiNNaker напоминает обычный суперкомпьютер, но имеет ряд существенных отличий:
- Процессоры в SpiNNaker — это небольшие целочисленные ядра, изначально предназначенные для мобильных и встроенных приложений, а не высокопроизводительные «толстые» ядра, которые традиционно предпочитают разработчики суперкомпьютеров
- Структура связи в SpiNNaker оптимизирована для отправки большого количества очень маленьких пакетов данных (каждый обычно передает один нейронный всплеск) многим адресатам по статически настроенным групповым путям, тогда как суперкомпьютеры обычно используют большие пакеты с динамической двухточечной маршрутизацией.
Маломасштабные системы SpiNNaker используются для решения задач в реальном времени, например, для управления роботами и обработки изображений, а также для моделирования биологических цепей, не требующих работы в реальном времени [2] [3].
Авангард: нейроморфный чип Loihi
Loihi — это нейроморфный чип, представленный Intel Labs в 2018 году и изготовленный по 14нм техпроцессу Intel FinFET. Loihi моделирует 130 тыс. нейронов и 130 млн синапсов в реальном времени. Чип состоит из 128 нейроморфных ядер, способных к обучению и логическим выводам. Протокол иерархической сети реализован для поддержки связи между нейроморфными ядрами.
Loihi считается первым полностью интегрированным чипом нейронной сети, поддерживающим сжатие разреженных сетей, многоадресную передачу от ядра к ядру, переменный синаптический формат и иерархическую связность.
Loihi может решать задачи оптимизации, такие как LASSO (Least Absolute Shrinkage and Selection Operator) и при этом он более чем в 30 раз энергоэффективнее традиционных используемых сейчас систем [2].[1]
Совсем недавно (во второй половине 2021 г.) компания Intel представила новый процессор — Loihi 2. В процессоре Loihi 2 выросло число нейронов со 128 тыс. до 1 млн. а также реализовано более гибкое программирование нейронной модели .
Человеческий мозг vs нейроморфные системы: сравнение ключевых особенностей
| Платформа | Мозг человека | Neurogrid | BrainScaleS | TrueNorth | SpiNNaker | Loihi |
| Технология | Биология | Аналоговая, подпороговый | Аналоговая, выше порога | Цифровая, фиксированный | Цифровая, программируемый | Цифровая |
| Микрочип | — | Neurocore | HiCANN | 18 ARM cores | Intel FinFET | |
| Общие размеры: | 10 μ м | 180 нм | 180 нм | 28 нм | 130 нм | 14 нм |
| Транзисторы | — | 23 млн | 15 млн | 5.4 млрд | 100 млн | 2,07 млрд |
| Размер кристалла | — | 1,7 см 2 | 0,5 см 2 | 4,3 см 2 | 1 см 2 | 0,41 мм 2 |
| Нейроны | 65 тыс. | 512 | 1 млн | 16 тыс. | 130 тыс. | |
| Синапсы | ~ 100 млн | 100 тыс. | 256 млн | 16 млн | 130 млн | |
| Мощность | 150 мВт | 1,3 Вт | 72 мВт | 1 Вт | н\д | |
| Плата/система: | PCB | 20 cm wafer | PCB | PCB | PCB | |
| Число процессоров | 16 | 352 | 16 | 48 | ||
| Нейроны | 1 млн | 200 тыс. | 16 млн | 768 тыс. | ||
| Синапсы | 4 млрд | 40 млн | 4B | 768 млн | ||
| Мощность | 3 Вт | 500 Вт | 1 Вт | 80 Вт | ||
| Габариты: | 1,4 кг | 20 пластин в стойках7 ×19 ” | 600 печатных плат в стойках 6×19 ” | |||
| Нейроны | 100 млрд | 4 млн | 460 млн | |||
| Синапсы | 10 15 | 1 млрд | 460 млрд | |||
| Мощность | 20 Вт | 10 кВт | 50 кВт | |||
| Энергия | 10 фДж | 100 пДж | 100 пДж | 25 пДж | 10 нДж | |
| Скорость против биологии | 1 × | 1 × | 10 000 × | 1 × | 1 × | 1 х |
| Interconnect | 3D прямая сигнализация | Дерево-многоадресная рассылка | Иерархический | 2D одноадресная сетка | 2D сетка-многоадресная рассылка | 2D-сетка с ядрами 8×16 |
| Модель нейрона | Разнообразный, фиксированный | Адаптивная квадратичная IF | Адаптивная экспоненциальная IF | LIF | Программируемый b | LIF |
| Модель синапса | Разнообразный | Общий дендрит | 4-битный цифровой | Бинарный, 4 модулятора | Программируемый c | |
| Пластичность во время выполнения | Да | Нет | STDP | Нет | Программируемый d | Програмируемый |
Источник: [2] [3], открытые источники, данные компаний и пр.
Каждая из описанных выше систем имеет свои сильные стороны. Так, TrueNorth предлагает платформу для высокоинтегрированной и энергоэффективной работы приложений, SpiNNaker – максимальную гибкость для исследования различных нейронных моделей и правил пластичности, BrainScaleS обеспечивает высокое ускорение для длительного обучения, а Neurogrid предлагает высокую энергоэффективность с моделями, которые наиболее близки к физике и биологии. Loihi является наиболее перспективным и функционально богатым нейропроцессором. Все принципы функционирования этих систем в том или ином виде будут развиваться, а новые усовершенствованные системы будут еще производительнее и эффективнее.
Ключевые игроки на рынке нейроморфных технологий
В заключении перечислим менее известные пока проекты, в рамках которых апробируются разнообразные подходы к реализации с неплохим потенциалом к развитию: MNIFAT, DYNAP, 2IFWTA chip, Tianjic chip, ODIN [2] [9] [11].
Ниже перечислены наиболее крупные компании, которые на коммерческой основе предлагают рынку нейроморфные вычислительные системы или решения:
- Applied Brain Research — https://appliedbrainresearch.com/
- BrainChip — https://brainchipinc.com/
- Green Mountain Semiconductor — https://www.greenmountainsemi.com/
- Hewlett Packard Enterprise — https://www.hpe.com/us/en/hewlett-packard-labs.html
- IBM — https://www.research.ibm.com/artificial-intelligence/hardware/
- Intel — https://newsroom.intel.com/tag/neuromorphic-computing/
- Knowm — https://knowm.org/
- Natural Intelligence Semiconductor — https://www.naturalintelligence.ai/
- Neuromem Technologies — http://neuromem.ai/
- Westwell lab – http://www.westwell-lab.com/index_en.html
Ученые создали нейроморфный процессор, способный “забывать” устаревшие данные
Исследователи из Национальной лаборатории Аргонна, Национальной лаборатории Брукхейвена, университета Пурду, и известного Массачусетского технологического института и университета Ратджерса провели исследования с использованием суперкомпьютерного моделирования, целью которого является разработка биовдохновленного нейроморфного процессора, способного забывать неактуальные данные или данные, в которых он больше не нуждается. А основой такого процессора может стать весьма необычный материал, который постепенно изменяет свою структуру под воздействием рентгеновского излучения. “Наш мозг, несмотря на его сложность и совершенство, все же имеет ограниченные возможности.
Он может эффективно работать на протяжении всей жизни только за счет того, что он обладает способностью забывать несущественную и неактуальную информацию” – рассказывает Сабраманьян Сэнкаранэраянан (Subramanian Sankaranarayanan), ученый из Национальной лаборатории Аргонна, – “Очень сложно найти “неживой” материал, обладающий такой способностью “забывать со временем”. И нам, похоже, удалось найти вариант материала, способного подражать поведению живых нервных тканей”.
Исследователи использовали квантовый перовскит для создания наиболее простой небиологической модели “забывчивости” на электронном уровне. По своей природе этот материал демонстрирует адаптивную реакцию на неоднократное извлечение и возвращение протонов в атомы его кристаллической решетки. При этом, кристаллическая решетка или сокращается или расширяется, что называется эффектом “дыхания” кристаллической решетки. Однако, когда процесс “дыхания” решетки повторяется много раз, его амплитуда постепенно снижается и, в конце концов, материал практически перестает реагировать на изменения количества протонов в ядрах его атомов.
“Это походит на испуг, который человек испытывает, погружаясь в воду первый раз в жизни” – рассказывает Сабраманьян Сэнкаранэраянан, – “Но с каждым разом, когда человек привыкает и начинает плавать все лучше и лучше, его испуг проявляется все меньше и меньше, исчезая полностью в конце концов”.
В то время, когда перовскит еще остается способным реагировать на “протонные изменения” своих атомов, он еще обладает способностью изменять свое сопротивление и влиять на проходящий через него электрический ток. Это позволяет ученым, отнимая или добавляя протоны при помощи потоков рентгеновского или протонного излучения, управлять проводимостью материала, в величине которой кодируется хранимая информация.
Используя квантовый перовскит, можно будет создать искусственный аналог нейронов и синапсов, которые будут надежно помнить информацию в случае большого количества обращений или перезаписи ячеек памяти этих искусственных нейронов. Однако, если хранимые в нейронах данные потеряют свою актуальность, то количество обращений к ячейкам памяти упадет до нуля. В силу своей необычной природы, квантовый перовскит через некоторое время восстановит исходные свойства, т.е. успешно “забудет” хранившуюся в нем ранее информацию и будет готов к повторному использованию.
Литература
- Галушкин А.И. Нейроматематика (проблемы развития). М.: Радиотехника, 2003. – 40 с. (серия «Нейрокомпьютеры и их применение»).
- McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics, 5(4), 115–133. https://doi.org/10.1007/BF02478259
- Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386–408. https://doi.org/10.1037/h0042519
- Widrow, B. & Lehr, M., 1990. 30 years of adaptive neural networks: perceptron, Madaline, and backpropagation. Proceedings of the IEEE, 78(9), pp. 1415-1442.
- [5] Patterson, J. C., 2012. MANAGING A REAL-TIME MASSIVELY-PARALLEL NEURAL ARCHITECTURE. Phd Thesis ed. Manchester: UNIVERSITY OF MANCHESTER.
- [6] Zheng, N. & Mazumder, P., 2020. Learning in energy-efficient neuromorphic computing: algorithm and architecture co-design. s.l.:Wiley-IEEE Press.
- [7] Maass W. Networks of Spiking Neurons: The Third Generation of Neural Network Models. // NeuralNetworks. – Vol. 10, No. 9. – 1997. – Pp. 1659-1671.
- [8] Gerstner W., Kistler W. M. Spiking Neuron Models. Single Neurons, Populations, Plasticity. – Cambridge University Press, 2002.
- [9] Masayasu Atsumi. Sequence Learning and Planning on Associative Spiking Neural Network. // Proceedings of the 2002 International Joint Conference on Neural Networks (IJCNN’02), 2002. – Pp.1649-1654.
- [10] Brette R. Spike-based models of neural computation. – 2009.
- [11] Филиппов В.А. Кортикоморфная нейросетевая архитектура, моделирование консолидации следа памяти и кибергеномика – перспективные технологии искусственных когнитивных систем. – Научная сессия НИЯУ МИФИ – 2010. Материалы избранных научных трудов по теме: «Актуальные вопросы нейробиологии, нейроинформатики и когнитивных исследований». М.: НИЯУ МИФИ. – 2010. – С. 111-144.
- [12] Горбаченко В.И. Нейроморфные вычисления. Состояние и перспективы. // Проблемы информатики в образовании, управлении, экономике и технике: Сб. статей XIV Междунар. научно-техн. конф. – Пенза: ПДЗ, 2014. – С. 73-77.
- [13] Kasabov, K. N., 2019. Time-Space, Spiking Neural Networks and Brain-Inspired Artificial Intelligence. Berlin, Germany: Springer.
- [14] Sugiarto, I. & Pasila, F., 2018. Understanding a Deep Learning Technique through a Neuromorphic System a Case Study with SpiNNaker Neuromorphic Platform. MATEC Web of Conferences
- [15] Maass, W., 1997. Networks of spiking neurons: The third generation of neural network models. Neural Networks, 10(9), pp. 1659-1671.
- [16] Knight, J. & Nowotny, T., 2018. GPUs Outperform Current HPC and Neuromorphic Solutions in Terms of Speed and Energy When Simulating a Highly-Connected Cortical Model. Frontiers in Neuroscience
- [17] Kasabov, N., Sengupta, N. & Scott, N., 2016. From von neumann, John Atanasoff and ABC to Neuromorphic computation and the NeuCube spatio-temporal data machine. 2016 IEEE 8th International Conference on Intelligent Systems (IS).
Автор: @MelnikIvan
Источник: https://habr.com/

