Фотоника – это многогранная и интенсивно развивающаяся область науки. Возникнув как поддисциплина оптики, она довольно быстро распространилась на смежные сферы, такие как микроэлектроника, квантовая электроника, коммуникации и новое материаловедение. Результаты исследований в области фотоники неразрывно связаны с нашей повседневной жизнью, хотя мы часто не осознаём этого. Однако сегодняшние достижения являются лишь малой частью её технологического потенциала, который, по мнению оптимистично настроенных учёных, в ближайшем будущем раскроется и трансформирует мир. В первую очередь это коснется сферы вычислительной техники. Несмотря на огромный прогресс, фотоника сталкивается с определенными проблемами. Для лучшего понимания сущности фотоники, её принципов работы и перспектив развития, необходимо обратиться к её основам.
Термин «фотоника» вошёл в широкий обиход в 1960-х годах с изобретением лазера. Вкратце, фотоника – это наука о создании света, его поведении в различных средах и возможностях его применения. Она тесно связана с оптикой, но отличается тем, что изучает свет на квантовом уровне, то есть на уровне частиц и волн.

С фотоникой любой из нас сталкивается каждый день. Помимо светодиодов и лазеров, благодаря ей появился высокоскоростной оптоволоконный интернет и многие другие технологии.
Скорее всего, фотоника прямо сейчас измеряет ваш пульс, если вы носите умные часы: зелёный диод в их конструкции излучает свет на такой длине волны, которая поглощается молекулами гемоглобина в крови. Специальный датчик измеряет, сколько света нужной волны вернулось после столкновения с вашими тканями, и делает выводы о биологических параметрах, таких как пульс и насыщенность крови кислородом.

Однако фотоника способна на большее. Настоящий прорыв случится, когда удастся создать устройство, способное заменить привычный электронный компьютер.
Атомный предел
Сейчас производительность электроники увеличивается за счёт миниатюризации транзисторов: чем больше их умещается на единице площади процессора, тем больше вычислений процессор сможет произвести. Кроме того, совершенствуются системы теплоотведения и энергопотребления, однако уже сравнительно скоро миниатюризация упрётся в физические ограничения: размер транзисторов вплотную приблизится к размерам атомов кремния (0,2–0,3 нм), из которых они строятся, и у инженеров просто не будет возможности создавать ещё более миниатюрные компоненты.
Из грядущего кризиса нужно искать выход, но квантовые компьютеры — это не вариант. Они позволят совершать принципиально новые типы вычислений и сделают реальным мгновенное решение задач (например, взлом шифров), на которые у обычных компьютеров ушли бы тысячелетия. Однако квантовые компьютеры используют принципиально иную логику и не подходят для традиционных бинарных вычислений, на базе которых построен весь современный ИТ-мир, а вот гипотетические фотонные вычислители — очень даже.
Фотонный компьютер на замену кремниевому?
В течение десятилетий фотоны демонстрировали перспективы более высокой пропускной способности, чем электроны, используемые в обычных компьютерах.
Под пропускной способностью понимается метрика, показывающая, сколько единиц (в данном случае электронов), способно пройти через канал (проводник). В сравнении с электронами фотоны движутся значительно быстрее и не создают потерь сигнала, равно как и нагрева из-за сопротивления материала проводника, характерных для обычной электроники.

Фотонные устройства произвели революцию в сфере передачи данных: когда информацию научились передавать по оптоволоконным линиям с помощью света, а не с помощью электричества по медным проводам, стал возможен Интернет — в том виде, в каком мы его знаем: с многочисленными социальными сетями, потоковыми видеотрансляциями в высоком разрешении и тому подобным.
Идея, что похожий скачок в скорости движения данных можно организовать не просто между разными компьютерами, но внутри каждого из них, прямо на интегральной схеме, — и есть главная «морковка», за которой бегут учёные, работающие над проектами фотонных вычислений. Фотонику часто называют аналогом электроники, поскольку ключевым элементом в ней является фотон, точно так же, как электроника базируется на поведении электронов.
Принципиально фотонные компьютеры мало отличаются от электронных. Для передачи информации в обычном компьютере используется электронный заряд, который обозначает единицу, если он достигает определенного порога, и ноль, если его значение ниже. В фотонном компьютере роль электрона берёт на себя фотон, а роль заряда — интенсивность, фаза или поляризация света.
Казалось бы, проблема решена — бери и делай. Но, как обычно, не всё так просто.
Фотонная преграда
Переход на фотонные вычисления давно случился бы, если бы не фундаментальная преграда. И как ни странно, дело опять в размерах.
Типичные оптические компоненты, призванные заменить собой транзисторы (оптические модуляторы, например), тоже имеют строго определённые минимальные размеры. Их минимальная гипотетическая ширина составляет 1 микрометр, что соответствует длине волны света, которую они переносят. Длина волны электронов — значительно меньше, она составляет всего несколько нанометров. Фотонам элементарно нужно больше места, чтобы заменять в бинарных вычислениях электроны. На практике это означает, что одному модулятору нужно столько же площади процессора, сколько нескольким тысячам транзисторов.

При этом в структуре чипа присутствуют не только транзисторы, но и множество других микроскопических устройств, разработанных для выполнения различных математических операций (соединители, арифметико-логические устройства, умножители и др.). Полный переход на фотонные технологии потребовал бы разработки «световой» альтернативы и для этих компонентов, что только увеличило бы размеры финального изделия.
Выходит, процессор, построенный исключительно на фотонных технологиях, получится либо слишком большим, либо недостаточно производительным в сравнении со своим кремниевым аналогом. Тут либо мириться с тем, что компьютеры вновь будут занимать этаж здания, либо выдумывать принципиально новый тип вычислений, который позволил бы «повесить» на один оптический элемент столько же математических операций, сколько делают несколько тысяч кремниевых. Без волшебства тут не обойтись.
Дело закрыто? Не закрыто.
На любой печатной плате компьютера присутствует несколько ключевых компонентов, участвующих в вычислении: процессор, оперативная память, графический ускоритель.
Обмен данными между ними в классическом сценарии происходит по металлическим проводящим дорожкам с соответствующими недостатками в виде скорости и тепловой нагрузки. Коль скоро с помощью фотонов данные можно передавать гораздо быстрее, чем с помощью электронов, то почему бы не использовать это преимущество в коммуникациях между компонентами компьютера?
Кремниевая фотоника
Принцип давно используется в привычных устройствах: данные из Интернета по оптическому волокну приходят в виде света, а в самих вычислительных компонентах существуют уже в виде электронных сигналов — благодаря оптическим трансиверам, подключаемым устройствам, преобразующим оптические данные в электронные и наоборот. Но с ними есть одна проблема: временная задержка, которая уходит на то, чтобы трансформировать свет в данные, а потом передать их по медным проводам и проводящим дорожкам к чипам. Это запаздывание негативно влияет на скорость и энергосбережение.

Схема гибридного чипа
Проблему призвана решить кремниевая фотоника. Решение предполагает несколько этапов, и первый из них заключается в создании «гибридных» интегральных схем, в которых обычные интегральные схемы («царство» электронных сигналов и скоростных компактных вычислений) выполнены на единой подложке с фотонными интегральными схемами («царство» световых сигналов и скоростной передачи данных). За сам процесс вычислений в таких схемах отвечают кремниевые компоненты, а вот за коммуникации с внешними элементами — фотонные.

Подходы к размещению оптической составляющей: вне платы и внутри
Принципиально оба варианта на картинке выше мало отличаются от привычной схемы: «фотонная» часть всё ещё выполняет функцию трансформации электронных сигналов в световые и обратно, в то время как коммуникации между кремниевыми компонентами схемы осуществляются с помощью электронов. То есть результаты вычислений доставляются с помощью электронов на трансивер, а оттуда — уже в виде света — отправляются за пределы гибридной интегральной схемы.
Разница заключается в том, что интеграция фотонных компонентов делает их физически ближе к кремниевым, что кардинально сокращает ту самую временную задержку. По данным Научно-исследовательского института промышленных технологий (Industrial Technology Research Institute) в Тайване, гибридная схема всё еще находится в стадии разработки, но ожидается, что её вычислительная мощность превзойдет существующую в 30 раз, а потенциальный объем пропускаемых данных — в 8 раз, при этом энергопотребление снизится аж на 50%.
Вторым этапом проекта станет создание схемы, где фотонная часть отвечает за преобразование сигналов не только между обычной интегральной схемой и внешними устройствами, но и между двумя ключевыми для производительности компонентами схемы: процессором и графическим чипом. На третьем этапе «фотонную» связь должны обрести все кремниевые вычислительные компоненты схемы.

Хоть кремниевая фотоника всё ещё является экспериментальным решением, в него уже инвестируют такие компании, как TSMC, Intel, Nvidia и Apple — что говорит о безусловной перспективности подхода.
А что там с волшебством?
Кремниевая фотоника предлагает компромисс: звание «главных вычислителей» остаётся за кремниевыми транзисторами, а фотоны получают почётную функцию невероятно быстрых гонцов — передатчиков информации. Но как же вычислительный потенциал? Неужели естественное ограничение на длину волны ставит крест на математической «карьере» фотонов?
Исследователи из Калифорнийского технологического института предполагают, что нет. Они создали фотонный компьютер, использующий в качестве модели вычислений клеточные автоматы.
Клеточные автоматы — это оригинальная модель математических вычислений, используемая в том числе в криптографии и для моделирования физических и биологических процессов. Модель состоит из клеток, каждая из которых «живёт» (1) или умирает (0) в зависимости от установленных в клеточной решётке правил.

Кроме того, на идее клеточных автоматов могут быть построены процессоры — в том числе такие, которые не требуют проводников для передачи информации. А ведь именно необходимость воссоздавать архитектуру фон Неймана с её сложной системой элементов для передачи и хранения данных в памяти компьютера и является одной из самых трудных задач для инженерии фотонных процессоров. Помимо уже упомянутого «размерного» ограничения, создатели фотонных вычислителей сталкиваются с трудностями, когда речь заходит о сохранении того или иного состояния фотона (обеспечение работы памяти компьютера) либо изменения этого состояния.
Процессор на основе клеточных автоматов может использовать для вычислений любой способ передачи информации, а не только электроны. Как выяснили исследователи, если в качестве такого способа выбрать фотоны, то вычислять с помощью модели клеточных автоматов можно чрезвычайно быстро. При этом не потребуется прибегать к использованию традиционных для машин фон Неймана логических аппаратных элементов вроде ворот, переключателей и устройств памяти, с которыми у фотонов проблемы.
В экспериментальном компьютере клетки автомата создаются ультракороткими импульсами света, они могут возникать с тактовой частотой втрое более высокой, чем у обычного процессора. В сравнении с классическим кремниевым процессором фотонный компьютер на клеточных автоматах по определению работает быстрее: в то время как обычный процессор в состоянии лишь воспроизвести симуляцию клеточных автоматов на базе ПО, разработанный в Калифорнии фотонный компьютер, по сути, сам является таким автоматом. Несколько подобных компьютеров могут работать в параллели, оперируя только светом и не «опускаясь» на уровень электронов и проводников. То есть вычисления здесь реализуются исключительно с помощью света — со всеми вытекающими преимуществами.
При этом модель клеточных автоматов является Тьюринг-полной, следовательно, на её основе в теории можно производить любые вычисления. А значит, фотонные компьютеры, использующие эту модель, имеют шансы стать альтернативой кремниевым вычислителям. Просто вычислять они будут по-другому.
Фотоника на максималках
Открытия в области фотоники уже давно и незаметно производят революции в науке, промышленности и быту: лазерные системы связи способны в считанные секунды передавать огромные массивы информации, лидары позволяют беспилотным автомобилям ориентироваться в пространстве, а в медицине применяются методы неинвазивной диагностики, которые дают высокодетализированные трёхмерные изображения мельчайших структур организма. Прежде такие можно было разве что нарисовать в 3D-редакторе. При помощи тонких манипуляций со светом фотоника дала миру высокую скорость связи, невиданную точность и подробность измерений. Не хватает одного — если не «сверх», то хотя бы просто «световой» скорости вычислений. Вполне возможно, эта революция тоже не за горами.
Оптический компьютинг
Первый макет оптического компьютера был создан в 1990 году компанией Аланом Хуаном (Bell Labs). Процессор второго поколения носил название «DOC-II» (англ. Digital Optical Computer — цифровой оптический компьютер) и был способен проверять до 80 тыс. страниц текста в секунду при выполнении команды поиска слова.
- Оптический компьютер компании «Lenslet»
Компанией «Lenslet» был выпущен единственный на данный момент коммерческий оптический процессор EnLight256. Особенностью его архитектуры является то, что в то время, как ядро основано на оптических технологиях, все входы и выходы – электронные. Этот процессор способен выполнять до 8×1012 операций в секунду. Компьютер на базе EnLight256 способен обрабатывать 15 видеоканалов стандарта HDTV в режиме реального времени и позволяет создать новое направление в голографическом 3D TV.
- Первые прототипы 32-нм оптоэлектронных чипов
В 2009 году профессорами Массачусетского технологического института Владимиром Стояновичем и Радживом Ремом было предложено использовать для создания оптоэлектронных устройств, в том числе и оптических процессоров, обычный технологический процесс изготовления полупроводниковых процессоров, основанный на 32-нм технологии. По их расчётам это позволит достигнуть большего прогресса.
Оптические компьютеры:
Развитие вычислительной техники представляет собой постоянно сменяющие друг друга физические способы реализации логических алгоритмов – от механических устройств (вычислительная машина Бэббиджа) к ламповым (компьютеры 40-50-х годов Марк I и Марк II), затем к транзисторным и, наконец, к интегральным схемам. И уже на рубеже XXI века идут разговоры о скором достижении пределов применения полупроводниковых технологий и появлении вычислительных устройств, работающих на совершенно ином принципе. Все это свидетельствует о том, что прогресс не стоит на месте, и с течением времени ученые открывают новые возможности создания вычислительных систем, принципиально отличающихся от широко применяемых компьютеров. Существует несколько возможных альтернатив замены современных компьютеров, одна из которых – создание так называемых оптических компьютеров, носителем информации в которых будет световой поток.
Проникновение оптических методов в вычислительную технику ведется по трем основным направлениям. Первое основано на использовании аналоговых интерференционных оптических вычислений для решения отдельных специальных задач, связанных с необходимостью быстрого выполнения интегральных преобразований. Второе направление связано с использованием оптических соединений для передачи сигналов на различных ступенях иерархии элементов вычислительной техники, т.е. создание чисто оптических или гибридных (оптоэлектронных) соединений вместо обычных, менее надежных, электрических соединений. При этом в конструкции компьютера появляются новые элементы – оптоэлектронные преобразователи электрических сигналов в оптические и обратно. Но самым перспективным направлением развития оптических вычислительных устройств является создание компьютера, полностью состоящего из оптических устройств обработки информации. Это направление интенсивно развивают с начала 80-х годов ведущие научные центры (MTI, Sandia Laboratories и др.) и основные компании-производители компьютерного оборудования (Intel, IBM).
В основе работы различных компонентов оптического компьютера (трансфазаторы-оптические транзисторы, триггеры, ячейки памяти, носители информации) лежит явление оптической бистабильности. Оптическая бистабильность – это одно из проявлений взаимодействия света с веществом в нелинейных системах с обратной связью, при котором определенной интенсивности и поляризации падающего на вещество излучения соответствуют два (аналог 0 и 1 в полупроводниковых системах) возможных стационарных состояния световой волны, прошедшей через вещество, отличающихся амплитудой и (или) параметрами поляризации. Причем предыдущее состояние вещества однозначно определяет, какое из двух состояний световой волны реализуется на выходе. Для большего понимания явление оптической бистабильности можно сравнить с обычной петлей магнитного гистерезиса (эффект, используемый в магнитных носителях информации). Увеличение интенсивности падающего на вещество светового луча до некоторого значения I1 приводит к резкому возрастанию интенсивности прошедшего луча; на обратном же ходе при уменьшении интенсивности падающего луча до некоторого значения I2<I1 интенсивность прошедшего луча остается постоянной, а затем резко падает. Таким образом, интенсивности падающего пучка I, значение которой находится в пределах петли гистерезиса, соответствуют два значения интенсивности прошедшего пучка, зависящих от предыдущего оптического состояния поглощающего вещества.
Весь набор полностью оптических логических устройств для синтеза более сложных блоков оптических компьютеров реализуется на основе пассивных нелинейных резонаторов-интерферометров. В зависимости от начальных условий (начального положения пика пропускания и начальной интенсивности оптического излучения) в пассивном нелинейном резонаторе, нелинейный процесс завершается установлением одного из двух устойчивых состояний пропускания падающего излучения. А из нескольких нелинейных резонаторов можно собрать любой, более сложный логический элемент (триггер).
На практике пассивные нелинейные резонаторы-интерферометры являются вакуумно-напыленными тонкопленочными многослойными полупроводниковыми структурами с несколькими промежуточными слоями из арсенида галлия (GaAs), фосфида индия (InP) или селенида цинка (ZnSe), формирующими в тонкопленочном элементе полупроводниковую сверхрешетку. Такие резонаторы обладают временами переключения ~10-8-10-9 с и удельными энергиями переключения ~10-12-10-14 Дж/мкм2.
Элементы памяти оптического компьютера представляют собой полупроводниковые нелинейные оптические интерферометры, в основном, созданными из арсенида галлия (GaAs). Минимальный размер оптического элемента памяти определяется минимально необходимым числом атомов, для которого устойчиво наблюдается оптическая бистабильность. Это число составляет ~1000 атомов, что соответствует 1-10 нанометрам. Времена переключения оптических элементов памяти примерно на три порядка ниже, чем у полупроводниковых элементов, и могут достигать долей пикосекунды. Важной особенностью оптической памяти является ее высокая защищенность от электромагнитных шумов и надежность (количество переключений не ограничено).
К настоящему времени уже созданы и оптимизированы отдельные составляющие оптических компьютеров (оптические процессоры, ячейки памяти), однако до полной сборки еще далеко. Основной проблемой, стоящей перед учеными, является синхронизация работы отдельных элементов оптического компьютера в единой системе, поскольку уже существующие элементы характеризуются различными параметрами рабочей волны светового излучения (интенсивность, длина волны), и уменьшение его размера. Если для конструирования оптического компьютера использовать уже разработанные компоненты, то обычный PC имел бы размеры легкового автомобиля. Однако применение оптического излучения в качестве носителя информации имеет ряд потенциальных преимуществ по сравнению с электрическими сигналами, а именно:
- световые потоки, в отличие от электрических, могут пересекаться друг с другом;
- световые потоки могут быть локализованы в поперечном направлении до нанометровых размеров и передаваться по свободному пространству;
- скорость распространения светового сигнала выше скорости электрического;
- взаимодействие световых потоков с нелинейными средами распределено по всей среде, что дает новые степени свободы (по сравнению с электронными системами) в организации связи и создании параллельных архитектур.
Вообще, создание большего количества параллельных архитектур, по сравнению с полупроводниковыми компьютерами, является основным достоинством оптических компьютеров, оно позволяет преодолеть ограничения по быстродействию и параллельной обработке информации, свойственные современным ЭВМ. Например, цифровой оптический процессор с числом параллельных каналов ~105-106 может совершать до 1013-1015 операций в секунду (при времени переключения в одном канале ~10-8-10-9 с), что значительно превосходит количество производимых операций в секунду в современных полупроводниковых процессорах.
Как уже стало ясно уважаемому читателю, создание оптических компьютеров очень перспективно, но и очень сложно (хотя исследователи из MIT и обещают к 2008 году сконструировать полностью работающий вариант оптического компьютера). Пока никто не может ответить, какой конкретно физический принцип заменит полупроводниковые технологии (биокомпьютеры, квантовые компьютеры, оптические компьютеры, или какие-нибудь еще). Но развитие оптических технологий все равно будет продолжаться, поскольку полученные результаты важны не только для создания оптических компьютеров, но также и для оптических коммуникаций и сети Internet.
Золотые наночастицы могут стать будущим оптических компьютеров
В последнее время физиков-оптиков привлекает такое малоисследованное направление, как управление светом в наномасштабе. Особенно это направление перспективно для создания оптических компьютеров.
В основе любого компьютера, будь то полупроводниковый или оптический, стоят нелинейные операции, с помощью которых и производятся вычисления. В оптике такие операции проще всего реализовываются изменением длины волны света. Ранее такие операции были возможны лишь при высокой мощности.
Международная группа исследователей из Франции, Испании и США пришла к выводу, что наночастицы золота помогут решить проблему изменения длины волны при низкой мощности излучения. Облучая микроскопические частицы металла красным лазером, они обнаружили, что если размер частицы меньше длины волны, то каждая из них может выступать в роли резонатора и изменять длину волны света при перемещении относительно его источника. Такое раньше считалось практически неосуществимым.
Существуют, однако, серьезные препятствия на пути создания оптических компьютеров по данной технологии. Пока что используемые поля еще слишком мощные для практического применения. Необходимы дальнейшие исследования и разработки, прежде чем эффективные и конкурентоспособные оптические компьютеры станет возможным создавать на практике.
Ученые оценили будущее фотонных компьютеров с точки зрения последних технологических достижений — и оно выглядит весьма многообещающим
Современная цивилизация сильно зависима от информационных технологий, и с каждым годом людям требуются все более мощные компьютеры. Кажется, прогресс не стоит на месте — и производительность электроники только растет. Но, по мнению международной команды ученых, это лишь видимость: на самом деле, микроэлектроника приближается к тупику. Они видят выход из ситуации в фотонных компьютерах и проанализировали, насколько человечество продвинулось в области их разработки.
Предлагаемая принципиальная схема нейроморфного фотонного процессора / ©Shastri, B.J., Tait, A.N., Ferreira de Lima, T. et al. Photonics for artificial intelligence and neuromorphic computing. Nat. Photonics 15, 102–114 (2021). https://doi.org/10.1038/s41566-020-00754-y / Автор: Ptolemocratia Acerronius
Новое исследование провели специалисты из Королевского университета в Кингстоне (Queen’s University, Канада), Принстонского университета (Princeton University, США), Вестфальского университета имени Вильгельма (University of Münster, Германия), Оксфордского университета (University of Oxford, Англия) и Университета Эксетера (University of Exeter, Англия). Результаты работы они опубликовали в рецензируемом журнале Nature Photonics.
Во вступлении к статье ученые отмечают, что вся современная электроника обладает коренным недостатком, проистекающим из самого принципа ее архитектуры. За крайне редким исключением компьютеры уже более 70 лет строятся по принципам архитектуры фон Неймана. То есть команды для обработки данных и сами данные совместно хранятся в памяти. Они представлены в одинаковом виде и отличаются лишь способом обращения к ним. У такого подхода есть невероятное множество проверенных временем достоинств, но и один существенный изъян.
Дело в том, что операции обращения к памяти — немного медленнее, чем операции обработки данных и выполнения вычислений. Этот недостаток обусловлен как принципами архитектуры, так и физическими ограничениями: сделать все ячейки памяти одинаково и одновременно доступными невозможно. Эта проблема получила название «узкое место архитектуры фон Неймана», или «фон-Неймановское бутылочное горлышко» (von Neumann bottleneck).
Всю историю развития компьютеров инженеры пытались сгладить эффект этого изъяна. У процессоров появился кэш и со временем стал многоуровневым, по-разному разделенным для отдельных блоков и типов данных. Даже притом что внутренняя память процессора намного быстрее оперативной, а та, в свою очередь, на порядок быстрее постоянных накопителей, глобально это лишь отодвинуло кризис, а не решило проблему. Более того, чрезмерно сложные механизмы работы с кэшем стали дополнительной головной болью для разработчиков и специалистов по кибербезопасности — стоит вспомнить только аппаратные уязвимости вроде Spectre и Meltdown.
Но есть и другое решение, радикально отличающееся от существующих на сегодня. В своем исследовании ученые проанализировали такое многообещающее направление работы, как фотонные компьютеры. В них роль переносчиков информации играют не электроны, а фотоны. По мнению специалистов, у таких систем есть все шансы стать будущим электроники. Правда, для этого придется полностью отойти от архитектуры фон Неймана и обратиться к природе, а точнее — к человеческому мозгу.
Исследователи предложили нейроморфную архитектуру фотонного процессора. Она интегрируется в существующие электронные схемы, но «под капотом» такого чипа — оптические вентили и запоминающие элементы. Они реализованы по принципу нейронов, то есть одновременно и хранят информацию, и обрабатывают ее. Подобный подход не только обещает более высокий потенциал для развития, но и позволяет на аппаратном уровне реализовать нейронную сеть. А это уже следующий скачок в прогрессе вычислительных систем. Достаточно посмотреть на то, какие впечатляющие результаты нейросетевые алгоритмы выдают на «обычных» компьютерах. Трудно даже представить, что произойдет, если из их работы будет устранена неоптимизированная фон-Неймановская логика.
Естественно, поскольку эта публикация не просто фантазии, пусть и достоверные, ее авторы потрудились аргументированно обосновать свои умозаключения. Среди прочего они обратили внимание на технологии, которые необходимо усовершенствовать или вовсе создать с нуля, чтобы такой компьютер мог эффективно работать. К сожалению, никаких прогнозов о том, когда стоит ждать подобные процессоры, в статье не содержится.
Источники: https://habr.com/, https://naked-science.ru/, https://studfile.net/

