Одержимость искусственным интеллектом: недостатки и заблуждения

В последние годы технологическая составляющая ИИ изрядно поблекла на фоне всё более расцветающих маркетингово-рекламных акцентов: Руководители компаний получают возможность снять с себя ответственность за аварии, заявляя, что решения принимал ИИ; Маркетологи получают возможность объявлять, что их продукты – в отличие от конкурентных – используют ИИ, поэтому вам следует покупать именно их. Почему же ИИ опустился так низко? Несколько месяцев назад компания Boston Robotics распространила промо-роли. к, демонстрирующий «идеальный и трогательный ритмичный танец» трех роботов. В порыве благоговения некий цифровой евангелист воскликнул: «Вы только представьте, что смогут делать ИИ-устройства через 5-10 лет!» (1). Мы не можем знать, верит ли сам цифровой проповедник своему пророчеству, поскольку он, в конце концов, евангелист, которому поручено распространять хорошие цифровые новости.

Специалист по предсказательному моделированию Filip Piekniewski (2) так комментирует то, что стоит за танцем роботов: «Робот выполняет набор заранее запрограммированных движений с помощью набора ПИД-регуляторов (см. Википедия), точно так же, как нечто подобное 20 лет назад делал любой продвинутый станок с ЧПУ. В данном случае машине придали облик гуманоида, чтобы наивные люди могли легче поверить в то, что в ней есть некоторое количество разума».

«Представьте, что ИИ сможет делать в следующие N лет», – с 1960-х годов слышали мы от хора сторонников ИИ. В 1967 году ученый-когнитивист Марвин Мински утверждал, что «в течение жизни одного поколения … проблемы создания искусственного интеллекта будут существенно решены (3)».

Зарождение ИИ в конце 1950-х годов теперь ближе к началу Первой мировой войны, чем к сегодняшнему дню. Проблемы создания искусственного интеллекта так и не решены, но теперь мы всё лучше понимаем, почему ИИ не работает должным образом.

Мелани Митчелл в своей статье «Почему ИИ сложнее, чем мы думаем» (4) пишет, что мышление исследователей ИИ заражено несколькими заблуждениями.

Заблуждение №1: Ограниченный интеллект – это просто часть общего интеллекта

После того как программа AlphaGo, разработанная компанией DeepMind, выиграла партию игры в го (5) (кажется, это игра, в которой человеку очень сложно выигрывать), энтузиасты ИИ использовали это событие как доказательство того, что идея создания полноценного ИИ вполне осуществима. Позже мы стали свидетелями того, как компьютер Watson плохо справлялся с прогнозированием диагноза рака (6), а GPT-3 написал множество бессмысленных статей (7).

Небольшие продвижения не могут служить доказательством неизбежной окончательной победы. В 2012 году Стюарт Дрейфус заметил: «Это равносильно заявлению, что первая обезьяна, взобравшаяся на дерево, начала путь к высадке человека на Луну» (8).

Илон Маск пообещал покупателям электромобилей Tesla, что к 2020 году будет реализовано беспилотное управление 5-го уровня (вообще без участия водителя-человека). Затем в 2021 году он посетовал: «Автопилот в целом – сложная проблема, поскольку она требует реализации ИИ для значительной части реального мира. Я не ожидал, что это будет так сложно, но сейчас сложность для нас очевидна. Нигде нет больше степеней свободы, чем в реальности» (9).

Это заблуждение я заменяю утверждением: Из ИИ, выполняющего одну задачу, не вытекает ИИ, выполняющий все задачи.

Заблуждение №2: легкие задачи решать легко, трудные – трудно

Когда приверженцы ИИ объявляют о том, что компьютер лучше играет в го или диагностирует проблемы со здоровьем, чем люди, они констатируют очевидное. Предполагается, что компьютеры лучше нас справляются с утомительными и сложными задачами. Уверен, что программная реализация метода конечных элементов работает быстрее и лучше, чем я, использующий деление в столбик.

Однако ИИ пасует перед задачами, которые люди считают тривиальными, такими как необходимость пройти через толпу на станции метро или умение играть в шарады, которое, по мнению психолога Gary Marcus, находится далеко за пределами возможностей ИИ (10).

Препятствием для окончательного развития ИИ является отсутствие у ИИ здравого смысла. Митчелл рекомендует исследователям ИИ взять за образец способности годовалого ребенка, а не умников с IQ выше 100.

Это заблуждение я заменяю утверждением: способность ИИ решать простые задачи не означает способности к решению сложных задач.

Заблуждение №3: Можно вполне естественно использовать привычные термины и понятия

Митчелл отмечает, что описания поведения ИИ-программ изобилуют терминологией, обычно применяемой для характеристики мыслительной деятельности человека, и приводит примеры:

  • Нейронные сети появились с целью имитации работы мозга, но с фундаментальными отличиями;
  • Методы машинного или глубокого обучения на самом деле не похожи на обучение людей или животных.

В 2011 году представители IBM хвалились тем, что компьютер «Watson способен за секунды прочитать все существующие в мире тексты по теме здравоохранения на семи языках» и при этом «понимает контекст и нюансы прочитанного» (11) (курсив Р. Грабовски). Таким способом нас пытались заставить поверить, что Watson умнее людей, и это сформировало представление о том, как исследователи ИИ представляют область своей деятельности.

Если бы компьютеры обучались так же, как люди, они могли бы применять свои умения в широкой области – это называется «переносом обучения». Однако компьютеры так обучаться не могут. То, чему фактически ИИ-софтвер обучается, это ссылки на конкретные алгоритмы и статистические корреляции для достижения высокой производительности без обучения навыкам: нечто похожее на то, как мы заучиваем факты, чтобы сдать школьные экзамены.

Это заблуждение я заменяю утверждением: само по себе именование ИИ «человекоподобным» не делает ИИ человекоподобным.

Заблуждение №4: весь интеллект сосредоточен в мозге

Под влиянием сюжета о Франкенштейне или философов-материалистов эпохи Просвещения сторонники искусственного интеллекта предполагают, что рациональное мышление происходит исключительно в мозге. Поэтому целью становится «Мозг в Коробке»: воспроизведем мозг в виде ИИ, после чего заменим человеческий мозг софтверно-хардверными элементами или же вставим эти элементы в человекоподобных роботов – как представляется во многих телевизионных сериалах.

Заблуждение такого подхода, по мнению Митчелл, состоит в том, что в мозге нет никаких материальных элементов, уникальных для мозга. Разумно полагать, что в процессе мышления участвуют сигналы из остальных участков тела человека. Изолированный искусственный мозг не сможет функционировать как задумано.

В 2017 году один из родоначальников глубокого обучения Джеффри Хинтон (Geoffrey Hinton) легкомысленно заявил: «В нашем мозге работают триллионы связей, а даже в самых крупных на сегодняшний день сетях таких связей всего лишь миллиарды. Так что мы отстаем на несколько порядков, однако я уверен, что хардверщики решат эту проблему» (12).

Считать, что задача построения ИИ будет решена с помощью наращивания хардвера, – весьма близоруко. Именно поэтому энтузиасты отодвигают дату Сингулярности всё дальше в будущее. (Сингулярностью называют рубеж, когда технология превзойдёт человеческие способности). Сначала объявлялось, что это произойдет к 2029 году, затем примерно в 2039, а теперь называют 2045 или позже (13).

Это заблуждение я заменяю утверждением: ИИ, который копирует функции человеческого мозга, не станет реализацией полноценного ИИ.

Мнение автора

Одержимость искусственным интеллектом объясняется тем, что он является самой сложной вычислительной задачей. Как только она будет решена, нам больше нечего будет решать: ИИ решит за нас все остальные проблемы.

Человек склонен опираться на разнообразные искажения восприятия, которые помогают справляться с тем, чего мы не знаем, с такими иррациональностями, как линейные предсказания, рационализации, когнитивные диссонансы, предвзятость подтверждения, интуиция, групповое мышление, свобода воли, здравый смысл, фанатизм, аналогии.

Поэтому перед исследователями ИИ возникает вопрос: следует ли внедрить в компьютерный код человеческую иррациональность или же она не нужна? Судя по скандалу, разразившемуся по поводу проявлений расизма и других предубеждений, которые продемонстрировали некоторые системы ИИ (14), текущее мнение состоит в том, чтобы исключить из ИИ любую человеческую иррациональность.

Но ИИ уровня Сингулярности должен использовать элементы иррациональности, что невозможно. Даже если бы иррациональность была реализована, цивилизация Сингулярности постепенно стала бы походить на мир Сайлонов (15), которые затеяли войну лишь потому, что люди казались им слишком воинственными.

В 1960-х нам обещали усовершенствованный мозг. На деле в 2020-х годах мы улучшаем выбор смайлов: «Ваш Chromebook получит новое средство выбора смайлов в этом месяце и 992 новых смайлика в конце этого года» (16).

В чем заключается фатальный изъян ИИ? В том, что он не может воспроизвести человеческую метафизику; рациональное не может постичь иррациональное.

Можно ли применить ИИ в сфере САПР?

Некоторые вендоры сообщают, что их софтвер использует ИИ. На мой взгляд, это не так. Вот некоторые примеры.

Утверждается, что одна из САПР умеет предсказывать поведение пользователя. Например, пользователь только что нарисовал окружность. Какое следующее действие предсказывает ИИ? Нам не требуется компьютер, чтобы догадаться:

  • нарисовать ещё одну окружность или какую-то другую фигуру,
  • отредактировать или удалить нарисованное,
  • напечатать нарисованное.

По-моему, это не ИИ, это разновидность MRU (most recently used) – средство хранения вариантов часто используемых пользователем команд.

Другая САПР, как утверждается, использует ИИ для решения распространенных задач типа замены соединений конфигурациями болтов и отверстий. На самом деле, это всего лишь S&R (Search and Replace, «Поиск и замена»).

MRU и S&R снижают объем рутинных действий, чем приносят пользу пользователям САПР. Только не называйте это искусственным интеллектом.

Похоже, есть нечто общее между ИИ и параллельной обработкой. Ни то, ни другое не работает в САПР, и по сходной причине.

Параллельная обработка не может использоваться в большинстве областей САПР, поскольку действия пользователя невозможно предсказать. Прогнозирование требуется до того, как программное обеспечение сможет разделить обрабатываемую команду между несколькими процессорами, а затем объединить результаты. Природа САПР такова, что программное обеспечение не может предсказать результат наших действий. То же самое и с ИИ: действия пользователей невозможно предсказать в достаточной степени, чтобы ИИ мог им помочь.

(Параллельная обработка действительно используется в областях САПР, находящихся вне контроля пользователей. Примеры включают загрузку файлов, выполнение визуализации и расчет анализа методом конечных элементов.)

Творчество – это хаос, что блестяще показывает Джордж Гульдер в своей книге «Знание и сила». ИИ может взять на себя процесс проектирования только после того, как завершен этап человеческого творчества.

P.S. Связь ИИ 1950-х с CAD 2020

В 1958 году Джон Маккарти, родоначальник ИИ, предложил LISP в качестве языка программирования, способного обрабатывать свой собственный исходный код, рассматриваемый как некая структура данных (17).

Затем LISP появился во многих САПР-системах, основанных на DWG. В 1985 году Autodesk включил в AutoCAD созданную Дэвидом Бетцем (18) бесплатную версию ХLISP, и сегодня она всё ещё работает (19).

На arxiv.org/pdf/2104.12871 вы можете загрузить 12-страничную статью Мелани Митчелл «Why AI is Harder Than We Think».

Ссылки

  1. https://www.entrepreneur.com/article/377766
  2. http://blog.piekniewski.info/
  3. M. L. Minsky. Computation: Finite and Infinite Machines. Prentice-Hall, p. 2, 1967 (cited by Mitchell)
  4. https://arxiv.org/abs/2104.12871
  5. https://www.scientificamerican.com/article/how-the-computer-beat-the-go-master/
  6. https://www.healthnewsreview.org/2017/02/md-anderson-cancer-centers-ibm-watson-project-fails-journalism-related/
  7. https://www.technologyreview.com/2020/08/22/1007539/gpt3-openai-language-generator-artificial-intelligence-ai-opinion/
  8. Hubert L Dreyfus. A history of first step fallacies. ‘Minds and Machines’, 22(2):87–99, 2012 (cited by Mitchell)
  9. Elon Musk @elonmusk @BLKMDL3 Haha, FSD 9 beta is shipping soon, I swear! Generalized self-driving is a hard problem, as it requires solving a large part of real-world AI. Didn’t expect it to be so hard, but the difficulty is obvious in retrospect. Nothing has more degrees of freedom than reality.
    3 июля 2021
  10. G. Marcus. Innateness, Alphazero, and artificial intelligence. arXiv:1801.05667, 2018 (cited by Mitchell)
  11. S. Gustin. IBM’s Watson supercomputer wins practice Jeopardy round. ‘Wired’, 2011 (cited by Mitchell)
  12. J. Patterson and A. Gibson. Deep Learning: A Practitioner’s Approach. O’Reilly Media, p. 231, 2017 (cited by Mitchell)
  13. https://futurism.com/kurzweil-claims-that-the-singularity-will-happen-by-2045
  14. https://techcrunch.com/2020/06/24/biased-ai-perpetuates-racial-injustice/
  15. Сайлоны. Википедия
  16. https://chromeunboxed.com/new-chromebook-emoji-and-picker-2021
  17. http://jmc.stanford.edu/
  18. https://github.com/dbetz/xlisp
  19. https://blogs.autodesk.com/autocad/autocad-open-source-project-for-autolisp/

Автор: Ральф Грабовски
Источник: http://isicad.ru/

Понравилась статья? Тогда поддержите нас, поделитесь с друзьями и заглядывайте по рекламным ссылкам!