Минский и Пейперт отметили, что если перцептрон усовершенствовать, добавив дополнительный слой искусственных нейронов, то количество типов задач, которые сможет решать устройство, значительно возрастет. Перцептрон с таким дополнительным слоем называется многослойной нейронной сетью. Такие сети составляют основу значительной части современного ИИ, и я подробно опишу их в следующей главе. Пока же я отмечу, что в то время, когда Минский и Пейперт писали свою книгу, многослойные нейронные сети еще не были широко изучены, в основном потому что не существовало общего алгоритма, аналогичного алгоритму обучения перцептрона, для определения весов и пороговых значений.
Ограниченность простых перцептронов, установленная Минским и Пейпертом, была уже известна людям, работавшим в этой сфере. Сам Фрэнк Розенблатт много работал с многослойными перцептронами и признавал, что их сложно обучать. Но последний гвоздь в крышку гроба перцептронов вогнала не математика Минского и Пейперта, а их рассуждения о многослойных нейронных сетях:
[Перцептрон] обладает многими свойствами, привлекающими внимание: линейность, интригующая способность к обучению, очевидная простота перцептрона как разновидности устройства для параллельных вычислений. Нет никаких оснований предполагать, что любое из этих достоинств распространяется на многослойный вариант. Тем не менее мы считаем важной исследовательской задачей разъяснить (или отвергнуть) наше интуитивное заключение о том, что обсуждаемое расширение бесплодно.
Ой-ой! Сегодня последнее предложение этого отрывка, возможно, сочли бы пассивно-агрессивным. Такие негативные спекуляции отчасти объясняют, почему в конце 1960-х финансирование исследований нейронных сетей прекратилось, хотя государство продолжало вливать немалые деньги в символический ИИ. В 1971 году Фрэнк Розенблатт утонул в возрасте сорока трех лет. Лишившись главного идеолога и большей части государственного финансирования, исследования перцептронов и других систем субсимволического ИИ практически остановились. Ими продолжали заниматься лишь несколько отдельных академических групп.
Зима ИИ
Тем временем поборники символического ИИ писали заявки на гранты, обещая скорые прорывы в таких областях, как понимание речи и языка, построение логических выводов на основе здравого смысла, навигация роботов и беспилотные автомобили. К середине 1970-х годов были успешно развернуты некоторые узкие экспертные системы, но обещанных прорывов общего характера так и не произошло.
Это не укрылось от внимания финансирующих организаций. Британский Совет по научным исследованиям и Министерство обороны США подготовили отчеты, в которых дали крайне отрицательную оценку прогрессу и перспективам исследований ИИ. В частности, в британском отчете отмечалось, что некоторые надежды вселяет продвижение в области специализированных экспертных системпрограмм, написанных для работы в узких сферах, где программирование полностью принимает во внимание человеческий опыт и человеческие знания в соответствующей области, но подчеркивалось, что текущие результаты работы над программами общего назначения, ориентированными на копирование механизма решения широкого спектра задач с человеческого [мозга], удручают. Вожделенная долгосрочная цель исследований в сфере ИИ кажется все такой же далекой
Примечания
1
A. Cuthbertson, DeepMind AlphaGo: AI Teaches Itself «Thousands of Years of Human Knowledge» Without Help, Newsweek, Oct. 18, 2017, www.newsweek.com/deepmind-alphago-ai-teaches-human-help-687620.
2
Здесь и далее я цитирую высказывания Дугласа Хофштадтера из интервью, которое я взяла у него после встречи в Google, причем цитаты точно отражают содержание и тон его ремарок, сделанных в присутствии инженеров Google.
3
Слова Джека Шварца цит. по: G.-C. Rota, Indiscrete Thoughts (Boston: Berkhäuser, 1997), 22.
4
D. R. Hofstadter, Gödel, Escher, Bach: an Eternal Golden Braid (New York: Basic Books, 1979), 678. (Русское издание: Хофштадтер Д. Гёдель. Эшер. Бах: эта бесконечная гирлянда / Пер. с англ. М. Эскиной. Самара: Бахрах-М, 2001.)
5
Ibid., 676.
6
Цит. по: D. R. Hofstadter, Staring Emmy Straight in the Eyeand Doing My Best Not to Flinch, in Creativity, Cognition, and Knowledge, ed. T. Dartnell (Westport, Conn.: Praeger, 2002), 67100.
7
Цит. по: R. Cellan-Jones, Stephen Hawking Warns Artificial Intelligence Could End Mankind, BBC News, Dec. 2, 2014, www.bbc.com/news/technology-30290540.
8
M. McFarland, Elon Musk: «With Artificial Intelligence, We Are Summoning the Demon», Washington Post, Oct. 24, 2014. https://www.washingtonpost.com/news/innovations/wp/2014/10/24/elon-musk-with-artificial-intelligence-we-are-summoning-the-demon/
9
Bill Gates, on Reddit, Jan. 28, 2015, www.reddit.com/r/IAmA/comments/2tzjp7/hi_reddit_im_bill_gates_and_im_back_for_my_third/?.
10
Бостром Н. Искусственный интеллект: Этапы. Угрозы. Стратегии / Пер. с англ. С. Филина. М.: Манн, Иванов и Фербер, 2016. (Здесь и далее в сносках, если не указано иное, прим. перев.)
11
Цит. по: K. Anderson, Enthusiasts and Skeptics Debate Artificial Intelligence, Vanity Fair, Nov. 26, 2014.
12
R. A. Brooks, Mistaking Performance for Competence, in What to Think About Machines That Think, ed. J. Brockman (New York: Harper Perennial, 2015), 108111.
13
Цит. по: G. Press, 12 Observations About Artificial Intelligence from the OReilly AI Conference, Forbes, Oct. 31, 2016, www.forbes.comobservations-about-artificial-intelligence-from-the-oreilly-ai-conference/sites/gilpress/2016/10/31/12-/#886a6012ea2e.
14
J. McCarthy et al., A Proposal for the Dartmouth Summer Research Project in Artificial Intelligence, submitted to the Rockefeller Foundation, 1955, reprinted in AI Magazine 27, no. 4 (2006): 1214.
15
Кибернетикаэто междисциплинарная наука, которая изучает закономерности управления и коммуникации в живых организмах и машинах. См. N. Wiener, Cybernetics (Cambridge, Mass.: MIT Press, 1961).
16
Цит. по: N. J. Nilsson, John McCarthy: A Biographical Memoir (Washington, D. C.: National Academy of Sciences, 2012).
17
McCarthy et al., Proposal for the Dartmouth Summer Research Project in Artificial Intelligence.
18
Ibid.
19
G. Solomonoff, Ray Solomonoff and the Dartmouth Summer Research Project in Artificial Intelligence, 1956, accessed Dec. 4, 2018, www.raysolomonoff.com/dartmouth/dartray.pdf.
20
H. Moravic, Mind Children: The Future of Robot and Human Intelligence (Cambridge, Mass.: Harvard University Press, 1988), 20.
21
H. A. Simon, The Shape of Automation for Men and Management (New York: Harper & Row, 1965), 96.
22
M. L. Minsky, Computation: Finite and Infinite Machines (Upper Saddle River, N. J.: Prentice-Hall, 1967), 2.
23
B. R. Redman, The Portable Voltaire (New York: Penguin Books, 1977), 225.
24
M. L. Minsky, The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind (New York: Simon & Schuster, 2006), 95.
25
One Hundred Year Study on Artificial Intelligence (AI100), 2016 Report, 13, ai100.stanford.edu/2016-report.
26
Ibid., 12.
27
J. Lehman, J. Clune and S. Risi, An Anarchy of Methods: Current Trends in How Intelligence Is Abstracted in AI, IEEE Intelligent Systems 29, no. 6 (2014): 5662.
28
A. Newell and H. A. Simon, GPS: A Program That Simulates Human Thought, P-2257, Rand Corporation, Santa Monica, Calif. (1961).
29
F. Rosenblatt, The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain, Psychological Review 65, no. 6 (1958): 386408.
30
Математически алгоритм обучения перцептрона описывается следующим образом. Для каждого веса wj: wj wj + η (t y) xj, где tверный выходной сигнал (1 или 0) для заданного входного сигнала, yфактический выходной сигнал перцептрона, xj входной сигнал, связанный с весом wj, а η скорость обучения, задаваемая программистом. Стрелка обозначает обновление. Порог учитывается путем создания дополнительного входного сигнала x0 с постоянным значением 1, которому присваивается вес w0 = порог. При наличии этого дополнительного входного сигнала и веса (называемого смещением) перцептрон дает сигнал на выходе, только если сумма входных сигналов, помноженных на веса (то есть скалярное произведение входного вектора и вектора веса) больше или равняется 0. Часто входные значения масштабируются и подвергаются другим преобразованиям, чтобы веса не становились слишком велики.