Тут уместно задать вопрос: а как вообще можно верить тому, что искусственный интеллект сможет решить хоть какие-то задачи, которые не может решить человек? В случае с сегодняшним вариантом AI на нейронных сетях выполняются все три закона Кларка21:
1. Когда уважаемый, но пожилой учёный утверждает, что что-то возможно, то он почти наверняка прав. Когда он утверждает, что что-то невозможно, он, весьма вероятно, ошибается.
2. Единственный способ обнаружения пределов возможного состоит в том, чтобы отважиться сделать шаг в невозможное.
3. Любая достаточно развитая технология неотличима от магии.
Первый вопрос: принципиально ли невозможно, что нейросеть сможет повторить при достаточных размерах и отведённом на вычисления времени то, что сделал Эйнштейн? Эйнштейн много лет читал тексты статей по физике, общался с коллегами-физиками, затем выдал теорию относительности и догадку про квантовость энергии, потом потратил много времени, чтобы продвинуться в «квантовой гравитации», но не преуспел. В математике это звучит как «можем ли мы создать такую функцию, которая на входе будет получать всё то, что получал Эйнштейн, а на выходе выдавать всё то, что выдавал Эйнштейн». Более точно будет не «создать такую функцию», а «аппроксимировать с заданной точностью», ибо точная математическая копия нам не нужна, нам нужна модель, которая оставляет от всего Эйнштейна только интеллект, самое для нас важное в текущем рассмотрении. Лучшей моделью кошки является другая кошка, хотя желательна та же самая. Вот «аппроксимация» это как раз про «другую кошку», которая только приблизительно равна «той же самой», но уж точно не утка и не заяц. Да, нейросетки являются универсальными аппроксиматорами и могут математически бесконечно точно аппроксимировать любую функцию. Вот подборочка свежих результатов (и там смотрите литературные источники)22:
Тем самым нейросетка достаточных размеров и за достаточное время вполне может изобразить из себя с какой-то заданной точностью какой-нибудь интеллект хоть интеллект Эйнштейна, хоть совокупный интеллект фирмы IBM или даже совокупный интеллект общества какой-нибудь страны. Последняя фраза про «демифологизацию» нейросетей важна, ибо результаты инженерии систем AI и впрямь «неотличимы от магии» но теоретически эти результаты вполне возможны. Помним, что Виталий Ванчурин со товарищи и огромное число других исследователей напрямую говорят, что «Вселенная это такая огромная нейросеть»23.
Так что теоретических запретов «по математике» нет, дальше стоит только «экономическая» проблема P!=NP24, и другое близкое рассуждение теоремы бесплатного обеда25. Другими словами, можно ли найти такой алгоритм нейросети и такой физический вычислитель для этого алгоритма, который будет это всё считать не за бесконечное, а за приемлемое время при этом разные задачи могут для «приемлемого времени» потребовать разные алгоритмы. Ну, тут много чего можно сказать:
квантовые компьютеры на подходе, квантовоподобные вычисления на подходе, алгоритмы квантовоподобного вычисления для нейросетей уже есть, а ещё есть оптика, мемристоры и т. д. Скажем, китайский компьютер Juizhang в 180 миллионов раз быстрее на алгоритмах для AI, чем классический компьютер (хотя размер данных для этих алгоритмов пока может быть взят очень небольшой)26. Этот переход к идее «разная аппаратура ускорителей искусственного интеллекта для решения разных типов задач» в существенной мере решает проблему экономических ограничений на вычисления интеллекта. Как всегда, всё сводится к изобретениям: что такого взять из предметов окружающего мира (аффордансы), чтобы они могли выполнить функцию инструмента. Ускорители алгоритмов AI тут такие же инструменты, как и всё остальное. Уже сегодня программисты не столько сами пишут программы, сколько хорошо знают, какие уже написанные программы по каким интерфейсам надо задействовать. С интеллектами всё то же самое, надо просто подыскать подходящий для какого-то класса проблем.
нам абсолютно не нужен именно Эйнштейн как человек, нам хватит аппроксимации его в роли физика, что в разы и разы (порядки и порядки) проще. Это относится к любому человеку: важен нам не столько поэт Маяковский или Ян ЛеКун как один из отцов-основателей самой дисциплины глубокого обучения (deep learning) для нейронных сетей, сколько их работа в их ролях поэта и исследователя. Аппроксимации тут вполне сработают.
вообще-то все эти теоремы об нейросетках как универсальных аппроксиматорах это тривиальный результат, «спасибо, Кэп», потому как Эйнштейн тоже физику продвигал своей «мокрой нейросетью», так что вопрос тут больше про физическую реализацию, то есть инженерию, а не математику. Существование Эйнштейна с «мокрой естественной нейросетью» это наглядная демонстрация того, что нейросетевые вычислители могут много чего интересного, так что это и без математических доказательств понятно. Самого Эйнштейна не просили доказать, что он может подумать о чём угодно (в меру его ресурсных ограничений), так что к нейросеткам более строго относимся, чем к Эйнштейну. Сначала от AI требовали быть умней школьника, сейчас требуют быть умней даже не профессора, а умней вообще людских коллективов.
Отдельный аргумент это аргумент про «невозможность творчества». Источником творчества является шум (для полной надёжности можно использовать аппаратный датчик случайных чисел на базе квантовых эффектов). Алгоритм всегда может произвести результат, которого ещё в природе не было, просто взяв шум в качестве исходных данных. Если этот шум будет так же использован для модификации алгоритма, то никаких принципиальных проблем с абсолютной новизной результатов вычислений не будет.
Что бы ни происходило, всегда можно найти давно известный класс явлений и подвести любую необычность под него или объявить, что «каждый человек или даже человечество в целом всегда отлично жило в условиях полной неопределённости происходящего, и ничего. И не только человек или человечество, всё так». При таком подходе всю эту «сингулярность» нужно просто игнорировать, ничего особенного в связи с её приходом делать не надо, да и её приход нельзя будет продемонстрировать: «компьютер смог сделать то, чего не мог сделать человек»! Так компьютер и вчера мог делать то, что человек не мог делать, начиная с ENIAC, люди никогда не отличались в массе своей быстротой расчётов по строго определённым алгоритмам. Что принципиально изменилось? Эта «сингулярность» оказывается на всех уровнях, она не только про человечество, она всегда. Это просто эволюция-как-спасение, а спасение как познание-и-защита-от-познанных-новых-опасностей, не нужно для эволюции другого слова. Так что да, сингулярность наступает, прямо в эти дни. И в прошлые дни. И в будущие дни. Или наоборот, никакой сингулярности, ничего это не изменяет.
Сегодня-завтра изменяется всё (биологические виды, носители интеллекта, товары и услуги, лучшие теории по объяснению происходящего в мире), но не изменяется ничего в плане физических принципов, давших нам эволюцию.
Просто сейчас пришли мощнейшие усилители интеллекта в виде компьютерных нейронных сетей, удалось наладить производство компактных моделей мира с использованием этих искусственных нейронных сетей, сжимать (хоть и с потерями) знание о мире в несколько гигабайт в оперативной памяти компьютера. Эти усилители интеллекта оказались также не менее мощными усилителями глупости, ибо все глупости человечества точно так же отражены в этих компактных моделях мира.