Наконец, третья проблема противников возможности AGI, считающих этот тип ИИ невозможным, а саму мысль о нем абсурдной, в том, что в научном сообществе есть группа авторитетных экспертов с полярным мнением. То есть проблема скептиков и критиков AGI в том, что, какими бы умными они ни были, им придется считаться с не менее умными оппонентами. Значимость противодействия в научном сообществе, согласующегося с экспериментальными данными (пример: победа ИИ над человеком при игре в го, как и способность отличать кошек и собак на фото, считалась невозможной, однако практика показывает, что это не так), не стоит недооценивать, ибо отсутствие единства по вопросу безопасности технологии как минимум косвенно говорит о ее небезопасности. Еще на этапе подготовки к публикации работа Джона Серла вызвала критику со стороны 27 исследователей, чьи комментарии были также приведены в том же номере журнала. Речь не о постах в соцсетях, а о серьезных и аргументированных возражениях представителей научного сообщества. Сейчас таких работ более 950. То есть постулат «умные машины невозможны» разделяют не все эксперты. Возможность развития ИИ до уровня AGI и далее, до уровня ASI, полагал вполне вероятной, например, Стивен Хокинг, многократно предупреждавший об опасности и реальности ASI, а в интервью BBC в 2014 году он и вовсе сказал, что «появление полноценного искусственного интеллекта может стать концом человеческой расы»[7]. Илон Маск много лет говорил об опасностях AGI и ASI, несмотря на регулярный троллинг в свой адрес. В интервью Джо Рогану он хорошо разъяснил свою позицию: «Мы просто загрузчик для ИИ мы прокладываем ему дорогу если принять весь интеллект за 100 %, сейчас количество искусственного интеллекта незначительно по сравнению с человеческим, но доля искусственного интеллекта растет. Скоро в общем объеме, мы, люди, будем составлять крайне незначительную часть»[8]. Я отношу себя к этой группе и разделяю опасения и Хокинга, и Маска, а сам факт появления ASI считаю исключительно вопросом времени история полна примеров того, как жестоко ошибались даже великие люди в оценке перспектив того или иного направления. Великий британский физик Эрнест Резерфорд в сентябре 1933-го на заседании Британской ассоциации развития науки заявил: «Всякий, кто видит в превращении атома источник энергии, болтает чепуху», но не прошло и шести лет с момента его выступления, как Отто Ган и Фриц Штрассман открыли деление ядер урана, а еще через шесть лет на свет появилась атомная бомба, положив тем самым начало новой эпохе в истории человечества.
Возможно все. Просто надо вытащить свое сознание из коробки. На искусственный интеллект не стоит смотреть как на изолированный элемент в комнате, который тупо перекладывает бумажки. Он существует не в вакууме. Вместо этого представьте человечество и все, что мы производим, включая машины, в виде роя, муравейника, коллективного разума (ну или «Матрицы»). Сейчас в нашем рое есть интеллектуалы, ученые, прожигатели жизни, популярные блогерши, преступники, президенты стран и есть ноды искусственного интеллекта точки, элементы роя, которые обслуживают только машины, не люди. Например, вы уже не знаете, как работает поиск по почтовому ящику, это делает машина. Вы не представляете себе банковское приложение без службы поддержки, на которой первую линию всегда обслуживает машина, вы не умеете ездить в новые места без навигатора (мозг утратил эту способность и отдал ее машине), вы не в силах представить себе сложное устройство сотовой сети во всех деталях вроде идентификации абонентов, маршрутизации звонков, питания и еще множества вещей ведь всем этим управляют машины. И мы постоянно учим их делать все больше работы и все лучше, ибо сами хотим делать все меньше, а желательно вообще ничего. С таким подходом наш рой, коллективный разум постепенно будет «выращивать» все больше элементов под искусственным управлением. И однажды встанет простой вопрос: «А это чей вообще муравейник? Кто в нем главный?» И это так же очевидно, как и то, что потомок обезьяны, когда-то взявшей палку в руку, однажды ступит на Марс.
Не стоит списывать со счетов и тот факт, что отец-основатель компьютерной науки и понятия искусственного интеллекта в том виде, в котором оно употребляется на сегодняшний день, Алан Тьюринг считал, что машина рано или поздно сможет общаться с человеком на равных. И даже придумал так называемый тест Тьюринга, пройдя который, машина докажет, что неотличима от человека. Ни одна машина этот тест пока не прошла; вернее, были близкие прецеденты, но четкого мнения по вопросу нет: в 2014 году имел место кейс «Жени Густмана» алгоритма, который, как заявлялось, формально прошел тест Тьюринга, так как смог убедить около трети судей в том, что он человек. Проблема в том, что сам Тьюринг описал критерии прохождения теста довольно туманно, не определяя долю обманутых собеседников-людей и ограничившись высказыванием, что «у среднего собеседника будет 70 % шансов определить, был ли его ИИ-собеседник человеком или машиной, после пятиминутного собеседования». Если критерий 70 %, то «Густман» не прошел. Главная же проблема в другом: успехи в прохождении теста Тьюринга мало связаны с приближением нас к AGI, ибо «Женя Густман» и все предыдущие претенденты на успешное прохождение теста всего лишь коммуникационные боты разной степени сложности, то есть они решают узкую задачу «обмануть человека, убедив его, что я не робот». Это может считаться версией ANI, но к AGI не имеет отношения.