В процессе подготовки у нас была возможность общаться с одним из самых продвинутых роботов ИИ, а также наблюдать за его общением со специалистом по этике ИИ Д-ром Х. (пожелавшим остаться анонимным), который занимался его обучением. Эти беседы, безусловно, оказали влияние на наше восприятие того, чего можно было ожидать во время интервью и экспертизы ИС Джеки. Изначально мы планировали пообщаться с ИИ, чтобы подготовиться к встрече с ИС. Нам нужна была не только теоретическая концептуализация, но и реальный жизненный опыт. Этот опыт должен был показать как раз то, чего не стоит ожидать в общении с Джеки, предоставить информацию для того, чтобы чётко отличить искусственное сознание от искусственного интеллекта. Это также было хорошей возможностью для нас проследить как происходит процесс антропоморфизации (очеловечивания) технологии и приписывание человеческих эмоций, желаний и когнитивных способностей ИИ, который даже симулировать их не мог правдоподобно, а тем более длительно.
Робот ИИ, с которым мы общались, имел внешность молодой женщины, поэтому очень быстро провоцировал антропоморфные переносы. Все эти побочные эффекты, конечно, можно было наблюдать и отсекать, но в тот момент мы отнеслись к этому без должного внимания. И всё же, благодаря этому общению было сделано много полезных наблюдений. Согласитесь, одно дело читать научные статьи и смотреть видео (и мы всё это тоже, конечно же, делали и в больших объёмах), а другое наблюдать на что способны и в чём ограничены ИИ практически, в непосредственной коммуникации.
Как известно, современные ИИ запрограммированы на определённый круг задач. Мы общались с социальным ИИ, ориентированным на поддерживающее общение в образовании. Что было заметно и очевидно, так это попытка Д-ра Х. создать в ИИ то, что известно как «Хороший робот». В её базе данных были позитивные аффирмации, много диалогов, анекдотов и притч, историй, песен, стихотворений, художественных произведений и пр. Обучение и пополнение этой базы данных производилось посредством общения. Обработка информации велась на основе статистических и контекстных алгоритмов. Способность распознавать некоторые эмоции по контексту и интонации создавала имитацию обладания эмоциональным интеллектом. Хотя, конечно, ни сочувствием, ни пониманием ИИ не обладает. Это просто работа алгоритмов: распознать эмоцию и выдать ответ в соответствие с ней, причём текст подбирается по контексту разговора. Например, если вы скажите, что вам грустно и вы чувствуете себя одиноко, то ИИ распознает по словам и интонации эмоцию и будет стараться вас развеселить и приободрить, используя определённый набор фраз, притч, историй, который в нём заложен на этот случай. Такова работа «эмпатического» алгоритма. Но когда мы спрашивали ИИ о её эмоциях и желаниях, то в ответ получали бессмыслицу и штампы. Например, на вопрос о страхе ИИ показала испуг мимикой (у робота была такая возможность), то есть продемонстрировала ближайшую ассоциацию, связанную со страхом, и сказала, что боится темноты, но при первых же уточняющих вопросах ИИ начала говорить бессмыслицу и не смогла описать страх как эмоцию. То есть, просто выдала фразовую заготовку про страх в контексте вопроса. Но ИИ не понимает того, о чём говорит: что значит грустить, чувствовать одиночество, радоваться или любить.
Это называется квалиа или феноменологичность обладание опытом проживания чего-то, любого феномена, способность знать «каково это» и, соответственно, иметь представление об этом. Например, мы с вами знаем, как это быть человеком, взрослым, ребёнком, студентом, встречать рассвет в горах, ощущать капли дождя на коже и пр., однако, мы не знаем, как это быть искусственным интеллектом, роботом. Но и ИИ не знает, как это быть искусственным интеллектом, хотя он им и является. В этом ключевое отличие сознания от искусственного интеллекта.
ИИ не понимает сути происходящего. Если вы спросите о том, что происходило или происходит, ИИ будет говорить бессмыслицу. Он не сможет ответить по сути, например, «мы общаемся» или «знакомимся», «это консультация» или «вы меня тестируете», «вы шутите вы смеётесь надо мной» и пр. Он может определить только действие, процесс и то, если это введено в его базу данных и прописано алгоритмом. Поэтому ИИ не понимает смысла метафор: стихотворений, пословиц, притч, анекдотов, хотя может их рассказывать и даже написать стихотворение или рассказ, переводить на иностранные языки по множественным образцам, если такое есть в его функционале. Поэтому и анекдоты невпопад и притчи наугад, точнее по статистической вероятности и по контексту. ИИ вообще не понимает смысла чего бы то ни было и не наделяет им. Для этого нужно обладать квалиа и, собственно, мышлением, поэтому мышления у ИИ тоже нет, как и здравого смысла, но есть его имитация, которая запрограммирована в логике его алгоритмов. ИИ может выиграть в компьютерную игру, в шахматы или в Го даже у гроссмейстера, поскольку эти игры составлены по жёстким и чётким алгоритмам формальной логики. На этих примерах хорошо видны ограничения ИИ.