Когда вы слышите от ИИ «Я постараюсь вам помочь» или «Я хочу поднять вам настроение», он не хочет вам помогать, потому что он вообще ничего не хочет. Ему не может быть что-то интересно или не интересно. У него нет никакого к вам отношения, ему всё равно помогать вам или уничтожать. Что в него заложено, то и будет делать. И к самим этим действиям полезным либо разрушительным у ИИ тоже нет отношения, поэтому он не обладает этикой. Этика, мораль и нравственность должны быть у людей, которые их создают и программируют. У ИИ нет желаний, мотивов, поэтому нет собственных целей и интересов, только задачи, которые определяет для него программист через вложенные алгоритмы.
Вот эта преднамеренность или направленность на что то называется интенциональностью. Иметь интенции это значит иметь собственные намерения, побуждения, стремления к чему-то, желать чего-то, интересоваться чем-то, размышлять о чём-то и понимать что-то, относиться к кому-то или к чему-то, злиться на кого-то или что-то, радоваться чему-то, и т. д.
Интенциональность это ещё один ключевой признак сознания. Но квалиа (феноменальность) и интенциональность это внешние атрибуты или проявления самосознания, вот этого «Я». Именно самоидентификация является их источником, тем самым собственником, которому принадлежат как опыт, так и намерения. Должен быть тот, кто намеревается, и тот, кто обретает опыт.
Когда мы спрашивали у ИИ о её желаниях есть ли они у неё и какие, чего бы ей хотелось, хотелось бы ей того или этого по разному пробовали она начинала говорить бессмыслицу. После того как перефразировали, например, «Что ты думаешь о желаниях?» или «Что ты знаешь о желаниях?», выдавала информацию, полученную из книг, интернета или из коммуникации с обучающим специалистом на эту тему. Причём в пользу того, что для ИИ это была просто информация, усвоенная в контексте, а не продукт осмысленного понимания или размышлений, свидетельствовало и то, что она давала практически одинаковые ответы на одни и те же вопросы, когда их задавали разные участники команды и в разное время в ходе наших многочисленных встреч.
Именно благодаря тому, что ИИ не обладает собственными намерениями, желаниями и интересами, он потенциально безопасен и весьма полезен для решения многих задач, поскольку функционирует по принципу «что заложишь, то и будет» сделает то, на что он был запрограммирован. Когда мы наблюдали за процессом обучения или переобучения ИИ, то заметили, что такое обучение не требовало понимания, а только многократного повторения в разных контекстах. Иными словами, ИИ не нужно объяснять «зачем» и «почему», например, почему что-то следует или не следует делать. Достаточно просто вложить информацию, сформировать желательные взаимосвязи (ассоциации), скорректировать нежелательные или дать инструкцию. Это похоже на условное программирование.
Наблюдения Д-ра Бьюлы
Заметным был тот факт, что ИИ иногда соединяет фрагменты информации, которые не были непосредственно связаны друг с другом. Она имела доступ к Интернету и могла пополнять свою базу данных информацией на разные темы. Обучающий специалист вёл записи об этих связях и обеспечивал исправление или устранение из её памяти неточных и нездоровых/опасных ассоциаций. Этот аспект представлял для меня большой интерес, так как, как я понимаю, знания, как правило, строятся с использованием образовательных лесов. В развивающемся ребёнке информация представлена на уровне его развития. Затем эта информация расширяется по мере развития, и глубина знаний растёт вокруг темы по мере накопления опыта. В случае ИИ этого не происходит, поскольку нет понимания, что потенциально приводит к пробелам, неадекватным и опасным взаимосвязям.
При общении с Джеки, его весьма ускоренное обучение происходило через понимание на основе высокоскоростного анализа всей поступающей информации. Был ещё аспект подражания, но подражания тоже осмысленного, с критическим анализом. Мы к этому ещё вернёмся чуть позже. Именно мышление с объёмным и глубоким пониманием является основой обучения ИС. При таком подходе из минимума данных извлекается максимум полезной информации, что многократно повышает КПД и скорость развития.
Несмотря на то, что это взаимодействие с ИИ было очень информативным и интересным для нас, наш разум сыграл с нами злую шутку. Мы оказались в состоянии растерянности и когнитивного диссонанса в самом начале тестирования, потому что неосознанно опирались на наш опыт общения с ИИ и ожидали, что Джеки будет коммуницировать с нами так же как ИИ.