Левенчук Анатолий - Интеллект-стек 2023 стр 4.

Шрифт
Фон

Компьютеры подешевели, и на огромном числе компьютеров теперь человеческие дети тупеют, размахивая нарисованными мечами, которыми рубят нарисованных демонов, интернет подешевел и стал большой помойкой, а искусственный интеллект подешевел, и теперь помойка будет вообще огромной, а использоваться он будет для того, чтобы маркетологам было легче взламывать ваш мозг (при этом маркетологом можете быть и вы сами, тогда будете взламывать мозг вашего ближнего, «ничего личного, это бизнес»), а перед этим сильный корпоративный интеллект взламывать слабенькие защиты вашего персонального ассистента, который слабенький, потому что стоит дёшево, а маркетологи будут использовать дорогой интеллект. Этот интеллект в персональном ассистенте будет защищать от чужого взлома ваш мозг, но может также ломать его «по-правильному» с точки зрения какого-то другого агента (фирмы-изготовителя, государства пребывания, государства фирмы-изготовителя, государства, которое считает вас своей собственностью, то есть своим гражданином, враждебного вам хакера, ваших родителей или работодателей, которые настроили вашего персонального помощника, случайных представлений, выбранных самим интеллектуальным помощником и т.д., любой софт это только кажется, что это ваш софт! К интеллектуальным помощникам/чат-ботам это относится в полной мере)8.

Так что генератор мемов планетарного масштаба уже появился, теперь ждём-с чего-то типа иммунной системы для этих мемов, развития паразитизма (хаков самых разных интерфейсов, главный из которых  интерфейс через глаза, уши и даже кинестетику как раз к вам в мозг, но и это недолго, будут интерфейсы и поинтереснее, в том числе инвазивные нейроинтерфейсы9) и т. д.  все прелести эволюции. Какие-то интересные картинки этого будущего читайте в работе «Designing Ecosystems of Intelligence from First Principles»10. Смысл там в том, что у компьютера сейчас уже имеется какая-то модель мира (в виде большой языковой модели, LLM11), и таких компьютеров всё больше, причём современный компьютер  это датацентр с десятками тысяч компьютеров, поддерживающих миллионы экземпляров таких моделей. На следующей стадии развития машинного интеллекта будет различение мира и модели мира (понимание, что интеллекту доступен не сам мир, а только модели мира, далее в интеллект-стеке будем обсуждать понятия прямого доступа, первого доступа, второго доступа12).

Дальше машинный интеллект начнёт оперировать с такими моделями как убеждениями о мире, то есть работать не только с моделями-1 мира, а с моделями-2 этих моделей как убеждениями/уверенностями, что эти модели-1 отражают мир. В рассуждениях начинают участвовать beliefs по поводу models, и дальше идёт моделирование не только агентов, но и их моделей мира, а также своей уверенности в моделях агентов, моделях их картины мира, сравнение чужих убеждений со своими убеждениями о мире и уверенностью в них, и т. д. Это уже происходит. Изучение такого отражения «нашим интеллектом» моделей мира «других интеллектов» называют theory of mind (ToM), и современные нейронные сети, начиная с GPT-4 демонстрируют такие свойства на уровне человека13:



Модели, опубликованные до 2020 года, практически не показали способности решать задачи ToM. Тем не менее, первая версия GPT-3 («davinci-001»), опубликованная в мае 2020 года, решила около 40% задач на ложное убеждение  производительность, сопоставимая с 3,5-летними детьми. Вторая версия («davinci-002»; январь 2022 года) решила 70% задач на ложное убеждение, что сравнимо с результатами шестилетних детей. Её последняя версия, GPT-3.5 («davinci-003»; ноябрь 2022 года), решала 90% задач на ложное убеждение, на уровне семилетних детей. GPT-4, опубликованная в марте 2023 года, решила почти все задачи (95%). Эти результаты позволяют предположить, что способность к ToM-подобному (до сих пор считавшаяся уникальной для человека) могла спонтанно возникнуть как побочный продукт совершенствования языковых моделей14. Последнее достижение  это как получить 100% (заведомо лучше людей!) прохождение тестов ToM через правильные вопросы для GPT-4 (дать возможность нейросети подумать в несколько шагов, впрочем и для нейросеток людей это тоже должно помогать)15.

Но нельзя отождествлять интеллект только с мозгом! Помним, что главная цель  это найти практики, помогающие избежать неприятных сюрпризов. И тут аппаратно существуют у животных минимум две такие системы: мозг (ментальный мозг) и иммунная система («нементальный мозг»), которые устроены абсолютно по-разному, но имеют одно и то же назначение: охранять границы тела от внешних вторжений16. Мозг как сложная система, состоящая из множества совместно работающих (обменивающихся сигналами) клеток самых разных типов, реагирует централизованным выбором реакции из альтернатив «беги-бей», а иммунная система, точно так же состоящая из множества разных типов клеток, обменивающихся сигналами, реагирует реакцией воспаления. Обе системы должны понимать, что представляет собой «тело», а что «внешняя среда», то есть распознавать «своё-чужое», «дружественное-нейтральное-враждебное». При этом мозг обучается, но и иммунная система тоже обучается! Реализация интеллекта и формы его существования оказываются предельно разными. А мышление? Трудно представить, что иммунная система занимается мышлением  но она таки занимается мышлением, познаёт окружающий мир, затем формирует прикладное мастерство быстрого реагирования на уже знакомые угрозы (когда иммунитет к какому-то вирусу или бактерии есть, болезнь не успевает развиться), а для новых угроз медленно, но распознаёт угрозу и формирует прикладное мастерство подавления этой угрозы (болезнь успевает развиться, но затем наступает выздоровление). И дальше по этой линии можно думать, что и общество в целом «думает», и там происходят похожие распределённые процессы, необязательно похожие на мышление отдельного централизованного мозга, но более похожие на мышление «нементального» мозга типа иммунной системы. Интеллект оказывается удивительно многолик.

Мы не будет дальше заниматься в курсе «нементальным интеллектом», но удерживать этот вариант в мышлении надо, иначе трудно разбираться с происходящим на системных уровнях выше отдельного человеческого организма (уровнях популяции людей, людей и машинных интеллектов).

Важнейший эксперимент, который показал верность теории «никогда не бегут куда, всегда бегут откуда» (то есть то, что интеллект никогда не стремится к лучшему, он лучшим считает избегание худшего)  это эксперимент DishBrain, который провела лаборатория Cortical Labs17. В теории active inference18 и теории world as a neural network19 говорится, что «достаточно сложная система может учиться, и это описывается вот такой физикой». Далее берём несколько сотен миллионов (то есть очень мало!) выращенных в пробирке нейронов мыши и/или человека (работает и так, и так) и кладём на электродную матрицу. Архитектура такого вычислителя  «синапсовое спагетти, уж как выросло, но должно быть достаточно сложное, чтобы мочь научиться чему-то заранее ему неизвестному» (то есть постулируем, что у сложнозапутанных между собой нейронов есть интеллект, этот интеллект должен избегать сюрпризов). Современные теории утверждают, что для познания мира не нужно знать, что такое «награда» (что такое «пища» или «здоровье» и т.д.). Но избегание неприятностей, «выживание в мире, полном опасностей»  оно появляется во всех устойчивых системах, которые вынуждены поддерживать собственное существование в условиях опасной неопределённости физического мира. Поэтому избегаем неопределённости, ибо в ней те самые «неприятные сюрпризы».

Ваша оценка очень важна

0
Шрифт
Фон

Помогите Вашим друзьям узнать о библиотеке

Скачать книгу

Если нет возможности читать онлайн, скачайте книгу файлом для электронной книжки и читайте офлайн.

fb2.zip txt txt.zip rtf.zip a4.pdf a6.pdf mobi.prc epub ios.epub fb3