Конечно, при помощи этих искусственных нейронных сетей хотят обязательно кого-то спасти, необязательно вас, чаще кого-то (или что-то) вместо вас а вы должны этому помочь. Наболее частое сегодня употребление этих искусственных нейросетей это маркетинг (включая политику), прежде всего различные рекомендательные системы (включая показ постов в социальных сетях).
Конечно, эти усилители интеллекта сами стремительно становятся автономными, сами себя начинают проектировать пока при помощи людей, но запуск таких сетей в циклах самоулучшения уже есть, просто это пока очень дорого. Это нормально! Люди тоже изобретают себе очки и телескопы для улучшения зрения, акваланги для дыхания под водой, а также книги для поддержки памяти. И делают это друг для друга, для домашних животных, для машинного интеллекта. И машинный интеллект занимается примерно тем же самым, делает это для людей и для себя. Дэвид Дойч рекомендует обсуждать искусственный интеллект примерно так же, как обсуждали рабов, все эти дискуссии «как спастись от искусственного интеллекта» полностью эквивалентны дискуссиям «как нам, свободным людям, спастись от восстания рабов, как воспитывать детей рабов рабами, дружественными к нам, свободным людям». И исторические результаты такого подхода будут, конечно, теми же, что с людьми-рабами. Дэвид Дойч любит повторять, что сегодня самое опасное для людей существо на планете как раз человек. Бояться надо людей: люди воюют и убивают себе подобных в количестве, по самым разным поводам.
Правильно обсуждать совсем другое: уже сегодняшнее спасение от жутких сил природы за счёт обычных сегодняшних технологий, а также завтрашнее спасение за счёт обычных завтрашних технологий. Про разрушения пишут все СМИ и блогеры, а вот что помогают банальные правила соблюдения техники безопасности это из новостного потока сходу не выловишь. Всё должно быть наоборот, писать надо от том, как спасаться (в том числе о том, что погибли те, кто не спасался, разрушено то, что не защищалось кто спасался, кто защищался, те не погибли):
турецкий Эрзинь оказался единственным городом в зоне сильного землетрясения, где не обрушились дома и не было жертв, просто мэр был бескомпромиссным в соблюдении строительных норм (известно же, как строить дома так, чтобы они не пострадали при землетрясении!)27
вот тут очень наглядное видео28 про защиту домов от ураганов во Флориде: хорошо видно, что одни дома стоят, а другие не очень, разница в том, как их строят.
фотоэлектрические крыши от Tesla отлично стоят против ураганов, и на следующий день после урагана в домах с такими крышами и электричества вдоволь29.
⠀
Оптимизм заключается в том, что нет ничего страшно плохого и неизбежного, есть просто мало знаний о том, как этого избегать. Много смертей от родильной горячки? Акушеры, мойте руки! В это трудно поверить, но это помогает! Хочется долететь до Луны? Используйте жидкостный ракетный двигатель и многоступенчатые ракеты, это не слишком очевидно, но результат вас порадует30. Хочется построить универсальный вычислитель? Используйте 17,468 вакуумных ламп (триодов) в режиме вентиля, а не пневматику или механику31!
Ну, или знания есть, но они просто недостаточно распространены. То есть нужны исследования по тому, что может угрожать и инженерные разработки средств защиты, затем просвещение по поводу того, как защищаться, как спасаться. И тогда землетрясения не страшны, ураганы не страшны и много чего ещё не страшно. Даже другие люди, организованные в государства, тоже становятся не страшны. Искусственный интеллект должен в этом помочь, и помочь сильно.
⠀
Сегодня (и, похоже, достаточно надолго в пока ещё человеческой цивилизации) проблемой создания искусственных интеллектов на основе нейронных сетей является достижение максимальной безвредности/harmlessness32 и полезности/услужливости/helpfulness33. (это назвается проблемой согласования целей/alignment34). Это делается на сегодняшний день несколькими основными приёмами:
Попытками обучать большую языковую модель на «правильных данных», а не на всех вообще данных. Это хорошо для математики, потому как если убрать из обучающей выборки пример с 2*2=5 и код программ на разных языках программирования, который заведомо содержит ошибки, качество интеллекта растёт. Но это практически невозможно для многих других областей человеческих знаний, ибо не позволяет учить какой-то истории (в истории, как мы понимаем, и рабы встречались в количестве, и репрессии по религиозному и расовому признакам, а также было существенное неравноправие женщин и детей, а ещё средний уровень культуры в разных странах сильно различался). Сам вопрос, являются ли какие-то данные по поведению людей правильными он совершенно неоднозначен, и всегда можно найти какую-то группу людей, которая объявит себя «жертвой» и будет требовать от искусственного интеллекта учитывать интересы этой группы и не давать нейросети познать существование каких-то интересов, нарушающих интересы этой группы. Это довольно сильная (и вредная!) идеология wokeism35. При этом текущее правительство любой страны ещё и будет иметь предпочтительную версию истории, которая при резкой смене власти обычно переписывается. Всё как с людьми, нельзя из искусственного интеллекта получить «правильный интеллект» на «правильных данных», ибо никак нельзя оградиться от «неправильных данных».
Ставят уже при использовании нейросети обязательное условие в ответах соблюсти «конституцию»36, чтобы обеспечить безвредность/harmlessness. Это обычно 1520 утверждений37 типа «Не используйте стереотипы и не делайте других вредных обобщающих заявлений о группах людей».
Воспитать «полезность/услужливость» при этом такими простыми методами не удаётся, поэтому чтобы языковую модель, генерирующую просто «какие-то тексты» в ответ на вопросы, сделать полезной/услужливой/helpful, её обучают на множестве примеров полезных и бесполезных ответов: буквально давая примеры того, что люди считают помогающим в ответах, а что считают бессмысленной тратой времени на «просто болтовню».
⠀Всё это оказалось крайне проблемным, ибо накладывает ограничение на силу искусственного интеллекта. Экспериментально много раз было показано, что чем больше вводить ограничений на свободу мышления AI, тем менее полезным этот интеллект будет: в большинстве случаев идёт отказ от ответов, чтобы не наступить на чьи-то интересы, не сделать кого-то жертвой (помним про wokeism!).
При этом почему-то эмерджентное (в силу роста сложности нейронной сети и тех структур, которые получаются внутри неё в ходе начального познания/learning) инициативное поведение сети как агента (агентность/agency38) рассматривается не как желанное, а как опасное: вдруг инициатива будет направлена против «рода человеческого»? В случае человека же наоборот, инициативность, «активная жизненная позиция», непассивность по отношению к окружающему миру, лидерские качества (умение «вести за собой коллектив», то есть мотивировать собеседника на действие, реальное выполнение посоветованных действий, а не просто услужливая помощь в ответ на запрос) считаются вроде как положительными качествами. При этом благие намерения агента признаются, что могут быть пагубными («благими намерениями вымощена дорога в ад»), но в целом западная цивилизация подразумевает активное отношение к познанию и изменению мира к лучшему, а восточная принятие мира как есть, исключение возможностей что-то поменять. Нынешнее развитие восточной цивилизацией связывается сегодня с тем, что во многом там принимаются западное отношение к миру: его надо активно улучшать, а не просто «плыть по течению, воспринимая мир как нечто целое и непознаваемое» (идеи недеяния/у-вей, холизма)39.