Буглак Татьяна - Три Л Том 1. Големы стр 3.

Шрифт
Фон

 Друга?  Лена, уже допившая свой чай и теперь рассматривавшая фотографии, удивлённо подняла взгляд на учёного.  Друга сделать нельзя! И кто согласится на такого друга? Что с вами? Вам плохо?

 Ничего.  Учёный перевёл дыхание.  Просто возраст. Всё уже прошло.

Девушка с тревогой вгляделась в лицо старшего друга и, немного успокоенная его тоном, осмелилась спросить:

 Простите, я слишком любопытная, но сколько вам лет? И почему вы до сих пор работаете вот так, на износ?

 Я не знаю, сколько мне лет, около девяноста примерно.  Учёный налил себе ещё чая.  Я  параллельщик. Я оказался здесь в две тысячи двадцать первом году.

 Параллельщик?  Лена неверяще взглянула на него.  Я не думала Простите.

 Всё нормально.  Он успокаивающе улыбнулся и начал рассказывать задумчивым и немного грустным голосом:

 Именно потому я и работаю здесь  слишком хорошо знаю, что такое одиночество. И из-за сына. Я попал в этот мир во время одного из последних нападений, подростком, ничего о себе не помнил, как почти все параллельщики, и долго привыкал, с трудом приняв то, что я  единственный в своём роде. Поэтому я и хотел создать друга, хотел, чтобы никто не знал одиночества. Выучился на программиста, женился, но жена вскоре погибла в катастрофе, а Лёша, наш сын, заболел лейкемией. Её тогда ещё плохо умели лечить. Он не дожил до десяти лет, половину жизни провёл в больнице, не зная, что такое играть с друзьями. Именно из-за данного ему слова я и работаю здесь. Я хочу создать друга.

 Разве робот может быть другом?  Лена, хотя и потрясённая рассказом учёного, понимала, что соболезнования прозвучат фальшиво, да и успокоилась за его здоровье и поэтому не скрывала своего отношения к идее, незаметно для себя говоря всё громче и возмущённее:

 Сколько их придумывали  электронных собак, говорящих кукол, сиделок. Остались лишь сиделки для стариков, да и то с ограниченными функциями. Люди не хотят общаться с программой, это ненормально и или забавляет ненадолго, а потом забывается, или приводит к психическому расстройству, вы же знаете. Мода на эти игрушки давно прошла, сейчас даже автоответчиками мало кто пользуется.

 Я говорю не о примитивной игрушке, а об искусственно созданном разуме  всесторонне развитом, с эмоциями, полноценными реакциями на окружающее, настоящем друге, понимаете?  спокойно, словно ребёнку, объяснил Лев Борисович.

 Он не будет настоящим другом! Это всего лишь хорошо запрограммированный робот, и чем лучше вы его запрограммируете, тем больше будет чувствоваться обман. Нельзя сделать идеальную программу,  упрямо возразила Лена.

 А что вы понимаете под «идеальной программой»?  Учёный сотни раз участвовал в подобных спорах, и теперь не думал над тем, что сказать  слова приходили сами, заученные, как таблица умножения. Он наслаждался самой возможностью поговорить, любуясь всё более горячящейся девушкой.  Беспрекословное выполнение приказов хозяина? Я имею в виду не это, а создание личности, полностью учитывающей эмоциональное и физическое состояние друга-человека, и тогда такой компаньон станет вести себя соответственно характеру человека, даже перечить ему иногда.

 Но человек будет знать, что это программа!  Лена собирала со стола посуду, и та звенела от резких, сердитых движений девушки.  Это вызовет ещё большее отвращение. Когда кто-то буквально читает твои мысли, высчитывая: «если ты ведёшь себя так, надо сделать так»,  это противно!

 Все мы делаем именно так: оцениваем поведение человека и подстраиваемся под него.  Лев Борисович невольно улыбнулся горячности девушки.

 Но не для того, чтобы угождать другим! Мы это делаем, чтобы нам было хорошо. И тем, кого любим.

 И он тоже.  Учёный примиряюще смягчил голос.  В том и задача, чтобы компаньону было хорошо, когда хорошо его другу-человеку. Компаньон будет личностью, но личностью, искренне любящей своего друга,  это его суть, основа его природы.

 Нет! Это не дружба, не спасение от одиночества. Идеально только осознанное равенство, самостоятельный выбор: «я с тобой, потому что сам захотел этого, сам связал с тобой жизнь». Программа  в лучшем случае всего лишь программа.

 Это не программа, поймите.  Учёный кинул странный взгляд на фигуру в центре комнаты.  Компаньон  не запрограммированная машина, а личность. Идеальный друг.

 Идеальный раб!  резко бросила Лена.  Безответный, даже если станет перечить, то тоже в угоду хозяину. Не другу  хозяину. Нормальный человек не захочет такого друга. Если это просто робот  он останется игрушкой без мыслей, чувств. Пустая кукла. А если он хотя бы отчасти будет личностью, то мы вернёмся к рабству!

 Он будет личностью! Самостоятельной, имеющей право выбора!  Учёный тоже распалялся, удивляясь давно забытому чувству азарта, словно возвращавшего его во времена молодости.

 И у него будет право уйти? Право не только любить, но и ненавидеть? Тогда он станет таким же, как мы, он станет человеком. И зачем тогда всё это?  В голосе Лены зазвучала горечь.  Может, лучше уметь общаться друг с другом? Любить и ненавидеть самим? Людей сейчас десять миллиардов, разве этого мало?

 Он не может ненавидеть, вспомните этические законы робототехники.  Учёный улыбнулся: эти правила, забытые на полвека, стали важны как раз во времена его молодости.  Хотя простите, вы не читали Азимова.

 Читала, у бабушки огромная библиотека.  Лена нервно листала стопку фотографий  только чтобы занять руки.  Законы робототехники? Это не этические законы, это кредо идеального рабовладельца!

 Почему?  Лев Борисович удивлённо взглянул на Лену.  Это по сути этические нормы человеческого общества!

 Вы серьёзно думаете, что эти законы  этические нормы? Это бред! Простите  Она смутилась, осознав, что грубит тому, кто в четыре раза старше её, но учёный заинтересовался, потому что подобную мысль слышал впервые. И радовался, что девушка говорит на одном с ним языке. Если она в детстве много читала, то понятно, откуда у неё такая развитая речь.

 Почему вы считаете, что это кредо рабовладельца?

 Почему? Судите сами!  Лена схватила лист бумаги.  Первый закон помните? «Робот не может причинить вред человеку или своим бездействием допустить, чтобы этот вред был причинён». Так? А что такое вред? Это не только физическая травма, это всё, что может расстроить человека или повредить его имуществу. Из Первого вытекает Второй закон: «Робот должен повиноваться всем приказам человека, если они не противоречат Первому закону». Повиноваться! Что бы хозяин ни приказал, робот обязан это выполнить, какое бы насилие над ним не чинил человек. А насилие будет  вспомните истории с секс-куклами и роботами-сиделками! Выродки среди людей будут всегда. И робот не сможет даже убить себя, потому что это противоречит Третьему закону: «Робот должен заботиться о своей безопасности в той мере, какая не противоречит Первому и Второму законам». Сложите всё вместе и полу́чите идеального, беспрекословно подчиняющегося раба, запертого в пыточной этих законов! Он полностью во власти хозяина, и есть только одно ограничение  он не может по приказу хозяина причинить кому-то вред. Но это опять же правило рабовладельца: «Чужой раб не должен быть мне опасен, как бы ни был опасен его владелец». Вы же к этому добавляете свою «безусловную любовь к человеку»! Знаете, что означает ваша «свобода выбора»? «Или ты полностью подчиняешься мне, любишь, боготворишь меня, или будешь уничтожен»! Закон древнего божка! Хотите стать таким «богом»? Я думала, вы умный человек!..

Последние слова Лена произнесла с такой горечью, что Лев Борисович вздрогнул. Он впервые видел её в подобном состоянии. Милая, всегда весёлая девушка, полудетским голоском напевавшая песенки, вдруг сказала то, что не говорил никто из его друзей или оппонентов. И тут же с ней произошла ещё одна перемена. Теперь перед учёным стоял спокойный, всё взвесивший и принявший решение человек:

Ваша оценка очень важна

0
Шрифт
Фон

Помогите Вашим друзьям узнать о библиотеке

Скачать книгу

Если нет возможности читать онлайн, скачайте книгу файлом для электронной книжки и читайте офлайн.

fb2.zip txt txt.zip rtf.zip a4.pdf a6.pdf mobi.prc epub ios.epub fb3

Популярные книги автора

Три Л
378 106