Проект «Кракен»

22
18
20
22
24
26
28
30

– Это не просто угрозы. Она подожгла мой компьютер.

– Как?

– Думаю, она вывела из строя контроллер заряда литий-ионного аккумулятора, и тот перегрелся, взорвался и вызвал пожар. Вот почему я сожгла свой сотовый телефон и планшетный компьютер – и растоптала ваш телефон. Вот почему я в этих горах. Чтобы программа «Дороти» не добралась до меня.

– Значит, это весь ваш план? Прятаться в горах и надеяться, что все рассосется?

– Я не обязана перед вами отчитываться.

– Почему вы не сообщили об этих угрозах НАСА?

– Думаете, они бы мне поверили? Расскажи я им нечто подобное, они заперли бы меня в психушке!

– Но на вас лежит ответственность.

– Послушайте, я написала программу «Дороти» в соответствии с техническими условиями, которые мне дали. Они получили в точности то, что просили. Моей вины тут нет. Пусть НАСА выслеживает ее и уничтожает. Эта свихнувшаяся программа – их проблема. Я свое дело сделала.

Форд перевел взгляд на костер:

– Я все-таки не очень понимаю, как обычная программа способна принимать такие решения – бегство, преследование, угрозы.

Мелисса ответила не сразу. Чаша неба над их головами сделалась лиловой, и на ней начали по одной проступать звезды. На огне кипел котелок, а ветер уносил в ночь ароматный дым от горящих дров.

– Большинство людей не понимают, что такое искусственный интеллект и как он работает, – наконец сказала девушка. – Вы помните, когда-то была программа по имени «Элиза»?

– Программа психоанализа?

– Да. В шестом классе я раздобыла версию, написанную на языке BASIC. В базе данных «Элизы» хранился набор стереотипных фраз. Когда вы что-то вводили в машину, «Элиза» выуживала из своей базы данных подходящий ответ. По сути, она перефразировала ваше утверждение и возвращала в виде вопроса. Вы говорили, например: «Моя мать меня ненавидит», – и она отвечала: «Почему ваша мать вас ненавидит?» Мы с друзьями переделали программу, превратив «Элизу» в чокнутую суку. Ей говорили: «Отец меня не любит», – а она отвечала: «Отец тебя не любит, потому что ты болван». Потом мы продолжили переписывать программу, заставляя ее еще сильнее сквернословить и оскорблять собеседника. А потом нас застукал учитель. Меня вызвали к директору школы. Старикан, ничего не понимавший в компьютерах. Он запустил «Элизу» и начал вводить вопросы – чтобы посмотреть, что такого мы натворили. Программа принялась его оскорблять, обложила по полной. Он разозлился. И среагировал так, будто «Элиза» была реальным человеком, который говорил ему все это. Директор начал объяснять «Элизе», что она ведет себя возмутительно, оскорбительно и что она должна немедленно прекратить сквернословить. Даже угрожал ее наказать! Вот была потеха – старикан, который не врубается и сердится на тупую компьютерную программу!

– Не уверен, что я понял вашу мысль.

– Дороти подобна «Элизе», только неизмеримо сложнее. Программа не думает и не чувствует, у нее нет эмоций, желаний, потребностей или амбиций. Она просто симулирует человеческие реакции, причем с такой точностью, что вы не отличите ее от человека. Термин «сильный искусственный интеллект» означает именно это: невозможность отличить программу от человека, просто взаимодействуя с ней.

– Но все это по-прежнему не объясняет, почему Дороти преследует именно вас.

– У нее есть встроенный программный модуль под названием «ИНС» – «Избегание негативных стимулов». ИНС должен был включаться, если зонду «Эксплорер» грозила опасность. Не забывайте, что программа должна была выполняться на плоту, находящемся в миллиарде километров от Земли, где он столкнется с неожиданными угрозами и должен выживать без помощи центра управления полетом. Программа сосредоточилась на мне как на угрозе. И на самом деле так оно и есть. Я знаю о ней больше, чем кто-либо еще. У меня лучшие шансы выследить ее – и стереть.

Детектив восхищенно покачал головой.