Нанотехнология – овеществление вычислений или программируемая материя

     Увы, тема "сверхмикроминиатюризации" становится все более избитой — кто только не посвящает описанию "светлого нанобудущего" журнальные полосы. Естественно, что ожидаемая "светлость" предусматривает появление компьютеров немыслимо высокой производительности, низких стоимости и энергопотребления, абсолютно новых лекарств, да и вообще полное изменение стиля жизни человечества. Об этом написано много, поэтому выступать в роли "эха" автору очень не хотелось бы. Зато о самом важном аспекте пока не выходящей за рамки лабораторий технологии по неясным причинам говорят немного, хотя революционность нанотехнологий заключается не столько в ожидаемых плодах их массового применения, сколько в самой идеологии "наноминиатюризации".
     

     История масштабов

     Без этого, почти философского, отступления весь дальнейший разговор потеряет всякий смысл. Итак, если заглянуть в далекое прошлое, характер "промышленной" деятельности наших предков можно охарактеризовать размерами используемых инструментов и обрабатываемых изделий. Понятно, что речь идет о предметах достаточно "больших" габаритов, измеряемых в метрах и сантиметрах. Перелом наступил в середине прошлого века: "Франция. Механик Перар устроил поистине замечательный инструмент. С помощью его можно миллиметр, т. е. длину, которую трудно рассмотреть при слабом зрении, разделить на 1500 частей" (журнал "Нива", 1883 г.). Менее чем через сто лет (1959 г.) в своей Нобелевской речи выдающийся физик современности Ричард Фейнман произнес фразу, которая стала основой совершенно нового направления в науке и инженерии: "Принципы физики, с моей точки зрения, не отрицают возможности манипулирования атомами, как предметами" (перевод не дословный). Миниатюризация никогда не была и не есть самоцель — стремление к ней отражает глубинные законы физики и свойственную человеку тягу к совершенству, и в период активного развития (начавшегося с 60-х годов) полупроводниковой микроминиатюризации о смелом высказывании Фейнмана забыли… Но когда в 1990 г. увидела свет эпохальная статья двух исследователей из лабораторий IBM (Эйглер, Швейцер, журнал "Nature", Vol. 344) под названием "Позиционирование отдельных атомов с помощью сканирующего туннельного микроскопа", стало ясно, что пророчество Фейнмана сбылось — весь мир обошла "нанофотография" удивительной мозаики, образующей (естественно) слово "IBM", "выложенное" отдельными атомами ксенона на поверхности никелевого монокристалла с немыслимой ни в какие времена атомарной точностью. Появившаяся четырьмя годами ранее (1986 г.) и казавшаяся полуфантастической книга Эрика Дрекслера "Двигатели Созидания" (Engines of Creations), в которой впервые была сформулирована идея робота, способного "собирать" из отдельных атомов сложные структуры, в мгновение ока стала культовой (к слову, книга действительно хороша — автор убедился в этом, буквально зачитываясь ею в течение последних четырех ночей, все желающие могут "за бесплатно" прочесть ее в Internet на сайте www.foresight.org/EOC/). Собственно с именем Дрекслера связаны почти все термины и идеи, существующие в сегодняшней науке о нанотехнологиях, — именно этот ученый понял всю значимость и справедливость одной единственной фразы Фейнмана.
     

     Тайны вычислительной жизни

     Первый (и самый главный) "утерянный" в ориентированных на массового читателя статьях аспект нанотехнологии непосредственно связан с терминами "вычисления" и "жизнь". Понятие "жизнь" слишком глубокое и сложное, но в нашем случае интересна одна единственная особенность живых существ — способность к воспроизводству. Все достижения сегодняшних "человеческих" технологий меркнут на фоне абсолютно незаметной, но сверхэффективной технологии эволюции — мы так и не научились щадить окружающую нас природу, уничтожая с благими целями невосстановимые ресурсы естественных органических топлив. Наша технология проектирования субъективна и также неспособна соревноваться с эволюционными механизмами — и природа иногда жестоко наказывает человека за удобные ему, но противоестественные проекты. Ученые давно "бились" над решением этих проблем, но все попытки как-либо формализовать эффективную "природощадящую" технологию проектирования и производства до недавних времен никому не удавались. Наиболее вероятный претендент на трон победителя в соревновании концепций проектирования и производства появился, как это принято в современной науке, в совершенно чуждой "земным" производственным потребностям области "чистого" теоретического компьютинга. Гениальный фон Нейман в свое время предложил весьма красивую идею "клеточного автомата, способного к воспроизводству" (КАСВ), решая куда более утилитарную задачу — создание облика вычислителя, способного воспроизводить себя. КАСВ по фон Нейману представлял собой комбинацию "универсального компьютера" и "универсального конструктора", выступающих в ролях "мозга" и "рук" соответственно. Программа "универсального компьютера" КАСВ содержала управляющие инструкции для "универсального конструктора" по сборке нового КАСВ. Когда сборочные операции заканчиваются, "универсальный компьютер" выполняет копирование управляющей программы в свое новое "овеществление", и в дальнейшем весь процесс повторяется… Операции конструирования в КАСВ по фон Нейману не были материальными, да и понятия "компьютер" и "конструктор" здесь более соответствуют программам — фоннеймановский КАСВ все-таки абстракция (более точно — это двумерный клеточный автомат, ближайшей аналогией которого является бесконечная шахматная доска с расположенными на ней "фишками", "универсальный компьютер" формируется порядком расположения "фишек", а "конструктор" представляет собой управляемую этим порядком "руку", способную переставлять "фишки" из клетки в клетку). Идея и абстрактный характер КАСВ основали новый раздел компьютинга — моделирование искусственной жизни. Многим наверняка хорошо известна знаменитая программа Джона Конвея "Жизнь" (Life), которую по неясным причинам часто относят к разряду игр. На самом деле конвеевская Life и является моделью КАСВ, лишенной "универсального конструктора". Венцом теоретических исследований в области искусственной жизни стали мощные компьютерные вирусы, обладающие способностью к репликации (воспроизводству) — самый известный из них Internet-червяк Роберта Морриса, и маленькие программы, демонстрирующие простоту реализаций абстрактных самовоспроизводящихся систем, одну из которых автор просто не в силах не привести (это "чудо программирования" на C было опубликовано в журнале "Byte" за 1980 г. и предназначено для выполнения C-интерпретатором, cм. листинг).

     Все эти невинные развлечения могли продолжаться до бесконечности, но уже упомянутый позитивный опыт атомарной манипуляции в лабораториях IBM расставил точки над "i" — Дрекслер модифицирует КАСВ фон Неймана, материализуя и уменьшая основные составные части до молекулярных размеров.
     

     Ассемблер Дрекслера

     Модифицированную концепцию КАСВ Дрекслер назвал ассемблером (по-русски — сборщиком). Ассемблер, как и его более абстрактный прототип, состоит из двух основных частей — микрокомпьютера и управляемого манипулятора. Сразу следует упомянуть, что в работах Дрекслера эти термины употребляются с уточняющим словом "молекулярный", что само за себя говорит о размерах основных элементов и используемой "элементной базе". Таким образом, ассемблер — это микроробот (точнее было бы назвать его нанороботом), обладающим как памятью, хранящей управляющую программу, так и исполнительным механизмом, позволяющим "расставлять" атомы в соответствии с этой программой. Кажущееся безумие затеи с созданием ассемблера Дрекслера действительно является кажущимся — по крайней мере, отдельные атомы переставлять с помощью туннельных микроскопов (ТМ) научились уже сравнительно давно. И даже при очень высокой сложности ассемблера можно создать одну единственную его реализацию с помощью того же самого ТМ, "загрузить" в него программу репликации — и дальше процесс будет развиваться астрономическими темпами.
     

     Коллективный разум и широковещание

     Сам по себе ассемблер — концепция мощная, но ей не хватает завершенности: объекты молекулярных размеров несомненно интересны в познавательных целях, но для более "приземленных" применений требуются куда большие масштабы, возникает естественный вопрос о координации действий огромного количества ассемблеров. Здесь на помощь идеологам пришла мысль о широковещательном управлении (почему-то эта идея всегда приходит в голову именно им…) — один гигантский макроскопический компьютер управляет сонмом ассемблеров. Какими механизмами следует пользоваться для распространения управляющих сигналов — вопрос до сих пор открытый. Дрекслер в своих работах оперировал понятиями "жидкая среда" и "газ" — именно в этих средах легко передаются изменения давления, а в качестве "приемника" предполагалось использование чувствительных к давлению молекулярных мембран.

     Молекулярное производство

     Ассемблеры, собирающие из отдельных атомов новые ассемблеры или даже новое вещество, — концепция, бесспорно, интересная. Однако сложности управления этим процессом в условиях хаотичного теплового движения молекул (идея манипулирования массами с помощью широковещательных передач вообще требует и больших затрат на поддержание механизмов управления, да и не гарантирует эффективности) сводят все преимущества масштабного применения ассемблеров на нет. И хотя приверженцев нанопроизводства по Дрекслеру очевидность этих проблем не пугает, в исследовательском лагере появилось еще одно перспективное направление, фактически исключающее потребность в широковещательном управлении.

     Если хаос невозможно исключить (а тепловые хаотичные движения молекул — явление неизбежное), то его можно и нужно использовать. Подобные соображения подтолкнули исследователей из лаборатории Xerox к попытке создания конфигураций молекул, способных образовывать "самоорганизующиеся" структуры как раз за счет хаотического теплового движения. В таком случае отпадает необходимость как в наноманипуляторах (или "универсальных конструкторах" КАСВ), так и в механизме управления процессом "сборки". Впоследствии в Xerox расширили понятие "самосборки" до так называемой "конвергентной сборки", что позволило, наконец, обосновать перспективность нанотехнологий в промышленном производстве габаритных изделий — ведь именно они нужны человечеству в первую очередь.

     Конвергентная сборка не представляет из себя ничего исключительного, в ее основе лежат достаточно очевидные соображения. В ходе производства большие предметы получаются из меньших (конструктивных блоков или узлов) путем их соединения (объединения, склеивания и т. д.). В отличие от традиционных технологических процессов конвергентная сборка предусматривает удвоение размера создаваемого изделия в каждом технологическом цикле сборки. Соответственно, если обозначить наименьший габаритный размер исходного конструктивного блока как l, а продолжительность одного технологического цикла как t (технологический цикл здесь означает время, затрачиваемое на "удвоение" одного конструктивного блока), то согласно указанному выше правилу конвергентной сборки за N технологических циклов можно "вырастить" изделие размером 2Nl, затратив на производственный процесс 2Nt единиц времени. В этих примитивных формулах заключена вся "соль" конвергентного производства — при операциях на атомарном и молекулярном уровнях, несмотря на очень малые значения l, требуемое время на выполнение одной технологической операции также очень мало — по оценкам исследователей Xerox, оно составляет 100 нс. Кроме того, конвергентная молекулярная сборка допускает высокую степень конвейеризации операций. В результате несложных подсчетов были получены оценки продолжительности конвергентного технологического процесса по производству абстрактного "изделия" с максимальным габаритным размером 1 м — до 200 с. С учетом временных затрат на устранение сбоев в технологическом процессе (отдельные ассемблеры и механизм "самосборки" являются потенциально ненадежными) эта продолжительность увеличивается до десятков минут. Естественно, что подобный показатель кажется весьма высоким для современных роботизированных производств. Но дело даже не в этом — с помощью конвергентной сборки предполагается создавать изделия из уникальных материалов с высокорегулярной структурой, обладающие совершенно немыслимыми свойствами. Вероятнее всего, именно по этой причине активные нанотехнологические исследования ведутся NASA — аэрокосмическая промышленность после успешного освоения углеродных волокон крайне заинтересована в сверхпрочных и сверхлегких материалах.
     

     Деструкторы — ассемблеры наоборот

     Если ассемблеры по Дрекслеру предназначены для созидания, то деструкторы, соответственно, — для выполнения совершенно противоположных действий. Атомарно-молекулярный "демонтажник" сложных органических соединений представляет собой совершенный инструмент познания в химии и биологии. Увы, даже на уровне концепции деструкторы обладают свойственной ассемблерам слабостью — неформализованным механизмом передачи информации ("молчаливо" делающий свое дело деструктор к познанию, вероятнее всего, никакого отношения не имеет, и разработкой подобных "инструментов" занимаются в далеких от идеалов гуманизма целях).
     

     Сегодня и завтра

     Все эти замечательные логические и теоретические построения, естественно, в сегодняшней реальности существуют только на бумаге и, частично, — в компьютерных моделях. Однако маленькие, но значимые шаги в развитии нанотехнологии совершаются если не ежедневно, то достаточно часто. Одним из самых важных событий после успешного позиционирования отдельных атомов стал блестящий эксперимент, проведенный исследовательским центром в Цюрихе все той же корпорации IBM. В 1996 г. в журнале "Science" (Vol. 271) была опубликована статья об удачном позиционировании отдельных молекул с помощью сканирующего туннельного микроскопа… при комнатной температуре — и это несмотря на естественный хаос, порождаемый тепловым движением. Страсти на "нанофронте" накалились до предела — открывающаяся перспектива вызвала настоящую "нанолихорадку". Как грибы после дождя стали появляться самые разнообразные проекты — от очень впечатляющих программно-аппаратных комплексов, позволяющих в виртуальной реальности манипулировать реальными атомами, до единых форматов представления "нанотехнологической" информации и даже… специализированные программы компьютерного проектирования (CAD) "наноустройств". Однако с 1996 г. практически никаких "взрывов" на "нанофронте" не слышно — разве что появился ряд компаний, ставящих перед собой весьма амбициозные цели (например, создание реального ассемблера). Прогнозы специалистов подчеркивают амбициозность подобных начинаний — по крайней мере, сам Дрекслер отвечает на вопрос "Когда же все это будет?" в очень откровенной манере "Не знаю…".

     Временной разброс в предсказаниях появлений конкретных реализаций, например ассемблеров, достигает 25 лет (от явно оптимистичного 2000 г. до более или менее вероятного 2025-го). Основанные на "нанотехнологических" узлах компьютеры ожидаются, вероятнее всего, в промежутке между 2040 и 2050 гг. С позиций разумного реализма все эти цифры явно слишком оптимистичны, но… "Нанотехнологическая" гонка оказалась замечательным стимулятором развития для существующих компьютерных систем. Чего стоит только действующий в университете Северной Каролины наноманипулятор (фото в заголовке статьи) — гибрид сканирующего туннельного микроскопа и системы виртуальной реальности. Разработчики этого чуда техники наконец нашли достойное применение технологии "force feedback" (тактильной обратной связи), хорошо известной фанатикам-геймерам по всевозможным полубезумным игровым манипуляторам — рулям, штурвалам и джойстикам. Растущие требования исследователей вызывают все новые разработки в самых неожиданных областях (например, в области разработки новых геометрических алгоритмов, позволяющих моделировать тела произвольной формы).
     

     Вторая революция в компьютинге

     Итак, мы подошли вплотную к самому важному вопросу, упущенному в большинстве публикаций, посвященных нанотехнологии. Первая революция в компьютинге произошла вовсе не во времена массовой микроминиатюризации вычислительной техники и вообще не связана с достижениями технологий. Все это следствия одной причины — великого прозрения Ады Лавлейс о способности машин оперировать абстрактной символьной информацией (это во времена, когда действующие реализации вычислителей не умели толком выполнять куда более простые арифметические действия!). Именно Ада Лавлейс предсказала и подсказала путь развития информационных технологий, по которому они (технологии) и движутся сегодня. По аналогии с Первой революцией, идеи фон Неймана, Фейнмана и Дрекслера обозначили Вторую революцию компьютинга — оказывается, что вычислительные машины способны не только оперировать абстракциями, но также и непосредственно материализовывать эти абстракции, создавая их овеществление. Естественно, что ученые только начинают продвигаться в исследованиях по этому пути, многие фундаментальные вопросы еще не проработаны (например, энергетические соотношения для больших "колоний" ассемблеров Дрекслера или систем конвергентной сборки) — все это не так уж и важно. В конце концов, сегодняшнее положение нанотехнологии значительно лучше, чем теории вычислений во времена Ады Лавлейс.

     Напоследок в уже наполненную бочку с медом очень хочется добавить пару маленьких ложечек дегтя, оставляя их для раздумья в свободное время читателям.

     Ожидаемые нанотехнологические компьютеры будут массово-параллельными, с потенциально ненадежными отдельными элементами — концептуально это очень напоминает совершенный продукт биологической эволюции, например человеческий мозг. Увы, массово-параллельные системы далеко не со всеми задачами способны успешно справляться. Например, наш мозг, по оценкам специалистов, содержит до 1015 синапсов, работающих на скорости около 10 импульсов в секунду, что дает астрономическую цифру 1016 синапсных операций в секунду. Даже если предположить, что эти операции эквивалентны простейшим булевым однобитовым вычислениям (это, естественно, принципиально неправильно, но для упрощения подходит вполне), все равно получающаяся цифра удалена от показателей лучших на сегодняшний день процессоров на астрономическое расстояние — и попробуйте всей этой вычислительной мощью сложить в уме хотя бы сто 10-значных чисел или решить простейшее квадратное уравнение с дробными коэффициентами — любой долларовый восьмибитовый процессор не оставит вам шансов на победу в подобном соревновании…

     Если предыдущая ложка была из категории чайных, то для дегтя потенциальной опасности технологии надо готовить черпак… Детскими шалостями кажутся все прогнозируемые самыми убежденными пессимистами последствия "ошибки 2000 года" по сравнению со вполне возможными последствиями "ошибки N000 года", когда "вдруг" дадут сбой и ассемблеры, и конвергентные установки, и системы широковещательного управления. Слава Богу, что мы этого не увидим…