2.1 История развития теории квантовых

вычислительных устройств

Только к середине 1990-х годов теория квантовых компьютеров и квантовых вычислений (*) утвердилась в качестве новой области науки.[2] Как это часто бывает с великими идеями, сложно выделить первооткрывателя. По-видимому, первым обратил внимание на возможность разработки квантовой логики венгерский математик И. фон Нейман [1]. Однако в то время еще не были созданы не то что квантовые, но и обычные, классические, компьютеры. А с появлением последних основные усилия ученых оказались направлены в первую очередь на поиск и разработку для них новых элементов (транзисторов, а затем и интегральных схем), а не на создание принципиально других вычислительных устройств.

 * Теория квантовых компьютеров – одна из современных ветвей квантовой механики и теории квантовых вычислений. Квантовая механика – теория, устанавливающая способ описания и законы движения микрочастиц (элементарных частиц,атомов,молекул,атомных ядер ) и их систем,а также связь величин, характеризующих частицы и системы, c физическими величинами, непосредственно измеряемых в макроскопических опытах. Законы квантовой механики составляют фундамент изучения строения вещества. Они позволили выяснить строение атомов, установить природу химической связи, объяснить периодическую систему элементов, понять строение атомных ядер, изучать свойства элементарных частиц.

Ряд крупнейших технических достижений 20 в. основан на специфических законах квантовой механики, которая, в частности, создала фундамент для такой бурно развивающейся области физики как квантовая электроника и заложила основы для формирования теории квантовых вычислений.

В 1960-е годы американский физик Р.Ландауэр, работавший в корпорации IBM, пытался обратить внимание научного мира на то, что вычисления – это всегда некоторый физический процесс, а значит, невозможно понять пределы наших вычислительных возможностей, не уточнив, какой физической реализации они соответствуют [2].

К сожалению, в то время среди ученых господствовал взгляд на вычисление как на некую абстрактную логическую процедуру, изучать которую следует математикам, а не физикам.

По мере распространения компьютеров ученые, занимавшиеся квантовыми объектами, пришли в выводу о практической невозможности напрямую рассчитать состояние эволюционирующей системы, состоящей всего лишь из нескольких десятков взаимодействующих частиц, например молекулы метана (CH4). Объясняется это тем, что для полного описания сложной системы необходимо держать в памяти компьютера экспоненциально большое (по числу частиц) количество переменных, так называемых квантовых амплитуд. Возникла парадоксальная ситуация : зная уравнение эволюции, зная с достаточной точностью все потенциалы взаимодействия частиц друг с другом и начальное состояние системы,

практически невозможно вычислить ее будущее, даже если система состоит из 30 электронов в потенциальной яме, а в распоряжении имеется суперкомпьютер с оперативной памятью, число битов которой равно числу атомов в видимой области Вселенной (!). И в то же время для исследования динамики такой системы можно просто поставить эксперимент с 30 электронами, поместив их в заданный потенциал и начальное состояние. На это, в частности, обратил внимание русский математик Ю.И.Манин, указавший в 1980 году на необходимость разработки теории квантовых вычислительных устройств.[1] В 1980-е годы эту же проблему изучал американский физик П.Бенев, явно показавший, что квантовая система может производить вычисления, а также английский ученый Д.Дойч, теоретически разработавший универсальный квантовый компьютер, превосходящий классический аналог. [1]

Большое внимание к проблеме разработки квантовых компьютеров привлек лауреат Нобелевской премии по физике Р.Фейнман. Благодаря его авторитетному призыву число специалистов, обративших внимание на квантовые вычисления, увеличилось во много раз.

И все же долгое время оставалось неясным, можно ли использовать гипотетическую вычислительную мощь квантового компьютера для ускорения решения практических задач. Но вот в 1994 году американский математик, сотрудник фирмы Lucent Technologies (США) П.Шор ошеломил научный мир, предложив квантовый алгоритм, позволяющий проводить быструю факторизацию больших чисел. По сравнению с лучшим из известных на сегодняшний день классических методов квантовый алгоритм Шора дает многократное ускорение вычислений, причем, чем длиннее факторизуемое число, тем значительней выигрыш в скорости. Алгоритм быстрой факторизации представляет огромный практический интерес для различных спецслужб, накопивших банки нерасшифрованных сообщений.

В 1996 году коллега Шора по работе в Lucent Technologies Л.Гровер предложил квантовый алгоритм быстрого поиска в неупорядоченной базе данных. (Пример такой базы данных – телефонная книга, в которой фамилии абонентов расположены не по алфавиту, а произвольным образом.) Задача поиска, выбора оптимального элемента среди многочисленных вариантов очень часто встречается в экономических, военных, инженерных задачах, в компьютерных играх. Алгоритм Гровера позволяет не только ускорить процесс поиска, но и увеличить примерно в два раза число параметров, учитываемых при выборе оптимума. Реальному созданию квантовых компьютеров препятствовала, по существу, единственная серьезная проблема – ошибки, или помехи. Дело в том, что один и тот же уровень помех гораздо интенсивнее портит процесс квантовых вычислений, чем классических. Пути решения этой проблемы наметил в 1995 году П.Шор, разработав схему кодирования квантовых состояний и коррекций в них ошибок.

 

2.2 Производство квантовых компьютеров :

технологические трудности и перспективы

Прототипы квантовых компьютеров существуют уже сегодня. Правда, пока что экспериментально удается собирать лишь небольшие регистры, состоящие всего из нескольких квантовых битов. Так, недавно группа, возглавляемая американским физиком И. Чангом (IBM), объявила о сборке 5-битового квантового компьютера. [4] Несомненно, это большой успех. К сожалению, существующие квантовые системы еще не способны обеспечить надежные вычисления, так как они либо недостаточно управляемы, либо очень подвержены влиянию шумов. Однако физических запретов на построение эффективного квантового компьютера нет, необходимо лишь преодолеть технологические трудности.

К таким трудностям (мы будем называть их пределами) можно отнести следующие :

 a) Предел первый : быстродействие

 

Все логические операции, осуществляемые компьютером, основаны на переключении битов между условными значениями “0” и “1”, которым отвечают два устойчивых физических состояния. Во всех случаях скорость переключения битов и, следовательно, быстродействие вычислительного устройства определяются тем, насколько быстро протекает соответствующий физический процесс. Например, время переключения транзистора тем меньше, чем больше подвижность электронов в полупроводнике, скорость перехода молекулы из одной формы в другую определяется вероятностью этого события и т.д. Времена процессов переключения, как правило, очень малы (от 1 до 10-15 секунды). И все же они конечны.

С точки зрения квантовой механики, утверждает физик из Массачусетского технологического института (США) Сет Ллойд, скорость вычисления ограничена полной доступной энергией [7]. В 1998 году это положение было теоретически доказано математиками из Массачусетского технологического университета (США) Норманом Марголусом и Львом Левитиным. Им удалось показать, что минимальное время преключения бита равно одной четверти постоянной Планка, деленной на полную энергию:

1h/4E

Таким образом, чем больше энергия компьютера, используемая им для вычислений, тем быстрее он считает. По мнению Ллойда, “предельный” компьютер – это такой компьютер, вся энергия которого будет  расходоваться только на вычислительный процесс.

Исходя из приведенного соотношения, оценим, к примеру, быстродействие некоторого гипотетического компьютера массой 1 килограмм, состоящего всего из одного бита. Как известно, полная энергия тела задается фундаментальным соотношением E=mc2, где m-масса объекта, с – скорость света в вакууме. Итого имеем 1017 Дж. Если бы всю эту энергию , “погребенную” в массе нашего компьютера, можно было бы использовать в вычислительном процессе, время переключения бита достигло бы фантастически малых величин порядка 10-51 секунды! Полученное значение существенно больше “планковского промежутка времени”, (10-44 секунды) – минимального временного интервала, который, с точки зрения квантовой гравитации, требуется для протекания любого физического события.

Однако мы рассмотрели однобитный компьютер, в то время как на практике любой ЭВМ требуется не один, а множество битов. Если энергию нашего гипотетического компьютера распределить между миллиардами битов, время переключения уже каждого из них будет уже меньше планковского. Важно, что при этом общее число переключений всех битов за секунду останется прежним – 1051.

По сравнению с предельным компьютером Ллойда нынешние ЭВМ – просто черепахи : при тактовой частоте порядка 500 мегагерц типичный современный компьютер выполняет лишь 1012 операций в секунду. Предельный компьютер работает в 1039 раз быстрее!. А если он будет весить не килограмм, а тонну, быстродействие возрастет еще в 1000 раз.

В чем причина медлительности современных ЭВМ? Все дело в том, считает Ллойд, что полезную работу в них совершают лишь электроны, перемещающиеся внутри транзисторов. Что касается основной массы компьютера, то она не только не используется как источник энергии, но, напротив, препятствует свободному движению носителей зарядов. Единственная ее функция – поддерживать ЭВМ в стабильном состоянии.

Как избавиться от бесполезной массы? Надо превратить ее в кванты электромагнитного излучения - фотоны, которые, как известно, не имеют массы покоя (считается, что она равна 0). Тогда вся энергия, запасенная в массе, перейдет в энергию излучения, и компьютер из неподвижного серого ящика превратится в светящийся огненный шар! Как ни странно,но именно так может выглядеть предельный компьютер,считает Ллойд. Его вычислительная мощность будет огромна: менее чем за одну наносекунду он сможет решать задачи, на которые у современных ЭВМ ушло бы время, равное жизни вселенной!

Однако, остается еще проблема ввода-вывода информации. Как бы мы не совершенствовали процесс ввода-вывода, описанная модель “предельного” компьютера имеет один принципиальный недочет. Допустим, максимальный размер (например,диаметр) нашего компьютера равен 10 сантиметрам. Поскольку фотоны движутся со скоростью света, то все 1031 битов информации, хранящейся в нашем компьютере, не могут быть “скачаны” из него быстрее, чем за время, требующееся свету для прохождения расстояния в 10 сантиметров – то есть за 3-10 секунды.Значит, максимальная скорость обмена информацией компьютера с внешним миром равна 1041 бит в секунду. А предельная скорость обработки информации, как мы уже выяснили раньше, составляет 1051 бит в секунду, что в десять миллиардов раз быстрее. Таким образом, необходимость связи компьютера с внешним миром, а также отдельных его частей друг с другом может приводить к существенным потерям в скорости вычислений. “Отчасти решить эту проблему можно, заставив куски копьютера работать независимо друг от друга, в параллели”,-отмечает Ллойд.

Есть ли способ повысить скорость ввода-вывода? ”Да,-говорит Ллойд,-надо уменьшать размера компьютера.” Тогда обмен информацией будет происходить быстрее, а объем памяти станет меньше. При этом доля последовательных операций в компьютере может возрасти, а доля параллельных – уменьшиться.

Заметим, что до сих пор все наши рассуждения касались только быстродействия предельного компьютера, но мы забыли о такой важной его характеристике, как память. Существует ли предел запоминающей способности вычислительных систем?

b) Предел второй : память

 

Память компьютера ограничена его энтропией, утверждает Сет Ллойд, то есть степенью беспорядка, случайности в системе. [5] В теории информации понятие энтропии – аналог понятия количества информации. Чем более однородна и упорядочена система, тем меньше информации она в себе содержит.

Величина энтропии S пропорциональна натуральному логарифму числа различимых состояний системы (W): S =k*ln(W), где k – постоянная Больцмана. Смысл этого соотношения очевиден: чем больший объем информации вы хотите сохранить, тем больше различимых состояний вам потребуется. Например, для записи одного бита информации необходимо два состояния: включено и выключено. Чтобы записать два бита, потребуется уже 4 различных состояния, 3 бита - 8, n битов – 2eN состояний.

Таким образом, чем больше различных состояний в системе, тем выше ее запоминающая способность.

Чему равна энтропия “предельного” квантового компьютера?

Во-первых, она зависит от объема компьютера: чем он больше, тем большее число возможных положений в пространстве могут занимать его частицы. Во-вторых, необходимо знать распределение частиц по энергиям. Для этого можно воспользоваться готовым расчетом, выполненным еще сто лет назад Максом Планком при решении задачи о так называемом черном теле. Что же мы получим? Оказывается, литр квантов света может хранить около 1031 битов информации – это в 1020 раз больше, чем можно записать на современный 10-гигабайтный жесткий диск! Откуда такая огромная разница? По мнению Ллойда ,все дело в том, что способ, которым в современных компьютерах записывается и хранится информация, чрезвычайно неэкономен и избыточен. За хранение одного бита отвечает целый “магнитный домен” – а ведь это миллионы атомов . Таким образом, вновь встает вопрос об уменьшении размеров ЭВМ.

 

с ) Перспективы развития квантовых устройств

На сегодня существует несколько идей и предложений, как сделать надежные и легко управляемые квантовые биты.

И. Чанг развивает идею об использовании в качестве кубитов спинов ядер некоторых органических молекул.

Российский исследователь М. В. Фейгельман, работающий в институте теоретической физики им. Ландау РАН, предлагает собирать квантовые регистры из миниатюрных сверхпроводниковых колец. Каждое кольцо выполняет роль кубита, а состояниям 0 и 1 соответствуют направления электрического тока в кольце-по часовой стрелке и против нее.[2] Переключать такие кубиты можно магнитным полем.

В физико-технологическом институте РАН группа под руководством академика К. А. Валиева предложила два варианта размещения кубитов в пролупроводниковых структурах. В первом случае роль кубита выполняет электрон в системе из двух потенциальных ям, создаваемых напряжением, приложенным к мини–электродам на поверхности полупроводника. Состояния 0 и 1 – положение электрона в одной из этих ям. Переключается кубит изменением напряжения на одном из электродов. В другом варианте ядром является ядро атома фосфора, внедренного в определенную точку полупроводника. Состояния 0 и 1 – направления спина ядра вдоль либо против внешнего магнитного поля. Управление ведется с помощью совместного действия магнитных импульсов резонансной частоты и импульсов напряжения. [2]

Таким образом, исследования активно ведутся, и можно предположить, что в самом недалеком будущем – лет через 10 – эффективный квантовый компьютер будет создан.

 

 

 

 

 

 

 

 

Заключение

Итак, подведем итоги. На основе анализа существующих научных теорий, приоритетных направлений развития микроэлектроники можно сделать следующие выводы :

1)   Дальнейший прогресс компьютерной техники, бесспорно, возможен.

Он будет двигаться в направлении дальнейшей миниатюризации ЭВМ с одновременным увеличением ее быстродействия .

2)   Современные полупроводниковые компьютеры скоро исчерпают свой потенциал, и даже при условии перехода к трехмерной архитектуре микросхем их быстродействие будет ограничено значением 1015 операций в секунду.

3) Устройство “компьютеров будущего” будет основано на

применении главным образом передовых отраслей широкого спектра

научных дисциплин (молекулярная электроника, молекулярная

биология, робототехника), а также квантовой механики,органической

химии и др. А для их производства компьютеров будут необходимы

значительные экономические затраты, в несколько десятки раз

превышающие затраты на производство современных “классических”

полупроводниковых компьютеров.

4) Разнообразие существующих на сегодняшний момент научных

 разработок в области микроэлектроники, а также обширности

 накопленных знаний в области других научных дисциплин (см.выше)

 позволяет надеяться на создание “суперкомпьютера” в сроки 100-300  

 лет.

5) Скорость компьютерных вычислений достигнет значения 1051

 операций в секунду.

6) Область применения ЭВМ будет чрезвычайно обширной.

Они будут:
a) по мере поступления рыночной информации

автоматически управлять процессами производства

продукции;
b) накапливать человеческие знания и обеспечивать

получение необходимой информации в течение нескольких

минут;
c) ставить диагнозы в медицине;
d) обрабатывать налоговые декларации;
e) создавать новые виды продукции;
f) регулировать движение всех видов транспорта;
g) вести домашнее хозяйство;
h) вести диалог с человеком и т.д.

И хотя многие из перечисленных функций могут представляться нам утопическими, все же не следует исключать возможность создания своего рода симбиоза "человек-ЭВМ".

Лишь после того, как компьютер превратится в пылающий огненный шар либо в микроскопическую черную дыру, прогресс вычислительной техники прекратится. Фантастика? Нет, ”еще одно свидетельство тесной связи физики и теории информации” [5]. Конечно, сегодня мы даже не можем себе представить, как достичь этих невероятных пределов. Однако не стоит отчаиваться. Если развитие ЭВМ будет идти теми же темпами, все описанное станет реальностью через каких-нибудь две сотни лет.

Библиография

1)   Н.Л.Прохоров,К.В.Песелев.Перспективы развития

вычислительной техники.Книга 5 : Малые ЭВМ.

М.,Наука.1989.

2)   Л.Федичкин.“Квантовые компьютеры”(c. 24-29). Наука и жизнь.Москва.,издательство “Пресса”.2001.№1.

3)   Р.Фейнман.Моделирование физики на компьютерах //

Квантовый компьютер и квантовые вычисления : Сб. в 2-х т. – Ижевск : РХД, 1999. Т2, с96-123.

4)   Р.Фейнман.Моделирование физики на компьютерах //

Квантово-механические компьютеры : Сб. в 2-х т. – Ижевск : РХД, 1999. Т2, с123-156.

5)   А.Шишлова.“Последний из компьютеров” (c. 68-72).

Наука и жизнь.М.,издательство “Пресса”.2001.№2.

6)   А.Шишлова.”Молетроника.Системы исчисления. Органические материалы в современной микроэлектронике”(c. 64-70).Наука и жизнь.Москва, издательство “Пресса”.2000.№1.

7)New Scientist. Annals of the New York Academy of

Sciences.2001.№1.

8)  Интернет : http://www.asphi.it/

9)  Интернет http://europa.eu.int/comm/external_relations

 

 

 

 


Информация о работе «Есть ли пределы развития и миниатюризации компьютеров?”»
Раздел: Информатика, программирование
Количество знаков с пробелами: 42295
Количество таблиц: 0
Количество изображений: 0

Похожие работы

Скачать
50185
2
0

... . Фактически IBM PC стал стандартом персонального компьютера. Сейчас такие компьютеры («совместимые с IBM PC») составляют около 90% всех производимых в мире персональных компьютеров.II Структура ПК   а) Основные устройства Из каких же основных элементов состоит современный ПК? Наиболее “весомой” частью любого компьютера является системный блок. Внутри него расположены блок питания, плата с ...

Скачать
23941
0
0

... над архитектурой персональных компьютеров. IBM-PC стал промышленным стандартом de-facto. Подводя итог рассмотрению истории возникновения ПК, необходимо сказать следующее. На начальных этапах развития вычислительной техники компьютеры использовались исключительно в промышленных целях. Ввиду очень высокой себестоимости их не могли себе позволить обычные люди. Однако потребность в получении и ...

Скачать
24837
0
0

... управляемы. Пользователь сумеет голосом подавать машине команды. Предполагается, что XXI век будет веком наибольшего использования достижений информатики в экономике, политике, науке, образовании, медицине, быту, военном деле. Главной тенденцией развития вычислительной техники в настоящее время является дальнейшее расширение сфер внедрения ЭВМ и, как следствие, переход от отдельных машин к их ...

Скачать
68613
0
0

... владеет Украина, является одним из важнейших измерений ее миссии. То, что она призвана дать мировому сообществу будущего, с точки зрения общечеловеческого развития, становится глобальной миссией Украины. Интерпретация устойчивого развития по М. Руденко позволяет определять наиболее ценные из интеллектуальных достижений, которые должны передаваться потомкам, и формулировать требования к ним. Так, ...

0 комментариев


Наверх