В 1960-е годы, в самом начале информационной революции, Гордон Мур, впоследствии один из основателей корпорации Intel, обратил внимание на интересную закономерность в развитии компьютеров.
Он заметил, что объем компьютерной памяти удваивается примерно каждые два года.
Эта закономерность стала своего рода эмпирическим правилом в компьютерной промышленности, и вскоре оказалось, что не только память, но и каждый показатель производительности компьютера — размер микросхем, скорость процессора и т. д. — подчиняется этому правилу.
Последующее развитие компьютеров шло в соответствии с «законом» Мура. Поразительно, но в последние десятилетия мы стали свидетелями нескольких настоящих революций в области технологий. Мы прошли путь от компьютеров на ламповых транзисторах к компьютерам на интегральных схемах и далее — к компьютерам на микропроцессорах, и каждый раз закон Мура находил подтверждение. В 1960-е годы ни один человек в Силиконовой долине не мог даже предположить, что современные технологии производства позволят размещать миллионы элементов в кремниевом кристалле (чипе) размером с почтовую марку. Но когда в соответствии с законом Мура должна была возникнуть такая степень интеграции, она возникла. Правда, закон Мура, похоже, стал действовать быстрее — за последние несколько лет период удвоения производительности сократился с двух лет до полутора.
Однако рано или поздно законы природы положат конец господству закона Мура. Взять, к примеру, размеры элементов микросхемы. Закон предсказывает, что к 2060 году они должны будут стать размером с одиночный атом — что невозможно с точки зрения квантовой механики!