Вообще просто говорить о быстродействии какого-либо процессора бессмысленно, поскольку мы имеем дело, в конечном итоге с приложениями и все "железо" служит лишь платформой для их работы. А вот скорость работы приложения зависит не только от быстродействия процессора, но и от работы подсистемы памяти, оптимизации самого приложения.
1. В принципе, конечно, кремний далеко себя не исчерпал. Да и за гигагерцами гнаться особого смысла нет. Intel в погоне за гигагерцами продолжает клепать процессоры довольно устаревшие по архитектуре. Так продукция AMD несколько совершеннее, что видно хотя бы из того, что примерно одинаковое быстродействие "атлоны" имеют при значительно более низкой тактовой частоте чем "пни". То, что "атлоны" и другие модели процессоров этой фирмы обладают наряду с преимуществами и рядом недостатков, скорее связано со значительно меньшим числом заводов чем у Intel, из-за чего сложнее проводить оптимизацию топологии микропроцессоров. Да и видимо дает знать увеличенный объем кэша первого уровня, что отнюдь не способствует снижению энергопотребления и рассеиваемой мощности.
В этом плане весьма показателен отечесвенный проект Е2К, который обадая как минимум на порядок более высоким логическим быстродействием чем любой из процессоров Intel так и не был реализован до сих пор. Была выпущена упрощенная версия Эльбрус-
3М (см.
Компания ЭЛЬБРУС-2000 является бизнес-партнером ведущих мировых компаний - поставщиков программных и аппаратных решений ориентированных на разные сегменты рынка. Наш опыт работы с мировыми производителями позволяет предлагать заказчикам наиболее оптимальные решения, отвечающие требованиям Вашего бизнеса.
//
www.elbrus.ru
) причем с оптимизацией только на уроне функциональных модулей процессора, а не на уровне отдельных "транзисторов". В свое время разработчики "эльбрусов" писали, что для выпуска полноценных процессоров им необходимо порядка 4-х миллиардов долларов (а именно столько стоит завод по производству микропроцессоров с современными технологическими нормами), поскольку в противном случае они не могут качественно оптимизировать топологию микропроцессора, так как тайваньские фирмы согласны иметь дело только с промышленными партиями (не менее 100.000 штук), в то время когда для отработки и оптимизации топологии нужны партии в несколько тысяч...
Очень сильно поднять быстродействие могут также механизмы статической оптимизации работы кэша, как это делают разработчики из Эльбрус-МЦСТ. При этом сильно упрощаются механизмы работы кэш памяти, поскольку все моменты по предсказанию ветвлений и попаданий в кэш переносятся из аппаратной части в программную (оптимизация работы кэш-памяти производится на этапе компиляции).
2. Здесь совершенно справедливо обратили внимание на факт того, что в настоящее время сдерживающим фактором быстродействия современных компьютеров является очень медленная работа ОЗУ. Здесь единственный выход - возврат к статическому ОЗУ, но при этом цена модулей памяти возрастет на порядки, да и электропотребление тоже. Но применение статических микросхем памяти позволит отказаться вообще от понятия кэша второго уровня, что позволит упростить архитектуру процессоров на порядок снизить латентность. Современные микросхемы памяти (DDR и RDRAM) дают хорошее быстродействие только в потоковых приложениях. В случае работы памяти в режимах с произвольной выборкой, а приложений, которые заставляют работать подсистему памяти именно в этих режимах хоть "пруд пруди", быстродействие ее скатывается до уровня SDRAM.
3. Еще один способ повышения быстродействия - улучшение средств разработки приложений. Ведущие "софт-тварьные" компании на это давным-давно "забили", поскольку монополистам что-либо делать революционное просто невыгодно, да и бюрократический аппарат мешает. С тех пор, как Microsoft стала безраздельным хозяином программного обеспечения мы имеем только ухудшение положения в этой области. Грядущая новая версия "винды", по некоторым сведениям, будет требовать для комфортной работы чуть ли не на порядок более мощного "железа", чем это требуется сейчас. Одна работа "трехмерного" рабочего стола будет съедать массу ресурсов и будет требовать довольно мощных графических видеокарт. А нужно ли это? Лично на мой взгляд самой большой ошибкой Microsoft было "удушение" OS/2, когда она отказалась предоставить IBM соответствующие лицензии, без которых было невозможно выполнение приложений Win32 под управлением "полуоси". Теперь идет "накат" на Linux...
Так что возможностей повышения скорости работы приложений хоть пруд пруди и процессор далеко не самый главный элемент. Как говорят необходимое, но недостаточное условие. Конкретно говоря о процессоре, мне думается что по-хорошему дальнейшее развитие должно идти по линии совершенствования архитектуры. Человеческий мозг "сделан" на базе органики, а всем вместе взятым микропроцессорам ой как далеко до него.