Чем больше частота шины fsb. Что такое FSB (HTT). Чтение — мать учения

Частоты, на которых работают центральный процессор и FSB, имеют общую опорную частоту, и в конечном счёте определяются, исходя из их коэффициентов умножения (частота устройства = опорная частота * коэффициент умножения).

Память

Следует выделить два случая:

Контроллер памяти в системном контроллере

До определённого момента в развитии компьютеров частота работы памяти совпадала с частотой FSB. Это, в частности, касалось чипсетов на сокете LGA 775 , начиная с 945GC и вплоть до X48 .

То же касалось и чипсетов NVIDIA для платформы LGA 775 (NVIDIA GeForce 9400, NVIDIA nForce4 SLI/SLI Ultra и др.)

Спецификации стандартов системной шины чипсетов на сокете LGA 775 и оперативной памяти DDR3 SDRAM

Стандартное название Частота памяти, МГц Время цикла, нс Частота шины, МГц Эффективная (удвоенная) скорость, млн. передач/с Название модуля Пиковая скорость передачи данных при 64-битной шине данных в одноканальном режиме, МБ/с
DDR3‑800 100 10,00 400 800 PC3‑6400 6400
DDR3‑1066 133 7,50 533 1066 PC3‑8500 8533
DDR3‑1333 166 6,00 667 1333 PC3‑10600 10667
DDR3‑1600 200 5,00 800 1600 PC3‑12800 12800
DDR3‑1866 (O.C.) 233 (O.C.) 4,29 (O.C.) 933 (O.C.) 1866 (O.C.) PC3‑14900 (O.C.) 14933 (O.C.)

Хотя процессоры Core i7 с интегрированным контроллером памяти уже анонсированы и доступны в магазинах, их присутствие на рынке остается и будет оставаться незначительным (по прогнозам самой же Intel), до выхода i5 еще есть время, так что пока сборщики будут продолжать готовить системы на базе процессоров предыдущей микроархитектуры. И конечно, задача оптимального подбора конфигурации при этом сохранит свою актуальность в применении к системам на базе Core 2. В данной статье мы в очередной раз рассмотрим несколько вариантов конфигураций памяти, чтобы понять, насколько быстрая и какого типа она нужна, чтобы раскрыть потенциал самых быстрых процессоров, но не переплачивать при этом понапрасну.

Вопрос о переплате абсолютно уместен, так как только «обычные» производители (вроде, скажем, Samsung и Hynix) продают соответствующие стандартам JEDEC модули, в характеристиках которых и указать-то нечего, кроме максимальной частоты, на которой они могут работать. Зато производители «элитной» памяти (Corsair, OCZ, GeIL и пр.) легко перекрывают заданные стандартом потолки и по частотам, и по напряжению питания (как правило, конечно, одновременно), за что вполне резонно хотят получить дополнительных денег. Более того, многие варианты платформ под процессоры Intel предполагают использование DDR3, а эта память, помимо того, что все еще дороже, чем DDR2, также провоцирует покупку «элитных» модулей, только теперь с совсем уж запредельными скоростными характеристиками. Кстати, такая память скорее всего не будет иметь перспектив при апгрейде, так как для процессоров на базе Nehalem есть официальная рекомендация производителя не поднимать напряжение модулей DDR3 выше 1,65 В.

Для исследования мы возьмем системные платы на двух топовых чипсетах: Intel X48 и NVIDIA nForce 790i Ultra SLI . Оба они обеспечивают максимальные возможные конфигурации для Core 2: полноценную поддержку PCI Express 2.0, поддержку всех стандартов памяти DDR3 (по крайней мере, при использовании модулей с расширением SPD - EPP 2.0 или XMP), поддержку частоты процессорной шины 400(1600) МГц. Сразу возникает вопрос: насколько актуальна последняя характеристика для обычных покупателей с учетом того факта, что до сих пор с частотой FSB 1600 МГц выпущен один-единственный процессор? Ответ: действительно, неактуальна, но исследование этого режима поможет нам выстроить более ясную общую картину, а кроме того, такой режим можно рассматривать как частный случай разгона, чтобы делать прикидки, какой памятью следует запасаться при желании разогнать процессор.

Исследование производительности

Тестовый стенд:

  • Процессоры:
    • Intel Core 2 Duo E6600 (2,4 ГГц, шина 1066 МГц)
    • Intel Core 2 Duo E8200 (2,66 ГГц, шина 1333 МГц)
    • Intel Core 2 Extreme QX9770 (3,2 ГГц, шина 1600 МГц)
  • Материнские платы:
    • MSI X48C Platinum (версия BIOS 7.0b6) на чипсете Intel X48
    • XFX nForce 790i Ultra 3-Way SLI (версия BIOS P03) на чипсете NVIDIA nForce 790i Ultra SLI
  • Память:
    • 2 модуля по 1 ГБ Corsair CM2X1024-9136C5D (DDR2-1142)
    • 2 модуля по 1 ГБ Corsair CM3X1024-1800С7DIN (DDR3-1800)
  • Видеокарта: PowerColor ATI Radeon HD 3870, 512 МБ
  • Жесткий диск: Seagate Barracuda 7200.7 (SATA), 7200 об/мин

Программное обеспечение:

  • ОС и драйверы:
    • Windows XP Professional SP2
    • DirectX 9.0c
    • Intel Chipset Drivers 8.3.1.1009
    • NVIDIA Chipset Drivers 9.64
    • ATI Catalyst 8.3
  • Тестовые приложения:
    • RMMA (RightMark Memory Analyzer) 3.8
    • RMMT (RightMark Multi-Threaded Memory Test) 1.1
    • 7-Zip 4.10b
    • Doom 3 (v1.0.1282)

Предваряя тестирование

Оба примененных чипсета, как уже было сказано выше, рассчитаны на память типа DDR3. К счастью, на базе чипсета Intel выпущено достаточное количество системных плат, предполагающих использование DDR2 или комбинированных, как примененная нами модель MSI.

Какие же конфигурации мы будем проверять? Здесь надо сделать традиционное вынужденное отступление и пояснить, что скорости операций с памятью ограничены собственно частотой и таймингами работы памяти, а также характеристиками процессорной шины, поскольку именно ее пропускная способность может лимитировать максимальную скорость перекачки данных из памяти и обратно. Действительно, начиная с момента использования двухканального доступа к DDR, пропускная способность памяти не уступает ПС системной шины, а со времен внедрения DDR2 - и значительно превосходит ее (для частоты FSB 1066 МГц, например, ПС шины составляет ~8533 МБ/с, что соответствует ПС двухканальной DDR2-533).

Но достаточно ли будет установить в плату два модуля DDR2-533 одновременно с процессором с FSB 1066 МГц? Однозначности ответа мешает еще как минимум такой параметр, как тайминги памяти. Из общих соображений понятно, что чем выше частота работы микросхемы памяти, тем больше должны быть относительные (выраженные в количестве тактов) задержки доступа к ней (просто потому, что время такта сократится). Однако на практике иногда, с одной стороны, удается обеспечить сохранение таймингов при повышении частоты (за счет того, что абсолютная задержка доступа может точнее уложиться в заданное количество тактов), а с другой стороны, в зависимости от организации микросхем и прочих параметров, при снижении частоты относительная задержка уже не может быть уменьшена, так как достигла предела рабочих характеристик. Таким образом, скажем, система с FSB 1066 МГц и двумя модулями DDR2-533, работающими при CL=4, должна, по идее, показать производительность чуть ниже, чем та же система с двумя модулями DDR2-667, работающими при той же задержке CL=4.

В нашем исследовании мы постарались обеспечить некоторое сочетание различных частот FSB, а также частоты и таймингов памяти, дополняя или проверяя результаты на двух чипсетах.

Результаты тестов при FSB 1066 МГц

Первым установим на тестовые стенды процессор с частотой FSB 1066 МГц. Как мы уже указали выше, с точки зрения величины пропускной способности при этой частоте шины достаточно использовать двухканальную DDR2-533. Впрочем, мы не включили в тестирование такую конфигурацию памяти, потому что DDR2-533 на рынке уже практически не представлена, так что ее цена неадекватна ситуации. Модули DDR2-667 и DDR2-800 представлены гораздо шире, но нельзя уверенно сказать, что между ними есть определенная разница по цене. Тем не менее, конфигурацию с двухканальной DDR2-667 мы все-таки рассмотрим - хотя бы из исследовательского интереса.

Мы уже отмечали в прошлых статьях, что при работе в равных режимах чипсет NVIDIA немного опережает решения Intel, а в синтетических тестах это иногда бывает заметно особенно хорошо. Также DDR3 в нынешних системах, как правило, немного медленнее, чем DDR2 (при использовании одинаковых скоростных режимов и таймингов). В дальнейшем не будем уделять внимания этим вопросам, если только разница не проявится в интересующем нас аспекте сравнения конфигураций памяти.

Традиционно начнем с низкоуровневого исследования потенциала памяти при помощи разработанного нашими программистами теста .

По данной диаграмме хорошо заметно, что скорость системы растет во всех случаях при увеличении частоты памяти до 1066 МГц, даже если это сопровождается повышением таймингов - иногда явно непропорциональным (например, абсолютные величины задержек доступа у DDR3-1066@7-7-7-20-1T гораздо хуже, чем у DDR3-800@5-5-5-16-1T). И лишь повышение частоты памяти до 1333 МГц ничего не дает (или, по крайней мере, перекрывается эффектом от повышения таймингов на шаг).

Картина при изучении скорости записи в память абсолютно соответствует описанной в предыдущем случае.

Неудивительно, что и тест латентности чтения из памяти демонстрирует те же соотношения, хотя в данном случае DDR3-1333 все-таки сумела чуть обойти DDR3-1066 по времени случайного доступа.

Теперь проверим, не изменится ли картина при многопоточном доступе в память: возможно, два ядра в конкурирующем режиме сумеют более эффективно использовать пропускную способность шины? Для этой цели используем тест RMMT (RightMark Multi-Threaded Memory Test) из пакета RMMA. (Для операций каждому потоку выделим по 32 МБ, дистанцию предвыборки данных будем подбирать индивидуально, чтобы максимизировать результат.)

Очевидно, что величина цифр несколько изменилась (многопоточное чтение идет чуть быстрее, многопоточная запись - чуть медленнее), однако взаимное расположение участников - нет.

Что ж, теперь проверим полученные данные на паре реальных приложений, а заодно оценим разницу в актуальных величинах.

Вооруженные результатами синтетических тестов, мы и не ожидали иного расклада. Производительность при архивировании (группа реальных тестов, наиболее сильно зависящих от скорости подсистемы памяти) действительно увеличивается с поднятием частоты памяти до 1066 МГц, даже при непропорциональном увеличении таймингов. В то же время, использование DDR3-1333 видимых дивидендов не приносит, хотя практически не снижает производительность, если тайминги при этом не слишком «задираются».

Производительность в играх подчиняется тем же закономерностям - по крайней мере, в тех игровых режимах, где скорость ограничена именно процессором и памятью, а не видеокартой.

Посмотрим на абсолютные величины выигрыша. В 7-Zip применение наиболее быстрой (де-факто) конфигурации на Intel X48 (DDR2-1066@5-5-5-16-2T) ускоряет систему с FSB 1066 МГц на 6,5% относительно базовой (DDR2-667@4-4-4-12-2T). Это не так уж мало: разница примерно соответствует 0,5 множителя частоты процессора, то есть при прочих равных такое ускорение обеспечивает ту же разницу, что и покупка процессора на одну модель старше. В Doom 3 аналогичный эффект равен и вовсе +8,3%. Главный же вывод из данной группы тестов: применение более скоростной памяти, вопреки чисто теоретическим выкладкам, обеспечивает ускорение системы вплоть до применения DDR2/DDR3-1066. Случайно ли, что максимальная эффективная частота памяти совпадает с частотой FSB? Попробуем найти ответ в следующих разделах.

Результаты тестов при FSB 1333 МГц

Теперь установим на тестовые стенды процессор с частотой FSB 1333 МГц. Опять-таки, с точки зрения величины пропускной способности при этой частоте шины достаточно использовать двухканальную DDR2-667. Поскольку штатные варианты DDR2 не могут даже приблизиться к этой частоте FSB, сосредоточимся мы на DDR3.

Скорость чтения из памяти по-прежнему уверенно растет при повышении частоты ее работы вплоть до 1333 МГц, даже в тех случаях, когда тайминги повышаются непропорционально (CL7 у DDR3-1333 в сравнении с CL5 у DDR3-1066). А вот частота памяти 1600 МГц прироста производительности не дает, и снижение абсолютной величины таймингов не помогает.

Впрочем, по скорости записи в память сравнительные результаты получаются чуть иными, но лишь в последнем пункте: здесь есть прирост и от повышения частоты памяти до 1600 МГц.

Результаты теста латентности чтения ближе к теоретическим выкладкам по подсчету таймингов: здесь выигрыш имеют те режимы, которые обеспечивают меньшие значения таймингов в абсолютных величинах. В итоге память с большей частотой всегда выигрывает но лишь поскольку (и насколько) имеет тайминги пониже.

Многопоточное чтение по-прежнему идет чуть быстрее, а многопоточная запись - чуть медленнее, а результаты в той же степени соответствуют результатам при однопоточном доступе в память.

Вряд ли кого-нибудь удивит практическое подтверждение синтетических тестов; по большому счету, интрига заключалась только в вопросе, сумеет ли DDR3-1600 при более низких таймингах опередить DDR3-1333. Практика деликатно уклонилась от прямого ответа на этот вопрос, предоставив нам самостоятельно оценивать статистическую погрешность тестирования. Что ж вполне можно признать эти режимы равными по скорости.

Теперь конкретные цифры разницы в реальных приложениях. 7-Zip уверенно отдает предпочтение чипсету NVIDIA, так что у нас есть два варианта сравнения: Intel X48 с DDR3 в лучшем случае выигрывает около 5,5% относительно режима с DDR2-667@4-4-4-12-2T, а NVIDIA nForce 790i Ultra - примерно столько же, но в сравнении с самым медленным режимом DDR3. Если бы мы рассматривали неофициальные скоростные вариации DDR2 (а производители такие модули предлагают), то, очевидно, могли бы получить и больший прирост на Intel X48, так как DDR2 на нем работает быстрее, а частота памяти задается независимо от ее типа. В случае Doom 3 максимальный прирост (из возможных штатных) на X48 составил почти 7%, у чипсета NVIDIA он скромнее, но и минимальный режим более скоростной.

В этом разделе тестов мы подтверждаем вывод о пользе применения более скоростной памяти, и лишь верхнюю границу однозначно определить затрудняемся: 1333 МГц достаточно, но хоть падения скорости от покупки DDR3-1600 с нормальными таймингами можно не ожидать.

Результаты тестов при FSB 1600 МГц

Наконец, настал черед единственного в своем роде процессора с частотой FSB 1600 МГц. Штатные возможности контроллера памяти в чипсете Intel не дадут нам создать здесь достаточно интересную непрерывную цепь показателей, так что воспользуемся по полной программе гибкостью контроллера памяти у NVIDIA nForce 790i Ultra. Вообще, такая частота FSB ограничивает минимальную частоту памяти на уровне 1066 МГц (только в случае контроллеров Intel, конечно), то есть штатные модули DDR2 здесь использовать невозможно. Это означает, что наше сравнение из практической плоскости «оправдана ли покупка нестандартной, более дорогой памяти?» переходит в чисто теоретическое «какая нестандартная память лучше?». Впрочем, не будем забывать и о DDR3 - там эти частоты вполне стандартны.

Что ж, вполне привычная по предыдущим частям сравнения картина: скорость чтения из памяти растет при повышении частоты ее работы вплоть до 1600 МГц, но не дальше, и, опять же, увеличение таймингов не нарушает эту закономерность.

Та же картина и при записи, только здесь еще более подчеркнута бесполезность и даже вредность DDR3-1800.

Впрочем, DDR3-1800 берет реванш в тесте латентности чтения: как ни крути, а абсолютные величины таймингов в этом режиме ниже.

Как мы помним по результатам первого тестирования процессора QX9770 с двухканальной DDR2-800, максимальная скорость многопоточного чтения достигается при конкурентной работе двух потоков, выполняющихся на физически разных ядрах, а максимальная скорость многопоточной записи - при конкурентной работе двух потоков, выполняющихся на ядрах, относящихся к физически единому ядру (разделяющих общий кэш L2). Дополнив прежнюю конфигурацию тестовых стендов чипсетом NVIDIA и куда более скоростными модулями памяти, мы получили следующие интересные наблюдения:

  1. на NVIDIA nForce 790i Ultra SLI скорость чтения практически одинакова при работе двух потоков, выполняющихся на физически разных ядрах и на ядрах, относящихся к физически единому ядру (а четырехпоточное чтение существенно медленнее);
  2. скорость чтения с предвыборкой происходит на NVIDIA nForce 790i Ultra SLI существенно быстрее в случае чтения в два потока с ядер, относящихся к физически единому ядру (а четырехпоточный вариант вновь заметно медленнее остальных);
  3. зато максимальная скорость записи на NVIDIA nForce 790i Ultra SLI выше именно при работе двух потоков на физически разных ядрах, запись в 4 потока занимает промежуточное положение по скорости.

Для наших целей возьмем именно максимальные показатели, полученные, таким образом, при немного отличающихся условиях тестирования многопоточных чтения и записи.

В случае чипсета Intel преимущества от использования DDR3-1600 очевидны; у чипсета NVIDIA разница между разными режимами отнюдь не так впечатляет, но общий итог прежний: более быстрая (но не быстрее FSB) память дает некоторый выигрыш в скорости.

Тем важнее практическая проверка, и ее результаты не столь оптимистичны: различия между режимами с памятью разной частоты укладываются в 2-3%, что вряд ли можно считать серьезным стимулом для покупки топовых модулей памяти.

Таким образом, «полусинтетический» раздел тестов позволил нам подтвердить вывод о принципиальной пользе применения более скоростной памяти, с небольшим максимумом в районе DDR3-1600, но реально измеримого превосходства в производительности относительно базовой DDR3-1066 можно не ждать. Еще раз напомним, что этот вывод относится не только к крайне немногочисленным обладателям QX9770, но и ко всем оверклокерам, серьезно увеличивающим частоту FSB для разгона процессора.

Выводы

Здесь нам остается только свести воедино результаты, полученные при тестировании в трех группах конфигураций, и соотнести их с изначальным вопросом статьи.

Итак, в случае распространенных процессоров семейства Core 2 с частотой FSB 1066/1333 МГц, вопреки чисто теоретическим выкладкам, имеет некоторый смысл использовать двухканальную память, существенно превосходящую по пропускной способности штатную системную шину. Если взять за опорную точку конфигурацию с DDR2-667 (как наиболее дешевый из реально представленных на рынке вариантов), то применением быстрой DDR2 или DDR3 можно выиграть 6-7-8% в реальных приложениях. Еще раз повторим, что это не так уж мало: разница примерно соответствует 0,5 множителя частоты процессора, то есть при прочих равных такое ускорение обеспечивает ту же разницу, что и покупка процессора на одну модель старше. Но, конечно, на ускорение в разы рассчитывать не стóит.

Память при этом оптимально подбирать такую, которая способна работать «псевдосинхронно» с FSB (их опорные частоты должны совпадать), не слишком задирая при этом тайминги (в абсолютных величинах, конечно). Будет ли такая покупка оправдана по большому счету? Почти всегда нет, так как разница в стоимости модулей «оверклокерской» и «обычной» памяти легко может составлять несколько раз (давая выигрыш, напомним, на 6–8%) - хотя вывод, безусловно, будет зависеть и от стоимости системы в сборе. Однако будут и ситуации, когда такая покупка явится наиболее рациональным способом улучшения системы - например, при намерении купить топовый или околотоповый процессор в линейке.

Сделанные выводы останутся справедливыми и для варианта разгона процессора, но тогда платы на наиболее популярных чипсетах (Intel) просто физически не позволят использовать память с низкой частотой работы, а значит, опорная точка в любом случае сместится в сторону более дорогих и производительных модулей. В итоге выигрыш от применения, скажем, DDR3-1600/1800 будет существенно меньше (в районе 2-3%), хотя и разница в цене модулей памяти несколько нивелируется.

Что такое Front side bus?

FSB (Front Side Bus ) - системная шина процессора, обеспечивающая связь ЦП с остальной периферией (оперативная память, порты ввода-вывода, видеокарта, жесткий диск и др.).

FSB работает в качестве магистрального канала между процессором и чипсетом.
Частота системной шины измеряется в GHz или MHz.

Частота ЦП превышает частоту FSB, а процессор пересылает данные на частоте системной шины.

Величина, на которую частота процессора превышает частоту системной шины, называется множителем.
Чем выше частота системной шины, тем выше производительность процессора.

Драйвер AMD Radeon Software Adrenalin Edition 19.9.2 Optional

Новая версия драйвера AMD Radeon Software Adrenalin Edition 19.9.2 Optional повышает производительность в игре «Borderlands 3» и добавляет поддержку технологии коррекции изображения Radeon Image Sharpening.

Накопительное обновление Windows 10 1903 KB4515384 (добавлено)

10 сентября 2019 г. Microsoft выпустила накопительное обновление для Windows 10 версии 1903 - KB4515384 с рядом улучшений безопасности и исправлением ошибки, которая нарушила работу Windows Search и вызвала высокую загрузку ЦП.

Драйвер Game Ready GeForce 436.30 WHQL

Компания NVIDIA выпустила пакет драйверов Game Ready GeForce 436.30 WHQL, который предназначен для оптимизации в играх: «Gears 5», «Borderlands 3» и «Call of Duty: Modern Warfare», «FIFA 20», «The Surge 2» и «Code Vein», исправляет ряд ошибок, замеченных в предыдущих релизах, и расширяет перечень дисплеев категории G-Sync Compatible.

Драйвер AMD Radeon Software Adrenalin 19.9.1 Edition

Первый сентябрьский выпуск графических драйверов AMD Radeon Software Adrenalin 19.9.1 Edition оптимизирован для игры Gears 5.


Front Side Bus (FSB) - это магистральный канал, обеспечивающий соединение процессора и внутренних устройств: памяти, видеокарты, устройств хранения информации и т. п.

Наиболее часто можно встретить систему организации внешнего интерфейса процессора, которая предполагает, что параллельная мультиплексированная процессорная шина, носящая название FSB, соединяет процессор (порой два процессора, четыре или даже больше) и системный контроллер, который обеспечивает доступ к оперативной памяти и внешним устройствам. Этот системный контроллер обычно называется «северным мостом» (от англ. Northbridge). Он, наряду с «южным мостом» (от англ. Southbridge), входит в состав набора системной логики, который, однако, чаще фигурирует под названием «чипсет» (от англ. Chipset).


Northbridge

Северный мост начал именоваться именно так из-за своего расположения на материнской плате. Он представляет собой микрочип, визуально расположенный «под» процессором, однако в верхней части материнской платы, как бы в «северной» ее части.

Системный контроллер служит для передачи команд центрального процессора к оперативной памяти, и видеоконтроллеру (в случае встроенного видеоконтроллера, северный мост, производимый компанией Intel, именуется GMCH (от англ. Chipset Graphics and Memory Controller Hub), а также конвертацию этих команд в форму, необходимую для обращения к оперативной памяти. Порой, для увеличения потенциальной производительности системы, к северному мосту подключаются наиболее производительные периферийные устройства, например, видеокарты с шиной PCI Express, а менее производительные устройства (BIOS, устройства PCI, интерфейсы устройств хранения информации, ввода и т. п.) могут подключаться к так называемому южному мосту. Северный мост соединен с материнской платой посредством согласующего интерфейса, также контроллер соединяется шиной и с южным мостом.


Северным мостом определяются параметры (пропускная способность, частота, а также тип): системной шины, оперативной памяти (тип используемой памяти, а также ее максимальный объем), подключенного видеоконтроллера (режим работы, возможность использования SLI (от англ. Scalable Link Interface, что означает «масштабируемый интерфейс» и фактически означает возможность работы 2 (3 - 3-Way SLI, или даже 4 - Quad SLI) видеоадаптеров одновременно, что чрезвычайно повышает производительность видео).

В настоящее время в процессорах серии Core i-x с разъемом LGA 1156 северный мост встроен в процессор и связывается с ядрами по внутренней шине QPI со скоростью соединения 2.5^109 операций в секунду. Из факта поглощения процессором северного моста вытекает неактуальность использования шины FSB и внешней шины QPI в подобных системах.


Southbridge

Еще одним компонентом чипсета является функциональный контроллер ввода-вывода (от англ. I/O Controller Hub, ICH), так называемый южный мост, служащий для связи центрального процессора (через северный мост) с устройствами, не столь критичными к скорости взаимодействия:

Контроллеры PCI (X, E), прерываний, SMBus (I2C), LPC, IDE/SATA DMA, IRQ, ISA;

Super I/O: контроллер floppy-дисководов; контроллер LPT-порта; Контроллер COM-портов; MIDI, джойстик, инфракрасный порт и т.п.

Часы реального времени RTC (от англ. Real Time Clock);

BIOS (CMOS), вместе с энергонезависимыми системами обеспечения;

Системы энергообеспечения APM и ACPI;

Звуковой контроллер (AC97);

Может включать в себя контроллеры Ethernet, USB, RAID, FireWire и т. п.

Особенностью южного моста является его взаимодействие с внешними устройствами. Как следствие, он довольно чувствителен различным негативным факторам, влияющим на нормальную работу устройств (короткое замыкание, перегрев, деформация материнской платы и т. п.). Замена южного моста, как правило, составляет стоимость самой материнской платы, поэтому замена его нерациональна из-за ее высокой стоимости и обычно не проводится.


Шина BSB (от англ. Back Side Bus) служит для соединения центрального процессора с кэш-памятью второго уровня для процессоров, в которых используется двойная независимая шина DIB (от англ. Dual Independent Bus), которая также называется вторичным (или внешним) КЭШем (и носит обозначение L2-cache).


Компанией Intel была разработана системная шина QPB (от англ. Quad Pumped Bus), передающая 4 64-разрядных блока данных или 2 адреса за такт, тогда как пытавшаяся получить лицензию на системную шину GTL+ для создания своих новых процессоров, компания AMD вынуждена была при создании процессоров серии К7 лицензировать шину EV6 для процессоров AMD Athlon и Athlon XP передающую данные два раза за такт (Double Data Rate).

Данная шина оказалась значительно сложнее в производстве, чем предыдущие исполнения. Данное обстоятельство не могло не сказаться на серьезном увеличении количества транзисторов, используемых для реализации вышеуказанного принципа передачи данных, как для процессора, так и для самого чипсета.


DMI (от англ. Direct Media Interface) – шина, которая была разработана компанией Intel, для соединения южного и северного мостов материнской платы. Для разъема LGA 1156 со встроенным контроллером памяти (продукты Core i3, Core i5 и некоторые серии Core i7 (800, к примеру)), DMI соединяет процессор и чипсет PCH (от англ. Platform Controller Hub) по технологии CtC (от англ. Chip-to-Chip).

PCH является, по сути, аналогом южного моста, однако представляет из себя совершенно новый P55 Ibex Peak. Фактически, в новом решении сочетается расширенный функционал предыдущих версий южных мостов компании Intel, а также дополнительный контроллер PCI-e для периферии.


Первыми чипсетами, построенными с помощью технологии DMI, были устройства серии Intel i915, на основе сокета LGA 1156, получившие свое распространение с 2004 года.


Пропускная способность DMI составляет 2 Гбайт/с. Из-за столь невысоких значений, инженеры Intel пошли на революционное решение, встроив контроллер памяти, PCI-e и непосредственно интерфейс DMI в сам процессор.


HyperTransport

HyperTransport (ранее известная, как Lightning Data Transport) – технология последовательной/параллельной связи, разработанная с использованием технологии P2P (от англ. «point-to-point»), которая обеспечивает достаточно высокую скорость при низком уровне латентности (от англ. Low-latency responses), которая обеспечивает межпроцессорную связь, связь процессоров с сопроцессорами и процессоры с I/O Controller Hub. Имеет оригинальную схему на основе соединений, тоннелей, последовательного объединения нескольких тоннелей в цепь и мостов (для организации маршрутизации пакетов между цепями) для более простого масштабирования всей системы.


HyperTransport оптимизирует внутрисистемные связи заменой шин и мостов на их физическом уровне. Также тут используется DDR (от англ. Double Data Rate), что позволяет производить до 5.2x109 посылок в секунду с частотой синхронизации сигнала на уровне 2.6 гигагерц.


Версии HyperTransport:

Версия Год Максимальная частота (МГц) Максимальная ширина (бит) Пиковая пропускная способность (Гбайт/сек)
1.0 2001 800 32 12.8
1.1 2002 800 32 12.8
2.0 2004 1400 32 22.4
3.0 2006 2600 32 41.6
3.1 2008 3200 32 51.6

Очередной шаг в совершенствовании научно-технического процесса был обозначен инженерами компании Intel созданием нового типа системной шины QPI (от англ. Quick Path Interconnect, ранее известной, как Common-System Interface, или CSI). Она заключается в интегрированном контроллере памяти и быстрой последовательной шины P2P для доступа к распределенной и разделяемой памяти.


Необходимость повышения скорости обработки и обмена данными диктует более жесткие требования к пропускной способности шины. С развитием технологии и характеристик процессоров нового поколения, использование FSB уже неактуально и в полной мере является наглядным изображением пресловутого эффекта «бутылочного горлышка». Результатом модернизации технологии FSB было создание шины нового поколения – QPI. Общая пропускная способность данного нового вида системной шины достигает невероятных (для предшественников) значений в 25.6 ГБ/с.

Первые процессоры, построенные на технологии использования системной шины QPI, поступили на рынок в начале 2008 года. Данная технология является прямым конкурентом консорциума, во главе с компанией AMD, выпустившей системную шину HyperTransport.


Название микроструктуры процессорного ряда компании Intel - Nehalem произошло от названия небольшого города в США неподалеку от головного офиса компании Intel в г. Санта-Клара (основанного в 18 веке) в Калифорнии. Nehalem является продолжением процесса модернизации модельного ряда архитектур Intel x86. Свое продолжение в 2010 году QPI получила в процессоре серии Itanium 9300, получив кодовое имя Tukwila, что является большим шагом вперед для систем, построенных на базе Itanium. Вместе с QuickPath в процессоре используется встроенный контроллер памяти, и интерфейс памяти прямо использует интерфейс QPI для взаимодействия с другими процессорами и I/OCH. Именно в этих продуктах наиболее типичным решением и стала системная шина QPI, что делает вероятной возможность использования одного чипсета процессорами Tukwila и Nehalem.

Каждое ядро процессора содержит интегрированный контроллер памяти и скоростное соединение для подключения иных компонентов. Данная структура служит для обеспечения следующих аспектов:

Огромной производительности и удобства работы с памятью;

Динамически изменяемой полосы эффективного пропускания при связи процессора с иными компонентами системы;

Значительного увеличения характеристик RAS (от англ. Reliability, Availability, Serviceability, что дословно означает «надежность, доступность и обслуживаемость») - достигается для достижения наилучшего баланса между ценой, производительностью и энергоэффективностью.


Чипсеты с разъемом LGA 1366 используют шину DMI для связи между северным мостом и южным мостом. А процессоры для сокета LGA 1156 вообще не имеют внешнего интерфейса QuickPath, т.к. чипсеты для данного сокета взаимодействуют с однопроцессорными конфигурациями, а функционал северного моста же напрямую встроен в сам процессор, что заставляет использовать шину DMI для связи процессора с аналогом южного моста. Однако, встроенная шина QPI используется в процессорах сокета LGA 1156 для связи ядер и встроенного контроллера PCI-e внутри самого процессора.

Данные, передаваемые в виде датаграмм (пакетов) в системной шине QPI передаются по паре односторонних каналов, каждый из которых состоит из 20 пар проводов. Общая ширина канала составляет 20 бит, при этом 16 бит служат для передачи исключительно данных (полезной нагрузки). Максимальная пропускная способность одного канала варьируется от 4.8^109 до 6.4^109 транзакций в секунду, следовательно, общая максимальная пропускная способность одного соединения приближается к значениям от 19.2 до 25.6 ГБ/с в двух направлениях, что составляет, соответственно, от 9.6 до 12.8 ГБ/с в каждую сторону.


В настоящее время системную шину QPI используют, в основном, для серверных решений. Связано это обстоятельство с тем, что QPI приобретает максимальную эффективность (и КПД) именно в загруженности пересылкой данных в оба направления, как в случае с многосокетными рабочими станциями или, собственно, серверами.

Как показывают тесты, для пользовательских машин использовать решения на основе QPI нецелесообразно, так как даже намеренное снижение пропускной способности QPI в 2 раза никоим образом не влияет на получаемые результаты в тестах, даже при условии использования связки из 3 наиболее производительных графических адаптеров.


PCI (от англ. Peripheral Component Interconnect bus) – шина для соединения материнской платы с периферийными устройствами различного рода.


Начало PCI было положено в начале 1992 года компанией Intel (для замены шины VLB (от англ. Vesa Local Bus)), которая допустила полноценное использование возможностей процессоров 486, Pentium и Pentium Pro, при этом стандарт шины с самого начала был открыт, что гарантировало возможность создания устройств для шины PCI без обязательства лицензирования.


В 1993 году в ходе маркетинговой политики по продвижению PCI на рынке вышла PCI 2.0. В 1995 году данная модель модифицировалась до версии PCI 2.1.


PCI имела реальную тактовую частоту на уровне 33 МГц, тактовой частотой для версии 2.1 стало значение в 66 МГц, что позволило повысить скорость передачи данных до 533 Мбайт/с. Вместе с тем, и в операционных системах (Windows 95, к примеру) уже была предусмотрена поддержка шины PCI 2.1, которая стала настолько популярной, что вскоре была использована при создании платформ процессоров Alpha, MIPS, PowerPC, SPARC и т.д.

Однако, ничего не стоит на месте, включая научно-технический процесс, поэтому в связи с разработкой шины PCI Express, AGP и PCI практически не используются в решениях высшего ценового диапазона.


PCI Express

PCI Express получила свое кодовое название 3GIO (от англ. 3rd Generation I/O) – компьютерная шина, использующая последовательную передачу данных, обеспечиваемую высокопроизводительным физическим протоколом на основе программной модели шины PCI.

В связи с тем, что использование параллельной передачи данных, при попытке увеличить производительность, будет означать физическое ее расширение, последовательная передача данных обладает возможностью масштабирования (1x, 2x, 4x, 8x, 16x и 32x) а, значит, более приоритетна в разработке. Топология PCI Express, в общем случае, представляет собой звезду со взаимодействием между собой устройств через среду, образованную коммутаторами, с прямой связью каждого устройства соединением P2P.


Очередными отличительными особенностями PCI Express являются:

Возможность горячей замены карт;

Последовательность;

Спецификация;

Возможность создания виртуальных каналов, гарантирования полосы пропускания и количество времени отклика, а также сбора статистики QoS (от англ. Quality of Service)

Возможность влиять на энергопотребление оборудования ASMP (от англ. Active State Power Management) – перевод устройства в режим уменьшенного энергопотребления в случае его простоя в течение конкретного (задаваемого программно) интервала времени;

Контроль целостности информации и структуры данных, предназначенных для передачи – алгоритм Data Link прикрепляет к пакету данных (в передаче) контрольную сумму последовательности и ее номер, что позволяет обнаруживать все одиночные и двойные ошибки, а также ошибки в нечетном числе бит – CRC (от англ. Cyclic Redundancy Check).


В отличие от PCI (использование подключения к общей 32-разрядной параллельной двунаправленной шине), PCI Express использует двунаправленное последовательной соединение P2P, а соединение между двумя устройствами состоит из 1 (2, 4, 8, 16, 32) двунаправленных линий. На электрическом уровне каждое соединение способно подключаться к PCI Express всего лишь 4 проводниками.


Преимущества подобного решения налицо:

Устройство корректно работает в таком же слоте, или большей пропускной способности;

Корректная работа слота возможна даже при использовании не всех линий (однако в таком случае необходимо подключение и заземление всех проводников питания);

Физическая составляющая слота не позволит допустить некорректную работу системы, в случае попытки вставить устройство в слот с меньшей пропускной способностью, дифференциацией размеров слотов x1 (x2, x4, x8, x16, x32).


Чтобы высчитать пропускную способность PCI Express, нужно учесть битрейт, дуплексность связи и процент (отношение) эффективного количества «полезной нагрузки» бит к общему количеству (в PCI Express 1.0 и 2.x это отношение выглядело, как 8 бит информации / 10 бит служебных данных). Перемножая все три значения, получим скорость передачи данных. Так общая пропускная способность шины PCI Express 3.0 достигает 1 Гбайт/с для каждой линии при сигнальной скорости передачи данных в 8 GT/s (для 2.0 этот показатель был равен 5 GT/s, а для 1.0 – вообще 2.5 GT/s). А для планируемого к стандартизации и спецификации к 2014-2015 гг. стандарта 4.0 планируется удвоить показатель сигнальной скорости до 16 GT/s или даже более, что будет, по-меньшей мере, в 2 раза быстрее PCI Express 3.0


Заключение.

В настоящее время развитие технологий дает потребителям возможность выбирать технологию себе по вкусу из огромного количества вариантов. Решение различного рода задач потребителей задает необходимость определяться с наилучшим соотношением «цена-качество-целесообразность». К примеру: обыватель не замечает разницы в производительности между системами, построенных на базе сокета LGA 1366 (используется системная шина QPI) и сокета LGA 1156(1155) (используется системная шина DMI) в силу достаточности технологии, связанной с LGA 1156 и отсутствием задач, для которых ресурс данной системы был бы недостаточен. Лишь настоящие ценители и коллекционеры не откажут себе в радости приобретения компьютера, ресурс которого не будет использован и на 50%. Для потребителей-корпораций и крупных фирм нередко уже недостаточно производительности шины DMI.

Разрыв в разнице задач растет соответственно уровню потребителя. Кто знает, какие технологии используются в суперкомпьютерах мировых держав, однако ясно одно: именно эти технологии мы и будем использовать в ближайшем будущем.

На протяжении развития всего рода человеческого, нашими неотъемлемыми спутниками были камни. Топоры, наконечники стрел… пирамиды в конце-концов! Один кремний чего стоит - ведь именно благодаря ему мы раздобыли огонь. Пускай не так давно, но уже во имя развития компьютерной индустрии в "бронзовом" веке люди решили терзать свои "камни" опять. С чего все началось, мы даже думать боимся. То ли еще с древних Z80, то ли поздней, на серии 286/386 процессоров, в какой то момент некая группа народа открыла для себя новое увлекательное занятие, вернее, стала основателем нового направления - оверклокинг . Слово, собственно говоря, не наше, с английского переводится как "раскрутка". У нас определение приняло немного иной вид - разгон , то есть повышение производительности. О том, что это такое и как оно происходит, мы поведаем в данной статье.

С чего началось

В те славные годы, когда цены на компьютерные комплектующие буквально зашкаливали, процессоры поддавались разгону не так-то просто. Если сейчас разогнать компьютер не составляет практически никакого труда - наличие клавиатуры и соответствующего программного обеспечения позволяют сделать это буквально за несколько минут, - то тогда повышение тактовой частоты происходило с применением паяльника, перестановки джамперов и замыканием ножек у процессоров. То есть в то время разгон был доступен только избранным - смелым, самоотверженным и опытным технарям.

Но разгону поддавались не только процессоры. Следующими стали видеокарты и оперативная память, а совсем недавно энтузиасты добились повышения производительности оптической мыши.

Зачем это надо?

А, собственно, ради чего мы собрались что-то делать? Давайте сложим все плюсы и минусы, дабы понять, а так ли оно нам надо? К плюсам можно отнести следующие пункты:

  • Повышенная производительность еще никогда и ни кому не мешала. Её возрастающее количество точно предсказать нельзя, все зависит от используемых комплектующих. Например, прирост от разгона процессора при мощной видеокарте почти всегда повышает скорость в 3D-приложениях. Хотя, даже не ставя целью повышение производительности в играх, продуктивность компьютера в целом будет распространяться на архивирование, перекодировку, редактирование видео/звука, арифметические вычисления и другие полезные операции. А вот от "тюнинга" памяти выигрыш, скорее всего, будет не такой большой, как от разгона процессора или видеокарты.
  • Многие понятия, с которыми вы познакомитесь в процессе оверклокинга, дадут бесценный опыт.

А вот и другая сторона медали:

  • Есть риск погубить аппаратуру. Хотя это зависит от ваших рук, качества используемых комплектующих и, наконец, умения во время остановиться.
  • Сокращение срока работы разгоняемых комплектующих. Тут, увы, ничего не поделаешь: при повышенном напряжении и весьма неслабой частоте вкупе с плохим охлаждением можно сократить срок службы "железа" раза в два. Многим это может показаться неприемлемым, но есть одна деталь: в среднем, срок работы современного процессора составляет от десяти лет. Много это или мало, каждый решает для себя сам. Мы лишь напоминаем о том, что по состоянию на сегодняшний день прогресс достиг такой скорости развития, что процессор, выпущенный два-три года назад, считается уже непозволительно устаревшим. Чего уж говорить про пять…

Основные понятия

Спроектировав процессор, производитель создаёт целую серию (линейку) с различными его характеристиками, причём зачастую на основе одного единственного процессора. Почему, вы мне скажите, на двух одинаковых процессорах различаются частоты? Неужели вы думаете, что компания, их выпускающая, умудряется программировать каждый процессор на определенную частоту? Разумеется, есть иной способ. Частота младших процессоров линейки без проблем может достигать даже старших, более того, иногда превышая его. Но со всех сторон подстерегают скрытые проблемы, одна из которых - вопрос удачного подбора "камня"... однако это уже другая история, о которой мы расскажем в следующий раз. Потому как для дальнейшего изучения материала необходимо ознакомиться со всем терминами, которые так или иначе будут фигурировать в тексте.

BIOS (Basic Input-Output System) - Элементарная система ввода/вывода. По сути, является посредником между аппаратной и программной средами компьютера. А конкретней, она представляет собой небольшую конфигурационную программу, содержащую настройки для всего "железного" содержимого вашего компьютера. В настройки можно вносить свои изменения: например, изменять частоту процессора. Сам BIOS располагается на отдельном чипе с флэш-памятью непосредственно в материнской плате.

FSB (Front Side Bus) - Системная или процессорная шина - это основной канал обеспечения связи процессора с остальными устройствами в системе. Системная шина также является основой для формирования частоты других шин передачи данных компьютера, вроде AGP, PCI, PCI-E, Serial-ATA, а также оперативной памяти. Именно она служит основным инструментом в повышении частоты CPU (процессора). Умножение частоты процессорной шины на процессорный множитель (CPU Multiplier) и обеспечивает частоту процессора.

Начиная с Pentium 4 , корпорация Intel стала применять технологию QPB (Quad Pumped Bus) - она же QDR (Quad Data Rate) - суть которой состоит в передаче четырех 64-разрядных блоков данных за такт работы процессора, т.е. с реальной частотой, например, в 200Mhz мы получаем 800Mhz эффективной.

В тоже время у некогда конкурирующих AMD Athlon передача идёт по обоим фронтам сигнала, в результате эффективная скорость передачи в два раза выше, чем реальная частота, 166Mhz у Athlon XP дает 333 эффективных мегагерц.

Приблизительно так же обстоят дела в линейке процессоров от AMD - K8, (Opteron, Athlon 64, Sempron(S754/939/AM2)): шина FSB получила продолжение, теперь она является лишь опорной частотой (тактовый генератор - HTT), умножив на которую специальный множитель мы получим эффективную частоту обмена данными между процессором и внешними устройствами. Технология получила название Hyper Transport - HT и представляет собой особые высокоскоростные последовательные каналы с частотой синхронизации 1 ГГц при "удвоенной" скорости передачи (DDR), состоящих из двух однонаправленных шин шириной 16 бит. Максимальная скорость передачи данных составляет 4 Гбит/с. Также от тактового генератора формируется частота процессора, AGP, PCI, PCI-E, Serial-ATA. Частота памяти получается от частоты процессора, благодаря понижающему коэффициенту.

Джампер представляет собой некий "замыкатель" контактов, собранный в миниатюрном корпусе. В зависимости от того, какие именно контакты на плате замкнуты (или какие не замкнуты), система определяет собственные параметры.

Процессор

Процессорный множитель (Frequency Ratio/Multiplier) позволяет добиться необходимой нам итоговой частоты процессора, оставляя при этом частоту системной шины неизменной. В настоящий момент во всех процессорах Intel и AMD (кроме Athlon 64 FX, Intel Pentium XE и Core 2 Xtreme) множитель является заблокированным, по крайне мере в сторону увеличения.

Процессорный кэш (cache) - небольшое количество очень быстрой памяти, встроенной непосредственно в процессор. Кэш оказывает значительное влияние на скорость обработки информации, так как хранит в себе данные, выполняющиеся в данный момент, и даже те, которые могут понадобиться в ближайшее время (руководит этим в процессоре блок предвыборки данных). Кэш бывает двух уровней и обозначается следующим образом:

L1 - кэш первого уровня, наиболее быстрый и менее емкий из всех уровней, непосредственно "общается" с процессорным ядром и чаще всего имеет разделенную структуру: одну половину под данные (L1D ), вторую - инструкции (L1I ). Типичный объем для AMD S462 (A) и S754/939/940 процессоров составляет 128Kb, Intel S478\LGA775 - 16Kb.

L2 - кэш второго уровня, в котором находятся данные, вытесненные из кэша первого уровня, является менее быстрым, но более емким. Типичные значения: 256, 512, 1024 и 2048Kb.

L3 - в настольных процессорах применялся впервые в процессоре Intel Pentium 4 Extreme Edition (Gallatin) и имел емкость в 2048Kb. Также уже довольно давно нашел себе место в серверных CPU, а вскоре должен появится в новом поколении процессоров AMD K10.

Ядро - кремниевый чип, кристалл, состоящий из нескольких десятков миллионов транзисторов. Он, собственно, и является процессором - занимается выполнением инструкций и обработкой поступающих к нему данных.

Процессорный степпинг - новая версия, поколение процессора с измененными характеристиками. Судя по статистике, чем больше степпинг, тем лучше разгоняется процессор, хотя и не всегда.

Наборы инструкций - MMX, 3DNow!, SSE, SSE2, SSE3 и т.д. Начиная с 1997 года, с внедрением кампанией Intel первой в истории процессоростроения инструкции MMX (MultiMedia eXtensions), оверклокеры получили еще один способ увеличения производительности. Эти инструкции являются ничем иным как концепцией SIMD (Single Instruction Many Data - "одна команда - много данных") и позволяют ни много ни мало обработку нескольких элементов данных посредством одной инструкции. Сами по себе они, разумеется, не повысят скорость обработки информации, но с поддержкой этих инструкций программами определённый прирост отмечается.

Техпроцесс (технология изготовления) - наряду с различными оптимизациями, проводимыми с каждым новым степпингом, уменьшение техпроцесса является наиболее действенным способом по преодолению границы разгона процессора. Обозначается странным буквосочетанием "мкм", "нм". Пример: 0.13\0.09\0.065мкм или 130\90\65нм.

Socket (Сокет) - Тип разъема процессора для установки процессора в материнскую плату. Например, S462\478\479\604\754\775\939\940\AM2 и т.п.

Иногда кампании-производители наряду с числовым наименованием используют буквенные, так например S775 - он же Socket T, S462 - Socket A. Такая видимая путаница может немного дезориентировать начинающего пользователя. Будьте внимательны.

Память

SDRAM (Synchronous Dynamic Random Access Memory) - система синхронизации динамической памяти с произвольным доступом. К данному типу относится вся оперативная память, применяемая в современных настольных компьютерах.

DDR SDRAM (Double Data Rate SDRAM) - Усовершенствованный тип SDR SDRAM с удвоенным количеством данных передаваемых за такт.

DDR2 SDRAM - дальнейшее развитие DDR, позволяющее достичь вдвое большую частоту внешней шины данных по сравнению с частотой микросхем DDR при равной внутренней частоте функционирования оных. Вся управляющая логика ввода/вывода работает на частоте, в два раза меньшей скорости передачи, то есть эффективная частота в два раза выше реальной. Производится по более тонкому 90-нм техпроцессу и наряду со сниженным номинальным напряжением до 1.8V (с 2.5V у DDR) потребляет меньше энергии.

Реальная и эффективная частота памяти - с появлением DDR и DDR2 памяти в нашу жизнь вошло такое понятие как реальная частота - это частота, на которой работают данные модули. Эффективная же частота - это та, на которой память работает по спецификациям стандартов DDR, DDR2 и других. То есть с удвоенным количеством передаваемых данных за такт. Для примера: при реальной частоте DDR 200Mhz эффективная составляет 400Mhz. Поэтому в обозначениях она чаще всего значится как DDR400. Данный фокус можно рассматривать не более чем маркетинговый ход. Таким образом, нам дают понять, что, раз данных за такт передается в два раза больше, значит, и скорость в два раза выше… что далеко не так. Но для нас это не столь важно, не стоит углубляться в дебри маркетинга.

Реальная частота, MHz Эффективная частота, MHz Пропускная способность, Mbps
100 200 1600
133 266 2100
166 333 2700
200 400 3200
216 433 3500
233 466 3700
250 500 4000
266 533 4200
275 550 4400
300 600 4800
333 667 5300
350 700 5600
400 800 6400
500 1000 8000
533 1066 8600
667 1333 10600

Обозначение памяти по теоретической пропускной способности - покупая память наряду с привычными обозначениями вроде DDR 400 или DDR2 800, в нашем случае можно увидеть такие наименования как PC-3200 и PC2-6400. Все это ничто иное, как обозначение одной и той же памяти (DDR 400 и DDR2 800 соответственно), но только в теоретической пропускной способности, указываемой в Mb\s. Очередной маркетинговый ход.

Обозначение памяти по времени доступа - время, в течение которого происходит считывание информации из ячейки памяти. Обозначается в "ns" (наносекунды). Для того чтобы перевести эти значения в частоту, следует разделить 1000 на количество этих самых наносекунд. Таким образом, можно получить реальную частоту работы ОЗУ.

Тайминги - задержки, возникающие при операциях с содержимым ячеек памяти, приведенные далее. Это отнюдь не все их количество, а только самые основные:

  • CAS# Latency (tCL) - период между командой чтения и началом передачи данных.
  • tRAS (ACTIVE to PRECHARGE command) - минимальное время между командой активации и командой закрытия одного банка памяти.
  • tRCD (ACTIVE to READ or WRITE delay) - минимальное время между командой активации и командой чтения/записи.
  • tRP (PRECHARGE command period) - минимальное время между командой закрытия и повторной активации одного банка памяти.
  • Command rate (Command Rate: 1T/2T) - задержки командного интерфейса, происходящие из-за большого количества физических банков памяти. Ручной настройке поддается пока только на не Intel чипсетах.
  • SPD (Serial Presence Detect) - чип, находящийся на модуле оперативной памяти. Содержит в себе информацию о частоте, таймингах, а также производителе и дате изготовления данного модуля.

Теория

Каким именно образом мы будем превышать номинальную частоту процессора, вы уже догадались, верно? Все просто как бублик: у нас есть системная шина (aka FSB или тактовый генератор - для AMD K8) и процессорный множитель (он же коэффициент умножения). Элементарно меняем числовые значения одного из них и на выходе получаем требуемую частоту.

Для примера: мы имеем некий процессор со стандартной частотой в 2200MHz. Начинаем думать, а почему же это производитель так пожадничал, когда в этой же линейке с таким же ядром есть модели с 2600MHz и выше? Нужно это дело поправить! Существует два способа: изменить частоту процессорной шины или изменить процессорный множитель. Но для начала, если вы не имеете даже начальных знаний в компьютерной технике и не в состоянии по одному только названию процессора определить стандартную для него частоту FSB или его множитель, советую применить более надёжный метод. Специально для этого существуют программы, позволяющие получить исчерпываемую информацию по своему процессору. CPU-Z в своём сегменте является лидером, однако есть и другие. Можно с таким же успехом использовать SiSoftware.Sandra, RightMark CPU Clock Utility. Воспользовавшись полученными программами, мы можем легко вычислить частоту FSB и множитель процессора (а заодно еще кучу ранее неизвестной, но чертовски полезной информации).

Возьмем, к примеру, процессор Intel Pentium 2.66GHz (20x133MHz) на ядре Northwood.

После нехитрых операций в виде поднятия частоты FSB, мы получаем 3420MHz.

Вот оно как! Мы уже видим, как в ваших умах закопошились извилины, умножающие немыслимые числа на чудовищные коэффициенты… не так быстро друзья! Да, вы все отлично поняли: для разгона нам понадобится либо увеличение множителя, либо частоты системной шины (а лучше всего сразу, и, главное, побольше - прим. скрытой внутренней жадности). Но не все так просто в нашей жизни, палок в колесах хватает, поэтому давайте прежде, чем приступать, ознакомимся с ними.

Вам уже известно, что большинство присутствующих на рынке процессоров имеют заблокированный множитель… ну, по крайней мере, в ту сторону, куда бы нам хотелось - в сторону увеличения. Такая возможность есть только у счастливых обладателей AMD Athlon 64 FX и некоторых моделей Pentium XE. (Варианты с раритетными Athlon XP, выпущенными до 2003 года, не рассматриваются). Данные модели практически без проблем (возней с памятью и недостаточным запасом частоты FSB у материнской платы) могут гнать свои и так уже "неслабочастотные" "камни". Разблокированный множитель в этой серии процессоров есть ничто иное, как подарок пользователям, отдавшим весьма немалые деньги. Всем остальным, кто не в состоянии тратить 1000$ на процессор, следует идти (нет, отнюдь не лесом) просто другим путем…

Повышение частоты FSB или тактового генератора. Да, это и есть наш спаситель, который практически в 90% случаев является основным инструментом для разгона. В зависимости от того, насколько давно вы приобрели свой процессор или материнскую плату, будет разниться ваша стандартная частота FSB.

Начиная с первых Athlon у AMD и Intel Pentium на S478, стандартом была 100MHz системная шина. Далее "Атлоны" перешли сначала на 133, затем 166 и в конце концов закончили свою жизнь на 200Mhz шине. Intel тоже не спала и постепенно увеличивала частоты: 133, затем сразу 200, теперь уже 266, и даже 333MHz (1333Mhz в пересчете QDR).

То есть, имея современную материнскую плату с хорошим потенциалом к увеличению частоты тактового генератора (собственно этот кварц, управляющий частотой FSB, также может обозначаться как PLL), все становится предельно просто - это увеличение самой частоты. До каких пределов и как собственно ее изменять, мы поговорим чуть позже.

Надеемся, вы не забыли что такое FSB? Нет, имеются ввиду не мегагерцы, на которых она работает, а непосредственное значение. FSB - это системная шина, связывающая процессор с другими устройствами в системе. Но в тоже время она является основой для формирования частоты других шин, таких как AGP, PCI, S-ATA ,а также оперативной памяти. И что же это значит? А значит это то, что при повышении оной мы будем автоматически повышать частоты AGP, PCI, S-ATA и "оперативки". И если повышение последней в разумных пределах только нам на руку (в настоящее время исключительно материнские платы на основе чипсета NVIDIA nForce4 SLI Intel Edition умеют разгонять процессор независимо от памяти), то вот S-ATA, PCI и AGP с PCI-E нам разгонять совершенно не нужно. Дело в том, что они довольно-таки чутко воспринимают подобные эксперименты и отвечают нам весьма неприятными последствиями. Номиналы данных шин составляют: PCI - 33.3Mhz, AGP - 66.6Mhz, SATA и PCI-E - 100Mhz. И значительно превышать их крайне не рекомендуется. Нестабильная работа того же S-ATA может привести к потере данных с вашего S-ATA диска!

То есть, это очень значительное ограничение… было. А дело вот в чем: смекнув о пользе такого просчета, некоторые производители чипсетов решили данную проблемку устранить самостоятельно. Началось все с того, что начали применяться специальные делители, автоматически переключающие шины PCI и AGP на номинал при 100, 133, 166…MHz. (и возникали такие интересные ситуации, при которых процессор был стабилен при 166Mhz, изначально работавший на 133, а вот на 165 - ни в какую!), теперь вы понимаете, почему. Но не всех этот урок научил. Далеко за примерами идти не нужно: выпущенный вначале эры Athlon 64 чипсет VIA K8T800. Имея весьма неплохую функциональность и цену, он банально не умеет фиксировать частоты PCI\AGP\S-ATA при повышении HTT. То есть, больше чем 220-230Mhz прироста по тактовому генератору вы не получите. Вот так, грустно господа. Будьте бдительны, не попадитесь на подобный чипсет (хотя он и староват уже малость).

Таким образом, мы ставим точку на этом разделе статьи и переходим к следующему. Немного рассмотрели теоретическую часть, плюс немного нюансов, которые могут попасться на вашем пути. Пора, что ли, приступать уже к делу. Заодно разбираясь по ходу, какие еще палки из колес предстоит вынимать.

Продолжение следует…

  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то