Учебная работа. Реферат: Архитектура серверов корпоративных баз данных
Реферат на тему:
“Архитектура серверов корпоративных баз данных”
Столичный Муниципальный
Инженеро-Физический Институт (ТУ)
Оглавление
Введение
1. системы управления базами данных и серверы баз данных
2.1. Архитектура PowerScale
2.2. Семейство unix-серверов Escala
3.1. Семейство компов Alpha
4.1. Семейство компов Alpha
Заключение
Перечень литературы
приложение 1
Введение
Возникновение в 80-х годах индивидуальных компов (ПК ) и локальных сетей ПК самым суровым образом изменило компанию корпоративных вычислений. В отличие от классической, отлично управляемой и неопасной среды вычислений компании, построенной на базе всепригодной вычислительной машинки (мейнфрейм) с подсоединенными к ней терминалами, среда локальных сетей ПК плохо контролируется, плохо управляется и опасна. С иной стороны, расширенные средства сетевой организации делают вероятным разделение бизнес-информации снутри групп личных юзеров и меж ними, снутри и вне компании и упрощают компанию информационных действий в масштабе компании. Чтоб устранить брешь меж отдельными локальными сетями ПК и классическими средствами вычислений, также для организации распределенных вычислений в масштабе компании возникла модель вычислений на базе рабочих групп.
Как правило, определения серверы рабочих групп и сетевые серверы употребляются взаимозаменяемо. рабочей группы быть может сервером, построенным на одном микропроцессоре компании Intel, либо суперсервером (с несколькими ЦП), схожим изделиям компаний Compaq, HP, IBM и DEC, работающим под управлением операционной системы Windows NT. Это быть может также unix-сервер компаний Sun, HP, IBM и DEC.
По уровню общесистемной производительности, многофункциональным способностям отдельных компонент, отказоустойчивости, также в поддержке многопроцессорной обработки, системного администрирования и дисковых массивов большенный емкости суперсерверы вышли в истинное время на один уровень с мейнфреймами и сильными миникомпьютерами. Современные суперсерверы характеризуются:
- наличием 2-ух либо наиболее центральных микропроцессоров RISC, или CISC;
- многоуровневой шинной архитектурой, в какой скоростная системная шина связывает меж собой несколько микропроцессоров и оперативную память, также огромное количество обычных шин ввода/вывода, размещенных в том же корпусе;
- поддержкой технологии дисковых массивов RAID;
- поддержкой режима симметричной многопроцессорной обработки, которая дозволяет распределять задания по нескольким центральным микропроцессорам либо режима асимметричной многопроцессорной обработки, которая допускает выделение микропроцессоров для выполнения определенных задач.
Базу последующего уровня современных информационных систем компаний и организаций составляют корпоративные серверы различного многофункционального предназначения, построенные на базе операционной системы Unix. Архитектура этих систем варьируется в широких границах зависимо от масштаба решаемых задач и размеров компании. 2-мя главными неуввязками построения вычислительных систем для критически принципиальных приложений, связанных с обработкой транзакций, управлением базами данных и обслуживанием телекоммуникаций, являются обеспечение высочайшей производительности и длительного функционирования систем. Более действенный метод заслуги данного уровня производительности — применение параллельных масштабируемых архитектур. задачка обеспечения длительного функционирования системы имеет три составляющих: надежность, готовность и удобство обслуживания. Все эти три составляющих подразумевают, сначала, борьбу с дефектами системы, порождаемыми отказами и сбоями в ее работе. Эта борьба ведется по всем трем фронтам, которые взаимосвязаны и используются вместе.
Существует несколько типов систем высочайшей готовности, отличающиеся своими многофункциональными способностями и стоимостью. Более хорошим по отношению высочайшая готовность/стоимость являются кластерные системы.
В данном реферате будут рассмотрены индивидуальности архитектуры RISC микропроцессоров компаний DEC, Hewlett-Packard и Bull и индивидуальности построения на их базе многопроцессорных SMP серверов и кластерных систем.
1. системы управления базами данных и серверы баз данных
Одним из более всераспространенных классов прикладных систем для серверов, выпускаемых большинством компаний-производителей компьютерной техники, являются системы управления базами данных (СУБД). Серверы СУБД существенно наиболее сложны, чем, к примеру, серверы сетевых файловых систем NFS. Обычный язык реляционных СУБД (SQL) намного богаче, чем набор операций NFS. Наиболее того, имеется несколько фаворитных коммерческих реализаций СУБД, доступных на серверах разных компаний, любая из которых имеет совсем разные свойства.
Как приложения, направленные на внедрение баз данных, так и сами СУБД очень различаются по собственной организации. Если системы на базе файловых серверов сравнимо просто поделить по типу рабочей перегрузки на два принципно разных класса (с интенсивной обработкой атрибутов файлов и с интенсивной обработкой самих данных), то провести схожую систематизацию посреди приложений баз данных и СУБД просто нереально.
Хотя на сей день имеется целый ряд разных архитектур баз данных, Рынок
UNIX-систем, кажется, тормознул основным образом на реляционной модели. Абсолютное большая часть инсталлированных сейчас систем реляционные, так как эта архитектура выбрана таковыми производителями как Oracle, Sybase, Ingres, Informix, Progress, Empress и DBase.
Но даже с учетом того, что подавляющее большая часть систем работает по одной и той же философски общей схеме, меж разными продуктами имеются огромные строительные различия. Может быть более значимым является реализация самой СУБД.
На выбор архитектуры сервера влияют последующие причины:
· Требования по аппаратным средствам избранной СУБД;
· Тип приложения и число сразу работающих юзеров;
· Надежность;
· Стоимость;
· Обилие программного обеспечения (ПО );
· Масштабируемость.
вместе с ценой, возможность масштабируемости системы является определяющим фактором при выбирании того либо другого сервера. Под масштабируемостью понимается возможность для модернизации сети либо вычислительной платформы на вариант необходимости прирастить рабочую нагрузку. В многопроцессорных и кластерных системах трудности с масштабируемостью решена.
Более всераспространены две многопроцессорные технологии: симметричная и параллельная обработка. Неунифицированный доступ к памяти (Non-Uniform Memory Access, NUMA) является новой разновидностью SMP.
SMP употребляется основным образом при работе с большенными базами данных, хотя в крайние годы она стала применяться для складов данных и систем поддержки принятия решений. MPP применяется в научных и инженерных приложениях для сложных программ с огромным объемом вычислений, к примеру для моделирования погоды на земном шаре либо взаимодействия субатомарных частиц.
Исходя из убеждений масштабируемости основное различие меж SMP и MPP в том, каким образом отдельные микропроцессоры управляют памятью. В случае SMP все микропроцессоры вместе употребляют одну общую шину памяти. наличие отдельного скоростного кэша памяти для всякого микропроцессора, как это предвидено в SMP-машинах старшего класса, смягчает, но не избавляет данную делему. Из-за такового ограничения почти все конфигурации SMP состоят максимум из 2, 4 либо 8 микропроцессоров. Поддержка наиболее 8 микропроцессоров подразумевает всякие изыски в аппаратной архитектуре, и только редчайшие SMP-машинки поддерживают выше 32 микропроцессоров. Бесспорным плюсом подобного подхода будет то, что SMP-комп смотрится для приложения как рядовая однопроцессорная машинка; это существенно упрощает программирование. Обычно все, что нужно, чтоб пользоваться преимуществами многопроцессорной обработки, — это многопоточная программка и операционная система, способная распределять потоки меж микропроцессорами.
В случае MPP любой микропроцессор имеет свою память и шину памяти. Преимуществом таковой конфигурации будет то, что правило, решение считается «массово-параллельным», лишь когда число микропроцессоров превосходит 64.).
NUMA можно разглядывать как промежный шаг меж SMP и MPP. Она описывает архитектуру для взаимодействия нескольких «узлов» SMP. Узлом быть может комп в кластере, хотя сейчас почаще всего имеют в виду группу микропроцессоров в компе. Любой узел располагает собственной своей выделенной физической памятью, что избавляет конкурентнсть за ресурсы. Узлы соединены средством координатного коммутатора таковым образом, что они все могут обращаться к одному и тому же виртуальному месту памяти. Все узлы вкупе смотрятся для приложения как одна SMP-машинка.
Многопроцессорный комп делает только одну копию операционной системы. Если производятся несколько копий ОС, но микропроцессоры интегрированы таковым образом, что, исходя из убеждений админа, юзера либо приложения, они смотрятся как одна система, то мы имеем дело с кластеризацией.
Невзирая на то что Sun объявила о 64-процессорной SMP-машине (Starfire Ultra Enterpise 10000), разработка и создание SMP-машин с 32 либо 64 микропроцессорами представляет суровые трудности и связана со значительными расходами. При построение SMP-машин с внедрением NUMA имеет верхний предел в 32 микропроцессора. Для постороения наиболее сложных систем употребляется кластеризация – объединение машин в кластеры.
Кластеризация служит для объединения высокопроизводительных систем. Первой теорию кластерной системы анонсировала компания DEC, определив ее как группу объединенных меж собой вычислительных машин, представляющих из себя единый узел обработки инфы. По существу VAX-кластер представляет собой слабосвязанную многомашинную систему с общей наружной памятью, обеспечивающую единый механизм управления и администрирования. В истинное время на замену VAX-кластерам приходят UNIX-кластеры. При всем этом VAX-кластеры дают испытанный набор решений, который устанавливает аспекты для оценки схожих систем.
VAX-кластер владеет последующими качествами:
· Разделение ресурсов. компы VAX в кластере могут делить доступ к общим ленточным и дисковым накопителям. Все компы VAX в кластере могут обращаться к отдельным файлам данных как к локальным;
· Высочайшая готовность. Если происходит отказ 1-го из VAX-компьютеров, задания его юзеров автоматом могут быть перенесены на иной комп кластера. Если в системе имеется несколько контроллеров наружных накопителей и один из их отказывает, остальные контроллеры автоматом подхватывают его работу;
· Высочайшая пропускная способность. Ряд прикладных систем могут воспользоваться возможностью параллельного выполнения заданий на нескольких компах кластера;
· Удобство обслуживания системы. Общие базы данных могут обслуживаться с единственного места. Прикладные программки могут инсталлироваться лишь в один прекрасный момент на общих дисках кластера и делиться меж всеми компами кластера;
· Расширяемость. Повышение вычислительной мощности кластера достигается подключением к нему доп VAX-компьютеров. Доп накопители на магнитных дисках и магнитных лентах стают доступными для всех компов, входящих в кластер.
Работа хоть какой кластерной системы определяется 2-мя главными компонентами: скоростным механизмом связи микропроцессоров меж собой и системным программным обеспечением, которое обеспечивает клиентам прозрачный доступ к системному сервису.
В истинное время обширное распространение получила также разработка параллельных баз данных. Эта разработка дозволяет огромному количеству микропроцессоров делить доступ к единственной базе данных. Распределение заданий по огромному количеству процессорных ресурсов и параллельное их выполнение дозволяет достигнуть наиболее высочайшего уровня пропускной возможности транзакций, поддерживать большее число сразу работающих юзеров и убыстрить выполнение сложных запросов. Есть три разных типа архитектуры, которые поддерживают параллельные базы данных:
· Симметричная многопроцессорная архитектура с общей памятью (Shared Memory SMP Architecture). Эта архитектура поддерживает единую базу данных, работающую на многопроцессорном сервере под управлением одной операционной системы. Повышение производительности таковых систем обеспечивается наращиванием числа микропроцессоров, устройств оперативной и наружной памяти;
· Архитектура с общими (разделяемыми) дисками (Shared Disk Architecture). Это обычный вариант построения кластерной системы. Эта архитектура поддерживает единую базу данных при работе с несколькими компами, объединенными в кластер (обычно такие компы именуются узлами кластера), любой из которых работает под управлением собственной копии операционной системы. В таковых системах все узлы делят доступ к общим дискам, на которых фактически и размещается единая база данных. Производительность таковых систем может возрастать как методом наращивания числа микропроцессоров и размеров оперативки в любом узле кластера, так и средством роста количества самих узлов;
· Архитектура без разделения ресурсов (Shared Nothing Architecture). Как и в архитектуре с общими дисками, в данной для нас архитектуре поддерживается единый образ базы данных при работе с несколькими компами, работающими под управлением собственных копий операционной системы. Но в данной для нас архитектуре любой узел системы имеет свою оперативку и собственные диски, которые не делятся меж отдельными узлами системы. Фактически в таковых системах делится лишь общий коммуникационный канал меж узлами системы. Производительность таковых систем может возрастать методом прибавления микропроцессоров, размеров оперативной и наружной (дисковой) памяти в любом узле, также методом наращивания количества таковых узлов.
Таковым образом, среда для работы параллельной базы данных владеет 2-мя необходимыми качествами: высочайшей готовностью и высочайшей производительностью. В случае кластерной организации несколько компов либо узлов кластера работают с единой базой данных. В случае отказа 1-го из таковых узлов, оставшиеся узлы могут взять на себя задания, выполнявшиеся на отказавшем узле, не останавливая общий процесс работы с базой данных. Так как логически в любом узле системы имеется образ базы данных, доступ к базе данных будет обеспечиваться до того времени, пока в системе имеется по последней мере один исправный узел. Производительность системы просто масштабируется, т.е. добавление доп микропроцессоров, размеров оперативной и дисковой памяти, и новейших узлов в системе может производиться в хоть какое время, когда это вправду требуется.
Параллельные базы данных находят обширное применение в системах обработки транзакций в режиме on-line, системах поддержки принятия решений и нередко употребляются при работе с критически необходимыми для работы компаний и организаций приложениями, которые эксплуатируются по 24 часа в день.
2. Серверы
Escala
компании
Bull
Группа компаний, объединенных под общим заглавием Bull, является одним из огромнейших производителей информационных систем на мировом компьютерном рынке и имеет свои отделения в Европе и США
В симметричной мультипроцессорной системе все микропроцессоры числятся функционально эквивалентными и могут делать операции ввода/вывода и остальные вычисления.
Разработанное Bull семейство Escala обеспечивает масштабируемость и высшую готовность систем, центральным местом которых является симметричная мультипроцессорная архитектура, нареченная PowerScale, позволяющая создавать постепенную модернизацию и соединять воединыжды в системе от 1 до 8 микропроцессоров.
2.1.Архитектура PowerScale
В современных системах SMP более животрепещущим вопросцем разработки является создание высокопроизводительной подсистемы памяти для обеспечения скоростных RISC-процессоров данными и командами. Общее решение данной для нас трудности заключается в использовании большенный скоростной кэш-памяти, т.е. в разработке иерархии памяти меж микропроцессорами и разделяемой глобальной памятью. Архитектура PowerScale дает новейший подход к решению вопросцев обычного узенького гортани, ограничивающего производительность SMP-систем, а конкретно, новейшую компанию управления кэш-памятью и доступа к памяти.
При моделировании прикладных систем, для работы которых нужно манипулирование большущими размерами данных и разделения доступа к сиим данным меж почти всеми юзерами либо программками, на системах SMP, были увидены два особенных эффекта:
- Из-за малой вероятности нахождения соответственных данных в кэш-памяти возникает очень интенсивный трафик меж системной памятью и кэшами ЦП.
- В классической SMP-системе по дефлоту одна из задач планировщика состоит в том, чтоб запустить последующий разрешенный для выполнения процесс на первом же микропроцессоре, который становится вольным. Потому по мере того, как возрастает число микропроцессоров и действий, возможность перемещения действий с 1-го микропроцессора на иной, также возрастает. Эта побочная миграция действий приводит к существенному повышению уровня трафика меж кэшами ЦП. Потому главным вопросцем обеспечения высочайшей системной производительности становится физическая реализация когерентности кэш-памяти.
В классической SMP-архитектуре связи меж кэшами ЦП и глобальной памятью реализуются при помощи общей шины памяти, разделяемой меж разными микропроцессорами. Как правило, эта шина становится слабеньким местом конструкции системы и стремится к насыщению при увеличении числа инсталлированных микропроцессоров. Это происходит поэтому, что возрастает трафик пересылок меж кэшами и памятью, также меж кэшами различных микропроцессоров, которые соперничают меж собой за пропускную способность шины памяти.
В архитектуре PowerScale компании Bull интерфейс памяти реализован с учетом обозначенного выше профиля приложений и рассчитан на внедрение нескольких поколений микропроцессоров со все растущей производительностью. В реальности архитектура PowerScale с самого начала была разработана в расчете на поддержку до 8 микропроцессоров PowerPC 620.
В архитектуре PowerScale (Рис. 1) главным средством оптимизации доступа к разделяемой главный памяти является внедрение довольно сложной системной шины. В реальности эта «шина» представляет собой комбинацию шины адреса/управления, реализованной традиционным методом, и набора магистралей данных, которые соединяются меж собой средством скоростного матричного коммутатора. Эта система межсоединений получила заглавие MPB_SysBus. шина памяти употребляется лишь для пересылки обычных адресных тегов, а неблокируемый матричный коммутатор — для обеспечения наиболее интенсивного трафика данных. К матричному коммутатору могут быть подсоединены до 4 двухпроцессорных портов, порт ввода/вывода и подсистема памяти.
Основным преимуществом такового подхода будет то, что он дозволяет любому микропроцессору иметь прямой доступ к подсистеме памяти. Иным принципиальным свойством реализации является внедрение расслоения памяти, что дозволяет почти всем микропроцессорам обращаться к памяти сразу.
Ниже приведена схема, иллюстрирующая общую компанию доступа к памяти (Рис. 2) Любой процессорный модуль имеет собственный свой выделенный порт памяти для пересылки данных. При всем этом общая шина адреса и управления гарантирует, что на уровне системы все адреса являются когерентными.
В системе употребляются огромные кэши второго уровня (L2), дополняющие кэши первого уровня (L1), встроенные в микропроцессорах PowerPC. Это дозволяет улучшить уровень передвижения действий меж микропроцессорами и наращивает общую пропускную способность системы. Разумеется, что постоянно полезно делать процесс на одном и том же микропроцессоре и иметь наиболее высочайший коэффициент попаданий в кэш, чем при выполнении процесса на последующем доступном микропроцессоре. Используя методы, базирующиеся на средствах ядра системы, можно найти более подходящее внедрение пула микропроцессоров с учетом текущего коэффициента попаданий в кэш.
Рис. 2. Схема организации доступа к памяти
машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор PowerPC описывает слабо упорядоченную модель памяти, которая дозволяет улучшить внедрение пропускной возможности памяти системы. Это получается из-за того, что аппаратуре разрешается переупорядочивать операции загрузки и записи так, что требующие долгого времени операции загрузки могут производиться ранее определенных операций записи. Таковой подход дозволяет уменьшить действительную задержку операций загрузки. Архитектура PowerScale вполне поддерживает эту модель памяти как на уровне микропроцессора за счет набора установок PowerPC, так и глобально методом реализации последующих ограничений:
- Воззвания к глобальным переменным синхронизации производятся строго поочередно.
- Никакое воззвание к переменной синхронизации не выдается микропроцессором до окончания выполнения всех воззваний к глобальным данным.
- Никакие воззвания к глобальным данным не выдаются микропроцессором до окончания выполнения прошлых воззваний к переменной синхронизации.
Для обеспечения схожей модели упорядоченных воззваний к памяти на уровне всякого микропроцессора системы употребляются определенная аппаратная поддержка и очевидные команды синхронизации. Не считая того, на системном уровне соблюдение нужных протоколов для обеспечения упорядочивания воззваний меж микропроцессорами либо меж микропроцессорами и подсистемой ввода/вывода возложено на программное обеспечение.
С реализацией архитектуры глобальной памяти в мультипроцессорной системе обычно связан весьма принципиальный вопросец. Как соединить достоинства «логически» локальной для всякого микропроцессора памяти, имеющей малую задержку доступа, с требованиями реализации разделяемой глобальной памяти?
Компания Bull разработала запатентованную архитектуру, в какой массив памяти вполне расслоен до уровня длины строчки системного кэша (32 б). Таковая организация обеспечивает минимум конфликтов меж микропроцессорами при работе подсистемы памяти и гарантирует минимальную задержку. Требование реализации глобальной памяти обеспечивается тем, что массив памяти для программных средств постоянно представляется непрерывным.
Предложенная система решает также делему, нередко возникающую в остальных системах, в каких внедрение способов расслоения для организации поочередного доступа к разным областям памяти может быть лишь, если платы памяти инсталлируются сбалансировано. Этот, кажущийся элементарным, вопросец может приводить к лишним закупкам доп ресурсов и связан только с способностями конструкции системы. PowerScale дозволяет обойти эту делему.
Архитектура PowerScale автоматом улучшает степень расслоения памяти зависимо от того, какие платы памяти инсталлированы в системе. Зависимо от определенной конфигурации она будет применять низкую либо высшую степень расслоения либо их комбинацию. Все это вполне прозрачно для программного обеспечения и, что наиболее принципиально, для юзера.
Архитектура коммутатора реализована при помощи аппаратной сети, которая производит личные соединения типа точка-точка микропроцессора с микропроцессором, микропроцессора с главный памятью и микропроцессора с магистралью данных ввода/вывода. Эта сеть работает вместе с разделяемой адресной шиной. Таковой равновесный подход дозволяет применять наилучшие характеристики всякого из этих способов организации соединений.
Разделяемая адресная шина упрощает реализацию наблюдения (snooping) за адресами, которое нужно для аппаратной поддержки когерентности памяти. Адресные транзакции конвейеризованы, производятся асинхронно (расщеплено) по отношению к пересылкам данных и требуют относительно маленький полосы пропускания, гарантируя, что этот ресурс никогда не войдет в состояние насыщения.
Организация пересылок данных просит больше внимания, так как уровень трафика и время занятости ресурсов физического межсоединения тут значительно выше, чем это требуется для пересылки адресной инфы. Операция пересылки адреса представляет собой одиночную пересылку, в то время как операция пересылки данных обязана удовлетворять требованию многобайтной пересылки в согласовании с размером строчки кэша ЦП. При реализации отдельных магистралей данных возникает ряд доп способностей, которые обеспечивают:
- наивысшую скорость передачи данных средством соединений точка-точка на наиболее больших тактовых частотах;
- параллельную пересылку данных средством организации выделенного пути для всякого соединения;
- разделение адресных транзакций и транзакций данных. Потому архитектуру PowerScale компании Bull можно именовать многопотоковой аппаратной архитектурой (multi-threaded hardware architecture) с способностями параллельных операций.
На Рис. 3 показаны главные режимы и операции, выполняемые матричным коммутатором(ССA2 — сдвоенный контроллер адресов кэш-памяти; CCD2 — сдвоенный контроллер данных кэш-памяти; IOD — дочерняя плата ввода/вывода; DCB — матричный коммутатор данных; SMC — контроллер системной памяти ).
Вослед за установочной фазой транзакции (к примеру, опосля установки адреса на адресной шине) данные могут пересылаться через коммутатор на полной скорости синхронизации. Это может быть благодаря организации соединению точка-точка, которое создается для каждой отдельной транзакции. Потому в предстоящем какие-либо помехи отсутствуют. Может быть также делать параллельно несколько операций, к примеру, множественный доступ к памяти либо пересылки меж кэшами.
Для того чтоб уменьшить задержку памяти, операции чтения начинаются до выполнения каких-то действий по обеспечению глобальной когерентности на уровне системы. Ответы когерентности вполне синхронизированы, разрешаются за фиксированное время и поступают постоянно до этого, чем будет захвачен разделяемый ресурс — шина памяти. Это помогает избежать ненадобных захватов шины. Любые транзакции, которые не разрешаются когерентно за данное фиксированное время, позже будут повторены системой.
Применяемая в системе внутренняя частота синхронизации равна 75 МГц, что дозволяет оценить уровень производительности разработанной архитектуры. интерфейс физической памяти имеет ширину 32 б и, беря во внимание арбитраж шины, дозволяет пересылать 32 б любые 3 такта синхронизации. Это дает скорость передачи данных 800 Мбайт/с, поддерживаемую на уровне интерфейса памяти. Любой порт ЦП имеет ширину 8 б и способен передавать по 8 б за такт, т.е. со скоростью 600 Мбайт/с. Необходимо подчеркнуть, что это скорость, достигаемая как при пересылке ЦП-память, так и при пересылке кэш-кэш. Скорость 800 Мбайт/с для памяти поддерживается при помощи буферов в коммутаторе, которые разрешают конвейеризовать несколько операций.
Пропускная способность может достигать пикового значения 1400 Мбайт/с. Таковым образом, наибольшая пропускная способность будет варьироваться в спектре от 800 до 1400 Мбайт/с зависимо от коэффициента попаданий кэш-памяти.
Неувязка когерентности памяти в мультипроцессорной системе возникает из-за того, что 1-го из микропроцессоров могут влиять на достоверность данных, хранящихся в кэшах остальных микропроцессоров. Потому в схожих системах актуально нужен механизм обеспечения когерентного (согласованного) состояния кэшей. С данной для нас целью в архитектуре PowerScale употребляется стратегия оборотной записи, реализованная последующим образом.
Любой машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор для собственной работы употребляет двухуровневый кэш со качествами охвата. Это значит, что не считая внутреннего кэша первого уровня (кэша L1), встроенного в любой машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор PowerPC, имеется связанный с ним кэш второго уровня (кэш L2). При всем этом любая строчка в кэше L1 имеется также и в кэше L2. В истинное время размер кэша L2 составляет 1 Мбайт на любой машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор, а в будущих реализациях предполагается его расширение до 4 Мбайт. Сама по для себя кэш-память второго уровня дозволяет значительно уменьшить число воззваний к памяти и прирастить степень локализации данных. Для увеличения быстродействия кэш L2 построен на принципах прямого отображения. Длина строчки равна 32 б (размеру когерентной гранулированности системы). Необходимо подчеркнуть, что, хотя исходя из убеждений физической реализации микропроцессора PowerPC, 32 б составляют лишь половину строчки кэша L1, это не меняет протокол когерентности, который управляет операциями кэша L1 и гарантирует что кэш L2 постоянно содержит данные кэша L1.
Кэш L2 имеет наружный набор тегов. Таковым образом, неважно какая активность механизма наблюдения за когерентным состоянием кэш-памяти быть может связана с кэшем второго уровня, в то время как большая часть воззваний со стороны микропроцессора могут обрабатываться первичным кэшем. Если механизм наблюдения обнаруживает попадание в кэш второго уровня, то он должен выполнить арбитраж за первичный кэш, чтоб обновить состояние и может быть отыскать данные, что обычно будет приводить к приостановке микропроцессора. Потому глобальная память может работать на уровне тегов кэша L2, что дозволяет значительно ограничить количество операций наблюдения, генерируемых системой в направлении данного микропроцессора. Это, в свою очередь, значительно наращивает производительность системы, так как неважно какая операция наблюдения в направлении микропроцессора сама по для себя может приводить к приостановке его работы.
Вторичная когерентность кэш-памяти требуется для поддержки когерентности кэшей L1&L2 разных процессорных узлов, т.е. для обеспечения когерентного состояния всех имеющихся в мультипроцессорной системе распределенных кэшей (естественно включая поддержку когерентной буферизации ввода/вывода как по чтению, так и по записи).
Вторичная когерентность обеспечивается при помощи проверки каждой транзакции, возникающей на шине MPB_SysBus. Таковая проверка дозволяет найти, что запрашиваемая по шине строчка уже кэширована в процессорном узле, и обеспечивает выполнение нужных операций. Это делается при помощи тегов кэша L2 и логически поддерживается тем фактом, что L1 является подмножеством L2.
Ниже на Рис. 5 показана схема, представляющая системные платы, разработанные компанией Bull, которые употребляются для физической реализации архитектуры PowerScale.
Многопроцессорная материнская плата, которая употребляется также в качестве монтажной панели для установки модулей ЦП, модулей главный памяти и одной платы в/в (IOD).
Любой модуль ЦП, построенный на базе PowerPC 601/604, включает два процессора и связанные с ними кэши. Имеется возможность модернизации системы, построенной на базе микропроцессоров 601, методом установки модулей ЦП с микропроцессорами 604. Смешанные конфигурации 601/604 не поддерживаются.
Дочерняя плата ввода/вывода
работает в качестве моста меж шинами MCA и комплексом ЦП и памяти. Поддерживаются 2 канала MCA со скоростью передачи 160 Мбайт/с любой. Хотя поставляемая сейчас подсистема в/в базируется на технологии MCA, это не является принципным элементом архитектуры PowerScale. В истинное время проводятся исследования способностей реализации нескольких других шин ввода/вывода, к примеру, PCI.
Любая плата памяти состоит из четного числа банков. Наибольшее число банков равно 16. Размер памяти на каждой плате быть может 64, 256 либо 512 Мбайт.
Коммутатор данных (DCB) интегрирован в нескольких СБИС (4х16 бит) и функционально соединяет магистраль данных MPB_SysBus с подсистемой памяти, модулями ЦП и платой в/в. Ширина магистрали данных DCB на уровне массива памяти составляет 256 + 32 бит, а ширина магистрали данных для всякого порта ЦП и порта в/в равна 64 + 8 бит. Операции DCB управляются контроллером системной памяти (SMC) при помощи командной шины, обеспечивающей нужную коммутацию устройств.
2.2.Семейство unix-серверов Escala
Главные свойства серверов Escala зависимо от используемого конструктива даны в таблице 1. системы семейства Escala обеспечивают подключение последующих коммуникационных адаптеров: 8-, 16- и 128-входовых адаптеров асинхронных поочередных портов, 1- либо 4-входовых адаптеров портов 2 Мбит/с X.25, также адаптеров Token-Ring, Ethernet и FDDI.
МОДЕЛЬ Escala
M101
M201 D201 D401 R201
Mini-Tower
DesksideRack-Mounted
ЦП (PowerPC 601)
Тактовая частота (МГц)
75
75 75 75 75
Число микропроцессоров
ј
2/4 2/8 4/8 2/8
Размер кэша второго уровня (Кб)
512
512 1024 1024 1024
ПАМЯТЬ
Обычный размер (Мб)
32
6464 64 64
Наибольший размер (Мб)
512
512 2048 2048 2048
ВВОД/ВЫВОД
Тип шины
MCA
MCA MCA MCA MCA
Пропускная способность (Мб/с)
160
160 160 2×160 2×160
количество слотов
6
6 15 15 16
Емкость внутренней дисковой памяти Гб)
1/18
1/18 2/36 4/99 —
количество посадочных мест
3.5″
4
4 7 7 7
5.25″
2
2 3 3 3
Емкость наружной дисковой памяти (Гб)
738
738 1899 1899 2569
3. Серверы конторы DEC
одной из огромнейших компьютерных компаний, компы которой остаются пользующимися популярностью уже в течение практически 40 лет (начиная с ее основания в 1957 году и выпуска первых машин PDP-1 в 1960 г.).
Компания Digital обширно известна своими сериями мини-ЭВМ PDP-11 и VAX, работающими под управлением операционных систем RSX11M и VMS соответственно.
В истинное время компания Digital сконцентрировала главные усилия на разработке и производстве современных 64-разрядных RISC-систем. Новый день является самым резвым процессором. Архитектура Alpha вполне сохраняет преемственность поколений компов: фактически все программное обеспечение ЭВМ VAX работает и на новейших системах Alpha.
3.1. Семейство компов Alpha
Отличительная черта платформы Alpha — это сбалансированность. Благодаря 64-разрядной архитектуре и скоростным каналам связи с периферией Alpha поддерживает работу с большущими массивами данных, как на дисках, так и в оперативки, что является очень критическим для почти всех приложений.
Иным отличительным качеством платформы Alpha является ее универсальность исходя из убеждений внедрения разных операционных систем (NetWare, Pick, DECelx, OpenVMS, Digital unix, Windows NT).
Семейство серверов Alpha представляет собой полный ряд систем: от малой конструкции до сервера большой распределенной сети. Ниже дано описание главных параметров этих компов и средств их реализации.
Высочайшая надежность и доступность:
- «Горячее» переключение дисков, т.е. внутренний диск быть может заменен во время работы сервера.
- Код корректировки ошибок (ECC, Error Correcting Code). Серверы Alpha включают ECC для главный и кэш— памяти. При использовании данной для нас технологии происходит неизменная проверка памяти, при этом при всем этом ошибки не только лишь обнаруживаются, да и автоматом корректируются.
- разработка дублирования дисков (Redundant Array of Inexpensive Disks, RAID)
- Двойная шина SCSI.
- Дублирование источников питания.
- Автоматический перезапуск системы. При нарушении в операционной системе эта возможность минимизирует время недоступности системы.
- Управление температурным режимом. системы AlphaServer включают температурные и остальные датчики, дозволяющие смотреть за состоянием системы.
Открытая архитектура:
- Шина PCI, обеспечивающая скорость передачи 132 Мб/с и соответствие интернациональным эталонам.
- Обычные слоты EISA, предоставляющие возможность использования огромного количества обычных карт.
- Скоростной интерфейс SCSI-2 для подключения до 7 устройств перифирии, обеспечивающие вдвое наиболее высшую скорость передачи шины SCSI и возможность подключения разных обычных устройств перифирии.
- Сетевые функции, включающие Ethernet, Token Ring, FDDI.
средства управления:
- Реализация удаленного управления.
- Расширенные средства диагностики.
- Получение инфы о конфигурации системы.
- Программное обеспечение управления необычными ситуациями и журнальчики диагностики сбоев.
Расширяемость/наращиваемость:
- Возможность обновления микропроцессора («upgrade»).
- Возможность подключения наружной памяти.
- Внедрение симметричной мультипроцессорной обработки (Symmetric Multi-Processing, SMP), позволяющей добавлять доп микропроцессоры.
- Упругость выбора операционной системы (OpenVMS AXP, Digital UNIX, Microsoft Windows NT).
Внедрение кластеров:
- Возможность построения кластерных систем.
Главные свойства серверов AlphaServer представлены в таблице 2.
Система/
свойства
AlphaServer2100 AlphaServer8200 AlphaServer8400
Частота
4/233:233 МГц 300 МГц 4/275:275 МГц 4/200:200 МГц
Число
микропроцессоров
1-4 1-6 1-12
Наибольшая память
2 Гб 6 Гб 14 Гб
Память на
диске
500 Гб 10 Тб 10 Тб
Поддержка ввода/вывода
3 слота PCI; 8 слотов EISA;
108 слотов PCI; 8 слотов EISA;
144 слота PCI; 8 слотов EISA; 1 разъем PCI/EISA
ECC память
Да Да Да
RAID
Да Да Да
Авто
перезагрузка
Да Да Да
Дублирование питания
Да Да Да
Управление температурой
Да Да Да
AlphaServer 8400 — это реализация сервера на базе процессора DECchip 21164 (частота — от 300 МГц) высокопроизводительного сервера масштаба компании. AlphaServer 8400 поддерживает до 12 микропроцессоров, 14 Гб памяти и скорость ввода/вывода выше 1,2 Гб/сек. Равновесная система и резвые микропроцессоры разрешают обеспечивать обработку наиболее 3000 транзакций в секунду. Архитектура AlphaServer 8400 разработана с учетом способности использования будущих поколений процессора Alpha. AlphaServer 8400 оснащается скоростными шинами ввода/вывода PCI (144 слота на 12 на физическом уровне разных шинах). Данный комп имеет относительно низкую стоимость в собственном классе и может употребляться в качестве сервера большой распределенной базы данных, обеспечивая при всем этом надежность и готовность на уровне наиболее дорогих мэйнфреймов.
комп AlphaServer 8200 — это одна из более высокопроизводительных систем для кабинета в современной индустрии. Его конфигурация может включать до 6 процессоров DECchip 21164. Имея все достоинства 64-разрядной Alpha-архитектуры, до 6 Гб памяти и до 108 слотов PCI, данный обеспечивает способности роста даже для самых больших и сложных приложений. AlphaServer 8200 поддерживает операционные системы OpenVMS, Digital UNIX и Windows NT. Маленькие компании и большие подразделения могут применять производительность, мощность и надежность этого сервера для приложений, которые до этого функционировали на системах масштаба большого компании. Огромные базы данных, процессы моделирования, системы поддержки принятия решений — вот несколько примеров приложений, которые просто поддерживаются AlphaServer 8200.
системы AlphaServer 2100 (Рис.7.) представляют собой дешевые SMP-серверы, базирующиеся на шинах PCI/EISA. Они поддерживают операционные системы OpenVMS, Digital UNIX и Windows NT. Данные компы могут употребляться в качестве серверов высокопроизводительных коммерческих приложений и баз данных, также серверов больших локальных сетей. AlphaServer 2100 4/233 (кэш-памятью 1 Мб; AlphaServer 2100 4/275 (процессор DECchip 21064A) – 275 МГц с кэш-памятью 4 Мб; AlphaServer 2100 5/250 (процессор DECchip 21164) – 250 МГц с кэш-памятью 4 Мб. Любая система может иметь конфигурацию с 1-4 микропроцессорами, поддерживает до 2 Гб оперативки и до 64 Гб внутренней дисковой памяти. Пропускная способность системной шины равна 667 Мб/сек, а высокопроизводительная подсистема ввода/вывода PCI имеет пиковую пропускную способность 132 Мб/сек. шина ввода/вывода EISA (33 Мб/сек) поддерживает широкий диапазон обычных устройств.
(либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор имеет последующие соответствующие черты:
· Все команды фиксированной длины и формата;
· FPU поддерживет формат чисел как конторы DEC, так и эталона IEEE;
· 32 64-х разрядных регистра для целых чисел и 32 64-х разрядных для чисел с плавающей точкой;
· Встроеный кэш прямого отображения для чтения/записи данных;
· Встроеный кэш прямого отображения для чтения установок;
· Интегрированные буфера преобразования инструкций и данных.
– соединяет микропроцессор с памятью и подсистемой ввода/вывода. Является синхронной, мультипликсированной 128-битной шиной адреса/данных. На шине употребляется контроль четности. Все передачи длиной 32 б и пиковая производительность – 666Mb/sec.
Высочайшая скорость воззвания достигается:
· Наличием буферов потокового чтения;
· Контроль по четности адреса и данных;
· Регенерация проводиться с учетом воззваний к памяти;
На Рис. 6. представлена блок-схема процессора 21066. Главными компонентами этого микропроцессора являются: кэш-память установок, целочисленное устройство, устройство плавающей точки, устройство выполнения установок загрузки/записи, кэш-память данных, также контроллер памяти и контроллер ввода/вывода.
кэш-память установок представляет собой кэш прямого отображения емкостью 8 Кбайт. Команды, избираемые из данной для нас кэш-памяти, могут выдаваться попарно для выполнения в одно из исполнительных устройств. кэш-память данных емкостью 8 Кбайт также реализует кэш с прямым отображением. При выполнении операций записи в память данные сразу записываются в этот кэш и в буфер записи. Контроллер памяти либо контроллер ввода/вывода шины PCI обрабатывают все воззвания, которые проходят через расположенные на кристалле кэш-памяти первого уровня. Контроллер памяти до этого всего инспектирует содержимое наружной кэш-памяти второго уровня, которая построена на принципе прямого отображения и реализует метод отложенного оборотного копирования при выполнении операций записи. При обнаружении промаха контроллер обращается к главный памяти для перезагрузки соответственных строк кэш-памяти. Контроллер ввода/вывода шины PCI обрабатывает весь трафик, связанный с вводом/выводом. Под управлением центрального микропроцессора он делает операции программируемого ввода/вывода. Трафик прямого доступа к памяти шины PCI обрабатывается контроллером PCI вместе с контроллером памяти. При выполнении операций прямого доступа к памяти в режиме чтения и записи данные не располагаются в кэш-памяти второго уровня. Интерфейсы памяти и PCI были разработаны специально в расчете на однопроцессорные конфигурации и не поддерживают реализацию мультипроцессорной архитектуры.
На рисунке 7 показан пример системы, построенной на базе процессора 21066. В представленной конфигурации контроллер памяти делает воззвания как к статической памяти, при помощи которой реализована кэш-память второго уровня, так и к динамической памяти, на которой построена основная память. Для хранения тегов и данных в кэш-памяти второго уровня употребляются кристаллы статическая памяти с схожим временем доступа по чтению и записи.
Система поддерживает до 4 банков динамической памяти, любой из которых может управляться независимо, что дает определенную упругость при организации памяти и ее модернизации.
Скоростная шина PCI имеет ряд симпатичных параметров. Кроме способности работы с прямым доступом к памяти и программируемым вводом/выводом она допускает особые конфигурационные циклы, расширяемость до 64 бит, составляющие, работающие с питающими напряжениями 3.3 и 5 В, также наиболее резвое тактирование. Базисная реализация шины PCI поддерживает мультиплексирование адреса и данных и работает на частоте 33 МГц, обеспечивая наивысшую скорость передачи данных 132 Мбайт/с. шина PCI конкретно управляется процессором. На рисунке 5.18 показаны некие высокоскоростные периферийные устройства: графические адаптеры, контроллеры SCSI и сетевые адаптеры, присоединенные конкретно к шине PCI. Мостовая микросхема интерфейса ISA дозволяет подключить к системе низкоскоростные устройства типа модема, флоппи-дисковода и т.д.
3.Серверы компании Hewlett-Packard
Компания Hewlett-Packard была учреждена в Калифорнии в 1938 году с целью сотворения электрического тестирующего и измерительного оборудования.
Основой разработки современных компов Hewlett-Packard является архитектура PA-RISC. Она была разработана компанией в 1986 году, и с того времени, благодаря успехам интегральной технологии, прошла несколько стадий собственного развития от многокристального до однокристального выполнения. Архитектура PA-RISC разрабатывалась с учетом способности построения многопроцессорных систем, которые реализованы в старших моделях серверов.
Как понятно, одна из основных обстоятельств перехода к RISC — рвение делать команду за один такт. Для заслуги большей производительности создатели RISC делают микропроцессоры, выполняющие за один такт несколько установок. Такие микропроцессоры именуют суперскалярными. Эти микропроцессоры труднее — их реализуют, как правило, на нескольких кристаллах, что ведет к ограничению частоты. Hewlett-Packard первой разработала суперскалярный машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор на одном кристалле с высочайшей тактовой частотой. Для того, чтоб наиболее много применять способности суперскалярных микропроцессоров, в набор PA-RISC включены составные команды, которые делают на различных частях кри-сталла сходу несколько операций. Вследствие этого, PA-RISC делает большее число установок за такт, опережая микропроцессоры соперников, даже если они владеют большей тактовой частотой.
Еще одна изюминка PA-RISC — огромные наружные кэши (Рис. 8.). В отличие от неких остальных микропроцессоров, где размер кэша достаточен только для резвого выполнения обычных тестов, кэши PA-RISC форсируют работу настоящих приложений и служат главным различием от остальных реализаций RISC. Хранение установок и данных осуществляется в раздельных кэшах, при этом машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор соединяется с ними при помощи скоростных 64-битовых шин. кэш-память реализуется на скоростных кристаллах статической памяти (SRAM), синхронизация которых осуществляется конкретно на тактовой частоте микропроцессора. При тактовой частоте 100 МГц любой кэш имеет полосу пропускания 800 Мбайт/с при выполнении операций считывания и 400 Мбайт/с при выполнении операций записи. кэш-памяти: кэш установок может иметь размер от 4 Кбайт до 1 Мбайт, кэш данных — от 4 Кбайт до 2 Мбайт. Чтоб понизить коэффициент промахов применяется механизм хеширования адреса. В обоих кэшах для увеличения надежности используются доп контрольные разряды, при этом ошибки кэша установок корректируются аппаратными средствами.
Еще один способ, применяемый в RISC-архитектурах для увеличения производительности — это сборочный поток. Для убыстрения выполнения команды ее обработка разбивается на ступени: подборка, декодирование, выполнение, оборотная запись и т.д. Все ступени сборочного потока работают сразу. наличие сборочного потока — основной фактор, с помощью которого RISC превосходит CISC. 5-ступенчатый сборочный поток минимизирует задержки из-за остановов, соответствующие для суперконвейерных архитектур.
Иными необходимыми чертами PA-RISC являются:
- Расширенные способности 64-разрядных вычислений.
- Интегрированная поддержка графики. Набор установок PA-RISC расширен графическими способностями. Эти команды вместе с большой производительностью вещественных вычислений разрешают достигнуть восхитительных черт графики без помощи графических микропроцессоров.
- Интегрированная поддержка мультимедиа. Первым микропроцессором с поддержкой мультимедиа был PA-7100LC. Он мог декодировать видео MPEG-1 со скоростью 30 кадров в секунду с полным стереозвуком. Благодаря интегрированной поддержке типов данных мультимедиа в базисной архитектуре, Hewlett-Packard в состоянии обеспечить весьма высшую скорость отображения без доп издержек.
машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор подсоединяется к памяти и подсистеме ввода/вывода средством синхронной шины. машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор может работать с 3-мя различными отношениями внутренней и наружной тактовой частоты зависимо от частоты наружной шины: 1:1, 3:2 и 2:1. Это дозволяет применять в системах различные по скорости микросхемы памяти.
машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор PA-8xxx вобрал в себя все известные способы убыстрения выполнения установок. В его базе лежит теория «умственного выполнения», которая базируется на принципе внеочередного выполнения установок. Это свойство дозволяет PA-8000 достигать пиковой суперскалярной производительности благодаря широкому использованию устройств автоматического разрешения конфликтов по данным и управлению аппаратными средствами. Эти средства отлично дополняют остальные строительные составляющие, заложенные в структуру кристалла: огромное число исполнительных многофункциональных устройств, средства прогнозирования направления переходов и выполнения установок по предположению, оптимизированная организация кэш-памяти и высокопроизводительный шинный интерфейс.
PA-8500 (Рис. 9.) является 4-х канальным суперскалярным микропроцессором, выполняющим 4 операции за такт. PA-8500 имеет последующие строительные индивидуальности:
- Больший размер кэша первого уровня на машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор (1 МБ — данные, 0.5 МБ — аннотации).
- По два 64-разрядных модуля с плавающей точкой для функций загрузки/выгрузки, умножения/сложения, деления/извлечения квадратного корня, целочисленных, сдвиговых/логических функций любой — всего 10 многофункциональных модулей.
- Буфер пророчества ветвления для 56 инструкций (instruction reorder buffer — IRB)
- Спекулятивное выполнение
- Статическое и динамическое пророчество ветвлений
Перечисленные индивидуальности рассматриваются ниже наиболее тщательно.
PA-8500 реализован в 0.25 микронной технологии. Новенькая разработка дозволяет расположить на чипе большенный кэш первого уровня, что дает возможность повысить частоту без необходимости наличия связанных кэшей второго уровня.
Кэш второго уровня имеет цикл медлительнее цикла кэша первого уровня, также владеет наиболее низкой пропускной способностью. Задержка, вызванная доступом к наиболее неспешному кэшу второго уровня, смешивается с необходимостью извлечь полную строчку кэша для наполнения кэша первого уровня, а не попросту заполнить его текущими данными. большенный кэш первого уровня поможет избежать ограничений многоуровневой структуры кэша, потому что направляет потоки инструкций и данных конкретно в хранилище данных.
машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор PA-8500 предоставляет доступ к большему размеру данных за два такта из собственного 0.5MB кэша инструкций и 1MB кэша данных, чем почти все системы могут предоставить за 10 и наиболее тактов из кэша второго уровня. Механизм установки очередности инструкций поддерживает постоянную загрузку многофункциональных модулей микропроцессора, предотвращая их обычный, как это обычно происходит в обычных конвеерных микропроцессорах.
одной из задач при разработке PA-8500 было создание чипового кэша, который бы мог уместиться в выделенную зону чипа и, тем не наименее, поддерживал бы высочайший уровень установки очередности инструкций. Такое решение просит, чтоб кэш данных поддерживал выполнение 2-ух одновременных операций памяти при поддержке двухтактного доступа. задачка была решена внедрением двухбанковой системы, разработанной для внекристального кэша данных. Система реализована в виде обычного однопортового RAM, что посодействовало сохранить место на чипе. Так как любой запрос имеет отношение лишь к половине кэша, физическая длина доступа была уменьшена, что позволило достигнуть наименьшего времени доступа.
Все данные, хранящиеся в кэше PA-8500, защищены от появления однобитовых ошибок. нужно принять все меры к сохранению целостности данных. Для кэша инструкций довольно обычный четности, так как его содержимое постоянно безошибочно. Каждый раз, когда доступ к инструкциям говорит о ошибке, доступ обрабатывается как неудачное воззвание в кэш. Строчки кэша с нарушенными данными аннулируются и данные поступают из памяти поновой.
больше усилий нужно сделать для обеспечения защиты кэша данных, поэтому как корректировка нужна когда неправильная строчка кэша нарушается. PA-8500 предоставляет 6 излишних битов на слово для способности корректировки однобитовой ошибки и защиты кэша данных. Но, корректировка происходит не прямо во время доступа к кэшу, потому что это бы прирастило бы время задержки доступа. Заместо этого, ошибки распознаются параллельной логикой корректировки ошибок. Если ошибка распознана, покоробленные данные выбрасываются из кэша. Если строчка неверна, корректировка ошибки происходит на пути копирования. Если строчка верна, она аннулируется, а доступ делается снова, что принуждает строчку переместиться в кэш с исправленными данными.
При наличии огромного чипового кэша первого уровня в сочетании с массивным механизмом пророчества ветвления, PA-8500 не нуждается в драгоценном, присоединенном впрямую к микропроцессору кэше второго уровня. Что, в свою очередь, избавляет необходимость в встроенном контроллере кэша второго уровня. В дополнение к этому, нет необходимости в большенном количестве выводов микропроцессора, обслуживающих соединения с наружными RAM.
машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор PA-8500 владеет раздельной архитектурой, в какой машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор обрабатывает до 4 инструкций за такт. Для поддержания суперскалярной производительности на очень вероятном уровне машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор PA-8500 содержит внутри себя 10 многофункциональных модулей: два независящих модуля для операций с плавающей точкой, два независящих многофункциональных модуля деления и извлечения квадратного корня, два независящих 64-разрядных целочисленных арифметических логических модуля (ALU), два модуля сдвиговых/логических функций (хотя эти модули разбиты с целочисленными ALU, за такт ими производятся только две из вероятных 4 инструкций), и два независящих модуля загрузки/выгрузки.
Что касается принципиальных многофункциональных модулей для операций с плавающей точкой, любой из их способен выполнить одну аннотацию умножения/сложения за такт. Таковым образом, пиковая производительность операций с плавающей точкой вчетверо превосходит тактовую частоту. Принципиально отметить, что {инструкция} умножения/сложения является комбинированной, — другими словами для выполнения одной аннотации нужно выполнение 2-ух операций. Это не попросту увеличивает производительность, выполнение композиции умножения/сложения просит одной аннотации в IRB, что еще наиболее увеличивает эффективность микропроцессора. {Инструкция} умножения/сложения имеет 3-х тактовую задержку, но при наличии конвеерности, итог выдается любой такт.
Для того, чтоб применять весь набор многофункциональных модулей, машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор обустроен 56-командным буфером пророчества ветвлений (IRB — instruction reorder buffer) 2-ух портовым кэшем данных и способностью выбирать четыре аннотации за такт из огромного кэша инструкций. машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор может хранить до 56 инструкций в буфере и делать их в тот момент, когда нужные данные и многофункциональный модуль (модули) станут доступными. Связь данных и инструкций, хранящихся в буферах известна, аннотации поступают в многофункциональные модули буквально в момент, когда данные и многофункциональные модули будут доступны.
Могучим орудием PA-8500 является его способность создавать спекулятивное выполнение, которое принуждает машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор «отгадывать» путь выполнения и делать аннотации по этому пути. Если гипотеза неверна, спекулятивно выполненные аннотации сбрасываются. Спекулятивное выполнение поддержано умственным механизмом пророчества ветвлений, базирующемся на 2,048-командном кэше истории ветвления. Пророчество ветвлений описывает порядок выполнения инструкций (другими словами, какая {инструкция}, по его воззрению, будет выполнена) и эти аннотации спекулятивно производятся. Если ответвление предсказано некорректно, эти аннотации просто сбрасываются, в случае если они еще не удалены.
Таблица истории ветвлений (BHT — branch history table) в PA-8500 является обычной матрицей двухбитных ячеек, но информация, хранимая в их, не является информацией о направлении ответвления (избранного либо невыбранного). Модернизированный BHT дозволяет PA-8500 соединять способности статического и динамического способов пророчества ветвлений в одной аппаратной структуре, что не просит наличия 2-ух либо 3-х аппаратных матриц, как в неких остальных способах пророчества ветвлений.
Система микропроцессора обеспечивает реализацию 2-ух методов построения многопроцессорных систем. При первом методе любой машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор подсоединяется к интерфейсному кристаллу, который следит за всеми транзакциями на шине главный памяти. В таковой системе все функции по поддержанию когерентного состояния кэш-памяти возложены на интерфейсный кристалл, который отправляет микропроцессору надлежащие транзакции. кэш данных построен на принципах отложенного оборотного копирования и для всякого блока кэш-памяти поддерживаются биты состояния «личный» (private), «грязный» (dirty) и «достоверный» (valid), значения которых изменяются в согласовании с транзакциями, которые выдает либо воспринимает машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор.
2-ой метод организации многопроцессорной системы дозволяет соединить два микропроцессора и контроллер памяти и ввода-вывода на одной и той же локальной шине памяти. В таковой конфигурации не требуется доп интерфейсных кристаллов и она совместима с имеющейся системой памяти. Когерентность кэш-памяти обеспечивается наблюдением за локальной шиной памяти. Пересылки строк меж кэшами производятся без роли контроллера памяти и ввода-вывода. Таковая конфигурация обеспечивает возможность построения весьма дешевеньких высокопроизводительных многопроцессорных систем.
В секторе рынка серверов рабочих групп компания HP представлена достаточно широкой серией систем HP9000 класса D. Это серия систем с относительно низкой стоимостью, которая соперничает с серверами, построенными на базе ПК . 1–2–процессорные серверы исходного уровня на микропроцессорах РА–7300LC и РА–8000. Вначале позиционировались как серверы для малого бизнеса, но на данный момент производительность новейших старших моделей этого класса полностью достаточна для обслуживания весьма огромных организаций (несколько сотен активных юзеров СУБД). При всем этом стоимость их по–прежнему соответствует цены серверов нижнего уровня. Работают под управлением операционной системы HP-UX.
1–6–процессорные серверы среднего уровня на микропроцессорах РА–8000 и РА8200. Модель К570 с шестью микропроцессорами РА–8200 200MHz является рекордсменом по скорости обработки транзакций в классе средних серверов — 21.358tpm (ближний соперник — AlphaServer 4100 с 4-мя микропроцессорами DECchip 21164 600MHz — показал 15.100tpm). Официальные данные по быстродействию вышедших в феврале моделей K380/K580 еще не размещены, но, по оценкам НР, их транзакционная производительность на 15–20% выше, чем у К570. Серверы способны обслужить до тыщи активных юзеров СУБД, а означает, перекрывают потребности подавляющего большинства организаций.
Архитектуры D– и K–Class идентичны: микропроцессоры, память и контроллеры ввода/вывода разговаривают через внутреннюю шину с производительностью 960MB/sec. Различается наибольшее число микропроцессоров, также интерфейсы для подключения плат расширения: в D–Class употребляются шины EISA и HP–HSC (High Speed Connect, пиковая скорость 160MB/sec), а в K–Class — шины HP–HSC и HP–PB (Precision Bus, пиковая скорость 32 MB/sec). Обычные интерфейсы серверов включают: 2 x RS–232 (для консоли и UPS), Centronics, Ethernet, SCSI–2 и/либо F/W SCSI–2, почти все модели — также порт удаленного управления со интегрированным модемом. Платы расширения включают F/W SCSI–2, Fibre Channel, Ethernet, Token–Ring, FDDI, 100VG, 100Base–T, ATM, ISDN, X.25, SNA, мультиплексоры на различное число портов RS–232.
В конструкции сервера предусмотрены 4 отсека для установки дисковых накопителей, а при помощи особых стоек (кабинетов) расширения емкость дисковой памяти системы быть может доведена до 8.3 Тбайт. Главные характеристики серверов HP9000 класса К представлены в таблице 3.
МОДЕЛЬ
K210
K220
K260 K420 K450 K460
ЦП
Тип микропроцессора
PA7200
PA7200
PA8000 PA7200 PA8000 PA8000
Тактовая частота (МГц)
120
100(D210)
120
180 120 160 180
Число микропроцессоров
1-4
1-4
1-4 1-4 1-4 1-4
Пропускная способность системной шины (Мб/сек)
960
960
960 960 960 960
Размер кэша (Кб) (установок/данных)
256/
256
1024/
1024
1024/1024 1024/1024 1024/1024 1024/1024
память
Малый размер (Мб)
64
128
128 128 128 128
Наибольший размер (Гб)
2.0
2.0
2.0 3.0 4.0 4.0
ВВОД/ВЫВОД
количество слотов
HP-HSC
1
1
1 5 5 5
Количество слотов HP-PB
4
4
4 8 8 8
Наибольшая пропускная способность подсистемы в/в (Мб/сек)
288
288
288 288 288 288
количество отсеков для дисков Fast/Wide SCSI-2
4
4
4 4 4 4
Наибольшая емкость дисковой памяти (Tб)
3.8
3.8
3.8 8.3 8.3 8.3
количество поочередных портов
2
2
2 2 2 2
Количество параллельных портов
1
1
1 1 1 1
Сетевые интерфейсы
Ethernet
Ethernet
Ethernet Ethernet Ethernet Ethernet
Самым массивным и расширяемым корпоративных серверов компании HP на базе ОС unix является семейство HP9000 класса T. Это последующее поколение серверов, которое было создано компанией вослед за HP9000 model 870. В истинное время объявлены 12-процессорные системы Т600 на базе микропроцессора PA-8000, поставки которых должны начаться в 1997 году. Имеющиеся системы (Т500 и Т520) допускают подмену старенькых микропроцессоров на микропроцессоры PA-8000.
Соответствующей индивидуальностью архитектуры серверов класса Т является большая емкость кэш-памяти установок (1 Мбайт) и данных (1 Мбайт) у всякого микропроцессора системы. Серверы класса T употребляют 64-битовую шину с расщеплением транзакций, которая поддерживает до 14 микропроцессоров, работающих на частоте 120 МГц. Эта шина обеспечивает в установившемся режиме пропускную способность 768 Мбайт/с при пиковой производительности 960 Мбайт/с.
Серверы класса T могут поддерживать до 8 каналов HP-PB (HP Precision Bus), работающих со скоростью 32 Мбайт/с, но в стойке главный системы поддерживается лишь один канал HP-PB. Для обеспечения полной конфигурации подсистемы ввода/вывода нужна установка 7 стоек расширения, занимающих довольно огромную площадь. Общая пиковая полоса пропускания подсистемы в/в в вполне сконфигурированной 8-стоечной системе составляет 256 Мбайт/с, что меньше полосы пропускания подсистемы в/в серверов класса К. Но наибольшая емкость дисковой памяти при использовании RAID-массивов добивается 20 Тбайт.
Обозначенная двухярусная шинная структура сервера обеспечивает лучший баланс меж требованиями микропроцессоров и подсистемы ввода/вывода, гарантируя высшую пропускную способность системы даже при тяжеленной рабочей перегрузке. Доступ микропроцессоров к главный памяти осуществляется средством сильной системной шины машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор-память, поддерживающей когерентное состояние кэш-памятей всей системы. В будущих системах планируется 4-кратное повышение пропускной возможности подсистемы ввода/вывода.
4. Отказоустойчивые серверы компании Tandem Computer Inc.
Надежные вычислительные машинки являются главными элементами для построения более ответственных прикладных систем в сфере розничной торговли, денег и телефонной коммутации. На современном шаге развития информационных технологий подобные приложения предъявляют широкий спектр требований к масштабируемости, поддержке открытых эталонов и обеспечению отказоустойчивости систем. одной из более узнаваемых в мире компаний, работающих в данной области, является компания Tandem. В истинное время для ублажения разных требований рынка надежных вычислений она поставляет две разные полосы собственных изделий: системы Tandem NonStop и системы Tandem Integrity.
системы Tandem NonStop, 1-ые модели которых возникли еще в 1976 году, базируются на реализации многопроцессорной обработки и модели распределенной памяти. Для обеспечения восстановления опосля сбоев аппаратуры и ошибок программного обеспечения эти системы употребляют механизмы передачи сообщений меж процессными парами. база данных NonStop SQL, в базе архитектуры которой лежит модель системы без разделения ресурсов (shared-nothing), показала линейную масштабируемость в приложениях обработки транзакций на конфигурациях, содержащих наиболее 100 микропроцессоров. Сначало системы NonStop были нацелены на создание приложений оперативной обработки транзакций (OLTP), но в истинное время активно употребляются и в остальных ответственных приложениях (системах передачи сообщений и системах поддержки принятия решений).
В 1990 году компания Tandem объявила о начале выпуска систем Integrity. Для комуфлирования ошибок в работе систем Integrity употребляются способы аппаратной избыточности (трехкратное резервирование), обеспечивающие продолжение непрерывной работы в критериях сбоев без действия на приложения.
Хотя обозначенные две полосы изделий компании имеют отличия, они удовлетворяют целому ряду общих требований и употребляют почти все общие технологии и составляющие. Все системы Tandem гарантируют целостность данных и устойчивость к сбоям, и не считая того, обеспечивают масштабируемость и возможность создавать модернизацию системы в режиме online. Обе полосы изделий NonStop и Integrity разрешают делать техническое сервис систем в режиме Online (установку и подмену плат, источников питания и вентиляторов без остановки системы и выключения питания). Используемые конструкции допускают установку обеих систем в офисных помещениях, обычных машинных залах вычислительных центров либо на телефонных станциях. В системах употребляются много общих компонент таковых, как накопители на дисках, элементы памяти и процессоры.
В 1991 году компания Tandem начала программку объединения наилучших параметров обеих систем в единой полосы изделий. Основой для объединения архитектур послужила разработка головного транспортного средства — системной сети ServerNet. ServerNet представляет собой многоступенчатую пакетную сеть, применяемую как для организации межпроцессорных связей, так и для реализации связей с устройствами ввода/вывода. ServerNet обеспечивает действенные средства для обнаружения и изоляции дефектов, также реализует прямую поддержку других каналов передачи данных для обеспечения непрерывной работы системы при наличии отказов сети. Разработка данной для нас сети предоставляет новейшие способности развития обеих линий изделий, включая огромную масштабируемость, интерфейсы с открытыми эталонами шин и усовершенствованную поддержку мультимедийных приложений.
На Рис. 10 показана базисная архитектура систем NonStop. Эта архитектура подразумевает объединение 2-ух либо наиболее ЦП с помощью дублированной скоростной межпроцессорной шины. Любой машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор имеет один либо несколько каналов в/в, соединяющих его с двухпортовыми дисковыми контроллерами и коммуникационными адаптерами. В реальности в первых 5 поколениях систем NonStop (NonStop I, II, TXP, CLX и VLX) было реализовано лишь по одному каналу в/в на машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор, а пара разделяемых шин обеспечивала объединение до 16 микропроцессоров. В наиболее поздних системах NonStop Cyclone и Himalaya K10000/20000 для роста пропускной возможности системы межсоединений была использована сегментация межпроцессорной шины на базе четырехпроцессорных секций. Секции могут объединяться при помощи оптоволоконных линий связи в узлы (до 4 секций в узле). системы NonStop II, TXP, VLX и Cyclone поддерживают также возможность построения оптоволоконного кольца, которое дозволяет соединить меж собой до 14 узлов и обеспечивает резвый обмен данными снутри домена, состоящего из 224 микропроцессоров. В системе Cyclone к любому микропроцессору могут подсоединяться несколько каналов в/в, при этом любые четыре канала управляются собственной парой контроллеров прямого доступа к памяти.
Опосля разработки и удачных испытаний системы Cyclone компания Tandem перебежала на применение в собственных изделиях RISC микропроцессоров компании MIPS (заместо использовавшихся ранее заказных CISC микропроцессоров). В системах CLX/R и К200 употребляются микропроцессоры R3000, а в системах Himalaya K10000, K20000 и K2000 — микропроцессоры R4400. сразу с объявлением в 1993 году о начале поставок новейшего семейства систем Himalaya компания анонсировала также оптоволоконную сеть межпроцессорного обмена TorusNet, созданную для построения крупномасштабных кластеров. TorusNet обеспечивает соединение четырехпроцессорных секций при помощи лишней сети с топологией двухмерного тора.
Все аппаратные составляющие систем NonStop построены на базе принципа «резвого проявления неисправности» (fail fast disign), в согласовании с которым любой компонент должен или работать верно, или немедля останавливаться. В наиболее ранешних системах Tandem реализация этого принципа обширно опиралась на внедрение способов проверки четности, лишнего кодировки либо проверки допустимости состояния при выполнении каждой логической функции. Современные конструкции для обнаружения ошибок в сложной логике полагаются основным образом на способы дублирования и сопоставления. Все системы, имеющие ЦП на базе процессоров, для гарантии целостности данных и резвого обнаружения дефектов делают сопоставление выходов дублированных и взаимно синхронизированных процессоров. В системах NonStop ответственность за восстановление опосля обнаружения неисправности в аппаратуре возлагается на программное обеспечение.
Операционная система NonStop Kernel систем NonStop безпрерывно развивалась и к истинному времени перевоплотился из запатентованной фирменной операционной системы в систему, которая обеспечивает вполне открытые интерфейсы, построенные на базе промышленных эталонов. Для поддержки стойкости критически принципиальных действий в NonStop Kernel реализованы низкоуровневые механизмы контрольных точек, также особый слой программных средств, на котором строится как запатентованная среда Guardian, так и открытая среда Posix-XPG/4.
Главный задачей компании Tandem при разработке систем семейства Integrity было обеспечение стойкости к одиночным отказам аппаратуры при соблюдении 100% переносимости обычных unix-приложений. Для комуфлирования аппаратных дефектов в системах Integrity употребляется тройное модульное резервирование (TMR — triple-modular redundancy) в микропроцессоре, кэш-памяти и главный памяти.
Три микропроцессора делают схожие потоки установок, но работают с независящей синхронизацией. Микропроцессоры синхронизируются во время обработки воззваний к глобальной памяти и при обслуживании наружных прерываний. Все воззвания к глобальной памяти с выходов резервируемых микропроцессоров поступают через схемы голосования в пару контроллеров TMR. Схемы голосования на базе сопоставления воззваний меж собой обнаруживают вероятные неисправности микропроцессоров и отправляют достоверные запросы в остальную часть системы. Для обнаружения дефектов в системах контроллера TMR и микропроцессора в/в употребляются средства самоконтроля. Любой периферийный контроллер содержит обычную плату VME, которая через специальную плату адаптера подсоединяется к паре шин в/в, защищенных четностью. Плата адаптера дозволяет производить коммутацию контроллера с 2-мя микропроцессорами в/в.
В системах Integrity реализация платы основного микропроцессора не просит сложной логики самоконтроля. Но это делает ее систему хорошей от конструкции процессорной платы систем NonStop, хотя в обеих употребляются одни и те же процессоры. Архитектура новейших систем соединяет воединыжды требования базисной конструкции Integrity при сохранении сопоставимости с требованиями систем NonStop.
Новенькая системная архитектура, построенная на базе ServerNet, соединяет воединыжды характеристики систем NonStop и Integrity. Она решает общую задачку построения отказоустойчивых систем различного масштаба методом реализации гибких способов соединения обычных многофункциональных блоков (модулей ЦП/памяти, подсистем наружной памяти и коммуникационных адаптеров).
На Рис. 11. показана архитектура обычной системы, построенной на базе ServerNet. Эта система состоит из нескольких процессорных узлов и узлов ввода/вывода, объединенных друг с другом системной сетью ServerNet. Базисным элементом системной сети ServerNet является маршрутизатор, выполненный в виде отдельной заказной СБИС. Для обеспечения отказоустойчивости предполагается возможность построения 2-ух независящих субсетей ServerNet: X и Y. В типовой конфигурации системы большая часть ее узлов имеют двухпортовые интерфейсы, обеспечивающие подсоединение всякого узла к сиим независящим подсетям. одной из доп способностей новейшей архитектуры является наличие специальной шины когерентности, допускающей подключение до 4 ЦП. Эта шина обеспечивает согласованное состояние общей для нескольких процессорных узлов памяти и их кэшей при выполнении программ, разработанных в расчете на мультипроцессорную обработку в системе с разделяемой общей памятью.
При работе под управлением операционных систем, поддерживающих отказоустойчивость программными средствами (схожих NonStop Kernel), процессорные узлы делают независящие потоки установок, все пересылки данных осуществляются ЦП по сети ServerNet.
Как уже отмечалось, для обеспечения отказоустойчивости в системе Integrity требуются три процессорных кристалла и три массива микросхем памяти. Новенькая архитектура просит 4 процессорных кристаллов (два на модуль ЦП) и 2-ух массивов микросхем памяти. Стоимость реализации этих 2-ух подходов значительно зависит от размера памяти. Для типовых систем оба способа имеют сравнимую стоимость.
ServerNet представляет собой резвую, масштабируемую, надежную системную сеть, обеспечивающую упругость соединения огромного числа ЦП и устройств перифирии в/в меж собой. Главными качествами данной для нас сети коммутации пакетов являются малая задержка и высочайшая надежность передачи данных. Для уменьшения задержки в сети применяется способ червячной маршрутизации, не требующий приема всего пакета до его отсылки к последующему приемнику. Физический уровень ServerNet образуют независящие каналы приема и передачи, любой из которых имеет 9-битовое поле установок/данных и сигнал синхронизации. Поле установок/данных обеспечивает кодирование 256 знаков данных и до 20 знаков установок. Знаки установок употребляются для управления уровнем звена, инициализации и сигнализации о ошибках. Кодирование в одних и тех же линиях установок и данных уменьшает количество контактов и упрощает обнаружение ошибок в логике управления.
Система употребляет ServerNet для организации связей ЦП-ЦП, ЦП-В/В и В/В-В/В. Пересылки меж процессором и памятью для всякого узла ЦП остаются локальными.
Данные в сети ServerNet пересылаются со скоростью 50 Мбайт в секунду. Таковая скорость передачи данных была выбрана исходя из того, чтоб затмить потребности имеющихся устройств перифирии при соблюдении низких цен. В будущих поколениях ServerNet производительность линий связи будет возрастать при необходимости.
В истинное время наибольшая длина полосы связи ServerNet ограничена 30 м. В будущих адаптерах предполагается повышение расстояния меж узлами ServerNet при помощи поочередных оптоволоконных линий связи. Предполагается, что этот переход будет относительно обычным, так как все функции управления употребляют одни и те же полосы установок/данных.
Все транзакции по сети ServerNet происходят в два шага: выполнение запроса и ожидание соответственного ответа, который должен возвратиться до истечения данного интервала времени (счетчика таймаута). Все узлы ServerNet поддерживают возможность выдачи несколько исходящих запросов в остальные узлы.
В СБИС маршрутизатора ServerNet реализован матричный переключатель размерностью 6х6. Решение о направлении маршрутизации принимается на базе анализа идентификатора приемника из заголовка пакета. В состав маршрутизаторов входят входные буфера FIFO, инициализация и реконфигурация сети производятся программными средствами методом загрузки соответственных таблиц маршрутизации.
Одним из базисных частей системы является процессорный модуль (ЦП), блок-схема которого показана на Рис. 13. В ЦП, построенном на принципах резвого проявления дефектов, имеются два порта ServerNet, обеспечивающие его соединение через системную сеть с иными ЦП и устройствами в/в. Для реализации устройств разделяемой общей памяти несколько ЦП могут объединяться вместе при помощи шины когерентности.
В состав ЦП входят два процессора, любой из которых имеет независящий вторичный кэш. Любой процессор подсоединяется к шине памяти при помощи СБИС процессорного интерфейса. При выполнении воззваний к памяти эти СБИС ассоциируют выходы обоих процессоров для обнаружения всех вероятных ошибок процессора и кэша. память ЦП защищена кодом ECC, который обеспечивает корректировку всех одиночных ошибок и обнаружение всех ошибок в отдельных микросхемах ДЗУПВ либо адресных линиях. Массив микросхем памяти соединяется с шиной памяти ЦП через пару СБИС контроллеров памяти. Эти СБИС во время воззваний к памяти взаимно инспектируют выходы друг друга.
ЦП могут иметь прямой доступ к памяти остальных ЦП при помощи доборной шины когерентности. Эта шина обеспечивает аппаратную поддержку обычных приложений unix либо Windows NT, которые употребляют симметричную мультипроцессорную обработку (SMP). Любой ЦП подсоединяется к шине при помощи пары самоконтролирующихся СБИС интерфейса когерентности. Эти СБИС обеспечивают кэш-когерентный доступ к общей памяти используя дублированную память тегов и обычный протокол аннулирования блоков кэш-памяти. Они обеспечивают также когерентность кэш-памяти при выполнении воззваний к памяти со стороны В/В. Все передачи данных по шине когерентности защищены кодом ECC. Проверка синдрома ECC для данных, пересылаемых по шине, и сопоставление выходов СБИС дозволяет обнаруживать сбои шины либо СБИС интерфейса.
СБИС процессорного интерфейса ЦП реализуют два порта ServerNet. Полосы приема данных обоих портов ServerNet подсоединяются к обеим СБИС процессорного интерфейса. Любая СБИС сформировывает данные для передачи по обоим портам ServerNet, но реально данные передаются лишь из 1-го порта. 2-ая СБИС воспринимает данные, передаваемые иной СБИС, ассоциирует приобретенное говорит о ошибке при любом рассогласовании данных.
Новенькая система в/в обеспечивает фактически неограниченные способности масштабирования по числу объединяемых узлов и пропускной возможности сети. Она отлично поддерживает модель распределенных вычислений разрешая хоть какому микропроцессору обращаться к хоть какому контроллеру в/в и допуская реализацию прямых связей контроллер-контроллер.
Аппаратная отказоустойчивая система реализуется при помощи дуплексной пары, которая создается методом соответственного конфигурирования 2-ух процессорных модулей. Схожее состояние памяти и кэшей в этих 2-ух модулях поддерживается благодаря выполнению на обоих ЦП 1-го и такого же программного кода с теми же самыми данными, также поступлению в память обоих ЦП всего потока ввода. Оба ЦП генерируют схожие исходящие потоки вывода. один из этих потоков выбирается маршрутизаторами для пересылки в контроллеры в/в либо остальные микропроцессоры.
Модули ЦП имеют развитые средства обнаружения дефектов. ЦП останавливается при обнаружении его схемами контроля хоть какой ошибки. Остановка ЦП приводит к тому, что по обоим его портам ServerNet будет передана нелегальная кодовая композиция. В итоге маршрутизатор может найти неисправный ЦП (основополагающим правилом системы установлено, что все ошибки ЦП должны приводить к передачам по ServerNet нелегальных кодовых композиций).
Когда маршрутизатор, подсоединенный к дуплексному ЦП, обнаруживает ошибку, он начинает выполнение протокола восстановления. Этот протокол реализован вполне аппаратно без вербования программных средств. При всем этом один из ЦП исключается из работы, а иной свою работу продолжит. Протокол гарантирует, что исправный ЦП остается работать. Но есть случаи, когда в исключенном ЦП неисправности отсутствуют. к примеру, к исключению ЦП из работы могут привести неисправности в одном из маршрутизаторов либо в одной из линий связи ServerNet. В этих вариантах система обслуживания может исключить из работы неисправный маршрутизатор, а исключенный ЦП перевести в состояние online.
Если при пересылке пакета из ЦП маршрутизатор обнаруживает неисправность полосы связи ServerNet, он отмечает пакет как недостоверный. Хоть какой узел ServerNet, который получит этот пакет, будет его игнорировать. Это значит, что неисправность в ЦП, маршрутизаторе либо полосы связи может привести к потере 1-го либо нескольких пакетов. При обычной дуплексной работе лишь один из 2-ух маршрутизаторов дуплексных микропроцессоров пересылает пакеты, поступающие из всякого ЦП. Это ограничивает утрату пакетов пределами одной сабсети ServerNet. Интерфейсные кристаллы обнаруживают утрату пакетов ServerNet при помощи средств временного контроля. Программное обеспечение ввода/вывода делает восстановление методом повторной передачи данных по другому пути.
ServerNet обеспечивает широкие способности для масштабирования системы. Обычно расширение производится при помощи интегрированных кабельных соединений, также установки в гнезда расширения ServerNet плат маршрутизаторов. Не считая того, добавление всякого ЦП обеспечивает повышение числа линий связи ServerNet и отлично расширяет общую пропускную способность в/в системы. В отличие от остальных массивно-параллельных архитектур сети ServerNet не ограничены лишь постоянными топологиями типа гиперкубов либо торов. сеть ServerNet дозволяет прирастить число линий связи в любом месте, где требуется доборная пропускная способность. Приложения с умеренными требованиями к системе межсоединений могут наслаждаться наименьшим количеством связей, а как следует, применять довольно дешевенькую сеть, в то время как приложения с высочайшей интенсивностью обработки данных могут рассчитывать на компанию сети с большей связностью.
В истинное время в области масштабируемых распределенных вычислений начали обширно употребляться также обычные системы UNIX. В ряде научных приложениях кластеры рабочих станций начали подменять суперкомпьютеры. Предполагается, что эта тенденция станет главной движущей силой для усиленной разработки приложений и операционной среды распределенных вычислений.
Главные функции системы обслуживания включают установку системы, формирование сообщений о ошибках, диагностику и управление средствами контроля питающих напряжений и температурных режимов работы. Системой обслуживания управляют два сервисных микропроцессора (SP), которые располагаются в каждой стойке и работают как спец контроллеры в/в ServerNet. SP, размещенные в различных стойках, также соединены друг с другом средством ServerNet.
Система обслуживания употребляет специальную систему независящих шин. Эти шины базируются на 2-ух обычных для индустрии интерфейсах: SPI (Serial Peripheral Interconnect) компании Motorola и систему сканирования в эталоне IEEE 1149.1 JTAG. SPI употребляется в качестве дешевый поочередной шины в/в для связи со всеми средствами контроля и управления состоянием окружающей среды. Система обслуживания употребляет средства сканирования для управления, инициализации, тестирования и отображения работы всех СБИС. Используемое Tandem расширение к эталону IEEE 1149.1, обеспечивает доступ к регистрам СБИС. Работа средств сканирования никак не затрагивает нормальную работу СБИС. Этот всепригодный механизм обеспечивает средство для инициализации СБИС, определения топологии ServerNet и передачи сообщений о ошибках.
Структурная схема 1-го из базисных вариантов сервера дана на Рис. 14. Можно выделить три главные подсистемы: процессорную подсистему, подсистему в/в и подсистему наружной памяти.
Процессорная подсистема строится на базе системных плат (SPU), любая из которых включает по два процессора с памятью и логикой сопоставления, связанные дублированными каналами с подсистемой в/в. В качестве процессоров используются микропроцессоры MIPS R4400 с кэш-памятью первого уровня емкостью 32 Кбайт (16 Кбайт — кэш установок и 16 Кбайт — кэш данных), работающие на тактовой частоте 200 МГц. Размер кэш-памяти второго уровня составляет 1 Мбайт/машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор. Размер главный памяти системы может достигать 1 Гбайт (в четырехпроцессорной конфигурации).
Подсистема в/в ServerNet делает отказоустойчивую магистраль передачи данных меж SPU и контроллерами устройств перифирии и коммуникационными адаптерами. Отказоустойчивость обеспечивается благодаря использованию 2-ух независящих субсетей Servernet. В составе всякого сервера имеется функциональный контроллер SSC (Standard System Controller). SSC обеспечивает интерфейс ServerNet с контроллерами в/в, контроллерами SCSI-2 для внутренних устройств массовой памяти, сервисным микропроцессором, также поочередными и сетевыми интерфейсами для поддержки средств диагностики и консоли. Пара контроллеров SSC обеспечивают отказоустойчивый доступ к устройствам массовой памяти. Любой контроллер SSC содержит пару интерфейсов шины SCSI-2, которые соединены с остальным контроллером SSC и обеспечивают два независящих пути доступа ко всем внутренним дисковым и ленточным накопителям. Система поддерживает «зеркалирование» дисков для обеспечения непрерывного доступа к хранящимся на дисках данным.
В серверы могут также устанавливаться доп контроллеры Ethernet, асинхронного и синхронного интерфейсов, любой из которых имеет по два порта для обеспечения доступа к микропроцессорам через две независящих сабсети Servernet. Контроллеры SSC и доп контроллеры в/в могут заменяться в процессе работы системы (в режиме «жаркой» подмены). Главные свойства серверов S4000-CM S4000-CO представлены в Таблице …
S4000-CM S4000-CO
способности стойки
Количество плат SPU
48
Процессорные конфигурации:
Симплексная
1-4 проц.SMP1-4 проц.SMP
Дуплексная (отказоустойчивая)
1-2 проц.SMP1-4 проц.SMP
количество маршрутизаторов
24
Количество плат SSC
24
Количество гнезд в/в ServerNet
1020
количество мест установки
устройств наружной памяти
1236
машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор
MIPS RISC R4400 MIPS RISC R4400
Тактовая частота
200 МГц 200 МГц
Первичный кэш
16 Кб — команды
16 Кб – данные 16 Кб — команды
16 Кб — данные
Вторичный кэш
1 Мб / микропроцессор 1 Мб / микропроцессор
Основная память
Размер
128/256ECC/проц. 128/256ECC/проц.
Очень в системе
1024 Мб 1024 Мб
Пропускная способность шины памяти (пиковая)
400 Мб/с / проц. 400 Мб/с / проц.
Подсистема в/в
количество каналов в/в
2 подсистемы в/в
ServerNet2 подсистемы в/в
ServerNet
Пропускная способность каналов в/в (пиковая)
200 Мб/с / проц. 150 Мб/с / проц.
Пропускная способность каналов в/в (пиковая)
800 Мб/с / сист. 600 Мб/с / сист.
Заключение
В реферате был рассмотрен метод построения сервера на базе многопроцессорной SMP архитектуры, но это не единственное вероятное решение. быть может построен на базе супер компа либо группы дешевеньких индивидуальных компов объединенных в кластер.
Бурное развитие сетевых технологий привело к возникновению новейших направлений в построении серверных систем (кластерные системы). Весьма трудно найти какой тип и класс сервера необходимо избрать, какой фирме производителю дать предпочтение. Любая Компаниядля собственной продукции разрабатывает набор тестов, которые учитывают специфику оцениваемой системы и часто не являются беспристрастными.
В этом случае на помощь приходит набор обычных тестов, разрабатываемых независящими организациями. Главные типы тестов – SPEC, AIM, TPC и остальные. В таблице 5. представлены характеристики производительности рассмотренных систем.
Как видно из таблицы лучшие свойства имеют системы построенные на базе микропроцессоров конторы Alpha. КомпанияDEC опосля перехода с микропроцессоров VAX на Alpha равномерно занимает лидирующее положение. Главными состовляющими фуррора является мощнейший машина — комплекс технических средств, предназначенных для автоматической обработки информации в процессе решения вычислительных и информационных задач) (либо вычислительной системы) которое делает арифметические и логические операции данные программкой преобразования инфы управляет вычислительным действием и коор с высочайшей тактовой частотой, не плохая масштабируемость серверов (до 16 микропроцессоров) и возможность объединения машин в кластер.
Компания
Кофигурация
tpmC
MIPS
SPECint95
Стоимость
Digital
AlphaServer 2100 5/300
263
7.03
—
Digital
AlphaServer 8400 5/350 (8 CPUs)
11,456
300
10.1
2,972,726
HP
HP 9000 K570
14.6
Tandem
NonStop Himalaya K 10000-112
20,918
—
—
3,529,520
Tandem
Integrity NR/4436 Server
6,313
—
—
—
Bull
Escala Series T (360MHz)
~2,000
—
14.2
1,409,965
Перечень литературы
1) www.citfofum.ru
2) www.hp.com
3) www.dec.com
4) www.microprocessor.sco.ru
5) www.parallel.ru]]>