на тему рефераты
 
Главная | Карта сайта
на тему рефераты
РАЗДЕЛЫ

на тему рефераты
ПАРТНЕРЫ

на тему рефераты
АЛФАВИТ
... А Б В Г Д Е Ж З И К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Э Ю Я

на тему рефераты
ПОИСК
Введите фамилию автора:


Курсовая работа: Серверные платформы RISC/UNIX


Модели начального уровня. К начальному уровню HP относит три модели: HP Integrity rx 1620-2, гх2620-2 и гх4640-8. Все они выполнены на наборе микросхем zxl и могут оснащаться ЦП Itanium 2 с тактовыми частотами 1,3, 1,5 и 1,6 ГГц. Модель гх4640-8 может также оснащаться двухпроцессорными модулями тх2, В первые две модели может устанавливаться до двух, а в гх4640-8 — до 8 процессоров, максимальный объем ОЗУ для rх 1620-2 составляет 16, для rх2620-2 32, а для rх4640-8 128 Гбайт. Модели имеют высоту, соответственно, 1U, 2U и 4U, число разъемов PCI-X 2, 4 и 6, количество внутренних жестких дисков 2, 3 и 2.

Модели среднего уровня, К среднему уровню в серии Integrity относятся, как и в серии 9000, 16- и 32-процессорные серверы — rх7620-16 и rх8620-32. Они строятся на процессорах Itanium 2 с тактовой частотой 1,5 (кэш L3 4 Мбайт) и 1,6 ГГц (кэш L3 6 Мбайт) или двухпроцессорных модулях тх2. В качестве НМС используется sxl000. Объем ОЗУ в серверах rх7620-16 может достигать 128, а в rх8620-32 — 256 Гбайт. Высота блоков составляет, соответственно, 10 и 17U.

Как и в соответствующих моделях серии 9000, в состав ОС этих серверов входят средства виртуализации вычислительных ресурсов, позволяющие создавать независимые разделы и динамически перераспределять ресурсы между ними.

Суперкомпьютеры HP Integrity Superdome и NonStop. В этих суперсерверах число процессоров (1,6-ГГц с кэшем 9 Мбайт или 1,5-ГГц с кэшем 6 Мбайт или модули тх2) может достигать 128, а общий объем оперативной памяти — 1 Тбайт. Средства виртуализации обеспечивают создание до 16 независимых разделов, а число разъемов ввода-вывода может доходить до 192.

Для предприятий, где прерывание обслуживания абсолютно недопустимо, компания предлагает масштабируемые серверы Integrity NonStop, готовность которых выражается фантастической цифрой «7 девяток» (99,99999% — это значит, что в течение года допускается не более 5 минут простоя). Число процессоров в этих монстрах может достигать 4 тысяч!

Платформа IBM POWER

История платформы IBM POWER (Performance Optimization With Enhanced RISC) уходит далеко в начало 1970-х гг.; в то время корпорация IBM делала первые серьезные шаги в области проектирования, производства и применения высокопроизводительных микропроцессоров на базе RISC-архитектуры. Она связана с RISC-процессором IBM 801, долгое время использовавшимся в качестве высокоскоростного вспомогательного контроллера в составе крупных информационно-вычислительных систем компании IBM. В начале 1980-х гг. идеи, заложенные в IBM 801, были изучены, переработаны, дополнены и заново воплощены в кремнии в рамках проекта «America», результаты которого фактически и стали началом архитектуры IBM POWER.

Набиравшие в то время особую популярность персонализированные вычисления требовали при построении систем компактных, недорогих, но производительных микропроцессорных решений, и новая архитектура пришлась ко двору IBM как нельзя лучше. Для создания полноценной платформы было решено воспользоваться программными наработками, реализованными ранее при создании рабочих станций в рамках проекта RISC Technology Personal Computer (RT PC), и перенести на новую процессорную архитектуру собственную версию UNIX-подобной ОС AIX (Advanced Interactive Executive).

Надо отметить, что архитектура POWER с момента своего появления — открытый стандарт, к которому при соблюдении определенных условий может присоединиться любой желающий. Начиная с декабря 2004 г. координация усилий разработчиков, участвующих в развитии архитектуры POWER, возложена на консорциум Power.org (www.power.org), в ведении которого также находятся вопросы, связанные с лицензированием элементов архитектуры независимых заинтересованных производителей.

В феврале 1990 г. появился первый микропроцессор новой архитектуры — 32-разрядный POWER1, а вместе с ним и новое семейство высокопроизводительных рабочих станций RS/6000, ныне известных как eServer pSeries. В качестве ОС использовалась новая версия AIX — AIX V3. Особенность процессора POWER1 — блок операций с вещественными числами, хотя и единственный, но способный обрабатывать одну инструкцию за такт, с задержкой не более двух тактов (подробнее об архитектуре процессоров POWER см. в разделе «Процессоры»). Благодаря ему производительность системы RS/6000 на операциях с вещественными числами оказалась очень высокой. Не исключено, что эта особенность сыграла решающую роль в распространении рабочих станций RS/6000 в научном сообществе.

В январе 1992 г. была представлена система RS/6000 7011 модель 220, построенная для уменьшения цены и большей доступности на однокристальной реализации архитектуры POWER — RISC Single Chip (RSC).

Достаточно быстро по меркам тогдашнего времени на смену первому поколению пришла платформа POWER2. В сентябре 1993 г. появились системы RS/6000 7013 моделей 580Н, 590 и 990, построенные на базе этого процессора. Второе поколение архитектуры POWER использовалось практически до октября 1996 г., когда IBM представила систему RS/6000 7013 модель 595, построенную на базе однокристальной реализации архитектуры POWER2 под названием POWER2 Super Chip (P2SC).

Рабочая станция RS/6000 7011 модель 250, появившаяся в сентябре 1993 г., стала первым воплощением нового направления под названием PowerPC (в виде процессора PowerPC 601). Процессор PowerPC 601 на самом деле не полностью соответствовал требованиям новой архитектуры и был скорее переходным звеном от POWER к PowerPC. Последовавшие за ним микропроцессоры 603, 604 и 604е стали действительно 100%-ным PowerPC.

Серия микропроцессоров RS64 была запущена в производство в сентябре 1997 г. и стала для системы RS/6000 и всей архитектуры POWER первым шагом к 64-разрядности. В отличие от поколения POWER2, в значительной степени ориентированного на научные расчеты, новое поколение стало более сбалансированным в плане исполнения бизнес-приложений. С помощью серии RS64 можно было строить SMP-системы, содержащие до 12 процессоров. С появлением этой серии микропроцессоров в платформе IBM POWER произошло еще одно существенное изменение — аппаратная часть (процессоры, подсистема ввода-вывода) серии RS/6000 (переименованной в pSeries в 2000 г.) и системы AS/400 (тогда же переименованной в iSeries) стала единой. Второе поколение серии микропроцессоров RS64 — RS64-II — появилось в сентябре. 1998 г. и характеризовалось повышением частотных характеристик и объема кэш-памяти второго уровня, а также небольшой оптимизацией внутрипроцессорной архитектуры. Значительные изменения произошли с появлением осенью 1999 г. третьего поколения — RS64-III. Дизайн кристалла был модифицирован для производства с применением технологии медных проводников, уровень масштабируемости был увеличен до 24 процессоров в рамках одной SMP-системы, и, наконец, в архитектуру была добавлена технология аппаратной многопоточности, поддержанная со стороны AIX. На тот момент эта технология не была востребована. Ее возвращение в RISC-процессоры IBM произошло только в 2004 году. Осенью 2000 г. появилась последняя, наиболее совершенная версия этого поколения процессоров — RS64-IV.

Поколение POWER3, представленное осенью 1998 г., соединило в себе фундаментальные принципы внутренней микроархитектуры POWER2, как они были реализованы в процессоре P2SC, с архитектурой систем на базе процессоров PowerPC. Процессоры этого поколения хорошо работают с вещественными числами, и при этом они стали первыми реально 64-разрядными с высокими частотными характеристиками и возможностями работы в SMP-конфигурациях.

Появление в 2001 г. архитектуры POWER четвертого поколения — POWER4 — стало для нее переломным моментом, определившим качественный поворот всей дальнейшей судьбы платформы IBM POWER. Благодаря новым технологиям открылась возможность строить решения с многоядерной архитектурой, чем немедленно воспользовались разработчики IBM, интегрировав на одном кристалле два 64-разрядных процессорных ядра. Кроме того, на процессорах этого поколения была отработана технология построения компактных многокристальных модулей МСМ (multi-chip module), объединяющих четыре процессора в единый корпус размером примерно е 5-дюйм дискету. Использование такой высокой интеграции элементов вместе с другими архитектурными решениями позволило получить на старших серверах IBM производительность, в пересчете на один процессор вдвое превышающую производительность конкурирующих систем.

Поколение POWER4+, увидевшее свет в 2002 г., было лишь обновлением технических характеристик POWER4: благодаря новой, более «тонкой» технологии производства увеличились тактовая частота и объем встроенной кэш-памяти второго уровня, а также снизилось энергопотребление процессоров.

Новый значительный шаг вперед был сделан с выходом в 2004 г. поколения POWER5. В нем получила развитие идея интеграции функций, для исполнения которых ранее применялись отдельные наборы микросхем, в частности, в кристалл был встроен контроллер оперативной памяти. Также в нем была реализована параллельная многопоточная архитектура, позволяющая в рамках одного потока команд выполнять целый комплекс задач: предсказание переходов, подготовку команд к исполнению и т. д. Это дало возможность значительно увеличить количество одновременно выполняемых инструкций, причем независимо от тактовой частоты. Согласно результатам открытых тестов, быстродействие систем на POWER5 в полтора-два раза больше, чем систем на POWER4. Использование многопоточности увеличивает производительность процессора POWER5 в среднем на 35% без повышения тактовой частоты. Одновременно с появлением нового поколения архитектуры была выпущена новая версия ОС AIX — AIX 5L V5.3.

AIX 5L V5.3 содержит многие инновационные технологии повышения производительности, надежности и гибкости, позволяя в рамках одной платформы выполнять приложения, работающие под управлением разных ОС. Среди наиболее важных особенностей платформы IBM POWER, реализуемых посредством ОС A1Х 5L V5.3, динамические логические разделы, средства изменения конфигурации по требованию, балансировка нагрузки на серверы при гарантированной безопасности работы приложений, средства повышения отказоустойчивости, возможность одновременного выполнения на одной платформе 32- и 64-разрядных приложений, а также использование инфраструктуры автономных вычислений (autonomic computing).

Для выполнения важных приложений в AIX 5L 5.3 имеется менеджер загрузки Workload Manager (WLM), гарантирующий их работу в соответствии с соглашением об обслуживании независимо от текущей нагрузки на систему. Обеспечивая автоматическое переключение ресурсов между заданиями, администратор транслирует бизнес-требования в политики, в соответствии с которыми происходит автоматическое распределение ресурсов и приоритетов, что особенно важно для обеспечения работоспособности и оптимизации выполнения приложений электронной коммерции, бизнес-разведки и ERP. Кроме этого, для более гибкого масштабирования в AIX 5L 5.3 предусмотрен механизм динамической модернизации сервера путем активизации установленных ранее неактивных ресурсов (процессоров, памяти) по запросу, известный как CUoD (Capacity Upgrade on Demand).

Кроме того, в AIX 5L 5.3 имеются средства DLPAR (Dynamic Logical Partitioning), позволяющие масштабировать серверы pSeries, обеспечивая одновременную, независимую работу на одном компьютере нескольких образов разных ОС. Логические разделы не ограничены рамками возможностей физических устройств, а оперируют блоками ресурсов, из которых можно строить виртуальный сервер с динамически изменяемой по числу процессоров, объему памяти, количеству гнезд ввода-вывода конфигурацией. Отличительной особенностью систем, построенных на POWER5 под управлением AIX 5.3, является уникальная возможность полной виртуализации вычислительной мощности. Независимые разделы могут «потреблять» процессорную мощность с шагом одна десятая процессора. При этом, учитывая динамическое перераспределение мощности и неравномерность загрузки процессоров выполняемыми задачами во времени, единовременное потребление каждой задачей может достигать 100% доступных вычислительных ресурсов. Для пользователя это означает, что консолидация нескольких задач в один сервер с подобным динамическим перераспределением может значительно повысить эффективность работы системы, а количество процессоров, используемых для консолидации, будет значительно меньше, чем необходимое для функционирования каждой задачи на индивидуальном сервере. (Flash Demo по технологиям, используемым в системах IBM eServer p5, можно посмотреть по адресу http://callisto.bstoke.uk.ibm.com/unixsolutions/sales/ cont/p5flashdemos.htm).

Подсистема Virtualization Engine переносит из мэйнфреймов на UNIX-серверы механизм создания разделов, позволяющий выполнять на одном процессоре множество независимых экземпляров ОС. Технология микроразделов (micro-partitioning) повышает до уровня мэйнфреймов загрузку серверных мощностей, которая сегодня для UNIX-серверов составляет лишь 15%. Помимо оптимизации ресурсов серверов, Virtualization Engine поможет упростить процессы управления сложными ИТ-инфраструктурами. Однако в отличие от технологии логических разделов, уже более пяти лет используемой в серверах iSeries, система Virtualization Engine, реализованная в pSeries, имеет ряд новых возможностей: интеграцию механизмов создания микроразделов с программными модулями Tivoli, WebSphere, решения но балансировке рабочей нагрузки, средства управления элементами ИТ-инфраструктуры, позволяющие управлять ресурсами виртуального сервера. Virtualization Engine содержит также новый программный модуль Tivoli Provisioning Manager для автоматизации процессов конфигурирования и представления всех видов ресурсов в ИТ-среде: серверов, ОС, промежуточного ПО, систем хранения и сетевых устройств.

Для построения практически неограниченных по мощности систем используется кластерное ПО, обеспечивающее координацию и синхронизацию между узлами. В AIX 5L системному администратору предоставляется интерфейс к аппарату Cluster Systems Management (CSM), позволяющему из одной точки управлять логическим центром данных, образованным физически распределенным кластером из серверов pSeries и xScries, работающих с ОС AIX или Linux.

Кроме того, совместно с AIX может быть поставлена система НАСМР (High Availability Cluster Multiprocessing), помогающая обеспечить работоспособность приложений в режиме 24x7 (круглосуточно ежедневно) и автоматически определяющая сбойные узлы или нарушения работы сети и организующая восстановление работы оборудования, приложений и пользовательских сессий.

AIX 5L имеет сертификат уровня С2, а также в ней предусмотрена расширенная поддержка многих стандартных протоколов и технологий безопасности: Pluggable Authentication Module (РАМ), PKI, Enterprise Identity Mapping (EIM), BIND V9, SNMP V3, Mobile IPv6, WAP, OpenSSH и ряда других, среди которых следует отметить IBM Network Authentication Server, IBM Directory Server 4.1 и ICSA Certified Ipsec/VPN, технологии безопасности в Java: JAAS, JCE/JCE, JSSE, JGSS и J-PKI.

Несомненно, будущее платформы IBM POWER связано с развитием процессорной архитектуры POWER и дальнейшим совершенствованием двух операционных систем — AIX 5L и i5/OS, однако, согласно давнишней традиции, корпорация IBM не раскрывает своих планов относительно грядущих разработок до момента их официального объявления. Можно только сказать, что следующее поколение POWER6 и соответствующая ОС AIX 5L V5.4 должны появиться ориентировочно в 2006 г.

Мэйнфреймы IBM zSeries

В истории компьютерной индустрии существует несколько моментов, определивших направление дальнейшего развития электронно-вычислительных машин. К ним, без сомнения, относится проект по созданию новой архитектуры ЭВМ — мэйнфреймов, реализованный IBM в первой половине 1960-х гг. Существовавший в то время подход к проектированию и производству компьютеров в определенной степени можно сравнить с производством автомобилей до изобретения Генри Фордом конвейерного метода сборки. Каждая новая ЭВМ представляла собой уникальный продукт, созданный командой инженеров, причем ЭВМ не всегда даже была универсальной, ибо зачастую создавалась для решения какой-нибудь единственной задачи. Естественно, такое положение не могло удовлетворить компанию, поскольку с каждой новой реализацией множилось количество нестандартных узлов и блоков, несовместимых между собой, а накопленный бесценный опыт раз за разом терялся впустую. В самом начале 1960-х гг. руководство корпорации приняло решение о запуске кардинально нового проекта, нацеленного на создание стандартизованной, хорошо масштабируемой, высоконадежной архитектуры ЭВМ универсального назначения.

4 апреля 1964 г. проект принес первые плоды — появилось семейство вычислительных машин IBM System/360, ставшее эпохальным в истории развития высокопроизводительных серверов. Первоначально в серию входили модели 20, 30, 40, 50, 60, 62, 70 и 92. Модель 20 была ориентирована на нижний сегмент рынка. Следующие три представляли собой системы среднего уровня и должны были заменить мини-ЭВМ серии IBM 1400. Последние четыре предназначались на замену серии «тяжелых» ЭВМ IBM 7000. В 1965 году семейство пополнилось системами среднего уровня — моделями 57, 65 и 75, «научной» моделью 44, дополненной аппаратным блоком для работы с вещественными числами, и high-end моделью 67, в которой впервые была реализована система динамической трансляции адресов, позволившая повысить эффективность работы с памятью и быстродействие системы, а также зачатки системы виртуализации ресурсов ЭВМ. В 1966 г. была представлена еще одна система высшей категории — модель 91. В 1968 г. пополнение произошло в начальном секторе — модель 25 — и в секторе систем высшего уровня — модель 85. В 1969 г. появилась еще одна high-end машина — модель 195, наконец, в 1971 г. последняя система, модель 22, из категории «легких» машин.

В качестве операционной системы в машинах серии System/360 использовалась специально разработанная система OS/360 (Operating System/360). Модели нижнего уровня работали с использованием одной из ее разновидностей — Basic Operating System/360 (BOS/ 360), Card Operating System (COS/360), Tape Operating System (TOS/360) или Disk Operating System/360 (DOS/360). Старшие модели использовали систему OS/360 MVT (Multiprogramming with a Variable number of Tasks), обеспечивавшую исполнение нескольких приложений одновременно в режиме многозадачности с динамическим перераспределением памяти.

Большие универсальные ЭВМ серии System/360 стали первыми в мире системами, которые были предназначены как для коммерческих, так и для научных расчетов. Несколько блоков выполнения команд, а также встроенные специализированные процессоры, функции операционной системы, связующее программное обеспечение и микропрограммный код обеспечивали высокую масштабируемость этих многопользовательских вычислительных систем и их взаимную совместимость.

Именно в рамках проекта по созданию System/360 были впервые применены многие концептуальные решения, ставшие впоследствии непререкаемым стандартом. Это прежде всего 8-бит байт вместо использовавшихся ранее 4- и б-бит, 32-разрядная архитектура вычислительной системы, побайтная адресация памяти, сегментация и алгоритм страничной адресации памяти, а также многие другие идеи,

В начале 1970-х гг. IBM выпустила на рынок модельный ряд высокопроизводительных серверов второго поколения, получивший название System/370. Системы System/370 были обратно совместимы с выпускавшимися ранее системами System/360, но использовали усовершенствованные процессоры, оперативную и внешнюю память, что позволило расширить их возможности по поддержке одновременно работающих пользователей и более ресурсоемких и динамических приложений. Основными новациями System/370 можно считать возможность использования нескольких процессоров в рамках одной системы, полноценную поддержку виртуальной памяти и новый 128-разрядный блок вещественной арифметики.

Первые машины серии System/370 (модели 145, 155, 165 и 195) появились в 1970 г. и были нацелены на средний и высший уровень сложности решаемых задач. Годом позже была представлена система начального уровня — модель 135. В 1972 г. к семейству добавились модели 125, 158 и 168: первая относилась к категории «легких», вторая и третья — к «средним» системам. Тогда же в мэйнфреймах появилась полноценная программно-аппаратная система виртуализации ресурсов ЭВМ. В 1973 г. появилась самая младшая в серии система — модель 115. Через два года она получила развитие в виде двухпроцессорной модификации 115-2. В этом же 1975 г. была представлена двухпроцессорная модель 125-2. 1976 г. ознаменовался целым рядом новых систем, причем большая их часть — трехпроцессорные модели 135-3, 145-3, 158-3 и 168-3, и всего две (138 и 148) использовали один процессор.

В дальнейшем (на протяжении 1980-х гг.) выпускался целый ряд машин, совместимых с оригинальной системой System/370. Первоначально они базировались на расширении стандартной архитектуры, System/370 Extended Architecture (370-ХА), предполагавшим переход от 24- к 31-бит адресации памяти, а позже на ее дальнейшем развитии — Enterprise Systems Architecture/370 (ESA/370), полностью реализовавшем преимущества новых механизмов работы с памятью.

ОС семейства System/370 (OS/370) корнями уходит в предыдущее поколение — OS/360 — и развивалась на базе одного из ее ответвлений под названием Multiple Virtual Storage (MVS). Эволюция системы MVS повторяла развитие аппаратных средств, что нашло отражение в названии этой системы в разные периоды времени: MVS/System Product(MVS/SP), MVS/Extended Architecture (MVS/XA) и MVS/Enterprise Systems Architecture (MVS/ESA).

Новое поколение мэйнфреймов, семейство System/ 390, появилось в начале 1990-х гг., но сохранило совместимость с предыдущими поколениями. В процессе создания System/390 произошло обновление всей элементной базы мэйнфреймов — микропроцессоров, оперативной и внешней памяти на несколько поколений. В период с 1990 по 1999 г. было выпущено множество разнообразных систем, известных под общим названием IBM S/390 Enterprise Server.

В 2000 г. название System/390 было заменено на IBM eServer zSeries, и в октябре была представлена первая модель этого семейства — система масштаба предприятия zSeries 900. На тот период это была самая мощная ЭВМ массового коммерческого применения из когда-либо созданных прежде. Тогда же появилась новая 64-разрядная операционная система z/OS, вобравшая в себя наработки предыдущих поколений, начиная с OS/360. В 2002 г. было представлено семейство zSeries 800, нацеленное на задачи среднего уровня. Новая версия 1.4 операционной системы z/OS, главной ОС для мэйнфреймов zSeries, оказалась на 60% быстрее предшествующих. 2003 г. был отмечен появлением нового лидера в семействе zSeries — eServer zSeries 990. Наконец, в 2004 г. обновление пришло в сегмент систем среднего уровня — в апреле появился сервер zSeries 890.

В середине 2005 года семейство мэйнфреймов пережило очередное переименование — отныне все системы этого класса будут обозначаться System z9. Одновременно с этим было объявлено о выходе новой системы — модели 109.

С аппаратной точки зрения zSeries отличается высокоинтегрированной упаковкой компонентов при снижении возможности отказа любого из них. В системе zSeries также реализовано уникальное сочетание функций обеспечения готовности, подобных коду коррекции ошибок (Error Correction Code, ECC) на всех уровнях памяти, а также возможности автоматической разгрузки сбойных процессоров и памяти при одновременном переключении на резервные компоненты без участия оператора и без нарушения обслуживания пользователей. Возможность непрерывного профилактического обслуживания также вносит весомый вклад в то, что среднее время наработки на отказ (MTBF) систем zSeries исчисляется десятилетиями.

Жесткие требования по доступности и надежности корпоративных систем обработки данных диктуют использование многомашинных комплексов, кластеров, применение различных схем дублирования, горячего резервирования критичных серверов. Для этого IBM предлагает использовать принципиально новую архитектуру комплексирования — Parallel Sysplex. Работа серверов в режиме Parallel Sysplex характеризуется повышенной живучестью комплекса: его надежность сейчас 99,999%, что позволяет обслуживать пользователей 24 часа в сутки 365 дней в году. При отказе или даже физическом уничтожении одного или нескольких серверов возможен некоторый спад производительности, но все приложения будут нормально функционировать, целостность данных не нарушится, пользователи будут продолжать работу. Плановые профилактические работы с оборудованием или программным обеспечением, подключение новых серверов в комплекс также происходят без прерывания работы комплекса.

Применение Parallel Sysplex обеспечивает высокую пропускную способность комплекса. Благодаря динамической балансировке нагрузки все компьютеры в Parallel Sysplex и все процессоры в каждом из серверов загружены равномерно. Такое эффективное использование имеющихся ресурсов обеспечивает улучшенные показатели времени ответа для прикладных подсистем и уменьшает общую потребность в ресурсах.

Использование Parallel Sysplex обеспечит эволюционное развитие вычислительной системы. По мере роста числа пользователей системы и количества приложений можно практически безгранично наращивать мощность комплекса как путем добавления новых процессоров в существующие серверы, так и добавлением новых серверов в комплекс без прерывания технологического цикла.

Катастрофоустойчивое решение Geographically Dispersed Parallel Sysplex (GDPS) дополняет Parallel Sysplex, предоставляя комплексное автоматизированное решение для динамического управления зеркалированием подсистемы дисковой памяти, процессорами и сетевыми ресурсами в территориально разнесенных (GDPS/PPRC — до 40 км, GDPS/XRC — практически неограниченно) вычислительных комплексах. Это обеспечивает предприятию постоянную готовность и практически прозрачное восстановление после катастроф без потери данных. GDPS позволяет контролируемо переключать системы при плановых и внеплановых перерывах в работе и сохранять целостность данных на множестве подсистем памяти.

Благодаря высокоразвитому интегрированному набору инструментов управления системными ресурсами серверы семейства zSeries обладают способностью автоматически и непрерывно перераспределять их в соответствии с потребностями пользователей и приоритетами бизнеса. Уровни обслуживания конечных пользователей могут определяться в терминах приемлемого времени реакции системы на их запросы, относительных приоритетов пользователей, значений времени завершения работы или времени выполнения для пакетных заданий и других параметров, определяющих то, как система должна отвечать на запросы пользователей извне. После определения целей и задач реакции системы zSeries на запросы извне вмешательство оператора больше не требуется — система автоматически и непрерывно перераспределяет системные ресурсы в соответствии с деловыми потребностями сотен или тысяч пользователей, групп или приложений, поддерживая в реальной рабочей среде уровень загрузки, близкий к 100%.

В периоды пониженной активности пользователей zSeries может запускать задания с меньшим приоритетом, чтобы поддерживать уровень загрузки близким к 100% без вмешательства оператора. Система автоматически реагирует на непрерывно изменяющиеся потребности пользователей и бизнеса, отраженные в бизнес-приоритетах.

По мере того как конфиденциальность становится одним из главнейших требований бизнеса, поддержка SSL-транзакций превращается в определяющий фактор при выборе сервера. IBM zSeries может работать с восемнадцатью выделенными криптографическими сопроцессорами, которые могут обрабатывать несколько тысяч защищенных транзакций в секунду без снижения скорости обработки приложений.

Несмотря на всевозможные пророчества, предрекавшие неминуемую и скорую смерть этой платформе, в прошлом году она успешно отметила 40-летие, при этом, по оценкам ведущих аналитических агентств мира, до 70% критически важной корпоративной информации хранится и обрабатывается именно с помощью мэйнфреймов.

Платформа Sun SPARC

История платформы Sun SPARC начинается с начала 1980-х гг., когда компания Sun Microsystems вплотную приблизилась к пределу производительности своих рабочих станций на базе процессоров Motorola. Новая процессорная архитектура SPARC (Scalable Processor Architecture), по замыслам руководства компании, должна была помочь преодолеть недостатки существующих на рынке решений, обеспечить Sun независимость от их поставщиков и помочь выбиться в технологические лидеры. Основные идеи SPARC разрабатывались в Калифорнийском университете (Беркли), где в 1980—1982 гг. создавались системы с сокращенным набором команд (RISC). Ключевые работы по созданию SPARC-архитектуры были выполнены в период между 1984 и 1987 гг. коллективом инженеров Sun Microsystems. Б разработанное ранее решение они внесли ряд улучшений, основным из которых была поддержка SMP-многопроцессорности. Важно отметить, что практически с самого начала руководством Sun было принято решение сделать SPARC-архитектуру открытым стандартом. Для этого в 1989 г. была организована независимая компания SPARC International (www.sparc.org), на которую возложили обязанности по лицензированию архитектуры всем заинтересованным. При этом была определена достаточно либеральная ценовая политика — лицензию можно было приобрести за сумму, эквивалентную 100 долларам США.

В начале 1986 г. была опубликована спецификация первого поколения архитектуры — SPARC Version 7. Первые 32-разрядные микропроцессоры с частотой 16,67 МГц на ее базе в апреле 1986 г. для Sun изготовила компания Fujitsu. С их помощью было построено семейство рабочих станций Sun-4/260. Спустя два месяца стараниями программистов компании появилась стабильная версия операционной системы SunOS для новой платформы. Первая ОС платформы SPARC была основана на дистрибутиве BSD UNIX, дополненном сетевым ПО и графическим оконным интерфейсом, а впоследствии сетевой файловой системой NFS. Для максимальной концентрации усилий по развитию ОС и необходимого ПО в 1991 г. в Sun было сформировано подразделение SunSoft. Кроме непосредственно разработки, в его функции также входило обеспечение лицензиями на ПО дистрибьюторов, OEM-партнеров и конечных пользователей.

8 июля 1987 г. — официальное рождение новой RISC/UNIX платформы: Sun представила компьютерному сообществу одновременно и открытую архитектуру SPARC, и первую базирующуюся на ней систему Sun-4/260, и ОС, и обширный набор прикладного ПО.

Рабочая станция SPARCstation 1, появившаяся в 1989 г., стала первой действительно массовой системой на базе новой архитектуры и яркой демонстрацией ее возможностей. В этом же году было объявлено о представлении второго, более совершенного поколения архитектуры SPARC — SPARC Version 8.

В 1991 г. появился первый сервер Sun — SPARC-server 600MP. Несмотря на то что он был построен на процессоре с архитектурой SPARC Version 7, его объявление стало важным событием — платформа SPARC перешла в разряд серверных. Тогда же появился первый портативный компьютер на базе SPARC — SPARC LT. 1991 г. стал переломным и в сфере ПО — SunOS 4.1.4 уже не удовлетворяла Sun в качестве решения для многопроцессорных систем. В сентябре было объявлено о выходе новой ОС на основе AT&T System V, самой важной особенностью которой стало заново переписанное ядро, включившее в себя расширенную поддержку многопоточности на уровне всех системных и прикладных процессов. Продукт получил название Solaris 2. Несмотря на новое имя, ОС Solaris все же выросла из SunOS — даже сегодня в системных сообщениях можно видеть обозначение SunOS 5.x, где X обозначает текущую версию Solaris. Для большинства приложений ОС Solaris обеспечивает практически линейный рост производительности при увеличении числа процессоров в системе, воплощая концепцию SMP-вычислений. Благодаря прекрасной масштабируемости одна и та же ОС используется и на однопроцессорных рабочих станциях, и на серверах масштаба рабочей группы и предприятия.

В 1992 г. появился первый процессор на базе архитектуры SPARC Version 8 — SuperSPARC I. Суперскалярный процессор интегрировал в себя все основные исполнительные блоки, вне кристалла оставался лишь контроллер кэш-памяти L2 и сам кэш. Подобное решение позволило значительно повысить производительность конечных систем. В мае 1992 г. была выпущена рабочая станция SPARCstation 10, объединившая в одной системе два процессора SuperSPARC и шину MBus.

Годом позже было объявлено о завершении разработки третьего поколения архитектуры SPARC — SPARC Version 9. Ее главной отличительной особенностью стал переход к 64-разрядным вычислениям. Кроме того, произошел переход от шинной архитектуры взаимодействия системных компонентов к коммутируемой. С момента появления и до настоящего времени Version 9 остается базой для проектирования аппаратной и программной составляющих SPARC-платформы. В феврале 1995 г. идеи, заложенные в SPARC Version 9, обрели физическое воплощение — появился процессор UltraSPARC I.

В ноябре этого же года был представлен восьмипроцессорный сервер SPARCserver 1000, а в декабре 20-процессорный SPARCcenter 2000. Оба на процессорах SuperSPARC и шине с коммутацией пакетов XDBus. Это были первые по-настоящему большие системы, созданные в рамках платформы SPARC, появление которых обозначило зрелость платформы, ее готовность к построению сложных высокопроизводительных SMP-систем для массового применения.

1996 г. оказался очень важным для будущего SPARC-платформы — компания Sun Microsystems приобрела исследовательское подразделение Cray Research, входившее ранее в состав крупнейшего производителя суперкомпьютеров Cray. Это шаг открыл Sun доступ к наработкам в области сверхсложных больших вычислительных систем и позволил ей значительно повысить масштабируемость своих решений.

Благодаря новым идеям, в 1997 г. был выпущен 64-процессорный сервер масштаба предприятия — Sun Enterprise 10000 на процессорах UltraSPARC II, появившихся в том же году несколько ранее и базирующихся на архитектуре SPARC Version 9. Характерную для предыдущих моделей шинную организацию взаимодействия узлов внутри системы в Sun Enterprise 10000 заменила архитектура UltraSPARC Port Architecture (UPA) на базе специализированного высокоскоростного внутрисистемного коммутатора. Не будет преувеличением сказать, что на тот момент эта система оказалась уникальной, не имеющей близких аналогов. Конкурирующие решения не вышли за пределы двух десятков процессоров в одной системе. Кроме того, сервер Sun Enterprise 10000 стал первой SPARC-системой, в которой были реализованы принцип динамического разбиения на домены и идеи динамического реконфигурирования. Каждый домен содержал накопитель с независимой копией ОС Solaris, некоторое количество процессоров, сетевых интерфейсов и интерфейсов ввода-вывода, при этом процессоры и I/О-интерфейсы могли перераспределяться между несколькими доменами динамически в зависимости от решаемых задач и текущего уровня нагрузки.

Новое поколение ОС Solaris — Solaris 7 — появилось в 1998 г. Несмотря на вторичность причин, вызвавших появление цифры 7 в названии, внесенные в ОС изменения носили достаточно серьезный характер: в соответствии с требованиями SPARC Version 9 она была переработана под 64-разрядную аппаратную базу, что наилучшим образом сказалось на производительности, расширяемости и масштабируемости платформы SPARC.

2001 г. памятен появлением процессора UltraSPARC III с интегрированным в кристалл контроллером памяти, выпуском на его основе нового модельного ряда серверов под названием Sun Fire, ориентированного на средний уровень задач и соответствующую ценовую категорию, и переходом к новой технологии общения внутрисистемных компонентов Fireplane. Система Sun Fire 280R стала первой SPARC-системой среднего уровня, в которой применялись технологии динамического ре-конфигурирования и разбиения на домены. Кроме того, в серии Sun Fire был реализован модульный подход к построению систем, позволивший создавать отказоустойчивые, легко расширяемые и модернизируемые серверы, которые не требовали прекращения работы в процессе любых манипуляций с ними. Тогда же появилась ОС под названием Solaris 8, в которой был существенно переработан механизм организации многопоточности внутри ядра.

Богатым на события для SPARC-платформы оказался 2003 г. — в апреле были запущены в производство процессоры UltraSPARC IIIi — упрощенный вариант UltraSPARC III, предназначенный для построения недорогих от однопроцессорных до четырехпроцессорных систем, оптимизированных по соотношению цена/производительность. В июле свет увидела новая версия UltraSPARC III, работающая на повышенных тактовых частотах. А в октябре был представлен новый процессор, получивший название UltraSPARC IV. С архитектурной точки зрения ничего нового в нем не было: просто он объединил два ядра UltraSPARC III в одном процессорном корпусе. Однако с точки зрения повышения производительности и особенно перспектив дальнейшего развития платформы SPARC это был очень серьезный шаг к реализации аппаратной многопоточности. Наконец, в этом же году была представлена 9-я версия ОС Solaris, в которой еще раз был переработан способ организации могопоточности, и в качестве окончательного варианта был выбран способ «один к одному», когда каждому пользовательскому потоку соответствует поток внутри ядра.

Настоящее SPARC-платформы связано с тремя компаниями: Sun Microsystems, Fujitsu и Texas Instruments. Первые две занимаются разработкой и совершенствованием архитектуры SPARC и в 2004 г. для повышения эффективности этого процесса и координации действий образовали альянс. Последняя изготавливает процессоры для Sun на своих производственных мощностях.

15 ноября 2004 г. Sun анонсировала, а в начале 2005 г. представила радикально обновленную ОС Solaris 10. Это событие сопровождалось объявлением об открытии исходных кодов ОС и запуском масштабного open-source-проекта по ее дальнейшей разработке.

Радикальные изменения коснулись как технической части, так и самой бизнес-модели, в том числе поставки и лицензирования ПО, способов его обновления и условий технического сопровождения. Начиная с 10-й версии, Sun Microsystems перешла к более открытой, простой и наглядной лицензионной политике. Любой заинтересованный потребитель теперь может свободно загрузить образы дисков с ОС, причем как для архитектуры х8б, так и для SPARC, и устанавливать ОС на любое количество серверов любой конфигурации. При этом ему будут доступны все обновления, связанные с безопасностью. Если же у пользователя возникнет потребность в технической поддержке, он может подписаться на одну из платных программ.

В пул наиболее интересных и значимых технологий Solaris 10 вошла система виртуализации Solaris Containers, система диагностики и контроля DTrace и файловая система ZFS.

Встроенная система виртуализации Solaris Containers (ранее известная как N1 Grid Containers) позволяет системному администратору организовать в рамках единой инсталляции ОС несколько виртуальных системных разделов, называемых зонами. При этом внутри каждой зоны существует персонализированное пространство имен и процессов — она выступает в роли самостоятельной, изолированной от других зон, системы с собственными пользователями, каталогами и сетевыми адресами. Процессы и пользователи, в том числе суперпользователь root, работающие в пределах одной зоны, не имеют доступа к ресурсам и данным прочих, так что даже в случае нарушения режима безопасности и несанкционированного проникновения в какую-либо из них злоумышленник не получит доступа ко всей системе. Каждой такой зоне может быть назначен контейнер — набор локализованных системных ресурсов. Технология контейнеров предназначена дли распределения ресурсов между отдельными процессами, группами процессов и пользователями, однако в сочетании с зонным делением она позволяет оптимально настроить всю систему, выделив каждой области-зоне ровно столько ресурсов, сколько ей необходимо для обеспечения заданной функциональности. Такое сочетание дает администратору возможность создавать множество виртуальных серверов и манипулировать ими по собственному разумению, не опасаясь, что они будут как-либо влиять друг на друга. Технология весьма экономична с точки зрения системных ресурсов — на каждый контейнер требуется менее 1 % накладных расходов. Обслуживание даже нескольких сотен виртуальных серверов не слишком увеличивает нагрузку на администратора — все контейнеры работают в рамках одной копии Solaris 10 и могут наследовать все установленные пакеты, исправления и глобальные настройки.

Инструмент DTrace (Dynamic Tracing) с помощью специальных информационных датчиков, число которых может достигать нескольких тысяч, автоматически диагностирует в реальном времени «узкие места», влияющие на производительность приложений и работу системы в целом. Он призван заменить стандартный для UNIX-систем подход к диагностике и администрированию, связанный с использованием набора вспомогательных утилит и файлов с протоколами системных операций, предлагая системному администратору автоматизацию значительной части функций и их консолидацию в рамках единого управляющего интерфейса.

Новая файловая система Solaris ZFS (zettabyte file system) обеспечивает 128-бит адресацию памяти, гарантируя отсутствие проблем при работе с большими объемами данных даже в отдаленном будущем. Кроме того, в нее встроена система защиты от физических повреждений, основанная на CRC-методе коррекции ошибок. Наконец, Solaris ZFS позволяет осуществлять любые манипуляции с разделами на лету: администратор может создавать и удалять разделы, разделять и группировать существующие, перераспределять пространство из одного раздела в другой, причем без прекращения работы системы и без перезагрузок.

Технология автоматического контроля за состоянием серверной системы (Predictive Self Healing) позволяет ОС самостоятельно диагностировать, изолировать и устранять практически любые программные и аппаратные сбои. Компонент Solaris Fault Manager — составная часть технологии Predictive Self Healing — осуществляет мониторинг аппаратных и программных частей системы, заранее выявляя потенциально сбойные участки и выводя их из рабочей среды. Непосредственное участие администратора сведено к минимуму и относится в основном к случаям неустранимых сбоев, требующих немедленного вмешательства.

Стоит особо отметить, что для платформ SPARC и х86 дистрибутив Solaris 10 собирается из одной и той же ветки разработки, так что обе версии абсолютно идентичны, разумеется, за исключением частей, связанных с аппаратными особенностями платформ. Это позволяет заказчикам приобщиться к миру UNIX, не затрачивая каких-либо значительных средств на приобретение необходимого оборудования, но дает возможность безболезненно масштабировать информационную систему на высокоуровневые и более производительные решения при достижении платформой х86 пределов производительности и расширяемости.

Фактически индустрия получила в виде Solaris 10 уникальную возможность консолидировать ИТ-инфраструктуру заказчиков без ее коренной переработки.

Отличительная черта платформы SPARC — ее преемственность: даже сегодня, несмотря на все прошедшие за время ее существования смены поколений, заказчики могут без проблем работать с ПО, написанным 10 и более лет назад, при этом речь идет о прямом исполнении программного кода без каких-либо его изменений и перекомпиляции. Более того, преемственность распространяется не только на программную часть, но в определенной мере и на аппаратную — появление нового поколения процессоров не приводит к смене всей системы целиком, достаточно заменить интегрированные платы Uniboard, содержащие процессор и ОЗУ.

Список литературы

Журнал Upgrade4_08_05


Страницы: 1, 2


на тему рефераты
НОВОСТИ на тему рефераты
на тему рефераты
ВХОД на тему рефераты
Логин:
Пароль:
регистрация
забыли пароль?

на тему рефераты    
на тему рефераты
ТЕГИ на тему рефераты

Рефераты бесплатно, реферат бесплатно, курсовые работы, реферат, доклады, рефераты, рефераты скачать, рефераты на тему, сочинения, курсовые, дипломы, научные работы и многое другое.


Copyright © 2012 г.
При использовании материалов - ссылка на сайт обязательна.