Тенденции развития аппаратного обеспечения облачных вычислений

Целью данной лекции является знакомство с основными

этапами развития вычислительной техники. Анализ современных тенденций развития аппаратного обеспечения, приведших к появлению технологий облачных вычислений.
План:
1. Развитие аппаратного обеспечения.
2. Современные инфраструктурные решения
3. Система Хранения Данных
4. Сети хранения данных и преимущества SAN
5. Консолидация ИТ инфраструктуры
Для того, чтобы понять, как появились «облачные» вычисления, необходимо представлять основные моменты процесса развития вычислений и вычислительной техники.
В наше время жизнь без компьютеров не представляется возможной. Внедрение вычислительной техники проникло почти во все жизненные аспекты, как личные, так и профессиональные. Развитие компьютеров было достаточно быстрым. Началом эволюционного развития компьютеров стал 1930 год, когда двоичная арифметика была разработана и стала основой компьютерных вычислений и языков программирования. В 1939 году были изобретены электронно-вычислительные машины, выполняющие вычисление в цифровом виде. Появление вычислительных устройств приходится на 1642 год, когда было изобретено устройство, которое могло механически добавлять числа. Вычисления производились с использованием электронных ламп.
Появившаяся в 1941 году модель Z3 Конрада Цузе в немецкой Лаборатории Авиации в Берлине была одним из наиболее значительных событий в развитии компьютеров, потому что эта машина поддерживала вычисления как с плавающей точкой, так и двоичную арифметику. Это устройство рассматривают как самый первый компьютер, который был полностью работоспособным. Язык программирования считают «Turing-complete», если он попадает в тот же самый вычислительный класс, как машина Тьюринга.
Первое поколение современных компьютеров появилось в 1943, когда были разработаны Марк I и машина Колосс. С финансовой поддержкой от IBM (International Business Machines Corporation) Марк был сконструирован и разработан в Гарвардском университете. Это был электромеханический программируемый компьютер общего назначения. Первое поколение компьютеров было построено с использованием соединенных проводов и электронных ламп (термоэлектронных ламп). Данные хранились на бумажных перфокартах. Колосс использовался во время Второй мировой войны, чтобы помочь расшифровать зашифрованные сообщения.
Чтобы выполнить его задачу расшифровки, Колосс сравнил два потока данных, прочитанных на высокой скорости с перфоленты. Колосс оценивал поток данных, считая каждое совпадение, которое был обнаружено, основываясь на программируемой Булевой функции. Для сравнения с другими данными был создан отдельный поток.
Другой компьютер общего назначения этой эры был ENIAC (Электронный Числовой Интегратор и Компьютер), который был построен в 1946. Это было первым компьютером, способным к перепрограммированию, чтобы решать полный спектр вычислительных проблем. ENIAC содержал 18 000 термоэлектронный ламп, весивший более чем 27 тонн, и потреблявший электроэнергии 25 киловатт в час. ENIAC выполнял 100 000 вычислений в секунду. Изобретение транзистора означало, что неэффективные термоэлектронные лампы могли быть заменены более мелкими и надежными компонентами. Это было следующим главным шагом в истории вычислений.
Компьютеры Transistorized отметили появление второго поколения компьютеров, которые доминировали в конце 1950-ых и в начале 1960-ых. Несмотря на использование транзисторов и печатных схем, эти компьютеры были все еще большими и дорогостоящими. В основном они использовались университетами и правительством. Интегральная схема или чип были развиты Джеком Килби. Благодаря этому достижению он получил Нобелевскую премию по физике в 2000 году.
Изобретение Килби вызвало взрыв в развитии компьютеров третьего поколения. Даже при том, что первая интегральная схема была произведена в сентябре 1958, чипы не использовались в компьютерах до 1963. Историю мейнфреймов – принято отсчитывать с появления в 1964 году универсальной компьютерной системы IBM System/360, на разработку которой корпорация IBM затратила 5 млрд долларов.
Мейнфрейм – это главный компьютер вычислительного центра с большим объемом внутренней и внешней памяти. Он предназначенный для задач, требующих сложные вычислительные операции. Сам термин «мейнфрейм» происходит от названия типовых процессорных стоек этой системы. В 1960-х — начале 1980-х годов System/360 была безоговорочным лидером на рынке. Её клоны выпускались во многих странах, в том числе — в СССР (серия ЕС ЭВМ). В то время такие мэйнфреймы, как IBM 360 увеличили способности хранения и обработки, интегральные схемы позволяли разрабатывать миникомпьютеры, что позволило большому количеству маленьких компаний производить вычисления. Интеграция высокого уровня диодных схем привела к развитию очень маленьких вычислительных единиц, что привело к следующему шагу развития вычислений.
В ноябре 1971 Intel выпустили первый в мире коммерческий микропроцессор, Intel 4004. Это был первый полный центральный процессор на одном чипе и стал первым коммерчески доступным микропроцессором. Это было возможно из-за развития новой 8 технологии кремниевого управляющего электрода. Это позволило инженерам объединить намного большее число транзисторов на чипе, который выполнял бы вычисления на небольшой скорости. Это разработка способствовала появлению компьютерных платформ четвертого поколения.
Компьютеры четвертого поколения, которые развивались в это время, использовали микропроцессор, который помещает способности компьютерной обработки на единственном чипе. Комбинируя память произвольного доступа (RAM), разработанную Intel, компьютеры четвертого поколения были быстрее, чем когда-либо прежде и занимали намного меньшую площадь. Процессоры Intel 4004 были способны выполнять всего 60 000 инструкций в секунду. Микропроцессоры, которые развились из Intel 4004 разрешенные изготовителями для начала развития персональных компьютеров, маленьких достаточно дешевых, чтобы быть купленными широкой публикой. Первым коммерчески доступным персональным компьютером был MITS Altair 8800, выпущенный в конце 1974. В последствии были выпущены такие персональные компьютеры, как Apple I и II, Commodore PET, VIC-20, Commodore 64, и, в конечном счете, оригинальный IBM-PC в 1981. Эра PC началась всерьез к середине 1980-ых. В течение этого время, IBM-PC, Commodore Amiga и Atari ST были самыми распространенными платформами PC, доступными общественности. Даже при том, что микровычислительная мощность, память и хранение данных мощности увеличились намного порядков, начиная с изобретения из Intel 4004 процессоров, технологии чипов интеграции высокого уровня (LSI) или интеграция сверхвысокого уровня (VLSI) сильно не изменились. Поэтому большинство сегодняшних компьютеров все еще попадает в категорию компьютеров четвертого поколения.
Одновременно с резким ростом производства персональных компьютеров в начале 1990-х начался кризис рынка мейнфреймов, пик которого пришёлся на 1993 год. Многие аналитики заговорили о полном вымирании мейнфреймов, о переходе от централизованной обработки информации к распределённой (с помощью персональных компьютеров, объединённых двухуровневой архитектурой «клиент-сервер»). Многие стали воспринимать мейнфреймы как вчерашний день вычислительной техники, считая Unix- и PC-серверы более современными и перспективными.
C 1994 года вновь начался рост интереса к мейнфреймам. Дело в том, что, как показала практика, централизованная обработка на основе мейнфреймов решает многие задачи построения информационных систем масштаба предприятия проще и дешевле, чем распределённая. Многие из идей, заложенных в концепции облачных вычислений также “возвращают” нас к эпохе мэйнфреймов, разумеется с поправкой на время. Еще шесть лет назад в беседе с Джоном Мэнли, одним из ведущих научных сотрудников центра исследований и разработок HP в Бристоле, обсуждалась тема облачных вычислений, и Джон обратил внимание на то, что основные идеи cloud computing до боли напоминают мэйнфреймы, только на другом техническом уровне: «Все идет от мэйнфреймов. Мэйнфреймы научили нас тому, как в одной среде можно изолировать приложения, – умение, критически важное сегодня».
Современные инфраструктурные решения. С каждым годом требования бизнеса к непрерывности предоставления сервисов возрастают, а на устаревшем оборудовании обеспечить бесперебойное функционирование практически невозможно. В связи с этим крупнейшие ИТ-вендоры производят и внедряют более функциональные и надежные аппаратные и программные решения. Рассмотрим основные тенденции развития инфраструктурных решений, которые, так или иначе, способствовали появлению концепции облачных вычислений.
-Рост производительности компьютеров. Появление многопроцессорных и многоядерных вычислительных систем, развитие блейд-систем
– Появление систем и сетей хранения данных
– Консолидация инфраструктуры
Появление блэйд-систем
В процессе развития средств вычислительной техники всегда существовал большой класс задач, требующих высокой концентрации вычислительных средств. К ним можно отнести, например сложные ресурсоемкие вычисления (научные задачи, математическое моделирование), а так же задачи по обслуживанию большого числа пользователей (распределенные базы данных, Интернет-сервисы, хостинг).
Не так давно (порядка 5ти лет назад) производители процессоров достигли разумного ограничения наращивания мощности процессора, при котором его производительность очень высока при относительно низкой стоимости. При дальнейшем увеличении мощности процессора, необходимо было прибегать к нетрадиционным методам охлаждения процессоров, что достаточно неудобно и дорого. Оказалось, что для увеличения мощности вычислительного центра более эффективно, увеличить количество отдельных вычислительных модулей, а не их производительность. Это привело к появлению многопроцессорных, а позднее и многоядерных вычислительных систем. Появляются многопроцессорные системы, которые начитывают более 4 процессоров. На текущий момент существуют процессоры с количеством ядер 8 и более, каждое из которых эквивалентно по производительности. Увеличивается количество слотов для подключения модулей оперативной памяти, а также их емкость и скорость.
Увеличение числа вычислительных модулей в вычислительном центре требует новых подходов к размещению серверов, а также приводит к росту затрат на помещения для центров обработки данных, их электропитание, охлаждение и обслуживание.
Для решения этих проблем был создан новый тип серверов XXI века — модульные, чаще называемые Blade-серверами, или серверами-лезвиями (blade — лезвие). Преимущества Blade-серверов, первые модели которых были разработаны в 2001 г. изготовители описывают с помощью правила «1234». «По сравнению с обычными серверами при сравнимой производительности Blade-серверы занимают в два раза меньше места, потребляют в три раза меньше энергии и обходятся в четыре раза дешевле».

Рисунок 1.1 Типичный Blade-сервер (Sun Blade X6250)
Что представляет собой Blade-сервер? По определению, данному аналитической компании IDC Blade-сервер или лезвие – это модульная одноплатная компьютерная система, включающая процессор и память. Лезвия вставляются в специальное шасси с объединительной панелью (backplane), обеспечивающей им подключение к сети и подачу электропитания. Это шасси с лезвиями, является Blade-системой. Оно выполнено в конструктиве для установки в стандартную 19-дюймовую стойку и в зависимости от модели и производителя, занимает в ней 3U, 6U или 10U (один U – unit, или монтажная единица, равен 1,75 дюйма). За счет общего использования таких компонентов, как источники питания, сетевые карты и жесткие диски, Blade-серверы обеспечивают более высокую плотность размещения вычислительной мощности в стойке по сравнению с обычными тонкими серверами высотой 1U и 2U.

Рисунок 1.2 Типичное 10U шасси для 10 Blade-серверов (Sun Blade 6000) используемое в УрГУ
Технология блэйд-систем заимствует некоторые черты мейнфреймов. В настоящее время лидером в производстве блэйд-систем являются компании Hewlett-Packard, IBM, Dell, Fujitsu Siemens Computers, Sun.
Преимущества Blade-серверов
Рассмотрим основные преимущества блейд-систем:
Уникальная физическая конструкция. Архитектура блейд-систем основана на детально проработанной уникальной физической конструкции. Совместное использование таких ресурсов, как средства питания, охлаждения, коммутации и управления, снижает сложность и ликвидирует проблемы, которые характерны для более традиционных стоечных серверных инфраструктур. Физическая конструкция блейд систем предполагает размещение блейд серверов в специальном шасси и основным ее конструктивным элементом является объединительная панель.
Объединительная панель разработана таким образом, что она решает все задачи коммутации блейд серверов с внешним миром: с сетями Ethernet, сетями хранения данных Fiber Channel а также обеспечивает взаимодействие по протоколу SAS (SCSI) с дисковыми подсистемами в том же шасси. Шасси для блейдов также позволяет размещать в нем необходимые коммутаторы Ethernet или Fiber Channel для связи с внешними сетями. Выход на эти коммутаторы из блейд серверов обеспечивают предустановленные или устанавливаемые дополнительно контроллеры. Средства коммутации во внешние сети, интегрированные в общую полку, значительно сокращают количество кабелей для подключения к ЛВС и SAN, чем традиционным стоечным серверам. Блейд сервера имеют общие средства питания и охлаждения. Размещение систем питания и охлаждения в общей полке, а не в отдельных серверах, обеспечивает снижение энергопотребления и повышение надежности.
Лучшие возможности управления и гибкость. Блейд-серверы принципиально отличаются от стоечных серверов тем, что серверная полка имеет интеллект в виде модулей управления, который отсутствует в стойках при размещении традиционных серверов. Для управления системой не требуется клавиатура, видео и мышь. Управление блейд системой осуществляется с помощью централизованного модуля управления и специального процессора удаленного управления на каждом блейд-сервере. Система управления шасси и серверами как правило имеют достаточно удобное программное обеспечение для управления. Появляются возможности удаленно управлять всей «Blade»-системой, в том числе управления электропитанием и сетью отдельных узлов.
Масштабируемость – при необходимости увеличение производительных мощностей, достаточно приобрести дополнительные лезвия и подключить к шасси. Серверы и инфраструктурные элементы в составе блейд-систем имеют меньший размер и занимают меньше места, чем аналогичные стоечные решения, что помогает экономить электроэнергию и пространство, выделенное для ИТ. Кроме того, благодаря модульной архитектуре, они являются более удобными во внедрении и модернизации.
Повышенная надежность. В традиционных стоечных средах для повышения надежности устанавливается дополнительное оборудование, средства коммутации и сетевые компоненты, обеспечивающие резервирование, что влечет за собой дополнительные расходы. Блейд-системы имеет встроенные средства резервирования, например предполагается наличие нескольких блоков питания, что позволяет при выходе из строя одного блока питания, обеспечивать бесперебойную работу всех серверов, расположенных в шасси. Также дублируются и охлаждающие компоненты. Выход из строя одного из вентяляторов не приводит к критическим последствиям. При выходе одного сервера из строя системный администратор просто заменяет лезвие на новое и затем в дистанционном режиме инсталлирует на него ОС и прикладное ПО.
Снижение эксплуатационных расходов. Применение блейд-архитектуры приводит к уменьшению энергопотребления и выделяемого тепла, а также к уменьшению занимаемого объема. Помимо уменьшения занимаемой площади в ЦОД, экономический эффект от перехода на лезвия имеет еще несколько составляющих. Поскольку в них входит меньше компонентов, чем в обычные стоечные серверы, и они часто используют низковольтные модели процессоров, что сокращаются требования к энергообеспечению и охлаждению машин. Инфраструктура блед систем является более простой в управлении, чем традиционные ИТ- инфраструктуры на стоечных серверах. В некоторых случаях блейд-системы позволили компаниям увеличить количество ресурсов под управлением одного администратора (серверы, коммутаторы и системы хранения) более чем в два раза. Управляющее программное обеспечение помогает ИТ-организациям экономить время благодаря возможности эффективного развертывания, мониторинга и контроля за инфраструктурой блейд-систем. Переход к серверной инфраструктуре, построенной из лезвий, позволяет реализовать интегрированное управление системы и отойти от прежней схемы работы Intel-серверов, когда каждому приложению выделялась отдельная машина. На практике это означает значительно более рациональное использование серверных ресурсов, уменьшение числа рутинных процедур (таких, как подключение кабелей), которые должен выполнять системный администратор, и экономию его рабочего времени
Появление систем и сетей хранения данных
Другой особенностью современной истории развития вычислительных систем, наряду с появлением блейд-серверов, стало появления специализированных систем и сетей хранения данных. Внутренние подсистемы хранения серверов часто уже не могли предоставить необходимый уровень масштабируемости и производительности в условиях лавинообразного наращивания объемов обрабатываемой информации. В итоге появились внешние системы хранения данных, ориентированные сугубо на решение задач хранения данных и предоставление интерфейса доступа к данным для их использования.
Система Хранения Данных (СХД) – это программно-аппаратное решение по организации надёжного хранения информационных ресурсов и предоставления к ним гарантированного доступа.
Системы хранения данных представляют собой надежные устройства хранения, выделенные в отдельный узел. Система хранения данных может подключаться к серверам многими способами. Наиболее производительным является подключение по оптическим каналам (Fiber Channel), что дает возможность получать доступ к системам хранения данных со скоростями 4-8 Гбит/сек. Системы хранения данных так же имеют резервирование основных аппаратных компонент – несколько блоков питания, raid контроллеров, FC адаптеров и оптических патчкордов для подключения к FC коммутаторам.

Рисунок 1.3 Типичная Система хранения данных начального уровня (Sun StorageTek 6140)
Отметим основные преимущества использования СХД:
Высокая надёжность и отказоустойчивость – реализуется полным или частичным резервированием всех компонент системы (блоков питания, путей доступа, процессорных модулей, дисков, кэша и т.д.), а также мощной системой мониторинга и оповещения о возможных и существующих проблемах;
Высокая доступность данных – обеспечивается продуманными функциями сохранения целостности данных (использование технологии RAID, создание полных и мгновенных копий данных внутри дисковой стойки, реплицирование данных на удаленную СХД и т.д.) и возможностью добавления (обновления) аппаратуры и программного обеспечения в беспрерывно работающую систему хранения данных без остановки комплекса;
Мощные средства управления и контроля – управление системой через web-интерфейс или командную строку, выбор нескольких вариантов оповещения администратора о неполадках, полный мониторинг системы, работающая на уровне «железа» технология диагностики производительности;
Высокая производительность – определяется числом жёстких дисков, объёмом кэш-памяти, вычислительной мощностью процессорной подсистемы, числом внутренних (для жёстких дисков) и внешних (для подключения хостов) интерфейсов, а также возможностью гибкой настройки и конфигурирования системы для работы с максимальной производительностью;
Беспроблемная масштабируемость – обычно существует возможность наращивания числа жёстких дисков, объёма кэш-памяти, аппаратной модернизации существующей системы хранения данных, наращивания функционала с помощью специального ПО, работающего на стойке, без значительного переконфигурирования или потерь какой-то функциональности СХД. Этот момент позволяет значительно экономить и более гибко проектировать свою сеть хранения данных.
Сегодня системы хранения данных являются одним из ключевых элементов, от которых зависит непрерывность бизнес-процессов компании. В современной корпоративной ИТ-инфраструктуре СХД, как правило, отделены от основных вычислительных серверов, адаптированы и настроены для различных специализированных задач. Системы хранения данных реализуют множество функций, они играют важную роль в построении систем оперативного резервного копирования и восстановления данных, отказоустойчивых кластеров, высоко доступных ферм виртуализации.
Сети хранения данных
SAN – это высокоскоростная коммутируемая сеть передачи данных, объединяющая серверы, рабочие станции, дисковые хранилища и ленточные библиотеки. Обмен данными происходит по протоколу Fibre Channel, оптимизированному для быстрой гарантированной передачи сообщений и позволяющему передавать информацию на расстояние от нескольких метров до сотен километров.
Движущей силой для развития сетей хранения данных стал взрывной рост объема деловой информации (такой как электронная почта, базы данных и высоконагруженные файловые сервера), требующей высокоскоростного доступа к дисковым устройствам на блочном уровне. Ранее на предприятии возникали «острова» высокопроизводительных дисковых массивов SCSI. Каждый такой массив был выделен для конкретного приложения и виден ему как некоторое количество «виртуальных жестких дисков». Сеть хранения данных (Storage Area Network или SAN) позволяет объединить эти «острова» средствами высокоскоростной сети. Основу SAN составляет волоконно-оптическое соединение устройств по интерфейсу Fibre Chanel, обеспечивающее скорость передачи информации между объектами 1,2,4 или 8 Mbit/sec. Сети хранения помогают повысить эффективность использования ресурсов систем хранения, поскольку дают возможность выделить любой ресурс любому узлу сети. Рассмотрим основные преимущества SAN:
-Производительность. Технологии SAN позволяют обеспечить высокую производительность для задач хранения и передачи данных.
– Масштабируемость. Сети хранения данных обеспечивают удобство расширения подсистемы хранения, позволяют легко использовать приобретенные ранее устройства совместно с новыми устройствами хранения данных.
-Гибкость. Совместное использование систем хранения данных, как правило, упрощает администрирование и добавляет гибкость, поскольку кабели и дисковые массивы не нужно физически транспортировать и перекоммутировать от одного сервера к другому. SAN позволяет подключить новые серверы и дисковые массивы к сети без остановки системы.
-Централизованная загрузка. Другим преимуществом является возможность загружать сервера прямо из сети хранения. При такой конфигурации можно быстро и легко заменить сбойный сервер, переконфигурировав SAN таким образом, что сервер-замена, будет загружаться с логического диска сбойного сервера.
-Отказоустойчивость. Сети хранения помогают более эффективно восстанавливать работоспособность после сбоя. В SAN может входить удаленный участок с вторичным устройством хранения. В таком случае можно использовать репликацию — реализованную на уровне контроллеров массивов, либо при помощи специальных аппаратных устройств. Спрос на такие решения значительно возрос после событий 11 сентября 2001 года в США.
-Управление. Технологии SAN позволяют обеспечить централизованное управление всей подсистемой хранения данных.
Топологии SAN
Рассмотрим некоторые топологии сетей хранения данных
Однокоммутаторная структура (англ. single-switch fabric) состоит из одного коммутатора Fibre Channel, сервера и системы хранения данных. Обычно эта топология является базовой для всех стандартных решений — другие топологии создаются объединением однокоммутаторных ячеек.

Рис. 1.4. Однокоммутаторная структура SAN
Каскадная структура— набор ячеек, коммутаторы которых соединены в дерево с помощью межкоммутаторных соединений.
Решетка — набор ячеек, коммутатор каждой из которых соединен со всеми другими. При отказе одного (а в ряде сочетаний — и более) соединения связность сети не нарушается. Недостаток — большая избыточность соединений.

Рис. 1.6. Структура Решетка
Кольцо— практически повторяет схему топологии решётка. Среди преимуществ — использование меньшего количества соединений.

Рис. 1.7. Структура Кольцо

Консолидация ИТ инфраструктуры
Консолидация — это объединение вычислительных ресурсов либо структур управления в едином центре.
Анализ международного опыта позволяет сегодня говорить о четкой тенденции к консолидации ИТ-ресурсов корпораций. Именно она способна существенно уменьшить затраты на ИТ. Сэкономленные же средства можно направить на повышение качества имеющихся информационных услуг и внедрение новых. Кроме оптимизации расходов на ИТ, консолидация ИТ-ресурсов позволяет улучшить управляемость предприятий за счет более актуальной и полной информации об их функционировании. Обычно говорят о консолидации:
– серверов – перемещение децентрализованных, приложений, распределенных на различных серверах компании, в один кластер централизованных гомогенных серверов;
– систем хранения – совместное использование централизованной системы хранения данных несколькими гетерогенными узлами;
– приложений – размещение нескольких приложений на одном хосте.
При этом можно выделить два базовых типа консолидации — физическую и логическую. Физическая консолидация подразумевает географическое перемещение серверов на единую площадку (в центр данных), а логическая — централизацию управления.
Перемещение компьютеров в единый центр обработки данных позволяют обеспечить комфортные условия для оборудования и технического персонала, а также увеличить степень физической защиты серверов. Кроме того, в центре обработки данных можно использовать более производительное и высококачественное оборудование, которое экономически неэффективно устанавливать в каждом подразделении. Создавая центры обработки данных, можно снизить расходы на техническую поддержку и управление самыми важными серверами предприятия. Удачным примером оборудования, которое может успешно решить задачи консолидации вычислительных ресурсов в организациях любого уровня являются блейд-системы, а также и системы и сети хранения данных.
Очевидное преимущество этого решения в том, что упрощается выделение персонала поддержки и его работа по развертыванию и управлению системами, снижается степень дублирования опытных кадров. Централизация также облегчает использование стандартизованных конфигураций и процессов управления, создание рентабельных систем резервного копирования для восстановления данных после сбоя и поддержания связности бизнеса. Упрощается и решение вопросов организации высококачественного контроля за состоянием окружающей среды и обеспечения физической защиты. Может быть улучшена и сетевая безопасность, поскольку серверы оказываются под защитой единого, централизованно управляемого межсетевого экрана.
Логический тип консолидации подразумевает перестройку системы управления ИТ-инфраструктуры. Это необходимо как для увеличения масштабируемости и управляемости сложной распределенной вычислительной системы, так и для объединения сегментов корпоративной сети. Логическая консолидация обеспечивает введение централизованного управления и унификацию работы с ресурсами компании на основе открытых стандартов. В результате появляется возможность создания глобальных информационных служб предприятия — каталога LDAP, корпоративного портала или ERP-системы, что в конечном итоге позволит улучшить управляемость предприятия за счет более актуальной и полной информации об его функционировании.
Логическая консолидация приложений приводит к централизации управления критическими для бизнеса системами и приложениями. Преимущества логической консолидации очевидны: в первую очередь это высвобождение аппаратных ресурсов, которые можно использовать на других участках информационной системы. Во-вторых, более простая и логичная структура управления ИТ-инфраструктурой делает ее более гибкой и приспособленной для будущих изменений.
Сценарий гомогенной консолидации предусматривает перенос одного масштабного приложения, ранее выполнявшегося на нескольких серверах, на один, более мощный (рис. 1.8). В качестве примера такой операции можно привести базы данных, которые зачастую наращивают экстенсивным путем по мере роста объема обрабатываемой информации. Объединение данных и приложений на одном сервере заметно ускоряет процессы обработки и поиска, а также повышает уровень целостности. Гетерогенная консолидация по содержанию схожа с гомогенной, но в этом случае объединению подлежат разные приложения. Например, несколько экземпляров Exchange Server и SQL Server, ранее запускавшиеся на отдельных компьютерах, могут быть сведены на единой машине. Преимущества гетерогенной консолидации – возрастающая масштабируемость сервисов и более полное задействование системных ресурсов.

Рис. 1.8. Консолидация приложений
Как отмечают специалисты по облачным технологиям – консолидация ИТ-инфраструктуры – является первым шагом к “облаку”. Чтобы перейти к использованию облачных технологий, компаниям необходимо сначала решить задачи неконсолидированной ИТ-инфраструктуры. «Без консолидации невозможно построить эффективное процессно-ориентированное управление, поскольку отсутствует единая точка предоставления сервисов».
Анализируя историю развития информационных технологий и современные тенденции можно сделать вывод, что эволюционный виток ИТ, начавшийся вместе с эпохой мэйнфреймов более пятидесяти лет назад, замкнулся – вместе с облаками мы вернулись к централизации ресурсов, но на этот раз не на уровне мэйнфреймов с их зелеными терминалами а на новом технологическом уровне.
Выступая на конференции, посвященной проблемам современных процессоров, профессор Массачусетского технологического института Ананд Агарвал сказал: «Процессор – это транзистор современности». Новый уровень отличается тем, что здесь также собираются мэйнфреймы, но виртуальные, и не из отдельных транзисторов, как полвека назад, а из целых процессоров или целиком из компьютеров. На заре ИТ многочисленные компании и организации «лепили» собственные компьютеры из дискретных компонентов, монтируя их на самодельных печатных платах – каждая организация делала свою машину, и ни о какой стандартизации или унификации и речи не могло быть. И вот на пороге второго десятилетия XXI века ситуация повторяется – точно так же из серверов-лезвий, компьютеров, разнообразного сетевого оборудования собираются внешние и частные облака. Одновременно наблюдается та же самая технологическая разобщенность и отсутствие унификации: Microsoft, Google, IBM, Aptana, Heroku, Rackspace, Ning, Salesforce строят глобальные мэйнфреймы, а кто-то под собственные нужды создает частные облака, которые являются теми же мэйнфреймами, но меньшего масштаба. Остается предположить, что впереди изобретение интегральной схемы и микропроцессора.
Краткие итоги:
В данной лекции мы ознакомились с основными моментами исторического развития средств вычислительной техники. Рассмотрели тенденции современных инффраструктурных решений.
Ключевые термины:
Мейнфрейм – это главный компьютер вычислительного центра с большим объемом внутренней и внешней памяти.
Блэйд-сервер — компьютерный сервер с компонентами, вынесенными и обобщёнными в корзине для уменьшения занимаемого пространства.
Система Хранения Данных (СХД) – это программно-аппаратное решение по организации надёжного хранения информационных ресурсов и предоставления к ним гарантированного доступа.
SAN – это высокоскоростная коммутируемая сеть передачи данных, объединяющая серверы, рабочие станции, дисковые хранилища и ленточные библиотеки. Обмен данными происходит по протоколу Fibre Channel, оптимизированному для быстрой гарантированной передачи сообщений и позволяющему передавать информацию на расстояние от нескольких метров до сотен километров.
Консолидация — это объединение вычислительных ресурсов либо структур управления в едином центре.
Контрольные вопросы:
1. Расскажите о развитии средств вычислительной техники и аппаратного обеспечения.
2. Каковы тенденции современных инффраструктурных решений.
3. Что такое Система Хранения Данных и Сети хранения данных
4. Расскажите о преимуществах SAN.
5. Что такое консолидация ИТ инфраструктуры.

Автор публикации

не в сети 6 дней

Администратор ресурса

Здравствуйте. Если у Вас возникают какие-либо вопросы касательно работы сайта, то вы можете написать на электронную почту admin@learn-more.kz
Комментарии: 24Публикации: 287Регистрация: 25-01-2017

Добавить комментарий