Меню

Ibm rsa ii настройка



Обзор инструментов IBM ToolsCenter

Обзор инструментов IBM ToolsCenter

IBM ToolsCenter — это набор инструментов управления для развёртывания, конфигурации, обновления и диагностики серверов IBM System x и IBM BladeCenter.

К инструментам развёртывания относятся:

ServerGuide представляет из себя загрузочный CD и предназначен для облегчения процесса предварительной конфигурации сервера и установки операционной системы с необходимыми драйверами устройств. После загрузки ServerGuide мастер установки определяет тип сервера и установленных в него адаптеров, предлагает сконфигурировать RAID, запрашивает информацию об операционной системе и производит её установку. Поддерживаются серверные ОС семейства Microsoft Windows.

ServerGuide Scripting Toolkit позволяет создать собственное решение по конфигурации и развёртыванию серверов с использованием входящих в состав Scripting Toolkit утилит. Данный инструмент генерирует загрузочный образ CD, DVD либо USB-накопителя, с помощью которого производится настройка сервера (UEFI, RAID), установка операционной системы, обновление драйверов и микрокодов. Установка ОС осуществляется как в локальном режиме, тогда дистрибутив включается в генерируемый образ, так и по сети, тогда дистрибутив размещается в сетевой папке. Поддерживаются ОС семейства Microsoft Windows, а также дистрибутивы SUSE Linux Enterprise Server, Red Hat Enterprise Linux и VMware ESX Server.

Bootable Media Creator или BoMC создаёт загрузочный образ CD, DVD, USB-накопителя либо набор файлов для загрузки по PXE. С помощью этого образа возможно обновление микрокодов серверных компонентов, запуск инструментов диагностики, а также развёртывание поддерживаемых ОС Windows (по сути используется ServerGuide).

Start Now Advisor и FastSetup предназначены для упрощения конфигурации шасси IBM BladeCenter S и IBM BladeCenter H соответственно с помощью мастера настройки. По факту Start Now Advisor довольно давно не обновлялся и при определённых конфигурациях шасси IBM BladeCenter S не работает, завершаясь ошибкой.

Инструменты конфигурации включают в себя:

Advanced Settings Utility или ASU представляет собой несколько утилит командной строки для Windows и Linux для изменения настроек BIOS, UEFI, интерфейсов управления Remote Supervisor Adapter (RSA и RSA II) и Integrated Management Module (IMM) из операционной системы без необходимости перезагрузки. В частности, возможно использование ASU совместно с ServerGuide Scripting Toolkit для предварительной конфигурации серверов перед развёртыванием.

Storage Configuration Manager (SCM) используется для управления SAS-компонентами в шасси IBM BladeCenter S, такими как IBM BladeCenter S 6-Disk Storage Module, IBM BladeCenter SAS Connectivity Module и IBM BladeCenter S SAS RAID Controller Module. Приложение работает как Web-сервер, соответственно настройка и управление компонентами осуществляется через браузер. SCM позволяет настраивать SAS-коммутатор в шасси, распределить доступное дисковое пространство, создав необходимые тома на RAID-контроллере, предоставить доступ к томам указанным серверам и следить за состоянием компонентов.

MegaRAID Storage Manager — это приложение для управления и мониторинга за различными RAID-контроллерами ServeRAID M и MR (или LSI MegaRAID).

Инструмент обновления представлен средством UpdateXpress System Packs Installer (UXSPI) и соответствующими пакетами UpdateXpress System Packs (UXSP) для каждого типа сервера. Данный инструмент предназначен для выполнения обновлений микрокодов и драйверов непосредственно из операционной системы. Возможно обновление с использованием ранее закачанного пакета UXSP либо с закачкой последних версий необходимых компонентов пакета напрямую с сайта ibm.com с помощью мастера. Также допустим «тихий» режим (unattended), применяемый в скриптах в том же ServerGuide Scripting Toolkit. Поддерживаются ОС Windows и такие дистрибутивы Linux как SLES и RHEL.

К инструментам диагностики относится Dynamic System Analysis (DSA), который собирает и анализирует информацию о системе в целях помощи в диагностике проблем. Это такая информация как: конфигурация системы, установленные приложения и драйверы, данные о серверных компонентах и версиях микрокодов, системные журналы и прочее. Существует две редакции DSA: DSA Portable Edition и DSA Installable Edition. Первая не требует установки на целевую систему, используя лишь временные файлы, в то время как вторая устанавливается в системе подобно другому программному обеспечению. Обе редакции доступны как для Windows, так и для Linux. Помимо этого в серверах на основе UEFI и IMM данное средство диагностики содержится в виде микрокода в специальном внутреннем хранилище и способно запускаться при загрузке сервера без какой-либо операционной системы.

Для всех перечисленных инструментов доступна документация в информационном центре IBM ToolsCenter for System x and BladeCenter Information Center .

Источник

RSA или авторизация SSH по ключу

Настроим авторизацию по ключу RSA для SSH сервера. Помимо удобства в использовании мы сильно обезопасим нашу систему от взлома. Рассмотрим разные варианты использования подключения по ключу. Надежное хранение приватных ключей гарантия подключения.

Читайте также:  Не помню apple id который использовался для настройки

Введение

Не на долго удалось мне отложить настройку этого варианта подключения к серверу. Необходимость настройки доступа по ключу пришла откуда я даже не думал. Неожиданно обнаружил что резервные копии периодически не проходят на Yandex.Disk. Резервирование сайтов у меня производится скриптом который резервирует вначале файлы сайта а потом базу. Пропуски были как с файлами так и с базами. Решил настроить резервное копирование на сервер с которым идет соединение ssh.

Для того чтобы система сама соединялась по ключу к ssh серверу я создал на сервере пользователя которого запер в своей домашней директории с архивными копиями и при генерации связки ключей не указывал парольной фразы.

Генерация пары ключей RSA

Механизм авторизации по ключу прост. На то место куда мы подключаемся нам надо повесить замок (публичный ключ название.pub) а сам ключик с помощью которого мы сможем подключится (приватный ключ название) держать у себя и с помощью его открывать замочек. Мало того, замок вешается не на всю систему а именно на конкретного пользователя под которым мы будем авторизовываться.

Можно не указывать путь куда мы будем устанавливать ключи и тогда они создадутся в папке по умолчанию с базовым названием. Я не буду менять путь по умолчанию для ключей а лишь буду создавать их со своим удобным мне названием.

Создадим связку ключей указав тип -t rsa, длину ключа -b 2048 и место с необходимым нам названием:

По результату видим что создалась пара ключей с названием rsa_sevo44.

Надежно сохраните эту пару ключей чтобы в случае краха системы и потери жесткого диска вы могли подключится к необходимому ресурсу к которому открыт доступ для подключения только по ключу.

Настройка SSH сервера

Настройка сервера на всех системах Linux сводится к редактированию конфигурационного файла ssh сервера. Данный пример файла от системы CentOS 7 но и у других тоже самое:

Не советую сразу отключать подключение по паролю. Отключите его только после проверки авторизации по ключу!

Перезагрузим сервер SSH:

Добавление публичного ключа RSA

Используем для добавления публичного ключа команду указав необходимый ключ и пользователя куда мы хотим повесить замок:

После введения пароля от пользователя к которому мы хотим повесить публичный ключ он добавится в список который находится в файле /root/.ssh/authorized_keys.

Проверим добавление ключа на сервере:

Если хотите можете сверить данные с нужной строки и данными с файла публичного ключа. Данные будут идентичны.

Запоминаем пароль с помощью ssh-agent

Так как мы указали нестандартное название то без указания места нашего приватного ключа система его не будет видеть.

Для добавления ключей в список для использования во время работы на компьютере используем сервис ssh-agent.

Проверим состояние ssh-agent:

Теперь нам надо добавить нужный ключ командой:

После перезагрузки данную процедуру придется повторить!

Посмотреть добавленные ключи можно командой:

Для удаления всех ключей применим опцию -D:

Такую команду удобно использовать когда мы работали на чужом компьютере. Для удаления только своего ключа можно использовать опцию -d путь к ключу.

Права на ключи RSA

В папку пользователя .ssh можно добавить ранее созданные сертификаты. Достаточно выставить необходимые права и сертификат будет активен после перезагрузки системы.

Выставим необходимые права (на примере ключа с именем rsa_sevo44 пользователя local):

Авторизация по ключу в SSH

Только после добавления необходимого ключа командой ssh-add возможно подключится по ключу!

Подключимся к нужному серверу по нестандартному порту с выводом истории подключения ssh:

Результат

Мы успешно можем подключатся и работать на нужном сервере без ввода пароля, но лишь до тех пор пока не перезагрузим компьютер. Конечно можно создать сертификат без ключа и тогда некоторые вещи упрощаются но вопрос в том насколько вы доверяете своему компьютеру. Обычно использую сертификат без парольной фразы в редких случаях и с ограничением возможностей пользователя под которым подключаемся.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Читая их я получаю информацию которая позволяет мне улучшить качество написания статей. Кроме того, оставляя комментарии вы помогаете сайту получить более высокий рейтинг у поисковых систем. Давайте общаться.

Читайте также:  Настройка режимов резания токарного станка

Источник

Помощь в настройке СХД на пару с Blade-сервером

Товарищи, нужна Ваша помощь в настройке серверного оборудования, а именно подключение системы хранения данных к Blade-серверу. Сразу скажу — за последний месяц прочитано уже бесчисленное множество различных ресурсов, поэтому прошу помощи в «реальном времени».

К сожалению, ранее с подобным я не сталкивался, а задача ввода оборудования в работу поставлена. И возникает ку-у-уча вопросов.

На работе приобрели новую железку — систему хранения данных Fujitsu DX100 S4. Включает в себя 2 набора дисков — SSD и SAS, быстрый массив и медленный массив, соответственно. СХД имеет 8 Fiber Channel портов — по 4 на каждом из двух контроллеров (далее CM#X), разделенные на 2 группы (далее CA#X) по 2 порта (далее Port#X).

Приобреталось все это взамен неисправной СХД, которая давным давно выведена из работы по причине умерших дисков.
Работать новая СХД должна была в паре с Blade-сервером HP C3000, с тремя лезвиями на борту. На каждое установлен ESXI и на всем этом поднят кластер VMWare.

В данный сервер установлен SAN-свитч Brocade 8/12c, с четырьмя лицензированными портами Fiber Channel.

1. SAN-свитч: Подключен двумя FC портами к двум контроллерам СХД (CM#0 и CM#1).

Зонирование выполнено следующим образом:

Первому HBA первого лезвия задан в соответствие первый порт СХД.

Первому HBA первого лезвия задан в соответствие второй порт СХД.

Второму HBA первого лезвия задан в соответствие первый порт СХД.

Второму HBA третьего лезвия задан в соответствие второй порт СХД.

Итого 12 зон. Соответствие задано по WWN. Всё собрано в единый конфиг на SAN-свитче.

Здесь возникает первый (1) вопрос — действительно ли стоит делать зонирование по WWN или нужно делать жестко по портам?

а.) Имеет 2 раздела (SSD-volume и SAS-volume):

SSD собраны в RAID5, имеют размер 6.10 Тб.

SAS собраны в RAID10, имеют размер 8.00 Тб.

б.) Разделы собраны в группу из двух LUN и презентованы серверу следующим образом:

Пояснения по столбцам:

1. Host Group — названия групп портов HBA из столбца Host, соответствующих каждому из лезвий.

2. Host — HBA адаптеры каждого из лезвий.

3. CA Port Group — названия групп портов контроллеров СХД из вкладки CA Port.

4. CA Port — порты СХД, которые подключены к серверу, где CM#X — контроллер, CA#X — группа портов на контроллере, Port#X — порт каждой из групп.
5. LUN Group — группа из LUN, которые необходимо презентовать Blade-серверу.

6. Host Response — режим работы хоста, работающий в режиме Active/Active (настройка проведена руками).

Здесь возникает второй (2) вопрос — корректно ли выполнять презентацию по отдельным лезвиям? Или можно было собрать всё в одну кучу?

VMWare видит оба LUN.

Выглядит это следующим образом:

Каждый vmhba видит оба LUN в двойном количестве (. 3e:20 и . 3e:30 — WWN адреса портов СХД). Установлен режим путей Round-Robin для каждого из LUN.

Возникает третий (3) вопрос — а правильно ли выполнена настройка VMWare?

И вот здесь мы приходим к следующему.

Ранее, в VMWare был выбран режим «Fixed«. Какие пути были выбраны — данная информация, к сожалению, не сохранилась. Все работало корректно пару дней с парой легких виртуальных машин на борту (1 — Ubuntu, 2 — Windows 7). Вечером третьего дня запустил на СХД миграцию ВМ с Windows Server 2008 R2. Более никаких изменений в конфигурацию не вносилось.

На следующий день посыпались жалобы на то, что всё работающее на СХД тормозит.

При использовании утилиты esxtop с параметром ‘d’ (подключаясь по SSH на одно из лезвий), появлялись огромные значения DAVG, KAVG, GAVG и QAVG:

Режим был изменен на Round-Robin. Часть путей была отключена. Худо-бедно и спешке виртуальные машины были размигрированы с СХД.

В данный момент СХД как-то работает, но как — непонятно.

После уже месячных попыток настройки и чтения мануалов уже нет точного представления как всё это должно работать.

Хотелось бы получить советы, каким образом нужно подойти к организации системы хранения данных вместе с Blade-сервером имея только один SAN-свитч.

Признателен любой помощи в выборе правильно подхода! Спасибо!

Читайте также:  Настройка плагина wp sitemap page

Найдены возможные дубликаты

Мне кажется, ты сюда полез не с проблемой, а похвастать дорогими железяками и умными словами.

У тебя узкоспециализированная ИТ задача, а ты ищешь помощи на ресурсе со смехуечками и пиздохаханьками.

Тоже плюс, но хвастаться нечем, к сожалению 🙁

Плюсую автору поста выше

Автор, ты конечно молодец и я верю что ты хороший специалист в своём деле, но если быть прямолинейным, что у тебя неправильно сделаны вообще все технические моменты от начала и до конца. Только уровни RAID спорные, т.к. завясит от приклада. Всё остальное объективно плохо видимо из-за отсутствия понимания базывых принципов работы MPIO, того как работает FC фабрика и как обрабатывают IO такие массивы начального уровня.

Вообще начать было бы правильным с беглого просмотре host connectivity user guide на эту модель массива для понимания того как его зонировать, как настраивать mpio на хостах и пр. Я честно говоря с этой моделью не знаком и врядли когда увижу, т.к. у другого вендора работаю. Но уверен это всё очень легко найти и я могу с этим помочь. Но в любом случай такой богомерзкий зонинг точно надо исправлять.

Честно говоря не все детали поста просмотрел, но ошибки очень начального уровня, поэтому уверен твой вопрос решается очень легко и быстро. Если хочешь полный перечень ошибок с указанием как надо, то оставь пожалуйста какой-нибудь контакт (можно в личку) — например почту. Я попозже сегодня могу отправить.

LUN MASKING (Часть 2)

Ты правильно сделал CA Group, но не понял самое очевидное — для чего нужны хост группы, хотя вроде даже из названия ясно.

Хост группы нужны чтобы объединять однотипные хосты. В твоем случае это три лезвия. Ты же зачем-то сделал их три вместо одной. Тебе нужна одна группа в которой будут три ESXi.

А отдельный Host ты заводишь не для каждого порта ESXi, а для всех портов одного ESXi

MPIO для VMware (Часть 3)

Для этого массива фуджики рекомендуют Round Robin. Тут всё как бы правильно. Но ты блин на скриншоте сам показываешь всю суть твоей проблемы. У тебя latenсy до девайса (DAVG) только по одному из четырёх путей улетело в космос. Это блин как бы весьма толстый намек тебе, чтоб ты проверил две вещи:

1. СФПиху со стороны массива по пути от vmhba1

2. Патч корд который соединяет эту СФП с портом коммутатора.

Если ты выдернешь этот кабель или отключишь этот порт на коммутаторе (portdisable #) то произойдет чудо и все лаги пройдут с вероятностью 99.999%.

P.S. не слушай людей которые несут какую-то лютую дичь про какой-то только им известный «мультиFC, который любой вид мульти» (с). Не ту площадку ты выбрал. Здесь тебе не помогут. Уходи отсюда 🙂

Вообщем, контакта не дождался отвечу на твои вопросы тогда здесь. Постараюсь максимально кратко, хотя понимаю что это невозможно.

ЗОНИРОВАНИЕ. (Часть 1)

1.Выполнять только по WWPN и никак иначе. По портам имеет смысл только для FICON, других исключений нет. Т.к. мейнфреймами у тебя не пахнет, то только по WWPN.

2. Зонирование либо как у всех здоровых людей (один инициатор — несколько портов одного таргера). Либо как по инерции десятилетиями пишут во всех умных гайдах (один порт инициатора — один порт таргета). Мешать в одну зону несколько хостов или разные таргеты нельзя.

3. Первый порт HBA через фабрику A зонируется с двумя портами #0 обоих контроллеров. Второй порт HBA через фабрику B зонируется с портами #1 обоих контроллеров.

4. Т.к. серверов у тебя 3, то два сервера ты зонируешь как написано в п.3, а один также идеологически, но используя порты #2 и #3 СХД. Это для балансировки инициаторов на портах СХД.

5. На портах коммутатора, к которым подключена СХД выставляешь фиксированную скорость. В твоем случае это 8G. Потому что AN на портах ISL, СХД, всяких ленточек — это зло.

# portcfgspeed 3 8

6. Так как коммутатор 8G, то проверяй FillWord. Здесь почитай: https://www.ivsmir.ru/2015/09/fc-switch-er_bad_os/

7. Сбрось счетчики ошибок на всех портах # portstatsclear. Дай нагрузку на СХД тестовую любую и покажи вывод portstatsshow

Источник

Adblock
detector