Установка и настройка отказоустойчивого кластера. — различия между версиями

Материал из Integra-S Wiki
Перейти к: навигация, поиск
Строка 1: Строка 1:
== Proxmox ==
+
==Введение==
 +
Virtual Environment (VE) (виртуальня среда) Proxmox является многоузловым кластерным гипервизоро  с открытым исходным кодом, построенным на Debian Linux и способным работать на общедоступных аппаратных средствах, те самым устраняя любые блокировки вендора. Proxmox свободно доступен без каких-либо блокированных особенностей.
  
1) при установке дать имя ipenode1.integra-s.com
+
Proxmox это мультиузловая среда, и это означает, что многие узлы могут образовывать единый кластер в котором виртуальная машина может быть перемещена на любой узел в кластере, тем самым делая возможной избыточную виртуальную среду. Весь Proxmox кластер может управляться через надежный графический интерфейс пользователя (GUI).
  
2) Первое, что нам нужно сделать, это поменять платный репозиторий ProxMox, требующий подписки, на бесплатный:
+
==Установка Proxmox на голом узле (на каждую Нод)  
#nano /etc/apt/sources.list.d/pve-enterprise.list
+
на RAID1==
3) комментируем единственную строку и вписываем новую ниже:
 
deb http://download.proxmox.com/debian jessie pve-no-subscription
 
4) Далее обновляем наш ProxMox:
 
#apt update && apt dist-upgrade
 
4.1) прописываем в /etc/hosts на каждой ноде ip и hostname нод будущего кластера
 
создаем кластер и прописывает на главной ноде
 
#pvecm create <clustername>
 
проверяем, что все нормально и смотрим список нод
 
#pvecm status
 
на второстепенных нодах пишем
 
#pvecm add ipenode1
 
проверяем, что все нормально и смотрим список нод в кластере
 
#pvecm status
 
  
== CEPH ==
+
1) Жесткие диски обязательно должны быть «очищены» перед установкой Proxmox! Для работы с программным RAID1 обязательно использование дисков HGST (было протестировано на них). На дисках Toshiba программный RAID1 сделать не удалось. После настройки Bios (режим SATA – ACHI), монтируем образ proxmox-ve_4.4-eb2d6f1e-2 с «Внешнего HDD» и загружаемся с него (без UEFI), либо через IPMI Supermicro utilities смонтировать образ proxmox-ve_4.4-eb2d6f1e-2 (для этого нужно знать ip адрес IPMI и быть в одной подсети с ним)
5) Устанавливаем пакеты для работы с Ceph:
 
#pveceph install -version jewel
 
6) добавить внутреннюю сеть 10.10.10.0/24 → ребут через веб морду (2 раза)
 
public net=cluster net
 
7) подготовка диска для последующего создания OSD
 
#cfdisk /dev/sdb (new OSD)
 
8)на каждой ноде
 
#pveceph init --network 10.10.10.0/24
 
9) создание первого монитора через веб морду или консоль
 
#pveceph createmon
 
10) переходим в веб морду и удаляем pool, далее создаем новый c pg_num=128 2/2 (2 nodes), 3/2 (3 nodes), чем больше OSD, тем больше pg_num
 
PG_total = (OSD_count*100)/max_replication_count
 
PGPs=PGs
 
11) создать OSDs (/dev/sdb, /dev/sdc) через вебморду
 
  
12) создать RBD хранилище в datacentr'е (monitor: 10.10.10.1)
+
Процесс установки Proxmox полностью управляется графическим интерфейсом с помощью различных подсказок. В этом разделе мы последуем следующими шагами в создании нашего первого узла Proxmox. Включите питание и загрузите физический узел, используя установочный диск или USB-носитель. На следующий снимок экрана показывает как выглядит экран после загрузки:
 
 
13) для rbd на client node
 
# cd /etc/pve/priv/
 
# mkdir ceph
 
# cp /etc/ceph/ceph.client.admin.keyring ceph/my-ceph-storage.keyring
 
 
 
14) смена host на osd\\
 
# ceph osd getcrushmap -o crushmapdump
 
# crushtool -d  crushmapdump -o  crushmapdump-decompiled
 
# nano  crushmapdump-decompiled
 
#rules
 
step chooseleaf firstn 0 type host → step chooseleaf firstn 0 type osd
 
# crushtool -c  crushmapdump-decompiled -o crushmapdump-compiled
 
# ceph osd setcrushmap -i crushmapdump-compiled
 
получить ответ
 
set crush map --> all ok
 
 
 
 
 
 
 
 
 
== Moxa ==
 
1) choose kernel 3.x
 
 
 
2) edit mxloadsvr.c
 
….................................
 
else if (os == "debian") → “debain11”
 
{
 
system("grep -v mxloadsvr /etc/init.d/npreals > /tmp/nprtmp_rclocal");
 
….................................
 
3) ./mxinst
 
 
 
4) rm -f /etc/rc0-6.d/S02npreals
 
 
 
5) cp npreals /root/moxa
 
 
 
6) chmod +x /etc/moxa/npreals.sh
 
 
 
7) cp npreals /etc/init.d/
 
 
 
8) chmod +x /etc/init.d/npreals
 
 
 
9) update -rc.d npreals defaults
 
 
 
добавление ноды
 
было 2 стало 3
 
 
 
1) все как обычно + правка конфига /etc/pve/storage.cfg
 
 
 
добавить ip третьего mon'a
 
 
 
2) ceph – pool – create с тем же именем, но с 3/2
 
 
 
либо создать другой pool и развернуть dump кластера с двух нод
 
 
 
СМЕНА IP
 
 
 
node → system → network → reboot
 
 
 
nano /etc/hosts поменять там ip → reboot через веб морду
 
 
 
== Glusterfs ==
 
 
 
1) при установке дать имя ipenode1.integra-s.com
 
 
 
2) Первое, что нам нужно сделать, это поменять платный репозиторий ProxMox, требующий подписки, на бесплатный:
 
#nano /etc/apt/sources.list.d/pve-enterprise.list
 
3) комментируем единственную строку и вписываем новую ниже:
 
deb http://download.proxmox.com/debian jessie pve-no-subscription
 
4) Далее обновляем наш ProxMox:
 
#apt update && apt dist-upgrade
 
5) pvecm create glcluster — на основной ноде
 
 
 
pvecm add <node2> - добавить вторую ноду в кластер, прописывается на второй ноде
 
 
 
6) добавить в /etc/hosts ноды, которые будут участвовать в кластере glusterfs
 
 
 
7) apt install glusterfs-server
 
 
 
8) gluster peer probe <node2>
 
 
 
проверить статус командой
 
 
 
9) на каждой ноде
 
 
 
:9.1) mkdir -p /media/glusterfs/wbackup
 
:9.2) можно создать папку mbackup и добавить в /media/glusterfs для volume под название mbackup
 
на одной из нод проделать след. 2 пункта
 
 
 
10) gluster volume create <wbackup> replica 2 <node1>:/media/glusterfs/wbackup <node2>:/media/glusterfs/wbackup
 
 
 
11) gluster volume start <wbackup>
 
 
 
на каждой проверить все ли верно сделано зайти на первую ноду, создать файл в директории /mnt/pve/wbackup/images/ и проверить его наличие на другой ноде по тому же пути;
 
gluster volume info
 
11) для удаления volume:
 
 
 
gluster volume stop <wbackup>
 
gluster volume delete <wbackup>
 
apt-get install attr
 
cd /media/glusterfs/wbackup
 
for i in `attr -lq .`; do setfattr -x trusted.$i .; done
 
attr -lq ./(for testing, the output should pe empty)
 

Версия 15:49, 23 мая 2017

Введение

Virtual Environment (VE) (виртуальня среда) Proxmox является многоузловым кластерным гипервизоро  с открытым исходным кодом, построенным на Debian Linux и способным работать на общедоступных аппаратных средствах, те самым устраняя любые блокировки вендора. Proxmox свободно доступен без каких-либо блокированных особенностей.

Proxmox это мультиузловая среда, и это означает, что многие узлы могут образовывать единый кластер в котором виртуальная машина может быть перемещена на любой узел в кластере, тем самым делая возможной избыточную виртуальную среду. Весь Proxmox кластер может управляться через надежный графический интерфейс пользователя (GUI).

==Установка Proxmox на голом узле (на каждую Нод) на RAID1==

1) Жесткие диски обязательно должны быть «очищены» перед установкой Proxmox! Для работы с программным RAID1 обязательно использование дисков HGST (было протестировано на них). На дисках Toshiba программный RAID1 сделать не удалось. После настройки Bios (режим SATA – ACHI), монтируем образ proxmox-ve_4.4-eb2d6f1e-2 с «Внешнего HDD» и загружаемся с него (без UEFI), либо через IPMI Supermicro utilities смонтировать образ proxmox-ve_4.4-eb2d6f1e-2 (для этого нужно знать ip адрес IPMI и быть в одной подсети с ним)

Процесс установки Proxmox полностью управляется графическим интерфейсом с помощью различных подсказок. В этом разделе мы последуем следующими шагами в создании нашего первого узла Proxmox. Включите питание и загрузите физический узел, используя установочный диск или USB-носитель. На следующий снимок экрана показывает как выглядит экран после загрузки: