|  |  | 
| Строка 1: | Строка 1: | 
| − | == Proxmox == | + | ==Введение== | 
|  | + | Virtual Environment (VE) (виртуальня среда) Proxmox является многоузловым кластерным гипервизоро  с открытым исходным кодом, построенным на Debian Linux и способным работать на общедоступных аппаратных средствах, те самым устраняя любые блокировки вендора. Proxmox свободно доступен без каких-либо блокированных особенностей. | 
|  |  |  |  | 
| − | 1)при установке дать имя ipenode1.integra-s.com
 | + | Proxmox это мультиузловая среда, и это означает, что многие узлы могут образовывать единый кластер в котором виртуальная машина может быть перемещена на любой узел в кластере, тем самым делая возможной избыточную виртуальную среду. Весь Proxmox кластер может управляться через надежный графический интерфейс пользователя (GUI). | 
|  |  |  |  | 
| − | 2) Первое, что нам нужно сделать, это поменять платный репозиторий ProxMox, требующий подписки, набесплатный:
 | + | ==Установка Proxmox на голом узле (на каждую Нод)   | 
| − |  #nano /etc/apt/sources.list.d/pve-enterprise.list
 | + | на RAID1== | 
| − | 3) комментируем единственную строку и вписываем новую ниже:
 |  | 
| − |  deb http://download.proxmox.com/debian jessie pve-no-subscription
 |  | 
| − | 4)Далее обновляем наш ProxMox:
 |  | 
| − |  #apt update && apt dist-upgrade
 |  | 
| − | 4.1) прописываем в /etc/hosts накаждой ноде ip и hostname нод будущего кластера
 |  | 
| − | создаем кластер и прописывает на главной ноде
 |  | 
| − |  #pvecm create <clustername> 
 |  | 
| − | проверяем, что все нормально и смотрим список нод
 |  | 
| − |  #pvecm status
 |  | 
| − | на второстепенных нодах пишем
 |  | 
| − |  #pvecm add ipenode1
 |  | 
| − | проверяем, что все нормально и смотрим список нод в кластере
 |  | 
| − |  #pvecm status
 |  | 
|  |  |  |  | 
| − | == CEPH ==
 | + | 1) Жесткие диски обязательно должны быть «очищены» перед установкой Proxmox! Для работы с программным RAID1 обязательно использование дисков HGST (было протестировано на них). На дисках Toshiba программный RAID1 сделать не удалось. После настройки Bios (режим SATA – ACHI), монтируем образ proxmox-ve_4.4-eb2d6f1e-2 с «Внешнего HDD» и загружаемся с него (без UEFI), либо через IPMI Supermicro utilities смонтировать образ proxmox-ve_4.4-eb2d6f1e-2 (для этого нужно знать ip адрес IPMI и быть в одной подсети с ним) | 
| − | 5)Устанавливаем пакеты для работы сCeph:
 |  | 
| − |  #pveceph install -version jewel
 |  | 
| − | 6)добавить внутреннюю сеть 10.10.10.0/24 → ребут через веб морду (2 раза)
 |  | 
| − |  public net=cluster net
 |  | 
| − | 7) подготовка диска для последующего создания OSD
 |  | 
| − |  #cfdisk /dev/sdb (new OSD)
 |  | 
| − | 8)на каждой ноде
 |  | 
| − |  #pveceph init --network 10.10.10.0/24 
 |  | 
| − | 9) создание первого монитора через веб морду или консоль
 |  | 
| − |  #pveceph createmon
 |  | 
| − | 10) переходим в веб морду иудаляем pool, далее создаем новый c pg_num=128 2/2 (2 nodes),3/2 (3 nodes), чем больше OSD, тем больше pg_num
 |  | 
| − |  PG_total = (OSD_count*100)/max_replication_count
 |  | 
| − |  PGPs=PGs
 |  | 
| − | 11) создать OSDs (/dev/sdb, /dev/sdc)через вебморду
 |  | 
|  |  |  |  | 
| − | 12) создать RBD хранилище в datacentr'е (monitor: 10.10.10.1)
 | + | Процесс установки Proxmox полностью управляется графическим интерфейсом с помощью различных подсказок. В этом разделе мы последуем следующими шагами в создании нашего первого узла Proxmox. Включите питание и загрузите физический узел, используя установочный диск или USB-носитель. На следующий снимок экрана показывает как выглядит экран после загрузки: | 
| − |   |  | 
| − | 13) для rbd на client node
 |  | 
| − |  # cd /etc/pve/priv/
 |  | 
| − |  # mkdir ceph
 |  | 
| − |  # cp /etc/ceph/ceph.client.admin.keyring ceph/my-ceph-storage.keyring
 |  | 
| − |   |  | 
| − | 14) смена host на osd\\
 |  | 
| − |  # ceph osd getcrushmap -o crushmapdump
 |  | 
| − |  # crushtool -d  crushmapdump -o  crushmapdump-decompiled
 |  | 
| − |  # nano  crushmapdump-decompiled
 |  | 
| − |  #rules
 |  | 
| − |  step chooseleaf firstn 0 type host → step chooseleaf firstn 0 type osd
 |  | 
| − |  # crushtool -c  crushmapdump-decompiled -o crushmapdump-compiled
 |  | 
| − |  # ceph osd setcrushmap -i crushmapdump-compiled
 |  | 
| − | получить ответ 
 |  | 
| − |  set crush map --> all ok
 |  | 
| − |   |  | 
| − |   |  | 
| − |   |  | 
| − |   |  | 
| − | == Moxa ==
 |  | 
| − | 1) choose kernel 3.x
 |  | 
| − |   |  | 
| − | 2) edit mxloadsvr.c
 |  | 
| − |  ….................................
 |  | 
| − |  else if (os == "debian") → “debain11”
 |  | 
| − |  {
 |  | 
| − |  system("grep -v mxloadsvr /etc/init.d/npreals > /tmp/nprtmp_rclocal");
 |  | 
| − |  ….................................
 |  | 
| − | 3) ./mxinst
 |  | 
| − |   |  | 
| − | 4) rm -f /etc/rc0-6.d/S02npreals
 |  | 
| − |   |  | 
| − | 5) cp npreals /root/moxa
 |  | 
| − |   |  | 
| − | 6) chmod +x /etc/moxa/npreals.sh
 |  | 
| − |   |  | 
| − | 7) cp npreals /etc/init.d/
 |  | 
| − |   |  | 
| − | 8) chmod +x /etc/init.d/npreals
 |  | 
| − |   |  | 
| − | 9) update -rc.d npreals defaults
 |  | 
| − |   |  | 
| − | добавление ноды
 |  | 
| − | было 2 стало 3
 |  | 
| − |   |  | 
| − | 1) все как обычно + правка конфига /etc/pve/storage.cfg
 |  | 
| − |   |  | 
| − | добавить ip третьего mon'a
 |  | 
| − |   |  | 
| − | 2) ceph – pool – create стем же именем, но с 3/2 
 |  | 
| − |   |  | 
| − | либо создать другой pool и развернуть dump кластера с двух нод
 |  | 
| − |   |  | 
| − | СМЕНА IP
 |  | 
| − |   |  | 
| − | node → system → network → reboot
 |  | 
| − |   |  | 
| − | nano /etc/hosts поменять там ip → reboot через веб морду
 |  | 
| − |   |  | 
| − | == Glusterfs ==
 |  | 
| − |   |  | 
| − | 1) при установке дать имя ipenode1.integra-s.com
 |  | 
| − |   |  | 
| − | 2) Первое, что нам нужно сделать, это поменять платный репозиторий ProxMox, требующий подписки, на бесплатный:
 |  | 
| − |  #nano /etc/apt/sources.list.d/pve-enterprise.list
 |  | 
| − | 3) комментируем единственную строку ивписываем новую ниже:
 |  | 
| − |  deb http://download.proxmox.com/debian jessie pve-no-subscription
 |  | 
| − | 4) Далее обновляем наш ProxMox:
 |  | 
| − |  #apt update && apt dist-upgrade
 |  | 
| − | 5) pvecm create glcluster — на основной ноде
 |  | 
| − |   |  | 
| − | pvecm add <node2> - добавить вторую ноду в кластер,прописывается на второй ноде
 |  | 
| − |   |  | 
| − | 6) добавить в /etc/hosts ноды, которые будут участвовать в кластере glusterfs
 |  | 
| − |   |  | 
| − | 7) apt install glusterfs-server
 |  | 
| − |   |  | 
| − | 8) gluster peer probe <node2>
 |  | 
| − |   |  | 
| − | проверить статус командой
 |  | 
| − |   |  | 
| − | 9) на каждой ноде
 |  | 
| − |   |  | 
| − | :9.1) mkdir -p /media/glusterfs/wbackup
 |  | 
| − | :9.2) можно создать папку mbackup и добавить в /media/glusterfs для volume 	под название mbackup
 |  | 
| − | на одной из нод проделать след. 2 пункта
 |  | 
| − |   |  | 
| − | 10) gluster volume create <wbackup> replica 2 <node1>:/media/glusterfs/wbackup 	<node2>:/media/glusterfs/wbackup
 |  | 
| − |   |  | 
| − | 11) gluster volume start <wbackup>
 |  | 
| − |   |  | 
| − | на каждой проверить все ли верно сделано зайти на первую ноду, создать файл в директории /mnt/pve/wbackup/images/ и проверить его наличие на другой ноде по тому же пути;
 |  | 
| − |  gluster volume info
 |  | 
| − | 11) для удаления volume:
 |  | 
| − |   |  | 
| − |  gluster volume stop <wbackup>
 |  | 
| − |  gluster volume delete <wbackup>
 |  | 
| − |  apt-get install attr
 |  | 
| − |  cd /media/glusterfs/wbackup
 |  | 
| − |  for i in `attr -lq .`; do setfattr -x trusted.$i .; done
 |  | 
| − |  attr -lq ./(for testing, the output should pe empty)
 |  | 
Virtual Environment (VE) (виртуальня среда) Proxmox является многоузловым кластерным гипервизоро  с открытым исходным кодом, построенным на Debian Linux и способным работать на общедоступных аппаратных средствах, те самым устраняя любые блокировки вендора. Proxmox свободно доступен без каких-либо блокированных особенностей.
Proxmox это мультиузловая среда, и это означает, что многие узлы могут образовывать единый кластер в котором виртуальная машина может быть перемещена на любой узел в кластере, тем самым делая возможной избыточную виртуальную среду. Весь Proxmox кластер может управляться через надежный графический интерфейс пользователя (GUI).
1) Жесткие диски обязательно должны быть «очищены» перед установкой Proxmox! Для работы с программным RAID1 обязательно использование дисков HGST (было протестировано на них). На дисках Toshiba программный RAID1 сделать не удалось. После настройки Bios (режим SATA – ACHI), монтируем образ proxmox-ve_4.4-eb2d6f1e-2 с «Внешнего HDD» и загружаемся с него (без UEFI), либо через IPMI Supermicro utilities смонтировать образ proxmox-ve_4.4-eb2d6f1e-2 (для этого нужно знать ip адрес IPMI и быть в одной подсети с ним)
Процесс установки Proxmox полностью управляется графическим интерфейсом с помощью различных подсказок. В этом разделе мы последуем следующими шагами в создании нашего первого узла Proxmox. Включите питание и загрузите физический узел, используя установочный диск или USB-носитель. На следующий снимок экрана показывает как выглядит экран после загрузки: