Установка и настройка отказоустойчивого кластера.
Содержание
- 1 Развертывание кластера
- 2 Обновление Proxmox и установка компонентов (через интернет)
- 3 Обновление Proxmox через локальный репозиторий
- 4 Веб-интерфейс, смена ip, редактирование hosts и добавление нодов
- 5 Объединение в кластер
- 6 CEHP (вводная часть)
- 7 CEPH (Настройка)
- 8 Создание Glusterfs
- 9 Создание VM
- 10 HA для мигрирования VM (создание групп)
- 11 Moxa (настройка)
- 12 Использование скрипта для добавления новых database, mss, ff
- 13 Использование Zip сервера (четвёртого Нод)
- 14 Ntp server, синхронизация времени, GPS Датчик (настройка)
- 15 Сервер Авторизации
- 16 Добавление диска в RAID1 (не работает с HDD Toshiba)
- 17 Приложения
- 17.1 План работы с кластером
- 17.2 Команды для работы в Linux с IPE
- 17.3 Устанавливаем SSH в Debian
- 17.4 Как расшарить папку из консоли Linux используя Samba
- 17.5 Установка Video-server 7.0.776 в качестве ретранслятора и проброс USB в VM для ключа защиты
- 17.6 Установка и настройка серверной части Oracle на OS Linux (Debian 8.5/8.6)
- 17.7 Инструкция по установке Wine и Winetricks в Linux
Развертывание кластера
Введение
Virtual Environment (VE) (виртуальня среда) Proxmox является многоузловым кластерным гипервизором с открытым исходным кодом, построенным на Debian Linux и способным работать на общедоступных аппаратных средствах, тем самым устраняя любые блокировки вендора. Proxmox свободно доступен без каких-либо блокированных особенностей.
Proxmox это мультиузловая среда, и это означает, что многие узлы могут образовывать единый кластер в котором виртуальная машина может быть перемещена на любой узел в кластере, тем самым делая возможной избыточную виртуальную среду. Весь Proxmox кластер может управляться через надежный графический интерфейс пользователя (GUI).
Предварительная настройка серверов
Перед установкой Proxmox на платформу Supermicro, необходимо настроить BIOS, IPMI и дату/время
1. Выставить дату и время в BIOS на текущую. В зависимости от временной зоны где будет работать кластер. На каждой Ноде!
2 Режим SATA выставить - ACHI
3 Автоматическое включение после сбоя питания - Power on
4 Настроить статический адрес IPMI - BMC – IPMI (ip, маску подсети, шлюз если есть)
5 отключить первоначальную загрузку по Lan
Жесткие диски обязательно должны быть «очищены» перед установкой Proxmox! Для работы с программным RAID1 обязательно использование дисков HGST (было протестировано на них). На дисках Toshiba программный RAID1 сделать не удалось. После настройки Bios (режим SATA – ACHI) монтируем образ proxmox-ve_4.4-eb2d6f1e-2 с «Внешнего HDD» и загружаемся с него (без UEFI), либо через IPMI Supermicro IPMIView20 смонтировать образ proxmox-ve_4.4-eb2d6f1e-2 (для этого нужно знать ip адрес IPMI и быть в одной подсети с ним. Будет описано ниже).
Для работы с серверами по IPMI, можно воспользоваться утилитой от Supermicro IPMIView20. Она упростить и ускорить работу по IPMI (внимание: работает только на Windows и потребуется установленная программа JAVA (jre-8u111-windows-x64)
Работа с образами в IPMI Supermicro utilities
IPMIView20 – Отличная утилита для работы с серверами по IPMI на материнских платах Supermicro.
Утилита позволяет делать поиск по заданному пул IP адресов, добавлением их в колонку доступных,
а так же простоту в работе с несколькими окнами (серверами) одновременно.
Так же можно менять IPMI адрес не заходя в BIOS, просматривать температуру и сост. Cервера.
Важной особенностью стоит отменить возможность монтирования образов прямо с компьютера, на котором происходит настройка. Достаточно выбрать сервер по IPMI с котором необходимо работать. Перейти в закладку IPMI Concole и подключиться.
В открывшемся окне нажать закладку Virtual Storage и выбрать ISO файл, затем нажать Plug in и запустить сервер на перезагрузку в том же окне — Power Control – Power Reset. После работы с ISO образом его необходимо размонтировать — там же кнопкой Plug Out, иначе сервер будет пытаться загрузиться в первую очередь с образа.
Установка Proxmox на голом узле (на каждую Нод) с использованием RAID1
Процесс установки Proxmox полностью управляется графическим интерфейсом с помощью различных подсказок. В этом разделе мы последуем следующими шагами в создании нашего первого узла Proxmox. Включите питание и загрузите физический узел, используя установочный диск или USB-носитель. На следующий снимок экрана показывает как выглядит экран после загрузки:
1. Install Proxmox VE
2. В экране End User License Agreement (EULA) кликните согласие:I agree.
3. Нажимаем options и меняем на файловую систему zfs-raid1) – next (не применимо для дисков Toshiba)
4. Russia – Europe/Moscow – U.S.English
5. Введите и подтвердите пароль для пользователя root. Затем введите адрес е-mail, на который отсылать все уведомления кластера Proxmox. вводим пароль для root:000000 повторяем, mail любой —next
6. На данном шаге вы должны ввести имя хоста и сетевую информацию, такую как IP Address, Gateway, DNS Server. Введите необходимую информацию для вашей среды, а затем нажмите Next
Hostname: DIR_номер сервера.integra-s.com (доменное имя обязательно)
Сеть указываем свою, ВАЖНО IP должен быть с прямым выходом в интернет, хотя бы на время обновления. Если есть локальные репозитории IP можно указать статический сразу.
В нашем случае (в офисе Интегра-С) настройки сети следующие:
192.168.10.66 (IP с инетом)
255.255.254.0 (маска) 192.168.10.9 (шлюз)
192.168.10.2 (DNS)
Next
7. Дождаться завершения установки
На данный момент была собрана вся необходимая информация и была запущена основная установка. После ее выполнения удалите установочный диск или носитель USB и кликните на Reboot.
Следуйте шагам с 1 по 7 на втором и третьем узле. (Для Proxmox кластера минимально требуются два узла.)
Внимание
Если требуется менять ip адрес делать только через web-интерфейс, имя сервера (node) нельзя менять через nano /etc/hosts.
Обновление Proxmox и установка компонентов (через интернет)
1.Необходимо поменять платный репозиторий Proxmox, требующий подписки, на бесплатный, логинимся от root и вбиваем строку:
#nano /etc/apt/sources.list.d/pve-enterprise.list
Комментируем строку и вбиваем новую строку ниже:
deb http://download.proxmox.com/debian jessie pve-no-subscription
(можно использовать копирование строки ctrl+K (копировать) ctrl+U (вставить)
Нажимаем ctrl+X затем Y и Enter
2. Далее обновляем Proxmox:
#apt update && apt dist-upgrade
соглашаемся Y
“q to quit” нажимаем Q
3. Вбиваем и устанавливаем по очереди:
#pveceph install -version jewel
#apt install htop mc attr glusterfs-server pv ntp
Если требуется сменить имя сервера или ip адрес необходимо менять в трех местах, командами:
nano /etc/hostname — не желательно, возможны ошибки после
nano /etc/hosts
nano /etc/network/interfaces
Обновление Proxmox через локальный репозиторий
1. Воспользоваться программой WinSCP на ОС Windows машине подключенной к тоже подсети кластера. Логинимся от root в WinSCP, копируем папку repo (предполагается, что она у Вас есть) в папку media, должно получиться так /media/repo
Можно закинуть с носителя USB. Для этого примонтировать устройство с репами и скопировать их по пути /media/repo
2. Подкинуть файл localerepo.list в /etc/apt/sources.list.d/
Закомментировать всё в nano /etc/apt/sources.list
Закомментировать всё в nano /etc/apt/sources.list.d/pve-enterprise.list
3. Находясь в папке с ключами (cd /media/repo) , добавить их командами
#apt-key add release.asc
[OK] — сообщение о верном добавлении ключа
#apt-key add autobuild.asc
[OK] — сообщение о верном добавлении ключа
4. Команда на обновление
- apt update && apt dist-upgrade
соглашаемся Y
“q to quit” нажимаем Q
5. Cтавим пакеты
#apt install htop mc attr glusterfs-server pv ntp
6. После установки подкинуть файл pveceph.pm в /usr/share/perl5/PVE/CLI/
7. установить Ceph
#pveceph install -version jewel
Проделываем пункты с 1 по 5 на каждой Ноде
Веб-интерфейс, смена ip, редактирование hosts и добавление нодов
С другого компьютера в общей локальной сети (или ноутбука) заходим через браузер на веб-интерфейс Proxmox:
в нашем случае https://192.168.10.66:8006
Выбираем сначала язык Russia затем root и пароль 000000
Если требуется поменять IP адрес
Выбираем сервер в левом столбце, затем System – сеть и в строке wmbr0 по двойному клику меняем в открывшемся окне IP адрес, маску и шлюз – ок.
Так же меняем DNS сервер если требуется
Нажимаем на кнопку «Перезапуск» в верхнем правом углу веб-интерфейса (в некоторых случаях необходимо перезагружать дважды)
Ждем какое то время, пробуем зайти по новому адресу https://Х.Х.Х.Х:8006
Х.Х.Х.Х — ваш новый IP адрес, порт всегда 8006
Так же нужно поменять IP адрес в строке файла hosts, для корректного отображения IP в шапке консоли
Это можно сделать через веб-интерфейс нажав «Консоль»
логинимся от root и вбиваем команду:
#nano /etc/hosts
меняет IP, перезагружаемся.
HOSTS
Обязательно прописываем на каждой Ноде (сервере) ip и hostname Ноды будущего кластера
Нажимаем ctrl+X затем Y и Enter
Повторяем у всех Нодов (серверов), pvelocalhost в конце строки остается на каждом из нодов в соответствии с тем, на котором настраиваем (см. скриншот). Обратить внимание на ip адрес и имя сервера, у Вас они будут другие. Включая четвертый dir4 - ZIP сервер если такой имеется
Объединение в кластер
Создаем кластер и прописываем на главном Ноде (допустим на dir1):
#pvecm create <clustername> (например dircluster)
На второстепенных Нодах пишем
#pvecm add dir1 (dir1 это имя нашего главного Нод)
yes, пароль от root главной Нод
Проверяем, что все нормально и смотрим список Нод в кластере
#pvecm status
Перезагружаем все Ноды и заходим в веб-интерфейс главного Нода (в нашем случае https://192.168.11.211:8006)
Должны увидеть все добавленные Ноды (серверы) в «Датацентр» - «Сводка» Online 3
CEHP (вводная часть)
Ceph является распределенной системой хранения, которая предоставляет блочные устройства хранения объектов RADOS (RBD, RADOS Block Device) Безотказное автоном-ное распределенное хранилище объектов, Reliable Autonomic Distributed Object Store, файловую систему Ceph и хранилище объектов Ceph. Ceph построена с учетом потребностей в очень высоких уровнях надежности, масштабируемости и производительности. Кластер Ceph может быть расширен до масштабов данных в несколько Петабайт без ущерба для целостности данных и может быть настроен с применением общедоступного оборудования. Все записываемые в хранилище данные получают репликации по всему кластеру Ceph. Ceph с самого начала разрабатывался исходя из потребностей больших данных. В отличие от других типов хранилищ, чем больше становится кластер Ceph, тем выше его производительность. Тем не менее, он также может быть использован для резервирования данных с такой же легкостью в небольших средах. Низкая производительность может быть смягчена с применением SSD для хранения журналов Ceph.
Встроенные средства самовосстановления Ceph обеспечивают беспрецедентную устойчивость при отсутствии единой точки отказа. В кластере Ceph со многими узлами хранилище может переносить не только отказ жесткого диска, но и выход из строя всего узла без потери данных.
Ceph включает ряд компонентов имеющих решающее значение для вашего понимания того, как настраивать и эксплуатировать хранилище. Следующие компоненты это то, и чего состоит Ceph:
Демон монитора (MON)
Демон хранения объектов (OSD)
Журнал OSD
Сервер метаданных (MSD)
Карта Управляемых масштабируемым хешированием репликаций (CRUSH map, Controlled Replication Under Scalable Hashing map)
Группы размещения (PG, Placement Group)
Пулы (Pool)
MON
Демоны монитора формируют кворум распределенного кластера Ceph. Должно присутствовать как минимум три настроенных демона монитора на различных узлах для каждого кластера. Демоны монитора также могут быть настроены как виртуальные машины вместо применения физических узлов. Мониторы требуют очень мало ресурсов для функционирования, следовательно выделяемые ресурсы могут быть очень незначительными. Монитор может быть установлен через графический интерфейс Proxmox после начального создания кластера.
OSD
Демоны хранения объектов OSD, Object Storage Daemons отвечают за хранение и извлечение действительных данных кластера. Обычно одно физическое устройство подобное жесткому диску, или твердотельному диску настраивается как отдельный OSD. Хотя несколько различных OSD может быть настроено на одном физическом диске, это не рекомендуется делать совсем ни для каких промышленных применений. Каждый OSD требует устройство журнала, где вначале записываются данные, которые позже переносятся на реальный OSD. Сохраняя данные в журналах на высокопроизводительных SSD мы можем значительно увеличивать производительность ввода/ вывода Ceph. Благодаря архитектуре Ceph, чем больше и больше OSD добавляется в кластер, тем больше возрастает производительность ввода/ вывода. Журнал OSD работает очень хорошо на малых кластерах при примерно восьми OSD на узел. OSD могут быть установлены с помощью графического интерфейса Proxmox после начального создания MON.
OSD Journal
Каждый фрагмент данных предназначенный для OSD Ceph вначале записывается в журнал. Журнал позволяет демонам OSD записывать меньшие фрагменты, позволяя реальным дискам фиксировать запись, которая требует больше времени. Проще говоря, все данные будут записаны в журналы, а затем журнальная файловая система отправляет данные на фактический диск для постоянной записи. Так, если журнал хранится на диске с высокой производительностью, например SSD, входящие данные будут записаны с гораздо более высокой скоростью, в то время как за сценой более медленные диски SATA могут фиксировать запись с более медленной скоростью. Журналы на SSD могут на самом деле улучшать производительность кластера Ceph, особенно, если кластер небольшой, всего с несколькими терабайтами данных.
Замечание:
Следует также отметить, что если происходит отказ журнала, это приведёт к выходу из строя всех OSD, которые обслуживает данное устройство журнала. В некоторых средах может быть необходимо помещать два устройства SSD для зеркального RAID и уже его применять для журнала В больших средах с более чем 12 OSD на узел производительность может быть на самом деле получена путём размещения журнала на том же диске OSD вместо применения SSD для ведения журнала.
MDS
Демон сервера метаданных MDS, Metadata Server отвечает за предоставление файловой системы Ceph (CephFS) в распределенной системе хранения Ceph. MDS может настраиваться на отдельных узлах или сосуществовать с уже существующими узлами монитора или виртуальными машинами. Хотя CephFS прошла долгий путь, она по прежнему не в полной мере рекомендуется к применению в промышленной среде. Стоит упомянуть, что многие виртуальные среды активно работают с MDS без каких- либо проблем. В настоящее время не рекомендуется настраивать более двух MDS в одном кластере Ceph. В настоящее время CephFS не поддерживается подключаемым модулем хранения Proxmox. Однако она может быть настроена как монтируемая локально с последующим соединением через хранилище Directory. MDS не может быть установлен через графический интерфейс Proxmox, по крайней мере, в версии 3.4.
CRUSH map
Карта Управляемых масштабируемым хешированием репликаций (CRUSH map) является сердцем распределенной системы хранения Ceph. Алгоритм для сохранения и извлечения пользовательских данных в кластерах Ceph планируется в карте CRUSH. CRUSH делает возможным прямой доступ клиента к OSD. Это устраняет единую точку отказа и любые физические ограничения масштабирования, поскольку не существует централизованных серверов или контроллеров для управления операциями чтения и записи хранимых данных. Во всех кластерах Ceph CRUSH поддерживает карту всех MON и OSD. CRUSH определяет как данные должны быть разбиты и реплицированы среди OSD распределяя их среди локальных узлов или даже среди удаленно расположенных узлов.
Карта CRUSH по умолчанию создается на только что установленный кластер Ceph. Она может дополнительно настраиваться дальше на основе потребностей пользователей. Для небольших кластеров Ceph эта карта должна работать просто прекрасно. Однако, когда Ceph развертывается для очень больших данных, эту карту необходимо настраивать дополнительно. Настроенная карта позволит лучше управлять массивными кластерами Ceph. Для успешной работы с кластерами Ceph любых размеров обязательно ясное понимание карты CRUSH.
PG
В хранилище Ceph объекты данных собираются в группы определяемые с помощью алгоритмов CRUSH. Они называются группами размещения (PG, Placement Group), поскольку CRUSH помещает эти группы в различные OSD в зависимости от установленного в карте CRUSH уровня репликации и количества OSD и узлов. Отслеживая группы объектов вместо самих объектов можно сохранять огромное количество аппаратных ресурсов. Было бы невозможно отслеживать миллионы отдельных объектов в кластере. Следующая диаграмма показывает как объекты объединяются в группы и, как PG связаны к OSD:
Для балансировки доступных аппаратных ресурсов необходимо назначать правильное число групп размещения. Число групп размещения должно меняться в зависимости от число OSD в кластере. Следующая таблица предлагаемых групп размещений выполнена разработчиками Ceph:
Клиент | Сервер | |||||||
---|---|---|---|---|---|---|---|---|
Общие возможности
} { |
Число OSD | Число PG | Меньше 5 OSD | 128 | От 5 до 10 OSD | 512 | От 10 до 50 OSD | 4096
}
PoolsПулы Ceph аналогичны разделам жесткого диска. Мы можем создать множество пулов в кластере Ceph для разделения хранимых данных. Например, пул с названием accounting может хранить данные всего подразделения бухгалтерского учета, а другой пул может хранить данные о персонале компании. При создании пула необходимо назначение числа групп размещения. При начальной настройке Ceph создаются три пула по умолчанию. Это data, metadata и rbd. Удаление пула навсегда удалит все хранимые объекты. Следующий рисунок демонстрирует основы кластера Proxmox+Ceph Предыдущий рисунок показывает узлы Proxmox, три узла монитора, три узла OSD и два узла MDS составляющие кластер Proxmox+Ceph. Заметим, что Ceph располагается в сети, которая отличается от общедоступной сети. В зависимости от установки числа репликаций все приходящие данные объектов должны записываться более одного раза. Это вызывает высокую потребность в пропускной способности. {Прим. пер.: еще большую нагрузку создают автоматическая балансировка, сохраняющая примерно равным процент заполнения всех OSD в кластере Ceph, и восстановление копий в случае выхода из строя некоего оборудования}. Выделяя Ceph в отдельную сетевую среду мы будем уверены, что сеть Ceph может полностью использовать всю полосу пропускания. В более продвинутых кластерах третья сеть создается исключительно между узлами Ceph для репликаций кластера, тем самым еще больше улучшая производительность. В Proxmox VE 3.4. один и тот же узел может использоваться и для Proxmox, и для Ceph. Это предоставляет больший способ управляемости всеми узлами из одного графического интерфейса Proxmox. Не рекомендуется размещать виртуальные машины Proxmox на узле который также настроен как Ceph. Во время повседневных операций узлы Ceph не потребляют больших объемов ресурсов подобных процессорам или памяти. Однако, когда Ceph переходит в режим балансировки вследствие отказа узла OSD возникают большие объемы реплицируемых данных, что требует больших объемов ресурсов. Если ресурсы совместно используются виртуальными машинами и Ceph, производительность значительно ухудшится. Настройка основного хранилищаВы можете настроить хранилище в кластере Proxmox как с применением GUI, так и с помощью CLI. Настройка хранилища сохраняется в файле /etc/pve/storage.cfg. Вы можете изменить этот файл непосредственно чтобы добавить хранилища через графический интерфейс Proxmox, а настройки сохранятся автоматически. Следующий снимок экрана является файлом настроек хранилищ в том виде, как он возникает после чистой установки Proxmox: Настройка хранилищ обычно имеет следующий многострочный формат: <type of storage> : <storage_id> <path_to_storage> <enable/disable share> content types maxfiles <numeric value of maximum backups to keep> На основании данной настройки существует локальное хранилище подключенное к кластеру Proxmox, причем все файлы будут сохраняться в каталоге /var/lib/vz. Данное хранилище может хранить типы содержания, включающие образы дисков, ISO, шаблоны контейнеров и файлы резервных копий. Хранилище будет хранить максимум три последних файла резервных копии. Следующий снимок экрана показывает хранилище из графического интерфейса Proxmox: Изменение настройки хранилища не требует перезагрузки и вступает в действие немедленно. CEPH (Настройка)Для внутренней сети без резервированияДобавляем внутреннюю сеть в веб-интерфейсе Proxmox для каждого из нодов (eth1) System – сеть Перезагружаем каждую нод (сервер) два раза, должно быть yes в столбце «Активно» Для внутренней сети с использованием 10 Гб/с и резервированием (Linux bond)Вводная частьДля обеспечения отказоустойчивости и повышения пропускной способности сетевых интерфейсов сервера используется агрегация линков, так называемый bonding. Эта технология позволяет объединить два или более физических сетевых интерфейсов в один виртуальный. Типы агрегации (объединения) интерфейсов в Linuxmode=0 (balance-rr) Этот режим используется по-умолчанию, если в настройках не указано другое. balance-rr обеспечивает балансировку нагрузки и отказоустойчивость. В данном режиме пакеты отправляются "по кругу" от первого интерфейса к последнему и сначала. Если выходит из строя один из интерфейсов, пакеты отправляются на остальные оставшиеся.При подключении портов к разным коммутаторам, требует их настройки. mode=1 (active-backup) При active-backup один интерфейс работает в активном режиме, остальные в ожидающем. Если активный падает, управление передается одному из ожидающих. Не требует поддержки данной функциональности от коммутатора. mode=2 (balance-xor) Передача пакетов распределяется между объединенными интерфейсами по формуле ((MAC-адрес источника) XOR (MAC-адрес получателя)) % число интерфейсов. Один и тот же интерфейс работает с определённым получателем. Режим даёт балансировку нагрузки и отказоустойчивость. mode=3 (broadcast) Происходит передача во все объединенные интерфейсы, обеспечивая отказоустойчивость. mode=4 (802.3ad) Это динамическое объединение портов. В данном режиме можно получить значительное увеличение пропускной способности как входящего так и исходящего трафика, используя все объединенные интерфейсы. Требует поддержки режима от коммутатора, а так же (иногда) дополнительную настройку коммутатора. mode=5 (balance-tlb) Адаптивная балансировка нагрузки. При balance-tlb входящий трафик получается только активным интерфейсом, исходящий - распределяется в зависимости от текущей загрузки каждого интерфейса. Обеспечивается отказоустойчивость и распределение нагрузки исходящего трафика. Не требует специальной поддержки коммутатора. mode=6 (balance-alb) Адаптивная балансировка нагрузки (более совершенная). Обеспечивает балансировку нагрузки как исходящего (TLB, transmit load balancing), так и входящего трафика (для IPv4 через ARP). Не требует специальной поддержки коммутатором, но требует возможности изменять MAC-адрес устройства.
Настройка Linux Bond1) Добавить через веб морду Datacenter-> node->System->Network Create Linux Bond
Все заполняем и делаем restart через веб морду 3) Добавляем в nano /etc/network/interfaces.new bond_primary eth2 в конец файла 4) Должно выглядеть так, (eth's могут не совпадать) auto bond0 iface bond0 inet static address 10.10.10.1 netmask 255.255.255.0 slaves eth1 eth2 bond_miimon 100 bond_mode active-backup bond_primary eth2 Сохраняем, перезагружаемся. Проверяем командой nano /etc/network/interfaces сохранилась ли строка bond_primary eth2 в конце На 10 гб/с сетевых картах в Крыму eth2 расположен дальше всех, последним сетевым входом, предпоследним является eth3. Будьте внимательны! Проверить активность портов можно командой
MII Status должно быть up Если down то пишем команду
(или же eth3, смотря в какой интерфейс подключен кабель) Общее для всех внутренних сетейНа главной Ноде (dir1) пишем команду:
(нужно помнить что 10.17.0.0/24 это для адресов 10.17.Х.Х с маской 255.255.255.0, в вашем случае может быть иначе) Создание мониторов делаем через консоль, для каждого нода командой:
Должны получить следующее: Далее подготавливаем HDD для OSD, для этого их необходимо перевести в GPT в консоле пишем команду:
g w Тоже самое проделываем для sdd, и так на каждой Ноде После подготовки к созданию OSD, переходим в веб-интерфейсе в строку Ceph – OSD и нажимаем создать OSD Выбираем sdc и в строке журналирования так же sdc Для sdd так же журналирование на sdd
Далее удаляем «Пул» и создаем новый с такими параметрами:
Далее создаем RBD Датацентр — Хранилище — добавить — RBD
Затем на любой из Нод через консоль делаем следующее:
где iperbd — это имя нашего RBD.
Создание GlusterfsGlusterFS — это распределённая, параллельная, линейно масштабируемая файловая система с возможностью защиты от сбоев. С помощью InfiniBand RDMA или TCP/IP GlusterFS может объединить хранилища данных, находящиеся на разных серверах, в одну параллельную сетевую файловую систему. GlusterFS работает в пользовательском пространстве при помощи технологии FUSE, поэтому не требует поддержки со стороны ядра операционной системы и работает поверх существующих файловых систем (ext3, ext4, XFS, reiserfs и т. п.). Проверить на главной ноде gluster всех трех нод, командой:
dir2:/media/gfs/wbackup dir3:/media/gfs/wbackup force (одной строкой) Стартуем службу
Проверяем на каждой ноде командой
Затем в веб-интерфейсе Датацентр — Хранилище — Добавить - GlusterFS Строки Volume name и Узлы брать из выпадающего списка, не вбивая самостоятельно! Если требуется удалить volume
for I in ‘attr -lq .`; do setfattr -x trusted.$i .; done attr -lq ./
Настройка резервирования1) Настраиваем glusterfs Datacenter → [wbackup/Glusterfs] → оставить только Content [VZDump backup file] → [OK] Или в русскоязычном интерфейсе Датацентр – Хранилище – wbackup – оставить только Образ диска [VZDump backup file] - [OK]
Или в русскоязычном интерфейсе Датацентр – Резервирование – Добавить – < local> изменить на <wbackup> настроить расписание - [Create]
Создание VMПеред созданием VM нужно закачать iso образы (Debian 8.5/8.6) на локальные диски ноды, чтобы потом можно было установить OS на виртуальную машину
В следующем окне выбираем тип ОС (В нашем случае для Debiana 8.6 – ядро Linux 4.X/3.X/2.6 Kernel Нажимаем «далее» Указываем закаченный нами образ, с которого будет устанавливаться ОС Нажимаем «далее»
Выбираем необходимое количество Sockets и Cores (ядер) процессора Нажимаем «далее» Выбираем авто определение ОЗУ и указываем по необходимости размер (минимум и максимум)
Сеть оставляем без изменений Нажимаем «далее» и в последней закладке нажимаем «завершить» Новая VM появится именно на той ноде, которая была указана при создании VM. На каждой ноде может быть несколько VM, все зависит от поставленных задач и мощности серверов (нодов) состоящих в кластере. По умолчанию VM не запущена и не установлена в автозапуск вместе с proxmox. Запустить можно кнопкой «запуск» в верхнем правом углу веб-интерфейса, а загружать автоматически можно изменив параметр «Запуск при загрузке»:
Экспорт/импорт VM1) Экпортируем с кластера-донора (Node) открываем консоль
либо
где vm-106-disk-1 — ID VM затем запаковываем, переходим в папку где лежит файл raw и пишем
где test – имя архива vm-106-disk-1 – это имя архивируемого образа При упаковке и распаковке нельзя закрывать окно Копируем через WinSCP к себе запакованный образ 2) Импортируем на кластер-акцептор Копируем и распаковываем образ VM командой
заходим в директорию с образом и пишем
либо
Заходим в директорию с конфигурационными файлами вм'ов на клаcтере-доноре через WinSCP cd /etc/pve/qemu-server и копируем себе файл ХХХ.conf, а затем подкидываем его на кластера-акцептор по пути cd /etc/pve/qemu-server; машина появиться на веб-интерфейсе кластера-акцептора 3) Смотрим результат
4) Если требуется удалить VM
(удаление лишних feature) rbd feature disable vm-106-disk-1 <feature> Обязательно сменить сет. настройки и имена у VM, иначе будет конфликт IP адресов!
HA для мигрирования VM (создание групп)Для начала необходимо создать группу нодов участвующих в миграции своих VM
Далее указываем ID (имя) и выбираем серверы в группу (галочкой) Затем переход на закладку HA и нажимаем «добавить»
Проделать со всем ID нодами, которые необходимы для миграции При миграции VM с одной нод на другую в ручную в режиме «онлайн» могут помешать подключенные устройства USB и прочие. Отключите их и попробуйте заного. Например ручное мигрирование VM не доступно для VM на которой установлен Видео-сервер, потому что USB-ключ защиты не позволяет произвести миграцию. Т.к. ключи защиты установлены на всех четерых Нод (включая Zip нод), а рег-файлы всех четырех ключей находятся в папке с установленной video-server 7.0 — при автоматической миграции (если нода выходит из строя) проблем с лицензированием не произойдет. Каждый ключ цепляет свой рег-файл. Если автоматическое мигрирование VM произошло неудачно (красный крестик на ID VM) попробуйте удалить/изменить ресурсы или группы HA, а затем произвести миграция в ручную на ту ноду, на которой эта VM работала корректно.
Moxa (настройка)apt install gcc make linux-headers-$(uname -r) 1) choose kernel 3.x 2) #скопировать подготовленный moxa драйвер в /root 3) #cd /root/moxa/kernerl3.x
y N
4) #cp /root/moxa/npreals /etc/init.d/ 5) #update-rc.d npreals remove && update-rc.d npreals defaults 6) #cp /root/moxa/ntp /etc/init.d/ 7) #update-rc.d ntp remove && update-rc.d ntp defaults
Использование скрипта для добавления новых database, mss, ffна VM-ках 1) Сменить всем вм машинам ip-адреса 2) Сменить всем вм машинам IP в hosts 3) Запустить скрипты по созданию database, ff, mss на соответствующих вм 3.1) Запускать скрипт из папки командой # ./<скрипт создающий> # ./<скрипт удаляющий> 3.2) При создании использовать имена без пробелов и спец символов (на pgvm поправить конфиг файл) №1 Base
видим postgresql переходим в #cd postgresql
Делаем исполняемым, если не было проделано
Запускаем
Запустился скрипт-диалог 1. server host: 10.17.9.101 (сервер с базами данных) 2. server port: 5432 3. user name: postgres 4. user password: acuario 5. database name: <имя объекта> (PN1-PN16) (без пробелов и спецсимволов) 6. database template: template_postgis (оставляем как есть) идет создание базы, ничего не трогаем до завершения №2 FF
Делаем исполняемым — аналогично, scriptffcreate.sh Запускаем
Запустился скрипт-диалог 1. firefly name: firefly (по умолчанию) меняем на fireflyPN1-PN16 2. firefly path: /opt 3. firefly wamp port: 8090 (по умолчанию) меняем на нужный 8091-8106 4. firefly http port: 10000 (по умолчанию) меняем на 10001-10016 5. serenity ip 10.17.1.1 меняем на нужный 6. serenity port:8888, меняем на нужный 7. acuario2 dbname:PN1, меняем на нужное имя базы PN1-PN16 8. postgresql ip: 10.17.1.1 меняем на наш сервер базы данных 10.17.9.101 запускается FF как демон Проверка, что он запустился
№3 MSS
делаем исполняемым если не проделано ранее
Запускаем #./scriptmsscreate.sh Диалог 1. mss name: mss (по умолчанию), меняем на нужное например mssPN2 2. ff ip: 10.17.1.1 — меняем на наш (10.17.9.103) 3 ff port: 8080 по умолч., меняем на 8091-8106 4. serenity ip: 10.17.1.1, меняем на нужный 5. serenity port: 8888 6. mss path: /opt Создается папка с именем, указанным в пункте 1 в папке указанной в пункте 6. Запускается mss как демон. Проверяем его статус, аналогично ff
ожидаем состояния active (running) зеленым цветом
Использование Zip сервера (четвёртого Нод)Замена вышедшего из строя сервера (node) 1) добавить новую ноду и удалить неработающую ноду из кластера 2) добавить новый монитор и удалить неработающий 3) добавить новый gluster brick и удалить неработающий 1.1) на второстепенной ноде ipenode2:~#pvecm add ipenode1 1.2) проверяем статус ipenode2:~#pvecm status 1.3) удаляем неработающую ноду ipenode2:~#pvecm delnode <имя сгоревшей машины> 2.1) добавляем монитор как обычно + прописываем ip нового монитора в файл (строка mohost)
2.2) посмотри внимательней storage.cfg nano /etc/pve/storage.cfg nano /etc/pve/ceph.conf
ceph mon getmap -o /tmp/monmap monmaptool --print /tmp/monmap monmaptool --rm {id} /tmp/monmap
ceph-mon -i {working mon-id} --inject-monmap /tmp/monmap делаем изменение в одном мониторе, остальные подхватят и обновят инфу по рабочим мониторам 3) добавляем новый gluster brick
удаляем сгоревший
nano /etc/pve/storage.cfg Datacenter → storage → wbackup [edit] (add new node) 4) удаление osd мертвой машины ID={osd-num} pveceph stop osd.$ID ceph osd out osd.$ID pveceph destroyosd $ID
удалить все упоминания сгоревшей машины и osd
получить ответ set crush map --> all ok Ntp server, синхронизация времени, GPS Датчик (настройка)1) Сменить всем вм машинам ip-адреса 2) Сменить всем вм машинам имена 3) Настройка ntpvm: после прохождения 1 и 2 пункта, далее добавить сервер (moxa)
3.1) Если все сделано верно, будет создано несколько устройств COM порта; с помощью команды # cat /dev/ttyrX X-порядковый номер (1,2,3 и т.д.) должны пойти данные формата NMEA 0183 3.2) Поправить скрипт, если файл-устройство отличается от написанного в скрипте /root/moxa/npreals.sh На всех нодах должен быть установлен ntp, если не установлен устанавливаем его (через интернет или локальных репозиториев)
Затем на каждой Ноде нужно поменять значения в файле
меняем на наш IP у ntpVM server 10.17.9.104 На каждой ноде добавить задание в CRONE VM через веб интерфейс
Командой #data можно проверить текущее время При удачной сихронизации времени на Нодах, значок будет таким
GPS/Glonass 1) Подсоединить R+/D+ (A); R-/D- (B), где А-зеленый, В- белый 2) Настроить Моху (вебморда) Port 2: Interface [RS-485 2WIRE] Baud rate [115200] 3) Виртуальные com ports: RS-485 = /dev/ttyr(number) RS-232 = /dev/ttyr0(number) 4) Настройка скорости и т.п.: chmod . . . ln -s /dev/ttyr3 /dev/gps0 -для драйвера NMEA на 127.127.20.0 (0 — порядковый номер gps устройства) chmod 777 /dev/ttyr* stty -F /dev/gps0 115200 (устанавливаем скорость) для проверки скорости: stty -F /dev/gps0 4) При правильном подключении проверим выходные данные: cat /dev/gps0 при неверно выставленной скорости пойдут иероглифы при верной конфигурации - координаты формата NMEA 0183 5) apt install ntp 6) правим конфиг:
server 127.127.20.0 prefer mode 80 #mode 80 означает скорость 115200bps driftfile /var/lib/ntp/ntp.drift restrict default nomodify notrust # Отдаём время всем restrict 127.0.0.1 # Разрешаем себе всё disable auth
7) рестарт службы для принzтия настроек: systemctl restart ntp systemctl status ntp не должно быть ошибок, active(running) проверить на наличие строки в статусе: GPS_NMEA(0) serial /dev/gps0 open at 115200 bps 8) ntpq -p должна быть строка
с * в самом начале, значит - РАБОТАЕТ! 8) обновить время: systemctl stop ntp ntpd -gq (можно не стопать службу перед выполнением) systemctl start ntp 9) Если вы используете udev, то полезно будет создать правило /etc/udev/rules.d/10-gps.rules следующего содержания: KERNEL==«ttyr3», NAME="%k", SYMLINK+=«gps0», MODE=«0660», GROUP=«uucp» Сервер Авторизации16. Устранение неисправностей Добавление диска в RAID1 (не работает с HDD Toshiba)Диагностирование потери одного из дисков в RAID1, можно проверить командой zpool status Если «развалился» RAID1 на одной из Нод, на которой установлен proxmox, необходима ручная замена HDD. После установки жесткого диска фирмы HGST в первый или второй слот корзинки, необходимо проделать от root следующее fdisk -l /dev/sd* (узнать какие диски видит система) sgdisk -R /dev/sdb /dev/sda (копирование таблицы разделов) sgdisk -G /dev/sdb (форматирование в GPT) grub-install --recheck /dev/sdb (установка загрузчика) update-grub (обновление загрузчика) update-initramfs -u zpool replace rpool /dev/sdb2 (копирование данных в раздел sdb2) ПриложенияСписок необходимого софта и оборудования 1. Ноутбук с ОС Windows 7 х64, для последующего подключения к общей локальной сети, для удаленной установки proxmox через IPMI (необходимо добавление дополнительного IP в сетевой адаптер на ноутбуке). Так же пригодится для настройки компонентов Планеты и передачи файлов на серверы через WinSCP; 2. Образ proxmox-ve_4.4-eb2d6f1e-2; 4. USB ключи защиты + reg-файлы с открытыми паролями от 1 до 1600; 3. Девять запакованных образов VM VM1 <baseVM> VM2 <mmsVM> VM3 <ffVM> VM4 <skdVM> VM5 <ntpVM> VM6 <videoVM> VM7 <serenetyVM> VM8 <eilyVM> VM9 <osmVM> 4. Образ Live (например WinPE10_8_Sergei_Strelec_x86_x64_2017.03.02_Russian) для чистки HDD и диагностики железа; 5. IPMI Supermicro utilities для управления по IPMI (работает только с Windows); 6. Подключенный прямой интернет или Локальные репозитории (repo) для обновления Proxmox, а так же для установки необходимых в работе компонентов; 7. Все необходимые образы (Debian 8.5/8.6, отдельно программы для серверной части Планеты, WinSCP, oracle-xe_11.2.0-2_amd64.deb, oracle-client, СКД клиент, IntegraVideo7.0.776, скрипты для установки mms, ff, database на VM-ках; драйвер для Moxa под Debian, VLC media player, PGAdmin1.2) План работы с кластером1) Настройка BIOS на каждой ноде 2) Настройка IPMI на каждой ноде 3) Proxmox.iso install 4) Закинуть local repo и прописать в repo.list пути к ним + поправить /usr/share/perl5/PVE/CLI/pveceph.pm 5) Обновить систему и поставить CEPH 6) Поставить пакеты mc htop glusterfs-server pv attr ntp 7) Объединить ноды в proxmox cluster 8) Настроить glusterfs 9) Настроить CEPH 10) Закинуть VM’s + изменить все IP адреса и hostname
11) Настроить wbackup 12) Настроить ntpVM + прописать на всех nodes /etc/ntp.conf нужный конфиг Команды для работы в Linux с IPE
journalctl –no-pager -o cat -u firefly_tracker -1 просмотр статистики FF трекинга
Для смены пароля от root (зная изначальный пароль)
Задать новый пароль, подтвердить Установка SSH в Debian 8.5/8.6 и доступ c другой машины под root Обновляем репозитории Первым делом проверим список (/etc/apt/sources.list) доступных репозиториев. Для этого откроем файл /etc/apt/sources.list в редакторе nano и при необходимости добавим ссылки на официальные репозитории.+ nano /etc/apt/sources.list При необходимости добавляем официальные репозитории: deb http://httpredir.debian.org/debian jessie main deb-src http://httpredir.debian.org/debian jessie main deb http://httpredir.debian.org/debian jessie-updates main deb-src http://httpredir.debian.org/debian jessie-updates main deb http://security.debian.org/ jessie/updates main deb-src http://security.debian.org/ jessie/updates main Если вы обновили список репозиториев, то сохраняйте изменения в файле (ctrl +O) и выполните обновления списка-пакетов: apt-get update Устанавливаем SSH в DebianСледующим шагом установим демона openssh. Вбиваем в консоле: apt-get install openssh-server На предложение подтянуть недостающие зависимости отвечаем положительно. Все, на этом установка завершена и можно выполнять запуск: service ssh start Теперь можно брать любой SSH-клиент и попробовать подключиться к серверу. C Windows можно использовать WinSCP. Почему не получается подключиться к SSH под root Если в качестве проверки соединения вы попробуете подключиться под root, то после отправки пароля, сервер будет постоянно ругаться и выдавать Access Denied. Сделано это намерено, т.к. нечего давать возможность подключаться root’ом к серверу. Правильней создать отдельного пользоваться, и при необходимости выполнять команды от root с помощью su. Если вы отдаете отчет своим действиям и хотите подключиться по ssh под root’ом, то тогда потребуется отредактировать конфигурационный файл службы ssh: nano /etc/ssh/sshd_config Находите директиву PermitRootLogin и заменяете текст после нее на yes. Должно получится так: PermitRootLogin yes Сохраняйте изменения (ctrl + o) и перезапустите службу OpenSSH: service ssh stop service ssh start Все, после этого вы сможете подключиться к серверу с под учетной записью root. Как расшарить папку из консоли Linux используя SambaSamba - это программное обеспечение для организации обмена файлами и работы с общими ресурсами между компьютерами под управлением Linux/Unix и операционной системой Windows. Samba состоит из клиентской и серверной части. Клиентская часть позволяет получить доступ к сетевым папкам и ресурсам Windows, а серверная, в свою очередь, открывает общий доступ к папке Ubuntu для других машин, в том числе и Windows. Устанавливаем Самба: apt-get install samba Добавляем пару строк в конец конфига, правим при необходимости путь, имя шары, и возможность гостевого входа/записи. nano /etc/samba/smb.conf [shara] #имя папки comment = comment_to_shara path = /home/shara #путь к папке read only = no locking = no guest ok = yes browseable = yes Сохраняем (ctrl+o в nano) Перезапускаем сервис с новым конфигом: /etc/init.d/samba restart Дополнительно: меняем права доступа к общей папке: (разрешено все) chmod 777 /home/share Установка Video-server 7.0.776 в качестве ретранслятора и проброс USB в VM для ключа защитыПосле создания VM и установки Debian 8.6 (используем debian-8.6.0-amd64-DVD-1) без графики, необходимо закинуть папку с установщиком IV7 v7.0.776 (используя программу WinSCP от root c компьютера/ноутбука на Windows) в /home/videosrv7(имя пользователя)/distr (создать эту папку). Так же необходимо скопировать все четыре reg-файла для ключей защиты с открытыми пароля от 1 до 1600 – для одного кластера. После установки видео-сервера поместить их в папку /home/videosrv7/video-server-7.0/ Как зайти от root по WinSCP смотри в «Установка SSH в Debian 8.5/8.6 и доступ c другой машины под root” Перед установкой IV7 v7.0.776 необходимо прокинуть USB ключ с физической машины на виртуальную: На ноде proxmox у которой VM c видеосервером:
Ищем нужное нам устройство и смотрим его ID: XXXX:YYYY (3b13:4040) от root qm set 101 –usb0 host=XXXX:YYYY (usb1: host=3b13:4040) где 101 — ID виртуальной машины куда будем пробрасывать порт. Перезагружаем VM, а затем перезагружаем ноду. Установка же самого video-server-7.0.776 стандартная, вот команды которые могут пригодится:
Заходим в подробный веб-интерфейс видео-сервера и убеждаемся что ключ и рег-файл определились затем нужно добавить внешний видеосервер (или несколько) Настройки — внешние видеосервера. Затем «Плагины» - «логика» и добавляем плагин «сборщик» указав ip сервера (так же добавляем еще серверы если требуется) Это нам позволит увидеть камеры с других центральных серверов и добавить их в свои наборы. Важный момент — при создании наборы нужно добавить любую камеру, даже не существующую. Без этого наборы создать не удастся. Установка и настройка серверной части Oracle на OS Linux (Debian 8.5/8.6)+ Клиент Oracle и клиент СКД Установка Oracle 11g Перед установкой Oracle 11g R2 Express Edition (XE), нужно установить дополнительные пакеты (машина должна быть подключена к Internet). Эти пакеты могут быть установлены путем выполнения следующей команды: от root apt-get install alien libaio1 unixodbc Следующие действия нужны если у Вас нет установочного файла с расширением .deb Перейдем в папку: cd /usr/local/src Дистрибутив oracle 11 нужно скачать с официального сайта затем нужно установить его. http://www.oracle.com/technetwork/database/database-technologies/express-edition/downloads/index.html
unzip oracle-xe-11.2.0-1.0.x86_64.rpm.zip Данный архив довольно большой и на распаковку потребуется некоторое время, ждем окончания и после чего переходим в нужную директорию для установки: cd Disk1 Теперь мы должны преобразовать пакет Red Hat (RPM) в пакет Debian. Это может быть сделано с помощью команды alien. Параметр «-d » используется для информирования, что пакет Debian уже сформирован. Выполняем преобразование: от рута alien --scripts -d oracle-xe-11.2.0-1.0.x86_64.rpm Этот шаг может занять некоторое время. Потребуется подождать около 15 минут.По этому если хотите жди окончания, а можно еще открыть один терминал для работы и в нем уже выполнять следующие шаги. Пакет Red Hat, полагается на файл /sbin/chkconfig, который не используется в Ubuntu. Для успешной установки Oracle XE мы используем простой трюк. от рута nano /sbin/chkconfig вставляем в открывшийся файл следующие строки
file=/etc/init.d/oracle-xe if grep INIT` ; then echo >> $file echo '### BEGIN INIT INFO' >> $file echo '# Provides: OracleXE' >> $file echo '# Required-Start: $remote_fs $syslog' >> $file echo '# Required-Stop: $remote_fs $syslog' >> $file echo '# Default-Start: 2 3 4 5' >> $file echo '# Default-Stop: 0 1 6' >> $file echo '# Short-Description: Oracle 11g Express Edition' >> $file echo '### END INIT INFO' >> $file fi update-rc.d oracle-xe defaults 80 01
Сохраните файл и закройте редактор. Теперь мы должны предоставить файл с соответствующими привилегиями исполнения. от рута chmod 755 /sbin/chkconfig Установим дополнительные параметры ядра. Откройте файл, выполнив: от рута nano /etc/sysctl.d/60-oracle.conf Скопируйте и вставьте следующий код в файле. Kernel.shmmax является максимально возможное значение физической памяти в байтах. 536870912/1024/1024 = 512 Мб. вставляем в открывшийся файл следующие строки
fs.file-max=6815744 net.ipv4.ip_local_port_range=9000 65000 kernel.sem=250 32000 100 128 kernel.shmmax=536870912 Сохраните файл. Изменения в этом файле могут быть проверены командой: от рута cat /etc/sysctl.d/60-oracle.conf fs.file-max=6815744 net.ipv4.ip_local_port_range=9000 65000 kernel.sem=250 32000 100 128 kernel.shmmax=536870912 это говорит о том что параметры введены верно Загружаем параметры для ядра ОС: от рута service procps restart Изменения могут быть вновь проверено командой: от рута sysctl -q fs.file-max Должны увидеть следующий вывод на экран: fs.file-max = 6815744 После этого, выполните следующие инструкции, чтобы сделать еще несколько необходимых изменений: su ln -s /usr/bin/awk /bin/awk mkdir /var/lock/subsys (должен поругать и сказать,что такое файл существует,не обращаем на это внимание) touch /var/lock/subsys/listener Теперь осталось установить уже пересобранный пакет (убедитесь в этом хорошо, а то не будет работать): от рута dpkg --install oracle-xe_11.2.0-2_amd64.deb Происходит установка и можно перейти к настройке. Но если вы увидите следующее сообщение о ошибке «Execute the following to avoid getting a ORA-00845: MEMORY_TARGET error. Note: replace “size=4096m” with the size of your (virtual) machine’s RAM in MBs.Выполните следующие действия: Нужно удалить папку: от рута rm -rf /dev/shm Создаем папку: от рута mkdir /dev/shm Монтируем папку для работы: от рута mount -t tmpfs shmfs -o size=4096m /dev/shm Создаем файл и пропишем параметры в него от рута nano /etc/rc2.d/S01shm_load
case "$1" in start) mkdir /var/lock/subsys 2>/dev/null touch /var/lock/subsys/listener rm /dev/shm 2>/dev/null mkdir /dev/shm 2>/dev/null mount -t tmpfs shmfs -o size=4096m /dev/shm ;;
exit 1 ;; esac Сохраните файл, закройте редактор и предоставить соответствующие привилегии выполнения: от рута chmod 755 /etc/rc2.d/S01shm_load После такого должно все заработать! Настройка Oracle 11g от рута /etc/init.d/oracle-xe configure при вопросе выбора порта он предложит тебе порт 8080, соглашаемся и пишем в ответ тоже 8080, попросит еще один порт 1521, соглашаемся и пишем в ответ тоже 1521,далее когда система попросит ввести пароль и логин для БД вводим слово SYSTEM и там и там. Потом будет еще вопрос, соглашаемся, пишем yes или y. Настройка некоторых параметров для переменных среды: от рута nano /etc/bash.bashrc Откроется файл и в самый низ добавляем следующие строки: export ORACLE_HOME=/u01/app/oracle/product/11.2.0/xe export ORACLE_SID=XE export NLS_LANG=`$ORACLE_HOME/bin/nls_lang.sh` export ORACLE_BASE=/u01/app/oracle export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$LD_LIBRARY_PATH export PATH=$ORACLE_HOME/bin:$PATH Сохраните файл и закройте редактор. Чтобы загрузить изменения, выполните следующую инструкцию: source /etc/bash.bashrc мы не должны увидеть ни какой ошибки Чтобы проверить изменения, которые вы сделали выполните: echo $ORACLE_HOME Должны увидеть следующее: /u01/app/oracle/product/11.2.0/xe После этого шага рекомендуется перезагрузить компьютер. После перезагрузки запускаем сервер с oracle: от рута service oracle-xe start в консоли вводим команду от рута cd /etc nano sudoers Если нет этой папки, ее нужно создать. Или если в папке пусто, то вбиваем следующее: В открывшимся файле ищем строчку root ALL=(ALL) ALL, добавляем под ней строчку oracle ALL =(ALL) ALL, сохраняемся. переходим в папку cd /u01/app/oracle/ptroduct/11.2.0/xe/network/admin, тут ищем два файла listener.ora и tnsnames.ora, открываем их nano listener.ora nano tnsnames.ora ищем строчку со словом HOST=бла бла бла и меняем на HOST=имя машины(DIR15962) и PORT=бла бла бла на PORT=1521. Чтобы проверить работает сервер, или нет вводим от рута команду service oracle-xe status В случае успешной установки и настройки Oracle-XE мы должны увидеть следующее oracle-xe.service - LSB: Oracle 11g Express Edition Loaded: loaded (/etc/init.d/oracle-xe) Active: active (exited) since Сб 2017-03-25 14:03:06 KRAT; 5min ago Process: 508 ExecStart=/etc/init.d/oracle-xe start (code=exited, status=0/SUCCESS) мар 25 14:03:05 IPE15961 oracle-xe[508]: Oracle Database 11g Express Edition is not confi...run мар 25 14:03:05 IPE15961 oracle-xe[508]: '/etc/init.d/oracle-xe configure' as the root us...se. Hint: Some lines were ellipsized, use -l to show in full. Если установка прошла не корректно, то в информации после проверки появятся красные строчки. Рекомендуется снова проверить файл sudoers в папке etc. Далее можно переходить к установке клиентской части. (Wine i386, winetricks, клиент ORACLE, СКД) Инструкция по установке Wine и Winetricks в Linux(Опробована только на KDE с графикой) Wine — специальное ПО, которое позволяет запускать приложения, созданные для Windows, в UNIX-подобных системах, в том числе Linux. Winetricks представляет собой запускаемый файл-скрипт. При его запуске появляется окно, содержащее длинный список программ, которые через этот скрипт можно установить. 1.Для установки wine и winetricks изменяем source.list от рута в консоли вводим nano /etc/apt/sources.list откроется файл со следующем содержанием
deb http://security.debian.org/ jessie/updates main contrib
deb-src http://security.debian.org/ jessie/updates main contrib
deb http://ftp.debian.org/debian/ jessie-updates main contrib deb-src http://ftp.debian.org/debian/ jessie-updates main contrib deb file:///mnt/DSetup/CD1 jessie main contrib deb file:///mnt/DSetup/CD2 jessie main contrib deb file:///mnt/DSetup/CD3 jessie main contrib Предполагается, что образа с установочных дисков(CD1, CD2,CD3) уже смонтированы и добавлены в sources.list. Если этого нет используй инстркцию по установке Debian 8.5 Теперь добавляем следующие строки в конце файла:
deb http://httpredir.debian.org/debian jessie-updates main deb-src http://httpredir.debian.org/debian jessie-updates main deb http://mirror.yandex.ru/debian jessie-backports main contrib non-free deb-src http://mirror.yandex.ru/debian jessie-backports main contrib non-free
apt-get update 3.Установка wine i386: Для того, чтобы заставить работать “правильный” Wine в 64-битной операционной системе нужно выполнить последовательно команды(от рута):
dpkg --add-architecture i386 apt-get update apt-get install libpulse0:i386(надо будет ответить да) apt-get install -f apt-get install wine:i386(надо будет ответить да) rm -fR ~/.wine Последнюю команду можно опустить, но как показывает практика, она необходима, если Вы уже ранее пытались установить 64-битный Wine. Команда просто удаляет все ранее известные настройки.
wine --version (должно быть 1.6.2) 5.Установка winetricks на debian: от рута apt-get install zenity (надо будет ответить да) Загружаем winetricks скрипт: cd /usr/local/src && wget http://winetricks.org/winetricks Добавляем права на выполнение (запуск) скрипта: chmod +x winetricks Запускаем winetricks: ./winetricks По пунктам окон потверждения действий: ок (даже если выскочила ошибка) нет ок установить DLL(1 пункт) - ок выбираем mdac27,mdac28,msvcirt- ок (пойдет установка) отмена (выскочит ошибка) ok-нет-ok-установить DLL(1 пункт)-ok-выбираем mdac27,mdac28,msvcirt-установка-отмена (при ошибке) |