Преобразование с использованием восстановления с учетом стойки: различия между версиями
YaPolkin (обсуждение | вклад)  (Новая страница: «Этот метод универсален и может работать для больших кластеров и более сложных изменений...»)  | 
				YaPolkin (обсуждение | вклад)   | 
				||
| (не показана 1 промежуточная версия 1 участника) | |||
| Строка 11: | Строка 11: | ||
Восстановить кластер в новые стойки  | Восстановить кластер в новые стойки  | ||
1. Остановите существующий кластер, чтобы два кластера с одинаковым идентификатором не могли подключиться к   | 1. Остановите существующий кластер, чтобы два кластера с одинаковым идентификатором не могли подключиться к Dynatrace Mission Control.  | ||
См. Запуск/остановка/перезапуск кластера.  | См. Запуск/остановка/перезапуск кластера.  | ||
2. Выполните официальную процедуру восстановления кластера (резервное копирование и восстановление кластера), используя следующий измененный шаг:  | 2. Выполните официальную процедуру восстановления кластера (резервное копирование и восстановление кластера), используя следующий измененный шаг:  | ||
----'''Запустите восстановление   | ----'''Запустите восстановление Dynatrace на каждом узле'''  | ||
Параллельно на каждом узле запустите программу установки   | Параллельно на каждом узле запустите программу установки Dynatrace Managed со следующими параметрами:  | ||
* <code>--rack-name</code> - определяет стойку, к которой будет принадлежать этот узел.  | * <code>--rack-name</code> - определяет стойку, к которой будет принадлежать этот узел.  | ||
| Строка 52: | Строка 52: | ||
<code>1: 10.176.41.168, 3: 10.176.41.169, 5: 10.176.41.170</code> - идентификаторы узлов и новые IP-адреса всех узлов в кластере  | <code>1: 10.176.41.168, 3: 10.176.41.169, 5: 10.176.41.170</code> - идентификаторы узлов и новые IP-адреса всех узлов в кластере  | ||
# <code>sudo ./tmp/backup-  | # <code>sudo ./tmp/{backup-instaler-name}.sh</code>  | ||
# <code>--rack-name rack2</code>    | # <code>--rack-name rack2</code>    | ||
# <code>--rack-dc datacenter1</code>  | # <code>--rack-dc datacenter1</code>  | ||
Текущая версия на 20:44, 26 января 2023
Этот метод универсален и может работать для больших кластеров и более сложных изменений топологии. Однако процесс восстановления занимает много времени, и из-за ежедневного резервного копирования происходит некоторая потеря данных. Хранилище транзакций (PurePaths) не содержится в резервной копии.
Подготовка
- Убедитесь, что у кластера есть последняя резервная копия. См. Резервное копирование и восстановление кластера.
 - Подготовьте новый узел (ы). Убедитесь, что раздел диска, выделенный для хранилища Cassandra на новом узле, достаточен для размещения всей базы данных Cassandra (с запасом для сжатия и новых данных). Размер диска должен быть как минимум вдвое больше объединенных хранилищ Cassandra всех существующих узлов кластера. Рекомендуется размещать данные Cassandra на отдельном томе, чтобы избежать проблем с дисковым пространством, связанных с различными типами данных.
 
Восстановление кластера в новые стойки
Восстановить кластер в новые стойки
1. Остановите существующий кластер, чтобы два кластера с одинаковым идентификатором не могли подключиться к Dynatrace Mission Control.
См. Запуск/остановка/перезапуск кластера.
2. Выполните официальную процедуру восстановления кластера (резервное копирование и восстановление кластера), используя следующий измененный шаг:
Запустите восстановление Dynatrace на каждом узле
Параллельно на каждом узле запустите программу установки Dynatrace Managed со следующими параметрами:
--rack-name- определяет стойку, к которой будет принадлежать этот узел.--rack-dc- определяет дата-центр, которому будет принадлежать этот узел.--restore- переводит программу установки в режим восстановления.--cluster-ip- IPv4-адрес узла, на котором вы запускаете установщик.--cluster-nodes- разделенный запятыми список идентификаторов и IP-адресов всех узлов в кластере, включая тот, на котором вы запускаете установщик, в следующем формате<node_id>:<node_ip>,<node_id>:<node_ip>.--seed-ip- IPv4-адрес исходного узла.backup-file- путь к файлу резервной копии*.tar, который включает путь к монтированию общего файлового хранилища, идентификатор кластера, идентификатор узла, версию резервной копии и файл резервной копии*.tarв следующем формате:
<path-to-backup>/<UUID>/node_<node_id>/files/<backup_version_number>/<backup_file>
Пример резервного пути
В этом примере пути:
/mnt/backup/bckp/c9dd47f0-87d7-445e-bbeb-26429fac06c6/node_1/files/19/backup-001.tarчасти пути следующие:
<path-to-backup>=/mnt/backup/bckp/<UUID>=c9dd47f0-87d7-445e-bbeb-26429fac06c6<node_id>=1<backup_version_number>=19Во время резервного копирования могут присутствовать два каталога резервных копий с разными номерами версий резервных копий:
- Каталог с более низким номером версии содержит старую резервную копию. Он будет удален после завершения резервного копирования.
 - Каталог с более высоким номером версии содержит текущую резервную копию.
 Номер версии резервной копии увеличивается при каждом выполнении резервного копирования.
Получите идентификаторы и IP-адреса из инвентаря, который вы создали перед началом работы.
Например:
10.176.41.168 - IP-адрес восстанавливаемого узла
1: 10.176.41.168, 3: 10.176.41.169, 5: 10.176.41.170 - идентификаторы узлов и новые IP-адреса всех узлов в кластере
sudo ./tmp/{backup-instaler-name}.sh--rack-name rack2--rack-dc datacenter1--restore--cluster-ip "10.176.41.168"--cluster-nodes "1:10.176.41.168,3:10.176.41.169,5:10.176.41.170"--seed-ip "10.176.41.169"--backup-file /mnt/backup/bckp/c9dd47f0-87d7-445e-bbeb-26429fac06c6/node_1/files/19/backup-001.tar
3. Когда вы загружаете данные как часть процесса восстановления, они уже помещены в целевые стойки.
Когда преобразование будет завершено, вы увидите стойки на странице состояния развертывания в консоли управления кластером: