yum install --enablerepo=base mtr screenИсточник: http://platonic.techfiz.info/2010/03/30/enable-additional-yum-repo-on-xen-server/
Showing posts with label XenServer. Show all posts
Showing posts with label XenServer. Show all posts
Tuesday, 24 January 2012
Установка mtr на XenServer 5.6
Sunday, 10 April 2011
Как добавить дополнительный жесткий диск в XenServer как отдельное хранилище
Создаем на новом диске разметку под LVM (ни разделы при этом, ни таблицу разделов создавать не требуется!):
Добавляем диск как отдельное хранилище:
После этого запрашиваем листинг имеющихся строаджей:
Все, после этого диск сразу появится в разделе "Disks and Storage Repositories", "Current Storage Repositories" с именем "SAS Local storage". Обращаю внимание, что этот локал сторадж не является default.
Источник: http://www.archy.net/2009/05/21/adding-local-storage-to-xenserver-55/
pvcreate /dev/sdb
Добавляем диск как отдельное хранилище:
xe sr-create content-type=user host-uuid=[жмем таб] type=lvm device-config-device=/dev/sdb name-label="SAS Local storage"
После этого запрашиваем листинг имеющихся строаджей:
xe sr-list type=lvmuuid ( RO) : c7f66fc2-369e-48d7-8550-e15674bffde3
name-label ( RW): SAS Local storage
name-description ( RW):
host ( RO): xen
type ( RO): lvm
content-type ( RO): user
uuid ( RO) : 093e7a5c-1c38-258b-fb96-fe7cbb486ec0
name-label ( RW): Local storage
name-description ( RW):
host ( RO): xen
type ( RO): lvm
content-type ( RO): user
Все, после этого диск сразу появится в разделе "Disks and Storage Repositories", "Current Storage Repositories" с именем "SAS Local storage". Обращаю внимание, что этот локал сторадж не является default.
Источник: http://www.archy.net/2009/05/21/adding-local-storage-to-xenserver-55/
Friday, 10 December 2010
Как добавить дополнительный диск (но не отдельный!) в XenServer для размещения виртуальных машин?
Итак, имеем установленный на /dev/sda XenServer и пустой (только что установленный) диск /dev/sdb:
Создаем на базе /dev/sdb физическое устройство LVM:
Убеждаемся, что все ок:
Но данный диск еще не стал доступен для создания виртуальных машин на нем:
Теперь нам нужно расширить на эти дополнительные 600+ гигабайт существующий Volume Group "VG_XenStorage-f7499bd4-b272-1f99-60f9-8b729e065161":
Вуаля:
После этого, чтобы получить доступ ко всему дисковому пространству необходима перезагрузка:
Но, обращаю внимание, данная конфигурация крайне небезопасна, используйте аппаратные RAID контроллеры!
Источник: http://support.citrix.com/article/CTX116176
fdisk -l
Disk /dev/sda: 750.1 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 523 4194304 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 523 1045 4194304 83 Linux
/dev/sda3 1045 91201 724183393 8e Linux LVM
Disk /dev/sdb: 750.1 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk /dev/sdb doesn't contain a valid partition table
Создаем на базе /dev/sdb физическое устройство LVM:
pvcreate /dev/sdb
Physical volume "/dev/sdb" successfully created
Убеждаемся, что все ок:
pvdisplay
--- Physical volume ---
PV Name /dev/sda3
VG Name VG_XenStorage-f7499bd4-b272-1f99-60f9-8b729e065161
PV Size 690.63 GB / not usable 9.78 MB
Allocatable yes
PE Size (KByte) 4096
Total PE 176800
Free PE 136132
Allocated PE 40668
PV UUID c5zR7M-96Yc-wiwi-NclQ-RhCw-P9qz-5R2hUh
"/dev/sdb" is a new physical volume of "698.64 GB"
--- NEW Physical volume ---
PV Name /dev/sdb
VG Name
PV Size 698.64 GB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID X3296z-a02v-3iS0-eteF-H2WA-62w3-jC0glw
Но данный диск еще не стал доступен для создания виртуальных машин на нем:
vgdisplay
--- Volume group ---
VG Name VG_XenStorage-f7499bd4-b272-1f99-60f9-8b729e065161
System ID
Format lvm2
Metadata Areas 1
Metadata Sequence No 58
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 6
Open LV 0
Max PV 0
Cur PV 1
Act PV 1
VG Size 690.62 GB
PE Size 4.00 MB
Total PE 176800
Alloc PE / Size 40668 / 158.86 GB
Free PE / Size 136132 / 531.77 GB
VG UUID cEjZ1H-xTE2-e2fv-9grZ-bjDW-nU3g-lAAITl
Теперь нам нужно расширить на эти дополнительные 600+ гигабайт существующий Volume Group "VG_XenStorage-f7499bd4-b272-1f99-60f9-8b729e065161":
vgextend VG_XenStorage-f7499bd4-b272-1f99-60f9-8b729e065161 /dev/sdb
Вуаля:
vgdisplay
--- Volume group ---
VG Name VG_XenStorage-f7499bd4-b272-1f99-60f9-8b729e065161
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 59
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 6
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 1.36 TB
PE Size 4.00 MB
Total PE 355651
Alloc PE / Size 40668 / 158.86 GB
Free PE / Size 314983 / 1.20 TB
VG UUID cEjZ1H-xTE2-e2fv-9grZ-bjDW-nU3g-lAAITl
После этого, чтобы получить доступ ко всему дисковому пространству необходима перезагрузка:
shutdown -r now
Но, обращаю внимание, данная конфигурация крайне небезопасна, используйте аппаратные RAID контроллеры!
Источник: http://support.citrix.com/article/CTX116176
Tuesday, 9 November 2010
Wednesday, 13 October 2010
Активация Routed Network на Xen Server
Узнаем имя бридж интерфейса, используемого XenServer`ом:
В ответ будет выдано примерно следующее:
Отсюда берем, что имя нашего бридж-интерфейса - xenbr0.
Далее создаем интерфейс, который будет играть роль шлюза для подсети (пример дается для имени интефрейса xenbr0):
Со следующим содержимым:
Таким образом, на указанном IP адресе у нас расположится шлюз, который нужно будет указывать для машин, которым выдан IP адрес из подсети, чтобы сеть на них заработала.
Активируем форвардинг пакетов:
Применяем настройки ядра:
Заменяем там:
Конфигурируем фаерволлл:
Там после строки "-A RH-Firewall-1-INPUT -i lo -j ACCEPT" добавляем:
Применяем настройки фаерволла:
Поднимаем интерфейс:
После этого назначаем стандартную сеть вновь создаваемым виртуальным машинам и указываем для них стандартным шлюзом первый используемый IP адрес из сети (см. выше).
После этого все же стоит перезагрузить машинку, на случай, если что-то все же не применилось корректно.
Источник: http://support.citrix.com/article/CTX120964
route | grep default
В ответ будет выдано примерно следующее:
default static.1.22.63. 0.0.0.0 UG 0 0 0 xenbr0
Отсюда берем, что имя нашего бридж-интерфейса - xenbr0.
Далее создаем интерфейс, который будет играть роль шлюза для подсети (пример дается для имени интефрейса xenbr0):
vi /etc/sysconfig/network-scripts/ifcfg-xenbr0:1
Со следующим содержимым:
DEVICE=xenbr0:1
ONBOOT=yes
BOOTPROTO=none
NETMASK=тут_маска_доп_сети
IPADDR=тут_первый_используемый_адрес_доп_сети
Таким образом, на указанном IP адресе у нас расположится шлюз, который нужно будет указывать для машин, которым выдан IP адрес из подсети, чтобы сеть на них заработала.
Активируем форвардинг пакетов:
vi /etc/sysctl.conf
Применяем настройки ядра:
sysctl -p
Заменяем там:
net.ipv4.ip_forward = 0На
net.ipv4.ip_forward = 1
Конфигурируем фаерволлл:
vi /etc/sysconfig/iptables
Там после строки "-A RH-Firewall-1-INPUT -i lo -j ACCEPT" добавляем:
-A RH-Firewall-1-INPUT -i xenbr0 -o xenbr0 -j ACCEPT
Применяем настройки фаерволла:
service iptables restart
Поднимаем интерфейс:
ifup xenbr0:1
После этого назначаем стандартную сеть вновь создаваемым виртуальным машинам и указываем для них стандартным шлюзом первый используемый IP адрес из сети (см. выше).
После этого все же стоит перезагрузить машинку, на случай, если что-то все же не применилось корректно.
Источник: http://support.citrix.com/article/CTX120964
Monday, 9 August 2010
Установка XenServer 5.0 на сервера FastVPS.ru
Для корректной работы сети для всех дополнительных IP требуется взять MAC адреса, инчае все будет работать очень плохо. Но я бы не рекомендовал это решение, все равно проблем довольно много с ним.
Subscribe to:
Posts
(
Atom
)