Показаны сообщения с ярлыком Solaris. Показать все сообщения
Показаны сообщения с ярлыком Solaris. Показать все сообщения

вторник, 3 мая 2011 г.

Загрузка Solaris в Single Mode

После эксперементов с ZFS на одной из LDOM виртуалок уронил систему, в обычном режиме не грузилось, пришлось бутится в Single Mode, делается это следующим образом:

для ia32
b –s - Single Mode
b -a - пошаговая загрузка

для Sparc
boot –s - Single Mode
boot –a - пошаговая загрузка

Читать далее

четверг, 14 апреля 2011 г.

Сменить hostname на Solaris

После создания кучки овечек Долли в прошлом посте, у меня образовалось десяток виртуалок с одинаковым именем, что естественно меня не устроило.

Сменить имя в Solaris достаточно просто, необходимо поменять информацию в следующих файлах:
/etc/hosts
/etc/nodename
/etc/hostname.<имя интерфейса>
/etc/inet/ipnodes
И после чего ребутнуть сервер.

Читать далее

пятница, 8 апреля 2011 г.

Про овечек или zfs clone.

Возникла необходимость засетапить десяток одинаковых виртуалок под ldom. В принципе я человек ленивый и пользую jumpstart, чтобы без вмешательства из вне, сетапить, но тут мне не хотелось тратить кучу времени ожидая пока поставится Solaris на каждую виртуалку, пока потом накатится patch pack и т.д. Можно конечно все вместе было запустить одновременно, все 10 виртуалок, но я посчитал что это не православно, проще занятся клонированием, что в принципе тоже церковь не одобряет, но я одобряю.
Итак:

Для 1 виртуалки было создан диск в zfs следующим методом:
zfs create -V 60g mainpool/export/ldoms/disks/ldg0.vdisk
Подключаем этот диск к 1 виртуалке.
Ставим на 1 виртуалку Solaris через jumpstart. После чего, стопим ее и делаем unbind для надежности.
далее начинается само великое колдунство
Для начала делаем снапшот.
zfs snapshot mainpool/export/ldoms/disks/ldg0.vdisk@clone
а после этого собственно и пошли клоны
zfs clone mainpool/export/ldoms/disks/ldg0.vdisk@clone mainpool/export/ldoms/disks/ldg1.vdisk
zfs clone mainpool/export/ldoms/disks/ldg0.vdisk@clone mainpool/export/ldoms/disks/ldg2.vdisk
zfs clone mainpool/export/ldoms/disks/ldg0.vdisk@clone mainpool/export/ldoms/disks/ldg3.vdisk
и т.д.

Вот в принципе и все, насколько же удобен zfs в этом плане.
Дальше подключаем диски как обычно к виртуалкам и обретаем ЩАСТЕ!

Читать далее

пятница, 25 марта 2011 г.

Solaris и автоматический запуск сервисов.

Для запуска сервисов в солярисе типа samba необходим скрипт который будет уметь старовать и стопить samba по командам start и stop
например
./samba start
./samba stop

кидаем его в /etc/init.d
и делаем симлинк скрипта в каталог /etc/rc3.d
типа следующей командой
ln -s /etc/init.d/samba /etc/rc3.d/S90samba - для запуска
ln -s /etc/init.d/samba /etc/rc3.d/K90samba - для остановления :)

вот в принципе и все, при старте системы самба должна будет запуститься
а при остановке - собственно убится


Читать далее

понедельник, 30 августа 2010 г.

ESX и Solaris

Появилась задача поднять сервер на Solaris 10 для сливания бакапов туда с дев соляриса. Почему солярис - незнаю, так попросили. Решили ставить на ESX, выделили виртуалку, все чин чинарем. Сетаплю версию которая у нас - не бутится, качаю последнию версию салярки - вообще не видит диски. Думаю, что за ботва, начинаю дербанить нашего админа ESX серверов, он по моей просьбе меняет контроллеры на виртуалке на другие. Солярка вообще перестает видеть диски, что старая, что новая. Начинаем гуглить видим, что 50 на 50, у когото ставится, у когото нет. Ладно, решаю скачать предпоследнюю версию, качаю - таже ботва, что и с дистром который у нас лежал, сетапится но не бутится после сетапа.
Время поджимает, разработчики требуют уже бекапный сервер. Решили попрбовать солярку поставить на версию ESX 4.0, а ставили на ESX 3.5 так как на этом виртуальном серваке места больше было под бекапы. И о чудо предпоследняя версия всетаки ставится на ESX4.0. Ну а дальше все просто, минимальная установка, сетап SSH для управления прям с дистра,
svcadm -v enable -r network/nfs/server
включение NFS и
share -F nfs -o rw /disk
шара каталога.
Проверяем
mount -F nfs server:/disk /mount_point
вот оно, щасте! :)

Читать далее

понедельник, 12 июля 2010 г.

Система мониторинга.

Поставил систему мониторинга Hyperic HQ, достаточно интересная вещь для мониторинга кучи серверов, рабочих станций. Умеет обслуживать много сервисов типа MySQL/Oracle/Apache и т.д.
Есть система алярмов и эвентов. Единственный минус, достаточно много кушает ресурсов серверная часть, ну и написанна на неправославной индуской яве.
А так, система очень понравилась для мониторинга, чисто для графиков состояния сетевого оборудования - Cacti. А вот остлеживать состояние серверов Win/HP-UX/Solaris/Linux - очень даже достойная вещь.

Читать далее

четверг, 13 мая 2010 г.

Как увеличить место на диске ZFS(теория)

На одной из моих виртуалок(LDOM) под Solaris ВНЕЗАПНО кончилось место. Как обычно просят определенное колличество, а в итоге получается что не расчитали. Но диск то уже создан и просто так его не расширишь. Покопавшись в интернетах, нашел мануал как увеличить объем диска ZFS. Мануал на английском можно почитать тут. Я выкладываю выкладки на русском:

Итак,общая теория - диск можно расширить в принципе двумя методами:
1. Подключаем к к оригинальному диску второй диск большего размера в режиме зеркала, ждем когда зеркало засинкается, отключаем оригинальный диск, подключаем к виртуалке диск большего объема.
2. Подключаем диск такого же объема как оригинальный в зеркало, ждем когда диск засинкается, отключаем оригинальный, увеличиваем оригинальный диск, подключаем его к зеркалу, ждем когда засинкается, отключаем второй диск из зеркала - монтируем к виртуалке оригинальный диск большего объема.
В текущий момент пойдет разговор про второй метод.
Итак начнем:
1. Для проверки создадим 2 диска одинакового объема
# mkfile 1g file1
# mkfile 1g file2

2. Сделаем из них зеркало
# zpool create zphouston mirror /tmp/file1 /tmp/file2
# df -h /zphouston

Filesystem size used avail capacity Mounted on
zphouston 984M 24K 984M 1% /zphouston
мы получили обычное ZFS зеркало, размером всего в 984мб
3. Запишим на этот диск какойнить файл для проверки, что данные сохранились
допустим так:
# mkfile 20m /zphouston/20megfile
# sum /zphouston/20megfile |tee /zphouston/sum
0 40960 /zphouston/20megfile

Теперь о ужыс у нас допустим ВНЕЗАПНО кончилось место на зеркале и нам нада увеличить объем
4. отключаем один из дисков в зеркале, например диск 2 под названием file2
# zpool offline zphouston /tmp/file2
Bringing device /tmp/file2 offline
# zpool status zphouston
pool: zphouston
state: DEGRADED
status: One or more devices has been taken offline by the administrator.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Online the device using 'zpool online' or replace the device with
'zpool replace'.
scrub: none requested
config:

NAME STATE READ WRITE CKSUM
zphouston DEGRADED 0 0 0
mirror DEGRADED 0 0 0
/tmp/file1 ONLINE 0 0 0
/tmp/file2 OFFLINE 0 0 0
Все диск отключен.
5. Для чистоты эксперемента - удалим диск file2, он нам не нужен по большей части уже
# rm file2
6. Теперь создаем диск большего размера, допусти в 2гига
# mkfile 2g file2
7. Прикручиваем диск к зеркальному пулу следующим образом
# zpool replace zphouston /tmp/file2 /tmp/file2
8. Посмотрим, что же у нас получилось в текущий момент:
# zpool status
pool: zphouston
state: DEGRADED
scrub: resilver completed with 0 errors on Mon Feb 9 14:01:22 2009
config:

NAME STATE READ WRITE CKSUM
zphouston DEGRADED 0 0 0
mirror DEGRADED 0 0 0
/tmp/file1 ONLINE 0 0 0
replacing DEGRADED 0 0 0
/tmp/file2/old UNAVAIL 0 0 0 cannot open
/tmp/file2 ONLINE 0 0 0

errors: No known data errors
о ужыс, зеркало поломано, старый диск не доступен, все сломалось
9. Ждем некоторое время(зависит от объема диска, данных и т.д.) и смотрим снова статус:
# zpool status zphouston
pool: zphouston
state: ONLINE
scrub: resilver completed with 0 errors on Mon Feb 9 14:01:22 2009
config:

NAME STATE READ WRITE CKSUM
zphouston ONLINE 0 0 0
mirror ONLINE 0 0 0
/tmp/file1 ONLINE 0 0 0
/tmp/file2 ONLINE 0 0 0

errors: No known data errors
опа, уже все онлайн и щастье есть!
10. Сколько же у нас сейчас получилось места? Давайте посмотрим:
# df -h /zphouston
Filesystem size used avail capacity Mounted on
zphouston 984M 20M 964M 3% /zphouston
мда, не сильно изменилось, но так и должно быть!
11. Отключаем старый диск размером в 1гиг
# zpool detach zphouston /tmp/file1
12. А теперь сколько места?
# df -h /zphouston
Filesystem size used avail capacity Mounted on
zphouston 2.0G 20M 1.9G 1% /zphouston
2! гига, тоесть это то, чего мы и добивались
13. А что же у нас со статусом зеркала:
# zpool status zphouston
pool: zphouston
state: ONLINE
scrub: resilver completed with 0 errors on Mon Feb 9 14:01:22 2009
config:

NAME STATE READ WRITE CKSUM
zphouston ONLINE 0 0 0
/tmp/file2 ONLINE 0 0 0

errors: No known data errors
все в порядке, 1 диск светится и работает в штатном режиме.
14. Далее нам необходимо востановить зеркало, ну или не востанавливать если это не надо.
пожалуй востановим на всякий случай
удаляем старый фаил file1 размером в 1 гигобайт
# rm file1
создаем такойже фаил, только размером в 2 гига(чтобы зеркало было синхронизированно по объему)
# mkfile 2g file1
присоединяем новый фаил к пулу ZFS
# zpool attach zphouston /tmp/file2 /tmp/file1
проверяем статус зеркала
# zpool status zphouston
pool: zphouston
state: ONLINE
scrub: resilver completed with 0 errors on Mon Feb 9 14:12:38 2009
config:

NAME STATE READ WRITE CKSUM
zphouston ONLINE 0 0 0
mirror ONLINE 0 0 0
/tmp/file2 ONLINE 0 0 0
/tmp/file1 ONLINE 0 0 0

errors: No known data errors
ну и наконец, смотрим сколько получилось места:
# df -h /zphouston
Filesystem size used avail capacity Mounted on
zphouston 2.0G 20M 1.9G 1% /zphouston
все в порядке, 2гигобайта, тем самым мы увеличили диск
а что же с нашим файлом, который мы создали, посмотрим:
# sum /zphouston/20megfile
0 40960 /zphouston/20megfile
все наместе, щастье мы обрели

ЗЫЖ все выше описанные манипуляции делаем на свой страх и риск, не забываем бакапить, никакой отвественности за потерю данных я не несу, ибо это только теория, хоть и мне придется скоро испытать ее на практике, по этому будет отдельный пост.

Читать далее

среда, 31 марта 2010 г.

Как смонтировать CDROM под Solaris

Постоянно забываю как мониторвать кдпзу под соляркой. По этому будет памяткой для меня, ну и поможет авоь кому.

Пример на одной из моих виртуалок.
смотрим какие у нас устройства есть:
# iostat -En
c0d0 Soft Errors: 0 Transport Errors: 0 Protocol Errors: 0
Vendor: SUN Product: VDSK Size: 64.42GB <64424509440 bytes>

c0d1 Soft Errors: 0 Transport Errors: 0 Protocol Errors: 0
Vendor: SUN Product: VDSK Size: 2.68GB <2684354560 bytes>


Видим диск небольшой емкостью, размером 2.68GB
Это и есть образ солярки подключенный как диск.
Если диск натуральный, а не эмулятор то в Vendor можно увидеть название привода, а в Product - то что это оптический диск.
пример: Vendor: MATSHITA Product: CDRW/DVD
Теперь определившись кто у нас кто, монтируем:
mount -F hsfs -o ro /dev/dsk/c0d1s0 /mnt/cdrom
вот и все

Читать далее

среда, 10 февраля 2010 г.

Преквезиты по установке Oracle

Дока по пререквbзитам для установки Oracle на Solaris для тонкой установки операционки

Читать далее

Solaris + LDOM + ZFS

Руки дошли наконец до SPARC, на который надо было засетапить виртуалку. Файловая система была выбрана ZFS, которая ставится на диск.

А теперь по пунктам, порядок установки:
1. Предварительные приготовления
Так как я ставил минимальную инсталяцию, такой вещи как LDOM в установленном солярисе не было, первым делом необходимо скачать LDoms Manager разархивирвать при помощи unzip и запустить install/install-ldm
далее перезагружаем солярку командой reboot
после загрузки проверяем стартанул ли ldom, командой ldm ls
должно появится что то типа:
NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME
primary active -n-c-- SP 4 4G 0.0% 16m
командой svcadm enable vntsd делаем так, чтобы сервис стартовал при ребуте
svcadm restart vntsd - перезапустит серивс
по идее дефеольтные настройки все должны быть готовы

2. создаем ZFS диск для образа солярки
создаем пул
zpool create ldomdisk c1t1d0
создаем раздел в пуле
zfs create ldomdisk/ldom1
а теперь самое главное, создаем 60 гиговый раздел под виртуалку, на который будем ставить солярку
zfs create -V 60g ldomdisk/ldom1/disk.image

3. Создаем собственно саму виртуалку.
Создаем виртуалку
ldm add-domain ldom1
указываем сколько процов нам необходимо использовать в виртуалке
ldm add-vcpu 4 ldom1
указываем сколько памяти нам необходимо использовать в виртуалке
ldm add-memory 4G
подключаем сетевую плату из primary ldom
ldm add-vnet vnet1 primary-vsw0 ldom1
а теперь самое интересное, добавляем сам ZFS диск на который будет ставится виртуалка
ldm add-vdsdev /dev/zvol/dsk/ldomdisk/ldom1/disk.image vol1@primary-vds
подключаем этот диск к новосозданному ldom1
ldm add-vdisk vdisk0 vol1@primary-vds ldom1
выключаем автоматическую загрузку, так как грузится будем с установочного образа Solaris
ldm set-variable auto-boot\?=false
теперь необходимо прописать установочный образ Solaris в формате iso
ldm add-vdsdev /export/home/bear/sol-10-u7-ga-sparc-dvd.iso cdrom@primary-vds
и подключить к ldom1
ldm add-vdisk cdrom cdrom@primary-vds ldom1
ну вот и все, настройки дефолтные готовы
прибиндиваем ldom командой
ldm bind ldom1
и стартуем
ldm start ldom1
если набрать ldm ls , то можно увидеть что рядом с ldom1 будет написанно active
если так написанно то все отлично и работает

4. завершающая часть
теперь телнетимся по 5000 порту к виртуалке
telnet localhost 5000
нажимаем ентер и видим, пишется {0} ok это значит, что виртуалка ожидает команд
даем команду на загрузку с образа
boot cdrom
и инсталим Solaris как обычно

из полезных команд в виртуалке можно выделить следующие
show-disks - поглядеть все дисковые устройства подключенные к виртуалке
devalias - поглядеть присвоеные алиасы для устройств
Дока по ZFS
вот в приницпе и все, ничего сложно в общем нет

Читать далее

пятница, 5 февраля 2010 г.

Solaris vs Human - 0:1

Пошаманив с утра, рейд был всетаки побежден. Были предприняты следующие действия:
1. при помощи raidctl - был сделан 1 рейд на 2х дисках
2. при помощи format на новом диске был сделан label
3. перезагрузка
4. загрузился с dvd в сингл режим командой boot cdrom -s
5. проверил как поживают свеже созданные диски, дальше запустил установку solaris
6. во время выбора типа файловой системы - указал UFS за место ZFS
7. установил минимально необходимый дистр
Осталось смутное подозрение, что ZFS надо было ставить после того как зеркало засинхронизировалось бы и перешло в оперейшенал режим, если будет возможность - попробую проверить. А сейчас предстоит разметка кучи дисков, установка необходимых пакетов и конфигурации для LDOM.

Читать далее

четверг, 4 февраля 2010 г.

Solaris и RAID

Убив почти целый рабочий день так и не понял как засетапить солярку на железный рейд созданный при помощи raidctl. В интернетах вроде говорят, что это реально возможно, а в живую не получается, проходит загрузчик, а после чего падает с кучей ругательств на ненайденные файлы. Хотя ставится нармально и без воплей....
Надо будет конкретней покопать гугел.

Читать далее