Zobrazit příspěvky

Tato sekce Vám umožňuje zobrazit všechny příspěvky tohoto uživatele. Prosím uvědomte si, že můžete vidět příspěvky pouze z oblastí Vám přístupných.


Příspěvky - zabak1

Stran: [1] 2
1
Odkladiště / Re:Nefunkční github?
« kdy: 17. 07. 2018, 09:20:49 »
Ha, zdrada. Teď jsem na github kouknul v Chromu a vše jede. Ve Firefoxu se zobrazí jen následující obsah:
Takže problém byl v tom, že Firefox to načítal z offline obsahu. Jde někde ve Firefoxu nastavit, aby to nepoužíval data z disku a vše tahal z netu?
Děkuji

2
Odkladiště / Nefunkční github?
« kdy: 17. 07. 2018, 08:34:53 »
Zdravím všechny,
   už druhým dnem se snažím dostat k souborům na https://github.com/, ale pořád marně. Github nejede. Také máte stejný problém? Podle https://status.github.com/messages by už mělo být vše ok. Ale není. Nevíte co se děje a kdy bude github funkční?
Děkuji za odpověď.

3
Hardware / Proxmox - výměna vadného disku
« kdy: 17. 02. 2016, 18:57:07 »
Zdravím,
   na stroji kde provozujeme Proxmox odešel disk. Používáme zfs v RAID 1 (o mirror se stará zfs). Starý disk jsem hodil do stavu offline a vyměnil za nový.
Kód: [Vybrat]
root@server:~# zpool status
  pool: rpool
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: none requested
config:

        NAME                      STATE     READ WRITE CKSUM
        rpool                     DEGRADED     0     0     0
          mirror-0                DEGRADED     0     0     0
            sda2                  ONLINE       0     0     0
            11435477981879906099  OFFLINE      0     0     0  was /dev/sdb2

errors: No known data errors
1) Teď bych chtěl vyhodit sdb2 z poolu, ale nevím jak.

2) Následně bych měl asi rozdělit sdb (nově vložený disk) dle stávajícího sda:

Kód: [Vybrat]
Disk /dev/sda: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 3116EF61-9267-48F6-AB36-B7CB48F9A86C

Device          Start        End    Sectors   Size Type
/dev/sda1          34       2047       2014  1007K BIOS boot
/dev/sda2        2048 1953508749 1953506702 931.5G Solaris /usr & Apple ZFS
/dev/sda9  1953508750 1953525134      16385     8M Solaris reserved 1

3) Přidat nově vytvořený sdb2 do poolu

4) Mám naklonovat sda1 -> sdb1 a sda9 -> sdb9?

5) Jak zajisti naběhnutí systému pokud by vypadl (vyhořel/odešel) disk sda?

Souhlasíte s postupem? Děkuji za pomoc.


4
Software / Re:Proxmox - tvorba clusteru a přesun VM
« kdy: 09. 02. 2016, 21:19:24 »
1) ano, pozor na synchronizaci casu - napr. v prvnim instalacnim ISO verze 4 byla chyba a ntpd nestartoval, pozor na to, aby switch umel spravne multicasty

2) ano, jen to bude dele trvat

3) ne

4) ne

5) pokud chcete zkouset HA, potrebujete 3 hypervizory

Zdravím,
   tak jsem vytvořil klastr, ale pokud zkusím online migraci, tak bohužel:
Kód: [Vybrat]
Feb 09 21:10:51 starting migration of VM 100 to node 'kasandra' (192.168.2.188)
Feb 09 21:10:51 copying disk images
Feb 09 21:10:51 ERROR: Failed to sync data - can't do online migration - VM uses local disks
Feb 09 21:10:51 aborting phase 1 - cleanup resources
Feb 09 21:10:51 ERROR: migration aborted (duration 00:00:00): Failed to sync data - can't do online migration - VM uses local disks
TASK ERROR: migration aborted
Zdá se, že s lokálním úložištěm se dál nehnu. Vy máte migraci s lokálním úložištěm vyzkoušenou? Pokud ano a funguje Vám, netušíte kde by byl problém? Děkuji za odpověď.

PS: Offline migrace funguje bez problémů.

5
Software / Re:Proxmox - tvorba clusteru a přesun VM
« kdy: 04. 02. 2016, 16:02:27 »
1) ano, pozor na synchronizaci casu - napr. v prvnim instalacnim ISO verze 4 byla chyba a ntpd nestartoval, pozor na to, aby switch umel spravne multicasty

2) ano, jen to bude dele trvat

3) ne

4) ne

5) pokud chcete zkouset HA, potrebujete 3 hypervizory

Trochu jsem se koukal do systému a balíček ntp v proxmoxu není vůbec instalován. Doporučujete mi ho tedy doinstalovat a nastavit časové servery?

6
Software / Re:Proxmox - tvorba clusteru a přesun VM
« kdy: 04. 02. 2016, 15:58:39 »
Dobrý den,
   obávám se, že tak daleko jsem ještě nedospěl (předpokládám, že popisujete zkušenost s HA clusterem). Já jsem momentálně v plenkách. Snažím se řešit problém typu: Přišla nová paměť. Tedy přehodím všechny (budou tam zatím tři) VM na prozatimní stroj. Pak provést údržbu "mastera" (přidat paměť, přestěhovat, vyčistit...). Spustit "mastera" a zase naládovat VM zpět. :-)

7
Software / Proxmox - tvorba clusteru a přesun VM
« kdy: 03. 02. 2016, 12:10:04 »
Zdravím všechny,
   zkouším si nějakou chvilku hrát s virtualizací, tedy spíše se jen učím a objevuji. Nejprve jsem si na jednom stroji nainstaloval Proxmox a vytvořil jsem si pár VM. Zatím pěkné. Na druhý stroj jsem si také hodil Proxmox a rád bych zkusil přesunout nějakou VM z prvního stroje na druhý. Každý z těchto strojů má své local storage. Otázka tedy zní, jak na to.
   Našel jsem nějaké návody, podle kterých je třeba vytvořit cluster, ve kterém bude stroj1 a stroj2. Tedy:

Kód: [Vybrat]
root@stroj1:~# pvecm create nazev_meho_clusteru
   Na druhém stroji:
Kód: [Vybrat]
root@stroj2:~# pvecm add jmeno_stroj1
1) To je vše?
2) Pak už mohu přenáše (migrovat) jednotlivé VM ze stroje1 na stroj2? I když má každý svůj local storage?
3) Co se stane, když stroj2 vypnu, bude v clusteru nějaký problém, který zamezí běhu VM na stroji1?
4) Co se stane, když stroj1 vypnu (na něm byl cluster tvořen), bude v clusteru nějaký problém, který zamezí běhu VM na stroji2?

Děkuji za, i dílčí, odpovědi.

8
Server / Re:Proxmox - nestartuje VM
« kdy: 21. 01. 2016, 21:04:27 »
Děkuji některým za "velmi užitečné" rady. Problém vyřešen. Pokud je používán ZFS, je třeba pro disk zvolit Cache: Write back (https://forum.proxmox.com/threads/solved-vm-wont-boot-if-located-in-a-zfs-directory.17784/).

9
Server / Re:Proxmox - nestartuje VM
« kdy: 21. 01. 2016, 14:44:36 »
Nějaký nápad? Soubor tam je, vlastník je root. Má nastavená práva na 640, zkusil jsem změnit na 666, ale nepomohlo to. Co přesně myslíte?

10
Server / Proxmox - nestartuje VM
« kdy: 21. 01. 2016, 14:19:21 »
Zdravím,
   zkouším si hrát s Proxmox, ale nějak se mi to nedaří. Na stroji mám dva disky, takže jsem při instalaci zvolil zfs (RAID1) a provedl instalaci. Po dokončení jsem se přihlásil přes webové rozhraní a zkusil vytvořit virtuální stroj. Jeho spuštění však vždy skončí nezdarem:

Kód: [Vybrat]
Running as unit 100.scope.
kvm: -drive file=/var/lib/vz/images/100/vm-100-disk-1.qcow2,if=none,id=drive-ide0,format=qcow2,cache=none,aio=native,detect-zeroes=on: file system may not support O_DIRECT
kvm: -drive file=/var/lib/vz/images/100/vm-100-disk-1.qcow2,if=none,id=drive-ide0,format=qcow2,cache=none,aio=native,detect-zeroes=on: Could not open '/var/lib/vz/images/100/vm-100-disk-1.qcow2': Invalid argument
TASK ERROR: start failed: command '/usr/bin/systemd-run --scope --slice qemu --unit 100 -p 'KillMode=none' -p 'CPUShares=1000' /usr/bin/kvm -id 100 -chardev 'socket,id=qmp,path=/var/run/qemu-server/100.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -vnc unix:/var/run/qemu-server/100.vnc,x509,password -pidfile /var/run/qemu-server/100.pid -daemonize -smbios 'type=1,uuid=89d4781d-af78-43cd-b6fb-2462cb40791f' -name vm100 -smp '1,sockets=1,cores=1,maxcpus=1' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000' -vga cirrus -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 512 -k en-us -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:c4ed46fb2223' -drive 'if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200' -drive 'file=/var/lib/vz/images/100/vm-100-disk-1.qcow2,if=none,id=drive-ide0,format=qcow2,cache=none,aio=native,detect-zeroes=on' -device 'ide-hd,bus=ide.0,unit=0,drive=drive-ide0,id=ide0,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown' -device 'e1000,mac=3A:35:37:39:36:34,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300'' failed: exit code 1

Zajímavé je, že pokud jsem při instalaci zvolil instalovat na sda s ext4 (tedy jen na jeden disk), spuštění VM proběhlo bez problémů. Nevíte kde je zakopán pes? Díky.

11
Tak jsem si hrál s tím polem a došel jsem k výsledku, že XenServer si s oním RAIDem nedokáže poradit. Pokud v BIOSu přepnu na ENABLE SATA AHCI SUPPORT (vyřadím tedy RAID co je na desce), XenServer začne bootovat bez problémů. Ale pak bohužel nejsem schopen přepnout bootování na druhý disk (nejsou dostupné ony dva RAID 0).
Napadla mě ještě jedna myšlenka. Nainstalovat XenServer na jeden disk (RAID je v BIOSU vypnutý). Pak provést úpravy dle návodu (http://mmorejon.github.io/en/blog/configure-xenserver6.5-software-raid1/) a až v návodu dojde na nastavení bootvání v BIOSU, server vypnout prohodit disky (ten co je v šachtě 1 půjde do šachty 2 a ten z šachty 2 do šachty 1) a zapnout.
Bootování pak proběhne z disku z šachty 1 (tedy ten co už má vytvořený SW RAID - sice degradovaný) a zbytek dodělám dle návodu. Tedy:
Kód: [Vybrat]
# Clone /dev/sdb to /dev/sda.
sgdisk -R /dev/sda /dev/sdb

# Set /dev/sda as system boot.
sgdisk /dev/sda --attributes=1:set:2

# Add the devices sda1, sda2 y sda3 to the RAID1 structure.
mdadm -a /dev/md0 /dev/sda1
mdadm -a /dev/md1 /dev/sda2
mdadm -a /dev/md2 /dev/sda3

# If you have an error while add sda3 is because during the XenServer instation
# you activated a SR. This SR most be removed and try again.

# Reboot the system.
reboot


Pokud se nepletu, měl bych ještě upravit poslední část, tedy:

# Clone /dev/sda to /dev/sdb.
sgdisk -R /dev/sdb /dev/sda

# Set /dev/sda as system boot.
sgdisk /dev/sdb --attributes=1:set:2

# Add the devices sda1, sda2 y sda3 to the RAID1 structure.
mdadm -a /dev/md0 /dev/sdb1
mdadm -a /dev/md1 /dev/sdb2
mdadm -a /dev/md2 /dev/sdb3



Co si o tom myslíte?

12
A máš dobře nakonfigurovaný grub?
Předpodkládám, že toto provedl instalační proces. Při jiné instalaci s tím nebyl problém.

13
Mám zkušenosti s V1 verzí tohoto serveru a tam se to dělá tak, že v BIOSU přepneš RAID řadič do módu AHCI (popř. legacy). Prostě raidování v BIOSU vypneš. Pak se ten kontrolér chová jako klasickej SATA kontrolér a v BIOSu jde zvolit bootovací disk.

Jestli je to stejně ve V2 nevím, ale IMHO to bude stejný.
Takto jsem to měl nastavené před tím, ale v BIOSu jsem nikde nenašel, jak nastavit, z kterého disku má být bootováno. V diskuzi zde, mě bylo navrhnuto, ať to zkusím přes dvě RAID 0. To jsem zase narazil na tento problém :-). Kde konkrétně v BIOSu se u tohoto typu serveru nastavuje, z kterého disku má být bootováno. Můžete mě prosím navést (popsat jednotlivé kategorie)? Děkuji.

14
Zdravím,
  tak jsem to zkoušel, ze začátku se to tvářilo rozumně. Udělal jsem 2 x RAID 0 a začal instalovat XenServer. Instalace proběhla bez problémů. Oba disky byly při instalaci zobrazeny. Instalace regulerně dokončena. Ale start XenServeru z HDD se ani nezačne. Netuším. V BIOSU je nastaveno zavádění z RAID řadiče. V konfigurační utilitě od HP jsem nastavil pořadí. Netušíte, kde by mohl být zakopán pes teď. Díky.

15
Děkuji za zkušenosti. Hodlám tedy zkusit variantu dvou RAID0, jen nevím, jaké mám zvolit nastavení. Jedná se o Strip Size/Full Strip Size (8KiB/8KiB, 16KiB/16KiB, 32KiB/32KiB, 64KiB/64KiB, 128KiB/128KiB, 256KiB/256KiB, ), Sectors/Track (63 nebo 32), Caching (Enabled nebo Disabled). Odobně bych šel asi defaultním nastavením, tedy:
Kód: [Vybrat]
Strip Size/Full Strip Size - 256KiB/256KiB
Sectors/Track - 32
Caching - Enabled (z toho kešováním mám trochu strach)

Stran: [1] 2