SZTAKI Felhő projekt. Ormos Pál MTA SZTAKI ormos.pal@sztaki.mta.hu. HBONE Workshop 2012



Hasonló dokumentumok
Virtual Organizations,

Csoportkezelés a szövetségben

Software Defined technológiák használata Oracle adatbázis konszolidációhoz

Felhő demonstráció Gergely Márk MTA SZTAKI

Szerver-üzemeltetés - Tudásközpont, Pécs

Az MTA Cloud projekt MTA Cloud projektzáró június 28.

NIIF Központi Elosztott Szolgáltatói Platform

Költséghatékony high-end adattároló megoldások Vitéz Gábor, Avaxio Kft.

NIIF és a Sulinet + fejlesztések

Az NIIF új szuperszámítógép infrastruktúrája Új lehetőségek a kutatói hálózatban

Az Invitel adatközponti virtualizációja IBM alapokon

Segesdi Dániel. OpenNebula. Virtualizációs technológiák és alkalmazásaik BMEVIMIAV ősz

Hadoop és használata az LPDS cloud-on

Private Cloud architektúra keretrendszer

Gyakorla( útmutató és demonstrációk a SZTAKI Felhő használatához

Adatbázis és alkalmazás konszolidáció Oracle SPARC T4/5 alapon

Magyar Posta központi Oracle infrastruktúrája VMware alapokon

TELJESÍTÉNYMÉRÉS FELHŐ ALAPÚ KÖRNYEZETBEN AZURE CLOUD ANALÍZIS

Szövetségi (föderatív) jogosultságkezelés

MTA Cloud Use cases MTA Cloud workshop. Hernáth Szabolcs MTA WIGNER FK

Szolgáltatási szint megállapodás

Lajber Zoltán. Bevezetés

Lajber Zoltán. Bevezetés. Informatikai Hivatal. Tervezési szempontok: teljesítmény, karbantarthatóság, biztonság.

A DNS64 és NAT64 IPv6 áttérési technikák egyes implementációinak teljesítőképesség- és stabilitás-vizsgálata. Répás Sándor

Tartalom. Konfiguráció menedzsment bevezetési tapasztalatok. Bevezetés. Tipikus konfigurációs adatbázis kialakítási projekt. Adatbázis szerkezet

Sulinet infrastruktúra fejlesztése - Sulinet + projekt

IP alapú kommunikáció. 3. Előadás Switchek 3 Kovács Ákos

Miért jó nekünk kutatóknak a felhő? Kacsuk Péter MTA SZTAKI

Újdonságok Nexus Platformon

"sulinet+" - Végponti kapcsolatok és központi szolgáltatás-fejlesztés a közoktatási hálózatban

Könyvtári címkéző munkahely

Sulinet + " áttekintés

Worldwide LHC Computing Grid

Egy egyszerű, gyors és szabad újratelepítő eszköz: upi

HBONE aktualitások június

A HBONE évi fejlesztési eredményei

ClusterGrid for Windows

G Data MasterAdmin 9 0 _ 09 _ _ # r_ e p a P ch e T 1

BIG DATA ÉS GÉPI TANULÁS KÖRNYEZET AZ MTA CLOUD-ON KACSUK PÉTER, NAGY ENIKŐ, PINTYE ISTVÁN, HAJNAL ÁKOS, LOVAS RÓBERT

30 MB INFORMATIKAI PROJEKTELLENŐR

Cloud Akkreditációs Szolgáltatás indítása CLAKK projekt. Kozlovszky Miklós, Németh Zsolt, Lovas Róbert 9. LPDS MTA SZTAKI Tudományos nap

A HBONE+ projekt áttekintés

Üdvözlöm Önöket a Konferencián!

Az internet ökoszisztémája és evolúciója. Gyakorlat 1

Könyvtárak szövetségben! Magyar Zsuzsanna MTA SZTAKI ITAK

Szolgáltatási szint megállapodás. Verzió: 1.0. (2010. december 13.)

Sulinet + projekt. Mohácsi János Hálózati igh. NIIF Intézet október 21. Sulinet + projekt mérföldkő Budapest

Felhő rendszerek és felhő föderációk. Kacsuk Péter MTA SZTAKI

CRA - Cisco Remote Access

VMware vsphere. Virtuális Hálózatok Biztonsága. Andrews IT Engineering Kft.

Az NIIF új szuperszámítógép infrastruktúrája Új lehet!ségek a kutatói hálózatban Debreceni Egyetem

Dedikált szerverhoszting katalógus november

alkalmazásfejlesztő környezete

"sulinet+" - végponti kapcsolatok és központi szolgáltatás-fejlesztés a közoktatási hálózatban

RH/CentOS felügyelet SUSE Manager segítségével. Kovács Lajos Vezető konzultáns

Windows hálózati adminisztráció segédlet a gyakorlati órákhoz

NIIF Intézet szolgáltatásai 2. (alapszolgáltatások, szuperszámítástechnika) Marlok Tamás Sebők Tamás

Dunaújvárosi Főiskolán

Sulinet + " NIIF és sulinet fejlesztések

Linux kiszolgáló felügyelet: SUSE Manager

GUSE BEMUTATÓ. Az MTA CLOUD felhasználói számára készült guse bemutató v2.0. MTA Cloud csapat

(nagytotál kistotál)

Az NIIF Intézet és a ÚMFT TÁMOP programok bemutatása

2011. November 8. Boscolo New York Palace Budapest. Extrém teljesítmény Oracle Exadata és Oracle Exalogic rendszerekkel

Ethernet - soros vonali eszköz illesztő felhasználói leírás, és használati útmutató

HA és DR praktikák, maximális rendelkezésreállás

Grid menedzsment megoldás az ARC köztesrétegben

Windows XP. és Ubuntu. mi a különbség? Mátó Péter <mato.peter@fsf.hu> Windows XP vs Ubuntu Mátó Péter <mato.peter@fsf.

Felhőszolgáltatások megvalósítása PureSystems eszközökön

Az MTA Cloud a tudományos alkalmazások támogatására. Kacsuk Péter MTA SZTAKI

eduroam konfiguráció workshop Mohácsi János NIIF Intézet

Sulinet infrastruktúra fejlesztése - Sulinet + projekt

A HBONE aktualitások június 5.

Link Aggregation Control Protocol

Az internet ökoszisztémája és evolúciója. Gyakorlat 1

Web harvesztelés. Automatikus módszerekkel


HBONE aktualitások február

A felhőről általában. Kacsuk Péter MTA SZTAKI

Az MTA Cloud használatának alapismeretei (tutorial) Lovas Róbert MTA SZTAKI

SCHNETv6 IPv6 a Schönherzben. 5/7/12 Tóth Ferenc - IPv6 a Schönherzben 1

Tanszéki szórvány szerverek kiváltása a. Győry Endre Attila ELTE Informatikai Igazgatóság

NIIF szolgáltatások a múzeumok számára

Felhő alapú hálózatok (VITMMA02) OpenStack Neutron Networking

A HBONE+ projekt kapcsán megjelent új hálózati lehetőségek

HBONE aktualitások március

A HBONE évi fejlesztési eredményei

GENERÁCIÓS ADATBÁZISOK A BIG DATA KÜLÖNBÖZŐ TERÜLETEIN

NIIF Sulinet szolgáltatásai

Hitachi Flash Újdonságok. Szokol Zsolt Senior Solution Consultant 2016 március

Everything Over Ethernet

Dr. Schuster György október 30.

FELHŐ és a MAINFRAME. Irmes Sándor

IBM felhő menedzsment

Félreértések elkerülése érdekében kérdezze meg rendszergazdáját, üzemeltetőjét!

Mikor és hogyan érdemes virtualizálni?

MMK-Informatikai projekt ellenőr képzés 4

Virtualizációs technológiák Linux alatt (teljesítményteszt)

Léteznek nagyon jó integrált szoftver termékek a feladatra. Ezek többnyire drágák, és az üzemeltetésük sem túl egyszerű.

Enterprise szintű szerver- virtualizáció bevezetése felsőoktatási környezetben.

Átírás:

SZTAKI Felhő projekt Ormos Pál MTA SZTAKI ormos.pal@sztaki.mta.hu HBONE Workshop 2012

Miről lesz szó? Előzmények Feladatok Összefoglalás 2

Előzmények Labor szintű felhő kísérletek az intézetben Élenjáró GRID kutatások EDGI http://edgi-project.eu/ S-CUBE http://www.s-cube-network.eu/ Brein http://www.eu-brein.com EU-s Cloud projekt SCI-BUS http://www.sci-bus.eu 3

A Felhő projekt A Projekt célja a felhőkhöz, mint elosztott informatikai rendszerekhez kapcsolódó kutatások végzése. Intézeti felhő kifejlesztése és üzembe helyezése, ami lehetővé teszi az intézeti informatikai infrastruktúra jelentős korszerűsítését. 4 osztály összefogásával (ITAK, LPDS, DSD, ILAB) Akadémiai és intézeti támogatás 2 éves projekt kutatási és fejlesztési feladatok Az alfa rendszer 2012.10.24-én elindult 4

A Felhő projekt Kutatási és fejlesztési feladatok Automatikus és elasztikus skálázhatóság Cél, a meglevő SZTAKI szolgáltatások és a Hadoop technológia felhőbe migrálhatóságának és skálázhatóságának vizsgálata. Adatintenzív felhő Biztonság és Identity Management 5

Infrastruktúra 2 db Dell R415 frontend szerver 32GB RAM, 3TB disk, AMD processzor 7 db Dell R815 node 256GB RAM, 1TB disk, AMD processzor 2 db Dell 6248 PowerConnect switch 48 db 10/100/1000 port + 4 TGB port (2 optika, 2 réz) 1 db Dell 3600i storage 2 vezérlővel, 36TB disk 1 db Dell R510 Linux storage 48 GB RAM, 36 TB disk, Xeon processzor Az eszközöket közbeszerzésen keresztül vásároltuk. A szállító a Humansoft volt. 6

Hálózat IP cím tartományok, VLAN-ok tervezése, kialakítása megtörtént Különféle hálózati konfigurációk kipróbálása Bonding Hashing algoritmusok problémája Több subnet-es iscsi elérés az MD3600 felé, rdac optimális használata a multipathban (active és ghost portok) Az MD3600i különböző switch-be kötött portjai különböző subnet-ben vannak, csakúgy mint a node-ok portjai. Így biztosítjuk, hogy a csomagoknak ne kelljen a switch-ek között utazni. Az egy switchbe kötött két port közül az egyik aktív a másik passzív. Ezt a nodeokon futó multipath daemon felismeri és csak az aktív utakat használja, a többi ghost állapotba kerül, ezekre csak hiba esetén kapcsol át. Az aktív utakat pedig round robin algoritmus szerint használja, így az összes aktív út ki van használva. 7

Hálózat Offload driver és bonding együttes működtetése, több MAC cím egy porton A shared LVM és az iscsi driverek másféle megoldást igényelnek, ha loadbalancing-ot szeretnénk. Az iscsi driver több TCP connection-t használ (imageenként egyet), viszont a targetnek egy IP címe van. Így ide az LACP bonding tűnt ideális megoldásnak. Az Dell storage-nak viszont több portja és IP címe van, ebből mindig kettő aktív, a másik kettőre hiba esetén kapcsol át. Gyárilag támogatja az rdac multipath megoldást, így ehhez az eszközhöz multipath-t kell használni. A node-okban szereplő hálókártyák támogatják a bnx2i nevű iscsi offload drivert. Ennek használatával egy másik interface jön létre a valódi fizikai interace mellett. Ennek a kettőnek külön MAC címe van, így lehetőség nyílt arra, hogy a kettőt (bonding, multipath) egymás mellett használjuk. Az offload interface-ek multipath-ban, az eredetiek pedig bondingban működnek. 8

Hálózat 9

Hálózat Az alfa szolgáltatáshoz megvalósított hálózati kialakítás még nem végleges legalább háromszor át kellett kábelezni legalább ennyiszer logikailag is módosítani kellett Discard és PAUSE framek problémája Dell Powerconnect 6248 teljesítménye nem optimális 10

AAI A cél, hogy az OpenNebula hozzáférés az intézeti SAML IdP-vel és Virtual Organization szoftverrel használható legyen Többféle variációt próbáltunk A végleges megoldás működése röviden: a SimpleSAMLPHP-től egy létrejött session alapján - SessionID-val - lekérdezhetőek a bejelentkezés adatai JSON-ben a lekérdezett JSON-ben szerepel minden szükséges adat egy felhasználó kezeléséhez (felhasználónév,csoportnév,autentikált-e?, authentikáció erőssége ) ha nem autentikált a SimpleSAMLPHP-ban, akkor nem engedélyezi a belépést Az OpenNebula 3.8 megjelenése után patch készül amit beküldünk beolvasztásra Továbblépési lehetőség: csoportonként megkövetelhető erős authentikáció (két faktoros azonosítás, yubikey) 11

AAI Integrált a Virtual Organization szoftverrel, ráadásul több csoportba tartozás esetén van választó modul. felhasználók, csoportok könnyebb kezelése VO-ban, csoportkezelést a projekt menedzserei végzik, nem pedig rendszergazdák, Sunstone-ban eredetileg a felhasználó nem tartozhat több csoporthoz, a megoldással bejelentkezéskor kiválasztható, hogy mely csoport jogosultságait akarja használni a felhasználó a felhasználók, csoportok létrejönnek, ha szükség van rájuk csoportváltozás esetén frissül a felhasználó csoportja 12

AAI 13

iscsi mérések Méréseket az alábbi eszközökkel végeztük: vdbench (Dell eszköz) Csak hiba meghatározására használtuk, hátránya, hogy csak egy úton tudjuk elérni az iscsi diszkeket, multipath nem tesztelhető vele. iometer Ezzel végeztük a szisztematikus méréseket Főbb tanulságok: a teljes sebesség eléréséhez egy gépről is több workert kell indítani, valamint több MB nagyságrendű szegmensméretet kell beállítani. Egy node a Dell storage-on olvasás esetén a három interface-t maximálisan ki tudja használni, írás esetén ennél kisebb, kb. 2-2,5 Gbps sebesség érhető el. 14

iscsi mérések Iometer a Linuxos storage-nál az 1 Gbps volt a maximális sebesség, mert egy felmountolt partició egy tcp connectiont használt, így a bonding korlátai miatt nem is lehetett e fölé menni. Kis szegmensméret (4KB) esetén a linuxos storage volt a gyorsabb, a workerek számától függően 15-20 MBps (4500-5000 IOPS) sebességet produkált, az MD3600i esetén ez ~5 MBps (~1200 IOPS) volt. A több node-ról egyszerre olvasás esetén kiderült, hogy a maximális sebesség az MD3600i esetén ~730 MBps. nagy fájl másolása Iozone 15

iscsi mérések Összefoglalva: 2G/node diszk sebességre lehet számítani a jelenlegi konfigurációval virtio/virtuális IDE overhead mérése Olvasásnál nincs is olyan nagy különbség Írásnál igen+cpu használata magasabb Image fájl/partíció Csak a partíció 25-50%-al gyorsabb Blokk mérettel +/- 15% 16

Cgroups-os IOLimit modul Ez az OpenNebula kiegészítés a Cgroups alrendszer segítségével a diszk hozzáférést szabályozza. A linux-ban elérhető képesség a control groups. Különféle erőforrásokra lehet limiteket mondani process group-onként CPU/Mem/Disk IO A Shared LVM patch szükséges a helyes működéséhez Egy a Cgroups Block IO Controller alrendszerét használó hook-ról van szó, mely a virtuális gép RUNNING állapotába kerülésekor fut le az OpenNebula webfelületén limitek adhatók meg a virtuális gépre B/s-ben (lehetőség van IO/s-es megadásra is) a virtuális gép template-jében az ITAK cloud-on (Ubuntu) lett kifejlesztve, kipróbálva, jól működik Az elkészült hook illeszthető Debian vagy RedHat alapú operációs rendszerekhez is A Centos-ban más a cgroups elrendezése, adaptálni kell, de valószínűleg probléma nem lesz vele 17

Cgroups-os IOLimit modul részletes telepítési, konfigurációs és fejlesztői dokumentáció készült hozzá Későbbi tervek: a Cgroups-ban a hálózati eszközök is megjelennek, így minden bizonnyal a hálózati sávszélességet is lehetne limitálni, de ezt nem próbáltuk még ki teszt megtervezése, majd egy szemléletes teszt bemutatása eredményekkel együtt 18

SharedLVM 19

Shared LVM A shared LVM driver fejlesztése és tesztelése az ITAK cloud környezeten történt A 3.4-es OpenNebula alatt Kihasználtuk ehhez az NIIFI által biztosított storage infrastruktúrát A már meglévő és az LPDS által továbbfejlesztett iscsi driver azért nem volt megfelelő erre a célra fejleszteni kellett egyet, ennek lett a neve shared LVM shared LVM patch: http://dev.opennebula.org/issues/1341 hátra van még az illesztése a 3.8-as Opennebula alá Sztaki cloud-ba. 20

Üzemeltetés Felügyelet: Mérések, riasztások Icinga bevezetése Jogosultság kezelés VO alapján Gyufi bővebben Support levelezési lista Hibajegykezelés Konfiguráció menedzsment Hálózati hozzáférés szabályozása Csak VPN-ből érhetők el a virtuális gépek Különböző route-map szabályok 21

Összefoglalás Rengeteg jelenlegi és jövőbeni fejlesztési feladat Beküldött patchek, fejlesztések az Opennebula számára Sok gond a hálózati konfigurációval Teljesítmény problémák, sokszori átkábelezés Opennebula alapú felhő VO kezelés saját fejlesztés, de megosztjuk a 3.8 bevezetése után a közösséggel Számos diszk alrendszer teszt Shared lvm, cgroups, live migráció Diplomamunka és féléves feladatok Az alfa szolgáltatás 2012.10.24-én elindult A projektről bővebben : http://cloud.sztaki.hu/ 22

Kérdések? 23

Köszönöm a figyelmet! ormos.pal@sztaki.mta.hu