Polskie superkomputery - Witamy na stronach projektu PL-Grid
Transkrypt
Polskie superkomputery - Witamy na stronach projektu PL-Grid
IDG - Polskie superkomputery Strona 1 z 3 IDG.PL Polskie superkomputery Computerworld wersja do wydruku |strona główna | wersja oryginalna| Polskie centra superkomputerowe prowadzą lub planują rozbudowę posiadanej infrastruktury. Część stawia na technologię klastrową, część zamierza inwestować w architektury hybrydowe. Rosnąca moc obliczeniowa ma pozwolić na większą konkurencyjność polskiej nauki na arenie międzynarodowej. Historia polskich superkomputerów notowanych na liście największych na świecie maszyn TOP 500 rozpoczyna się w 1994 r., kiedy w Poznańskim Centrum Superkomputerowo-Sieciowym (PCSS) zainstalowany został SGI Power Challenge XL. Superkomputer pojawił się na 486 pozycji rankingu TOP 500 06/1995 z wynikiem 1,96 GFlops. PCSS znalazł się na liście ponownie po udostępnieniu kolejnego komputera IBM SP2 i zwiększeniu mocy do 3,39 GFlops (490. miejsce). "Dynamika tej listy jest na tyle duża, że przy konfiguracjach, jakimi dysponujemy, można utrzymać się na niej maksymalnie przez pół roku" - mówi dr inż. Norbert Meyer, kierujący działem Komputerów Dużej Mocy w PCSS. Obecnie w skład wykorzystywanej w PCSS infrastruktury superkomputerowej wchodzą klastry z setkami procesorów kilkuset procesorach Xeon, Itanium oraz Opteron, a dodatkowo PCSS ma maszyny SMP (Symmetric Multiprocessing) w konfiguracji 100 procesorów SGI Origin3800 i 128 procesorów SGI Altix. "W 2006 r. udostępniliśmy ok. 3,6 mln godzin czasu procesora, co daje 410 lat obliczeń na komputerze PC wyposażonym w bardzo dobry procesor. Technologii jest wiele. Nie mamy w PCSS jednej wybranej. Ponieważ na dziś nie ma wzorcowej technologii, a jej wybór zależy od zastosowań. Stąd też dla mniejszych zadań wybieramy rozwiązania klastrowe, a dla większych maszyny SMP" - mówi Norbert Meyer. Andrzej Oziębło, administrator Komputerów Dużej Mocy w Cyfronecie Rozwiązanie typu SMP jest pod wieloma względami lepsze i łatwiejsze w zarządzaniu - całość widziana jest jako jeden komputer - ale też dużo droższe w zakupie i konserwacji. Poznańskie Centrum Superkomputerowo-Sieciowe oczekuje jeszcze w 2007 r. kolejnych 400 rdzeni procesorów Xeon, które uzupełniają istniejącą infrastrukturę. Dodatkowo powiększy się pojemność pamięci masowych, osiągając ponad 400 TB. Trójmiejska Galera Bartosz Pliszkaz, Centrum Informatycznego Trójmiejskiej Akademickiej Sieci Komputerowej Musimy pamiętać, że klaster jest wykorzystywany przez kilkadziesiąt różnych aplikacji, często bardzo wyspecjalizowa-nych. Trzeba zatem dbać, aby te aplikacje na takim klastrze działały. Platforma Intel w połączeniu z systemem Linux jest pod tym względem bezkonkurencyjna większość aplikacji naukowych jest dostępna właśnie na tę platformę. Z kolei w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej pracuje klaster o nazwie Holk. Składa się z 288 procesorów Itanium2 DualCore. CI TASK oczekuje obecnie na dostawę Galery - nowego klastra składającego się z 336 serwerów. W każdym z nich znajdą się dwie płyty główne, a na nich po dwa procesory Xeon QuadCore. W sumie będzie to 1344 procesory czterordzeniowe, czyli 5376 rdzeni obliczeniowych. Teoretyczna moc obliczeniowa to ponad 50 TFlopsów. Nowa Galera jest trzecim klastrem po Holku i pierwszej Galerze z 2000 r. budowanym przez TASK. Wszystkie powstały we współpracy z Intelem. "W wyborze technologii kierujemy się oczywiście maksymalizacją mocy obliczeniowej przy minimalnych kosztach zakupu" - mówi Bartosz Pliszka, administrator Kompututerów Dużej Mocy w CI TASK. "Musimy jednak pamiętać, że klaster jest wykorzystywany przez kilkadziesiąt różnych aplikacji, często bardzo wyspecjalizowanych. Trzeba zatem dbać, aby te aplikacje na takim klastrze działały. Platforma Intel w połączeniu z systemem Linux jest pod tym względem bezkonkurencyjna - większość aplikacji naukowych jest dostępna właśnie na tę platformę" - dodaje. Z uruchomieniem Galery CI TASK czeka na zakończenie budowy nowej siedziby, także na potrzeby centrum danych. Po jej zakończeniu Wasko i http://www.idg.pl/cgi-bin/print.asp prof. Marek Niezgódka, dyrektor 2007-listopada-24 IDG - Polskie superkomputery Action - dostawcy sprzętu - rozpoczną realizację dostaw. Klaster powinien być oddany do użytku w połowie grudnia. Już dziś wiadomo, że czeka go rozbudowa. "Najprawdopodobniej zostanie zwiększona pamięć operacyjna, przynajmniej w części węzłów. Do tak dużego klastra będziemy też chcieli zbudować wydajny, rozproszony system plików, ponieważ serwer plików, którym teraz dysponujemy, ma ograniczone możliwości, zarówno jeśli chodzi o pojemność, jak i przepustowość. Według naszej wiedzy klaster Holk, którym dysponujemy obecnie, jest największym serwerem obliczeniowym w Polsce stosowanym do celów naukowych. W 2003 r., gdy został uruchomiony, znalazł się na 237. miejscu listy TOP 500. Nowa Galera nie zdąży trafić na tegoroczną listę, ale szacujemy, że znalazłaby się w pierwszej setce" - uważa Bartosz Pliszka. Wielkie moce pod Wawelem Strona 2 z 3 Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego Benchmarking dużych systemów obliczeniowych stał się nową dziedziną informatyki. Poszukuje się wskaźników, które mogą wyrazić sprawność maszyn przy wykorzystaniu różnorodnych kryteriów. Jednym z ważniejszych jest współpraca pamięci masowych z jednostkami obliczeniowymi superkomputera. W krakowskim Cyfronecie pracują dwa komputery typu SMP - SGI (Silicon Graphics) Altix 3700 i Altix 4700, oparte na procesorach Intel Itanium 2, to moc superkomputera SGI taktowane zegarem 1,5 GHz i 1,6 GHz. Model 3700 posiada 128 Power Challenge XL, który pojawił się w Poznańskim procesorów, a Altix 4700 - 32 procesory. "4700 ma nowocześniejszą Centrum architekturę typu blade, ale podobną funkcjonalność i wydajność. Superkomputerowo-Dodajmy, że rozwiązanie SMP jest pod wieloma względami lepsze i Sieciowym w 1994 r. łatwiejsze w zarządzaniu - całość widziana jest jako jeden komputer - ale też dużo droższe w zakupie i konserwacji. Wszystkie komputery podpięte są szybkimi łączami FC do systemu macierzy dyskowych i taśmowych. Obecnie to ok. 200 TB" - mówi Andrzej Oziębło, administrator Komputerów Dużej Mocy w Cyfronecie. 1,96 Gflops Dlaczego Cyfronet postawił na SMP? "Rozwiązanie oferowane przez SGI powszechnie uważa się za najlepsze na świecie. Rozważaliśmy także HP Superdome, ale okazało się zbyt drogie. Odrzuciliśmy też IBM BlueGene jako system zbyt mało uniwersalny. W przypadku klastrów początkowo bazowaliśmy na typowych rozwiązaniach 1U. Później zdecydowaliśmy się na droższe komputery kasetowe, bo są oszczędniejsze, zajmują mniej miejsca i są łatwiejsze w zarządzaniu. Większość z nich działa na potrzeby międzynarodowego projektu Enabling Grids for E-sciencE - EGEE i jest oparta na klasycznych klastrach typu 1U" - mówi Andrzej Oziębło. Cyfronet nabył ostatnio dwa klastry kasetowe IBM zawierające po 56 węzłów z dwoma czterordzeniowymi procesorami Intel Xeon każdy. W klastrach zastosowano połączenie Gigabit Ethernet lub 10Gigabit Ethernet. "Ze względu na koszty prawdopodobnie ograniczymy rozbudowę komputerów typu SMP, choć być może zmodernizujemy SGI Altix 4700 do 128 lub 256 procesorów. W klastrach planujemy oprzeć się na rozwiązaniu kasetowym" - mówi Andrzej Oziębło. Cyfronet stara się o kilka dodatkowych grantów i - zależnie od uzyskanych środków - zamierza kupić kilka lub nawet kilkanaście kolejnych szaf kasetowych i rozszerzyć zasoby macierzy dyskowych. Nova w WCSS We Wrocławskim Centrum Sieciowo-Superkomputerowym pracuje klaster Nova, także włączony w struktury projektu EGEE. W jego skład wchodzą: węzeł dostępowy (nova), dwa węzły usługowe oraz 152 jednoprocesorowe, dwurdzeniowe węzły obliczeniowe (łącznie 304 rdzenie) wykorzystujące procesory Intel Xeon. Maszyny łączy sieć Gigabit Ethernet (wykorzystywane są przełączniki 3Com SuperStack 3870). "Wybór technologii był podyktowany stosunkiem wydajności do ceny" mówi dr Paweł Dziekoński, administrator Komputerów Dużej Mocy w to moc superkomputera Galera, budowanego w 2007 WCSS. Klaster ma obecnie moc obliczeniową 3 TFlopsów. Ośrodek ma już r. w Centrum plany rozbudowy. "Będzie ona polegać na zainstalowaniu nowych węzłów Informatycznym obliczeniowych i połączeniu ich szybką siecią Infiniband. Klaster będzie Trójmiejskiej Akademickiej posiadał łącznie ok. 1500 rdzeni, co pozwoli zwiększyć moc z obecnych 3 Sieci Komputerowej. TFlopsów do 16 Tflopsów, a nam znaleźć się na liście TOP 500" zapowiada Paweł Dziekoński. Jego zdaniem, przyszłość superkomputerów należy do gridów obliczeniowych, takich jak EGEE oraz oprogramowania, które pozwoli łączyć moc mniejszych komputerów. "Przyszłość należy do platform, które mają nie tylko wysoki stosunek wydajności do ceny, ale także wydajności do wymaganego zasilania i generowanego ciepła" - podsumowuje. 50000 Gflops Radykalne zmiany w ICM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego (ICM) działające przy Uniwersytecie Warszawskim przystępuje do procesu modernizacji, wykorzystując grant z funduszy http://www.idg.pl/cgi-bin/print.asp 2007-listopada-24 IDG - Polskie superkomputery Strona 3 z 3 strukturalnych (5,7 mln zł) na centrum analizy wielkoformatowych zespołów danych dla zastosowań gospodarczych (projekt LAMP-a). Termin realizacji to czerwiec 2008 r. Na razie ograniczeniem są lokalowe możliwości ośrodka, który znajduje się w siedzibie o powierzchni zaledwie 200 m kw. Obecnie UW, za ok. 300 mln zł, zamierza zbudować Centrum Nowych Technologii (CENT), w którym nowe centrum komputerowe będzie zajmować ok. 2500 m kw. "Nie możemy jednak czekać z pełną modernizacją do momentu sfinalizowania inwestycji budowlanej. Dlatego podejmujemy działania pośrednie, tzn. inwestujemy w modernizację istniejącego ośrodka. Około 200 m kw. na sprzęt to bardzo mało. Do tego dochodzi niebagatelny problem zużycia i oszczędności energii oraz chłodzenia. Przystępujemy do znaczącego zwiększenia możliwości obliczeniowych ICM, realizując koncepcję stworzenia hybrydowej architektury systemów pod kątem konkretnych typów obliczeń i przetwarzania danych oraz wchodzimy w petabajtową architekturę systemów przechowywania danych" - mówi prof. Marek Niezgódka, dyrektor ICM. Po uruchomieniu CENT moc obliczeniowa ICM zwiększy się radykalnie. W związku z hybrydową architekturą Centrum będzie zamawiało sprzęt u kilku dostawców. Podczas Supercomputing Conference 2007 prof. Marek Niezgódka ma ujawnić więcej szczegółów. Flopsy to nie wszystko Według prof. Marka Niezgódki, skończył się czas mierzenia możliwości przetwarzania we flopach na sekundę. "Benchmarking dużych systemów obliczeniowych stał się nową dziedziną informatyki. Poszukuje się wskaźników, które mogą wyrazić sprawność maszyn przy wykorzystaniu różnorodnych kryteriów. Jednym z ważniejszych jest współpraca pamięci masowych z jednostkami obliczeniowymi superkomputera. Flopsy staną się jedynie wskaźnikiem, który pomoże zobrazować moc komputera dla osób postronnych" - mówi Niezgódka. W opinii dyrektora ICM, przyszłość superkomputerów leży w architekturach hybrydowych, które realizować będą dekompozycję funkcjonalną obliczeń na moduły, do których odpowiednio optymalizowane są konfiguracje i architektury sprzętowe. "Mowa tu o wielordzeniowości i wielowątkowości z prawdziwego zdarzenia, które z kolei stanowią wyzwanie programistyczne konieczność opracowania odpowiednich środowisk do przeprowadzania obliczeń. Takie prace prowadzą np. IBM i Cray dla DARPA w ramach III etapu programu High Productivity Computing Systems. Efekty prac powinny pojawić się do 2010 r." - podsumowuje prof. Marek Niezgódka. Dla COMPUTERWORLD komentuje prof. Jan Węglarz, pełnomocnik dyrektora Instytutu Chemii Bioorganicznej PAN ds. Poznańskiego Centrum Superkomputerowo-Sieciowego Od czasu kiedy procesory Intela i AMD stały się na tyle efektywne, że mogły z powodzeniem konkurować z procesorami MIPS (SGI), SPARC (SUN) czy Power (IBM) - przy jednocześnie bardzo niskiej cenie - stało się jasne, że sytuacja musi ulec zmianie. I tak się stało. Większość firm zrezygnowała z produkcji własnych procesorów. Najciekawszym w całej sytuacji jest fakt, że najdroższe w całym cyklu życia procesora są badania, a nie produkcja. Jedną z pierwszych, jeżeli nie pierwszą maszyną Craya, która nie była wyposażona we własne procesory tej firmy, był Cray T3D, a później Cray T3E, oparty na procesorze Alpha. Później politykę taką przyjęło większość firm. Cray stosuje procesory AMD, a Silicon Graphics Intela. Każda z tych firm wykorzystuje procesory firm trzecich, dodając równocześnie własne rozwiązania sprawiające, że maszyny pracują dla małych i dużych aplikacji, począwszy od kilku procesorów, do ponad 1000, tworząc system z pamięcią współdzieloną. Inne procesory znikły z rynku, kiedy okazało się, że można je zastąpić podobnymi, a może nawet szybszymi, ale znacznie tańszymi. Andrzej Maciejewski wersja do wydruku |strona główna|wersja oryginalna| Serwis realizuje wytyczne ASME oraz uzupełnienia IDG dotyczące zasad publikacji w mediach elektronicznych. Korzystanie z serwisu IDG jest jednoznaczne z wyrażeniem zgody na następujące warunki obsługi. © copyright 2007 IDG Poland SA 04-204 Warszawa ul. Jordanowska 12 tel. (+48 22) 321 78 00 fax (+48 22) 321 78 88 http://www.idg.pl/cgi-bin/print.asp Kontakt 2007-listopada-24