Geektrip til Hamburg for å ta og føle på hardware...

Reisebrev fra HP-CAST og ISC’10 i Hamburg.

Kort rapport om inntrykkene fra HP-CAST 14 og ISC’10.

HP-CAST er en organisasjon for HP kunder som har kjøpt store systemer for tekniske anvendelser, les HPC. Medlemsskap er gratis (siden du alt har brukt mye penger på HP-utstyr). HP-CAST møtene pleier å bli avholdt rett før ISC i Europa og SC i USA.

ISC er den europeiske versjonen av Supercomputing. Med ca. 2000 deltakere er den på en litt mindre skala enn SC som har hatt 10000 deltakere.

Oppsummering HP-CAST 28-29 mai 2010.

Endel nytt på serverfronten, mantraet er forenkling, forenkling, forenkling. HP kommer med videreutviklede serverplatformer der fokus er på Cloud kunder som vil ha billigst mulig maskiner som kan pakkes så tett som mulig. Cloud kunder er ikke interessert i avansert funksjonalitet og masse redundans, de vil kun ha enkel strømstyring og lavest mulig strømforbruk. HP har en hel serie produkter for dette markedet, SL-serien, der de har kuttet ned på alt unødvendig, f.eks. inneholder serverkassene mindre metall enn i DL og BL serien. Dette er en servertype som også passer godt for HPC, spesielt SL 6000 der man kan få 4 servere i 2U. Det ble også vist kommende typer under NDA så det kan jeg ikke gå inn på her.

Det ble også annonsert at HP har fått DataDirect Networks som partner. Det lover godt for vår videre bruk av Lustre som filsystem på Stallo, da vi da har flere leverandører som har supportsystem i Norge (HP og Oracle). DDN er spesialist på STORE lagringsløsninger, Jaguar ved Oak Rigde har f.eks. et Lustre filsystem basert på DDN på 240PB.

Ellers var det stort sett som forventet på teknologifronten, AMD og Intel kommer med flere cores istedet for mer GHz, NVIDIA mener at de kjører skjorta av begge to osv…

En av de viktigste grunnene til å besøke HP-CAST er Large System Sig. Der sitter representanter fra de store sitene og presenterer det de mener er de største problemene som HP bør ta tak i. Det har vist seg å være meget nyttig.

HP-CAST kjennetegnes av et tettpakket program, to dager med foredrag fra 0800 til 1830, pheew… Jeg traff i tillegg endel andre siter som bruker Rocks så det ble diskusjon om Linux-klynger uti de sene nattetimer.

ISC’10 30. mai – 3. juni

ISC ble avholdt for 25 gang og feiret seg selv, ny deltakerrekord med 1998 påmeldte ble det også. Det kunne vært flere hvis det ikke hadde kollidert med en fridag i Tyskland (Torsdag 3 juni). ISC har på samme måte som SuperComputing tre deler, tutorials, vitenskapelige presentasjoner og en kommersiell utstilling kombinert leverandørpresentasjoner. Det som oftest er mest interessant for undertegnede er tutorialene og å snakke med leverandørene, de vitenskapelige presentasjonene blir ofte litt for smale til at jeg synes det er verdt å prioritere dem.

Nyheter:

  • INTEL Knights Ferry
  • INTEL tar opp kampen med NVIDIA i akselleratormarkedet. Knights Ferry er INTELs forsøk på å få et produkt basert på Larabee satsingen sin som ble skrinlagt som grafikkortprodukt i desember 2009. Hovedfokus er nå HPC og tekniske beregninger, om de klarer å ta en bit av Nvidias marked gjenstår å se. Hovedfordelen med Larabee er at den består av INTEL cores med x86 instruksjonssettet så den bør være ganske enkel å skrive apps for. Kortet vil innehold 50+ cores så det bør være mye parallellitet for at det skal lønne seg å bruke dette kortet. Vi var flere rundt bordet i lunsjen etter annonseringen som så åpenbare muligheter her til å bruke kortet til å speede opp transkoding av video, merkelig hvordan alle ser ut til å slite med de samme problemene…

  • Infiniband
  • 40Gb/s (QDR) er nå standard fra alle leverandørene, roadmap peker mod 80GB/s (EDR) og 120GB/s (FDR) 2011. Voltaire og Mellanox bygger inn intelligens i switchene og nettkortene for å få globale mpi-operasjoner til å gå raskere (MPI_Reduce, MPI_Allgather osv). Qlogic satser istedet på å gjøre kortene og switchene så enkle og raske som mulig. Fra et praktisk synspunkt har jeg sans for Qlogics tankemåte fordi det er åpenbare problemer med å satse på at applikasjonene og nettverket skal forstå hverandre. Qlogic demonstrerte 25 millioner pakker per sekund på en 8 cores Nehalem boks, impressive…

  • 10 GB/s ethernet
  • En av hovedgrunnene for å dra til Hamburg var å få mer informasjon om hva som skjer på 10 gig ethernetfronten. Nye standarder som iWarp og ikke minst RoCe ser meget lovende ut. Med RoCe (uttales Rocky hvis du vil gi inntrykk av at du har peiling) kan man oppnå 2 mikrosekund latens mellom to noder noe som er on-par med det vi har på infiniband-nettet på Stallo i dag. RoCe krever støtte for DCE i switchene pluss at de selvfølgelig har ekstremt lav port-til-port latens. Det er lansert 10-gig switches med disse egenskapene, spesielt Arista Networks og Gnodal (ex Quadrics, RIP) ser interessante ut. Gnodal har ikke sluppet noe produkt, men de sa at det vil komme Q3 2010. I privat samtale viste de specs og ytelsestall som så veldig bra ut, men vi får se når de kommer ut med et produkt. Arista derimot, har hatt produkter ute et par år nå og har meritter å vise til. De har demonstrert 600 nanosekund switching fabric på sin 24ports switch og har nå ute en 384 ports modulær switch som ser meget solid ut. Når nå de fleste serverne kommer med 10 gig ethernet integrert på hovedkortet vil plutselig 10 gig være gratis på samme måte som 1 gig ethernet er det i dag. Da spørs det om et infiniband nettverk vil være verdt prisen hvis RoCe holder det den lover. Det som drar i retning av fortsatt satsing på infiniband er man vil ha mer enn 30 cpucores per node i nær fremtid og det vil sette enorme krav til at nettkortet klarer å svelge unna trafikken de generer for applikasjoner som skalerer ut av en node. “Only benchmarks will know…”

    Mellanox og Voltaire har også tilbud på 10gig ethernet switcher (som også er infiniband switcher), men hvis man allikavel kjøper i den prisklassen ser jeg ikke noe poeng i å kaste ut ankeret for å kjøre ethernet…

  • Eurotech Aurora
  • Aurora
    Uten sidestykke den kuleste regnemaskinen jeg har sett siden Cray-1. “Linux clusters meet italian design.” Spøk til side, når man så under den utrolig sexy overflaten var det en meget veldesignet arkitektur med vannkjølte blades. Hele systemet er bygd opp med standard INTEL arkitektur, men de har laget sine egne hovedkort der de har tatt bort DIMM-slotene og heller satt minnet integrert i hovedkortet. De får da et ekstremt lavt hovedkort som de legger mot en vannkjølt aluminumsplate. Hvert rack har både front og bak mating så de får plass til 16×16 servere med en total ytelse på 24TF/s per rack. Hvis vi ser bort fra takhøyde og andre kjedelige detaljer ville Stallo fått plass i 2.5 racks. Hvert rack hadde sin egen infiniband switch pluss en spesialbygd 3D-torus interconnect. De hadde ikke drivere til denne, det fikk kundene fikse selv, jeg kan ikke annet enn si at jeg likte holdningen.

Åja, så ble den nye Top500 lista presentert, det var like kjedelig og uinteressant som det pleier på være. En meningsløs måling av ytelse. Norge har fortsatt to maskiner på lista, litt overraskende at Stallo fortsatt er med. Vi får skylde på den økonomiske krisa som har bremset innkjøpet av antall nye monstermaskiner. Kina kommer for fullt innen HPC, de vil nok snart ta tronen fra USA hvis de ikke skjerper seg.

Hamburg er en trivelig by, minner litt om Bergen både mhp. vær og arkitektur.

Leave a Reply

Your email address will not be published. Required fields are marked *