Ingen annen teknologi har så stort potensial for å redusere IT-kostnadene til næringslivet som grid-teknologien. Det tror Joseph Reger som er teknologi- og strategidirektør Fujitsu Siemens.
- Alle snakker om utsetting av tjenester og "utility computing". Det er ikke dermed sagt at det blir så mye billigere av den grunn, selv om poenget er at du bare skal betale for den datakraften du bruker, sier Reger. Utfordringen er å produsere billige tjenester, og det tror jeg grid-teknologien kan tilby.
Europeisk start
Akkurat som World Wide Web ble grid-teknologien oppfunnet på det felleseuropeiske forskningsinstituttet Cern. Eksperimentene innen partikkelfysikk førte med seg et enormt behov for datakraft. For å gjøre dette så billig som mulig utviklet Cern-forskerne teknologi for å få mange datamaskiner til dele på beregningsoppgaven.
"Grid computing" har ikke fått noen konsistent norsk oversettelse, men "powergrid" er et ord som ofte brukes om kraftnettet, og det har smittet over på denne datateknologien. Det logiske ville være å oversette grid til nettverk, men det ordet er allerede brukt og vel definert i det norske IT-vokabularet. Poenget med grid brukt innen databehandling betyr at ulike datasystemer kobles sammen på en eller annen måte for å skape mye større datakraft.
Til nå er grid computing stort sett brukt til vitenskapelig databehandling, men det arbeides med å utvikle teknologi og standarder slik at metoden også kan anvendes på andre områder.
Grid for næringslivet
Oracle har gått i spissen for å kommersialisere grid-teknologi for bruk i kommersiell databehandling. Sammen med Fujitsu Siemens og noen andre store IT-selskaper har de tatt initiativ til organisasjonen EGA - Enterprise Grid Alliance.
- Selv om det er en del tilsynelatende likheter mellom en dataklynge (cluster) og et grid, er det også viktige forskjeller, sier Reger. En dataklynge er et antall datamaskiner som er koblet sammen for å øke ytelsen. Alle maskinene er underlagt en felles eier og administrasjon. I et grid, derimot, kan en datamaskin, eller dataklynge låne ut kapasitet til oppgavekjøring for andre datamaskiner, som eies og administreres av andre. Slike oppgaver er også tidsbegrenset slik at datakraft kan tilbys i perioder med lav belastning og avbrytes når belastningen fra lokale oppgaver øker.
Å kunne flytte oppgaver rundt til maskiner med lavere belastning er hemmeligheten som skal gi lavere priser. Reger peker på at det er omtrent som når områder med høyt behov for elektrisitet kjøper rimelig strøm fra andre områder hvor prisen er lavere.
Tar tid
Det er langt igjen før grid computing fremstår i all sin prakt og dataressurser kan deles mellom land og kanskje verdensdeler.
- Selv om mange er mye mer optimistiske, tror jeg det tar ti år før vi kan dele dataressurser mellom Europa og Amerika, sier Reger. - Det arbeidet vi gjør nå, vil resultere i at vi kan se de første verktøyene på markedet i begynnelsen av 2006, men de vil bare fungere for å fordele belastningen innen et enkelt skap med servere. Senere vil dette utvikle seg til å fordele belastning innen samme datasenter og så til forskjellige datasentre innen samme bedrift. Jeg tror ikke vi ser ressursfordeling ut over dette nivået før rundt 2008.
Reger er også skeptisk til at grid-teknologien vil gjøre at vi kan nærme oss 100 prosent utnyttelse av dataressurser.
- Bedre utnyttelse er selvfølgelig en viktig årsak til at vi jobber med dette, men potensialet er nok heller å øke utnyttelsen fra 20 prosent, som er vanlig i dag til 40 prosent, sier han. Det vil fremdeles være oppgaver som ikke kan splittes opp og fordeles på ulike maskiner, og det er ikke alle oppgaver som man ønsker å sende ut av selskapet for delberegning. Både lovverk og hensyn til datasikkerhet vil gjøre at dette er en teknologi som har et viktig, men begrenset anvendelsesområde. En annen ting er også hva programvareprodusentene kommer til å si. En dobling av effektiviteten betyr i praksis at de vil få redusert lisensinntektene til det halve.