Ny teknologi feier gjennom enorme datamengder og kommer med resultatene mens utviklingen pågår.
Glem gigabyte.
I nye servere som skal betjene siste skrik i databaseteknologi er det terabyte som gjelder.
Ved å dytte hele databasen i RAM går ting fryktelig mye raskere. Det som før tok timer tar minutter. Forskjellen på å hente informasjon fra RAM i stedet for disk er enorm.
Les også:
In memory computing
In memory computing som det kalles er en av de store trendene innen IT, og vi kommer til å se resultater på mange hold de neste årene.
Problemet stadig flere sliter med, er at mengdene data de samler inn øker voldsomt. Det er ikke bare folk som taster inn bokstaver og tall. Data kommer fra nettet, fra alle mulige sensorer og en rekke andre kilder.
I den voksende høystakken vokser også verdien av informasjonen som kan hentes ut. Problemet er at det tar så forbasket lang tid å riste den ut med tradisjonelle dataverktøy. Og innen den kommer kan den ha mistet verdi.
Les også: Dette risikerer du ved å lagre filer i nettskyen
Fire terabyte
I samarbeid med SAP lanserer nå Dell en ny server som er skreddersydd til SAPs HANA database.
Den er skrevet spesielt for å holde alle dataene i RAM, altså på selve Formel 1- banen i serveren. Da trengs det plass.
Den nye serveren som er basert på en Dell PowerEdge R910 kommer i tre versjoner. Med en, to eller fire terabyte RAM. Og hvis det ikke er nok kan man koble sammen flere av dem.
Det tror Dell og SAP skal gjøre susen for alle som vil få fart på datakverna. Nå er det slutt på ventetiden for de som driver med analyse, planlegging og alle slags komplekse målinger som er basert på sammenstilling av enorme datamengder.
Resultatene skal på bordet så fort at man kan reagere på dem mens utviklingen er i gang.
Les også:
Se Googles hemmelige datasentre
Dette endrer hele IT-landskapet