Artikel top billede

(Foto: Dan Jensen)

Det intelligente disk array

Klumme: Min påstand er, at alle kan lave et velfungerende disk array. Men alle kan ikke lave et disk array, der er intelligent. Og dette i et effektivt miljø.

Denne klumme er et debatindlæg og er alene udtryk for skribentens synspunkter.

Lad os lige begynde med at definere intelligens: For når mange tænker på AI/KI (Artificial Intelligence eller kunstig intelligens), så betyder det ikke nødvendigvis kunstig høj intelligens – det betyder blot, at et givent system kan tage beslutninger autonomt.

Intelligens er kun en målemetode. En målemetode som man traditionelt har anvendt til at måle naturlig intelligens. Og ligesom mennesker varierer i intelligens, så varierer computere også.

Og lad os så definere, hvad kunstig intelligens er: Kunstig intelligens (KI) er basalt set den datalogiske disciplin, der går ud på at få computere til at tænke som mennesker. Nogle gange kan computere være meget intelligente (stærk KI) og nogle gange er de knap så intelligente (svag KI).

Nogle mener sågar, at vi i dag kun har svag KI (weak AI) og at vi er mindst 10 år væk fra såkaldt stærk KI (strong AI).

Jf. den danske markedsføringslov, så er det ikke ulovligt at lovprise sit produkt.

Det ligger således alle producenter frit for, at kalde sin teknologi – i dette tilfælde et disk array – for intelligent. Der er dermed en meget stor frihedsgrad, når man vælger at kalde sit disk array for ”intelligent”.

Så hvad er bare semantik og marketing og hvad er ”actual deliverables”. Lad mig begynde med at sammenligne med det for de fleste velkendte GPS (Global Positioning System)

- I min første bil, der lå der et gammeldags Kraks-kort-

- 10 år senere fik jeg min første GPS. Denne var et klumpet apparat med kort batterilevetid og et statisk kort, der gjorde, at GPS’en ikke tog højde for vejarbejde, køer etc.

- I dag anvender jeg min smartphone med Google Maps. Denne tager højde for vejarbejde, køer etc. og kan således dynamisk ændre rute og estimere den tid, hvor jeg er fremme.

Når man ser på dagens disk arrays, så får alle producenter deres komponenter fra de samme leverandører. Alle producenters disk arrays er således baseret på de samme CPU’er, diske, interconnects osv. Det, der gør forskellen, er den software og mikrokode, som de respektive producenter laver selv.

Sammenligner man med det, vi havde, så ser historikken således ud:

- For en del år siden, så havde alle producenter det, som jeg vil kalde for basal storage teknologi. Teknologien var baseret på RAID (Redundant Array of Inexpensive Disks, som i øvrigt er fra 1988), JBOD’s (Just a Bunch of Disks), Zoning, SAN osv.

- Sidenhen fik vi mere avanceret storage teknologi, der tog højde for workloads etc.

- Og i dag har vi de såkaldte intelligente disk arrays.

Intelligens i forbindelse med disk arrays handler – i min verden – om, at absorberere information, tænke over den indsamlede information, tage stilling til denne information, udføre en eller flere handlinger og frem for alt – lære noget af hændelsen.

Og samtidig med det, så skal de indsamlede erfaringer deles med alle andre disk arrays. Det er det man kalder ”See Once” og dermed kan man forhindre, at en lignende situation opstår for alle andre.

Hvorfor er det vigtigt?

Det er alt sammen meget fint, men hvorfor er det vigtigt?

Det er vigtigt fordi, at man i en moderne verden har behov for automatisering af opgaver. Og for dermed at kunne minimere den tid en storage-administrator bruger på netop at administrere storage.

Dels er der brug for en teknologi, der autonomt kan varetage de opgaver, der før var manuelle. Dels er der brug for at udføre disse på en optimal måde. Og selv om det måske er upopulært at sige, så er computere i mange tilfælde, bedre og hurtigere til at træffe beslutninger, end mennesker.

For at vende tilbage til Google Maps, så skal man forestille sig, at ens disk array er koblet op til verdens største database for infrastruktur. Det giver muligheden for, at kunne forudse problemer før de opstår.

Dette kunne for eksempel være nedgang i performance eller i værste tilfælde et decideret produktionsstop.

Informationen er med andre ord ”crowd-sourced” fra andre disk arrays og infrastrukturer. Præcis som i Googles tilfælde, hvor data er virksomhedens største aktiv. Informationen er selvfølgelig anonymiseret.

Der er også nogle klassiske faldgruber, når man vælger et disk array.

Den største af disse er, at mange glemmer at tage et holistisk syn på hele miljøet.

For eksempel når det kommer til NVMe-teknologi. NVMe (Non-Volatile Memory Express) er en protokol. Men hvor de gamle SCSI og SAS protokoller var udviklet til at håndtere almindelige (og langsomme) harddiske, så er NVMe-protokollen udviklet til at håndtere hurtig – og samtidig - kommunikation.

Den nye protokol kan således håndtere massiv parallelitet og mange request. Faktisk op til 64.000 requests sammenlignet med 32 requests i den gamle SCSI protokol.

Men det er bare ikke nok, at have et disk array der understøtter NVMe protokollen. Hele din kæde (dine servere, din fabric, dit disk array og disk array’ets back end) skal understøtte NVMe. Hvis ikke alle dele af kæden understøtte NVMe, så giver NVMe ikke de store fordele.

Uanset hvad, så kan det godt betale sig, at bruge lidt tid på at undersøge mulighederne. Og det kan med garanti betale sig, at fokusere på så autonomt et miljø, som overhovedet muligt.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.