Her er Danmarks fem bedste CIO’er lige nu:Se de fem nominerede til prisen som Årets CIO 2024

Artikel top billede

(Foto: JumpStory)

Generativ AI: Ven eller fjende i sikkerhedsafdelingen?

Klumme: Hvis trusselaktørerne bruger teknologien til deres fordel, bør sikkerhedsteams gøre det samme. Ved at udnytte ChatGPT til at fremskynde og automatisere specifikke opgaver vil analytikere have mere tid til at bevæge sig ud af detaljerne og fokusere deres indsats på opgaver med højere værdi.

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

ChatGPT har skabt enormt stor opmærksomhed om generativ kunstig intelligens (AI), og er den hurtigst voksende forbrugerapplikation nogensinde, siden den nåede 100 millioner brugere i januar 2023. Blot tre måneder efter lanceringen i november 2022.

Teknologien bag ChatGPT kan optimere processer og omdanne store mængder data til meningsfuld og kortfattet information, og det har skabt debat om, hvad generativ AI kan bruges til.

Her er cybersikkerhed ingen undtagelse. På få måneder er der opstået alvorlige bekymringer for, hvordan cyberkriminelle kan udnytte platformen og dens funktioner til at begå forbrydelser.

Europol har advaret om slagsiden ved ChatGPT i en rapport, som fremhæver, at generativ AI kan bruges til at forbedre phishing-forsøg og producere ondsindet kode.

Nogle sikkerhedsleverandører har testet det noget kriminelle potentiale. For eksempel har vi brugt ChatGPT til at producere en phishing-e-mail med et vedhæftet Excel-ark med ondsindet kode, som downloader en reverse shell.

Den største bekymring er, at AI-tjenesterne gør det lettere for cyberkriminelle at udvikle kampagner, fordi de sænker barriererne for mindre sofistikerede aktører.

Det er dog ikke helt nyt – phishing-as-a-service (PhaaS)- og ransomware-as-a-service (RaaS)-udbydere har længe solgt værktøjer, der giver mindre sofistikerede aktører mulighed for at udføre angreb.

Men fordi ChatGPT er en åben og frit tilgængelig platform kan den være med til at forværre problemet. Og ifølge en rapport fra New Scientist kan cyberkriminelle grupper sænke deres omkostningerne med op til 96 procent med teknologien.

Kan ChatGPT forbedre sikkerhed?

Der er selvfølgelig to sider af sagen. Ligesom trusselaktører kan bruge generativ AI til deres lyssky formål, kan sikkerhedsteams også udnytte teknologiens muligheder til at optimere deres egen drift.

ChatGPT kan integreres med forskellige sikkerhedsværktøjer og åbne for en række effektiviseringsmuligheder. Her er fire måder sikkerhedsteams kan bruge ChatGPT på. I praksis skal man selvfølgelig aldrig lægge forretningshemmeligheder eller sensitiv information i generative AI-tjenester, men man kan altid eksperimentere med potentialet.

1. Spar tid på rapportering af sikkerhedshændelser

Som tidligere nævnt ligger teknologiens styrke i, at den kan omdanne store mængder data til forståelig, meningsfuld og kortfattet information.

Generativ AI kan for eksempel integreres med en SOAR-løsning (Security Automation Orchestration and Response), der automatiserer efterforskning og håndtering af sikkerhedshændelser via såkaldte playbooks.

I tilfælde af et sikkerhedsbrud, kan en playbook automatisk give ChatGPT information om, hvad der er sket og hvor alvorligt det er, så den kan producere et udkast til en fyldestgørende rapport om hændelsen, hvilket er lovpligtigt i Danmark.

Sikkerhedsløsninger samler generelt store mængder data, og i tilfælde af et angreb skal et sikkerhedsteam bruge en masse tid på at analysere data og trusselsefterretninger for at udarbejde en responsplan.

De tidskrævende processer kan forsinke Mean Time to Response (MTTR). Generativ AI i kombination med andre automatiseringsteknologier kan reducere MTTR markant, fordi det giver mulighed for at konsolidere data fra flere kilder, både internt og eksternt, og producere omfattende rapporter på minutter eller timer, i stedet for dage eller uger.

Sikkerhedseksperter er selvfølgelig nødt til at kontrollere og godkende rapporterne, inden de deler dem videre. Men med generativ AI kan de spare meget af den tid, som de ellers ville bruge på rapportering, og i stedet fokusere på mere værdiskabende opgaver.

2. Bedre forståelse på bestyrelses- og ledelsesniveau

I dag efterspørger bestyrelser og ledelser information om, hvordan organisationens cybersikkerhed står på mål med trusselsniveauet.

Det tvinger CISO’en eller CSO’en til at fokusere mindre på compliance og mere på at indhente forståelige data. Derfor har de brug for adgang til et kontrolpanel, der giver det fulde overblik over den digitale virksomhed i forhold til cybertrusler.

En sikkerhedsekspert – eller en playbook – kan dele en teknisk rapport om sikkerhedsniveauet med en AI-tjeneste, som så sammenfatter en letlæselig oversigt til ledelsen over de vigtigste resultater og anbefalinger til at afhjælpe eventuelle problemer.

Igen skal CISO’en sørge for at kvalitetstjekke alt, som tjenesterne producerer, men det giver vedkommende mulighed for at konsolidere processer og bygge bro mellem sikkerhedseksperter og bestyrelse og ledelse.

3. MSSP’er kan også drage nytte af generativ AI

Generativ AI kan også komme MSSP’er (Managed Security Service Providers) til gode.

Deres kunder er interesserede i at forstå konsekvenserne af et eventuelt sikkerhedsbrud og stole på, at der bliver reageret så hurtigt som muligt.

Med ChatGPT og lignende værktøjer kan MSSP’er bruge den tid, de tidligere har brugt på at indsamle data og beviser med henblik på at analysere og håndtere sikkerhedshændelser til i stedet at rådgive om, hvordan kunder hurtigst muligt kan afhjælpe eventuelle problemer.

MSSP’er vil gerne udnytte automatisering så meget som muligt for at effektivisere driften – både for at betjene flere kunder og levere mere effektive sikkerhedsløsninger.

Generativ AI tilbyder i særdeleshed potentiale i den henseende på linje med andre automatiseringsløsninger som Security Automation Orchestration and Response og User Entity and Behavioral Analytics.

4. Troværdig security awareness-træning

ChatGPT kan også bruges til automatisere awareness-kampagner.

Vores eksempel viser, at ChatGPT kan skabe troværdige phishing-e-mails, og det kan sikkerhedsteamet faktisk også bruge til deres fordel.

De kan nemlig simulere et troværdigt phishing-angreb ved at få en AI-tjeneste til at skrive e-mails automatisk og bruge en playbook til at udtrække relevant data fra LinkedIn og andre datakilder.

De kan også måle på, hvor mange der falder i, og hvor mange der alarmerer sikkerhedsteamet.

ChatGPT kan således øge bevidstheden om phishing og hjælpe med at identificere, hvor der måske er problemer, der skal håndteres.

Kapløbet mellem forsvar og angreb

Generativ AI udgør en række risici, men teknologien har også potentiale.

Uanset hvad er teknologien kommet for at blive. Derfor er det vigtigt, at sikkerhedsteams aktivt undersøger, hvordan de kan udnytte den til at nedbringe risici.

Det er afgørende at holde sig opdateret om teknologisk innovation og nye tendenser, hvis man skal have en chance for at forbedre driften af cybersikkerhed og stå på mål mod trusselsaktørernes fremskridt.

Derfor bør man ikke ignorere ChatGPT.

Hvis trusselaktørerne bruger teknologien til deres fordel, bør sikkerhedsteams gøre det samme.

Ved at udnytte ChatGPT til at fremskynde og automatisere specifikke opgaver vil analytikere have mere tid, bevæge sig ud af detaljerne og fokusere deres indsats på opgaver med højere værdi.

På denne måde ser generativ AI som ChatGPT ud til at være en dramatisk drejning på begge sider.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.