Artikel top billede

(Foto: scyther5 / scyther5)

Det er sikkert som amen i kirken, at vi inden længe vil se den første bølge af intelligente angreb: Derfor bør vi alle frygte 'dark AI'

Klumme: Kunstig intelligens og machine learning er på vej til at blive så avanceret, at vi skal begynde at frygte for misbrug af teknologien – for en ondsindet kunstig intelligens kommer ikke til at følge de ”tre love” for AI.

Denne klumme er et debatindlæg og er alene udtryk for skribents synspunkter.

Imens verden inden for informationssikkerhed bliver mere og mere kompleks, bombarderes vi af ugentlige annonceringer af produkter og tjenester med machine learning (ML) og artificial intelligence fra hele branchen.

Og selvom det stadig summer med marketingsfloskler og skåltaler om guld og grønne skove omkring kunstig intelligens, så begynder vi nu at se egentlige fremskridt og produkter på markedet.

Vi har langsomt, men sikkert udviklet stadigt mere intelligente algoritmer, og der er eksempelvis allerede et stærkt ønske om at udvide evnerne inden for automatiserede løsninger, der selv kan opdage, monitorere og handle på sikkerhedstrusler (løsninger som går under fællesbetegnelsen SOAR, ”Security, Automation, Orchestration & Response”).

Kan blive et farligt våben

Det er teknologier, som i dag er stærke redskaber og til vores fælles fordel, men som inden længe kan blive et endnu farligere våben i hænderne på folk, der ønsker at gøre os ondt.

En af de mest komplicerede udfordringer med næste generation af automatiske sikkerhedsløsninger er at finde den rette balance mellem intelligens og forudsigelighed.

Det er sikkert som amen i kirken, at vi inden længe vil se den første bølge af intelligente angreb – hvad end det så bliver smart-phishing, selvforsynende og selvudvidende hive-nets eller swarmbots, der selv kan udføre angreb uden indblanding fra mennesker.

Eller hvad med agilt malware, der selv udvikler og tilpasser sig under et angreb?

Bremses i dag - men (nok) ikke imorgen

I dag bremses den mest visionære og avancerede forskning af kunstig intelligens hos whitehat-udviklerne af sociale overvejelser og etiske dilemmaer, men forvent ikke, at den slags vil stoppe morgendagens ondsindede hackere. Tværtimod.

At kunne bygge den mest effektive (og mest ødelæggende) kunstige intelligens har en højere prioritet end at overveje moralske aspekter eller langsigtede konsekvenser.

Dark AI vil ikke blive udviklet i et kontrolleret og lukket miljø, og udviklingen vil under ingen omstændigheder blive reguleret.

Ingen skal forvente, at ddark AI vil overholde de tre love for kunstig intelligens, som forfatteren Isaac Asimov blev kendt for i sin Foundation-serie.

Du tænker måske, at den digitale undergrundsverden ikke har evnerne til at udvikle de avancerede algoritmer, som kan bruges i ondsindet kunstig intelligens? Tro om igen.

Moderne malware og ransomware bliver ikke længere udviklet af små hackergrupper – hvor en enkelt udvikler ofte skulle skrive den samlede kode for malwarens eksekverende og skadelige funktioner.

Tusindvis af markedspladser

I dag ser vi tusindvis af markedspladser skjult på det mørke net, hvor du kan købe specialiserede brudstykker af kode eller shoppe direkte efter de seneste exploits, fuldstændig som du ville købe tøj, sko eller bøger med et tryk på musen.

Typisk ransomware består i dag af mange forskellige sammensatte elementer fra tredjepartudviklere sammen med open source-moduler, hvor hver enkelt er specialiseret i eksempelvis at kryptere/dekryptere, betalingsløsninger, kontrolstyring eller lignende.

At skrive komplekse algoritmer er ikke simpelt arbejde og kræver stadig særligt avancerede programmeringsevner, men det er kun et spørgsmål om tid (og penge), før nogen bygger et gør-det-selv-modul, som tillader andre ondsindede individer at samle AI-styret malware.

Det ser vi allerede i dag i forbindelse med ransomware, og store botnet bestående af hundrede tusindvis af inficerede maskiner og IoT-enheder vil fungere som regnekraft til næste generation af angreb.

Alle faser af ransomware-angreb

Realistisk set skal vi forvente at se algoritme- og AI- optimeringer i alle faser af ransomware-angreb, uanset om det er de tidligere stadier af rekognoscering og infektion eller i forbindelse med fjernstyring og kontrol, spredning eller afpresning.

Med truslen om modulære og intelligente malware- og ransomware-angreb er det på tide at rive din statiske sikkerhedsplan i stykker og implementere et adaptiv lag af kombinerede sikkerhedsløsninger.

Forsvarsværnet er nødt til at bremse eller bryde angreb på så mange stadier som muligt og på den måde undgå kompromittering.

I stedet for to store hære, der støder sammen på slagmarken i et enkelt stort slag, kommer vi i fremtiden til at se hybrid krigsførelse, hvor der i cyberspace vil ske tusindvis af isolerede angreb, hvor de fleste af dem sker uden menneskelig indblanding.

Hvad end den type angreb kommer fra stater, industrispionage eller it-kriminelle, må man på fremtidens digitale slagmark bekæmpe ild med ild og selv benytte automatisering og agile sikkerhedsløsninger, der tilpasser sig on-the-go.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os noget tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.