Swarm learning: Sort sol inspirerer, når datamængderne når nye højder

Klumme: Dataeksplosionen stiller spørgsmålstegn ved klassisk centraliseret arkitektur i ML og AI. Et vigtigt svar kan komme fra swarm learning, som er ML, hvor alle data forbliver decentrale, og kommunikationen af resultater sker via blockchain. Fordelene er datasikkerhed og mindre risiko for bias.

Artikel top billede

(Foto: JumpStory / unknown)

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Fænomenet sort sol er fantastisk. Tusindvis af stære fungerer som én ”krop”. De bevæger sig synkront, fordi hver enkelt fugl reagerer på de nærmeste.

Ideen om at styre denne organisme fra et centralt punkt og dirigere hver node i symfonien forekommer helt urealistisk.

Hellere end at løbe solen sort skal vi udstyre hver node med en vis kapacitet, og så kan flokken skabe resultater, der langt overgår evnen hos det enkelte medlem.

Nogle af disse principper, som vi kender fra naturen, kan også bidrage til intelligent digitalisering.

Centraliseringens svagheder

AI-modeller kræver typisk store datasæt for at give analytisk tyngde og undgå bias. Men samlingen af data på en central lokation kommer med en pris i forhold til privatliv, datasikkerhed, forsinkelse og ejerskab.

Alternativt findes der distribuerede modeller, hvor man indsætter en central dirigent, der samler resultater fra lokale aktører.

Dette kan give udfordringer med robusthed, skalering og ejerskab.

Fremfor alt er ingen af disse modeller attraktive, hvis man ønsker at køre analytiske modeller på tværs af virksomheder.

Den slags samarbejde er udbredt inden for pharma, og man kan sagtens forestille sig tværgående analyser blandt banker for at bekæmpe svindel. Svært opnåeligt, hvis man skal dele data, eller en enkelt aktør ’ejer’ den centrale node.

Swarm learning

Svaret på udfordringerne kan ligge i sværmens intelligens – swarm learning. Det er en decentral, GDPR-egnet og kollaborativ tilgang til machine learning.

Ideen er at have et stort netværk af jævnbyrdige og ensartede noder, der samarbejder om at træne datamodellen. De kommunikerer model parametre med hinanden og ikke rådata. Det foregår sikkert via blockchain i en peer-to-peer-tilgang.

En sådan arkitektur tilbyder en række fordele:

  • Evner at håndtere store datamængder og rummer derfor lille risiko for bias og forkerte konklusioner.

  • Operationel effektivitet fordi behovet for at flytte og duplikere data er elimineret.

  • Stor skalerbarhed og robusthed med elimineringen af single-point-of-failure.

Dataeksplosion

Vi er lige nu i en tid, hvor datamængderne eksploderer. Lokale data fra sensorer, måleinstrumenter, kameraer og indbyggede følere i alt fra skraldespande til lagerbygninger vokser eksponentielt.

Vi har brug for at arbejde med data, hvor de er, men vi vil gerne gøre det med den statistiske soliditet fra meget større datasæt. Dette er rationalet bag swarm learning.

Et godt eksempel er hospitalssektoren.

Hvis regionen eller hospitalet kun har sine egne data bag en datamodel, risikerer man systematisk forkerte resultater, fordi befolkningsunderlaget har bias mod bestemte problemstillinger.

Hvis modellen derimod trækker på sværmens meget større datasæt, så får man bedre evne til at stille diagnosen, forstå røntgenbilledet og så videre.

Lige præcis sundhedsområdet er også et område, hvor dataeksplosionen er helt tydelig: Voksende mængder af kliniske data om hver enkelt borger og tilkomsten af wearables, der måler hjerterytmer, søvn og puls mv.

I øvrigt netop den slags personfølsomme data, som man helst ikke vil flytte og kopiere, fordi det rummer risiko.

Dataeksplosionen og de mange nye data ude på kanten af it-installationen er en megatrend. Jeg tror, at den vil trække AI og ML med ud i edge-delen.

Det bedste bud - lige nu - på den udvikling er swarm learning.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.

Læses lige nu

    Dansk Fundamental Metrologi A/S

    IT Specialist with Expertise in Microsoft Technologies and Programming

    Københavnsområdet

    Netcompany A/S

    Linux Operations Engineer

    Københavnsområdet

    Netcompany A/S

    IT Manager

    Midtjylland

    Navnenyt fra it-Danmark

    Tanja Schmidt Larsen, Director, Legal & Compliance hos Sentia A/S, er pr. 1. december 2025 forfremmet til Chief Operations Officer (COO). Hun skal fremover især beskæftige sig med synergi mellem kommercielle og tekniske processer samt sikre en sammenhængende kunderejse og fortsat driftsstabilitet. Forfremmelse
    Adeno K/S har pr. 22. september 2025 ansat Steen Riis-Petersen som ServiceNow Expert. Han kommer fra en stilling som Senior Manager hos Devoteam A/S. Nyt job
    VisionBird har pr. 1. november 2025 ansat Kelly Lyng Ludvigsen, 38 år,  som Seniorrådgiver. Hun skal især beskæftige sig med Rådgivning og undervisning i Contract Management. Hun kommer fra en stilling som Contract Manager hos Novo Nordisk. Hun er uddannet Cand. jur. og BS fra CBS. Hun har tidligere beskæftiget sig med Contract Management i flere roller i både det private, offentlige og som konsulent. Nyt job

    Kelly Lyng Luvigsen

    VisionBird

    EG Danmark A/S har pr. 1. december 2025 ansat Søren Jermiin Olesen som Senior Product Manager. Han skal især beskæftige sig med finans- og debitorstyring i det offentlige med ansvar for økonomistyringssystemet EG ØS Indsigt. Han kommer fra en stilling som Product Manager hos KMD A/S. Han er uddannet Cand. oecon. Han har tidligere beskæftiget sig med økonomi bl.a. i Aarhus Kommune og været med til at udvikle NemØkonom før og efter salget til KMD. Nyt job

    Søren Jermiin Olesen

    EG Danmark A/S