Deep learning og machine learning for begyndere: Sådan fungerer det nye DeepLens-kamera

Det kan snart blive muligt at udrulle modeller til deep learning og machine learning på alt fra briller til høretelefoner. Man skal dog starte et sted, og derfor håber AWS på at kunne lokke udviklerne til at eksperimentere med det nye DeepLens-kamera, der bygger på samme koncept som Raspberry Pi.

Artikel top billede

Modellerne og teknologierne, der bruges til deep learning og machine learning, fylder stadig mindre og bliver samtidig mere og mere tilgængelige.

Det forklarer Julien Simon, der er ekspert i kunstig intelligens i AWS, til Computerworld i forbindelse med en snak om AWS DeepLens.

Det er et nyt trådløst HD-videokamera, som udviklerne kan bruge til at skabe machine learning-løsninger.

Selve DeepLens kommer til at koste 249 dollars, når det kommer i handlen næste år.

Det er en løsning ikke ulig den meget populære Raspberry Pi, som udviklere verden over har eksperimenteret livligt med i de senere år.

Selve hardwaren er nemlig ikke det mest interessante - det er  med softwareudviklingen, at man for alvor kan gøre en forskel.

“Det her er et kamera med en ret kraftfuld Intel-chip. Det har alle de komponenter og muligheder, som du vil forvente. Men det er den kedelige del - det spændende er, hvordan det fungerer,” fortæller Julien Simon. 

Læs også: Helt nye brugergrænseflader på fremmarch: Stiller meget store krav til dig som softwareudvikler

“Du sætter strøm til det og forbinder til WiFi. Nu skal du så konfigurere hardwaren fra skyen. Du kan eksempelvis vælge at udrulle en model, der kan levere ansigtsgenkendelse, eller som kan kende forskel på en hund og en kat eller kan genkende objekter.”

“Du udruller modellen til dit kamera, og når det er sket, vil det så begynde at sende informationer om eksempelvis ansigter til skyen.”

Mange anvendelsesmuligheder

Kan man også konfigurere andre kameraer med de her cloud-services?

“Hardwaren er Intel-baseret, så selvom den er intelligent, er den ikke noget helt særligt. Selve magien opstår med muligheden for at udrulle modeller fra skyen til enheden.”

“Vi har nogle modeller, som folk kan afprøve, men tanken er jo, at de skal begynde at træne deres egne modeller.”

“Måske er der en, der vil udvikle en model, der kan genkende bilmærker. En anden vil udvikle en model til planter eller måske en løsning til jægere, hvor kameraet giver besked, hvis der kommer et vildsvin.”

Det handler ikke så meget om hardwaren

DeepLens-kamaet kan udnyttes sammen med en række af AWS’ cloud-services.

Dermed er der også lagt op til, at selve kameraet egentlig ikke er den store nyhed.

Perspektiverne bliver nemlig langt større, når man tænker over, hvad det at kunne programmere kameraer og andre enheder kan udvikle sig til på sigt.

“Vi har bygget platformen. Det er som legoklodser, og du kan så kombinere det på mange forskellige måder. Formentlig vil enheds-producenter også begynde at gøre det samme, så jeg forventer, at andre vil komme med lignende produkter, som måske endda er bedre end det her," siger Julien Simon om selve DeepLens-kameraet.

Fylder mindre og mindre

Kan man forestille sig, at man om nogle få år vil kunne udrulle modeller til eksempelvis kontaktlinser som i en anden science fiction-historie?

“Ja, og jeg tror ikke, at det kommer til at handle om år.”

“Når du arbejder med machine learning og deep learning handler det om træning, og at du skal have et stort datasæt og masser af computerkraft. Og så er der hele prediction-delen.”

“Vi gør hele tiden modellerne mindre: For nogle år siden fyldte en typisk model flere hundrede megabytes. Nu kan vi ved hjælp af forskellige teknologier få de modeller til at skrumpe til 50 megabytes."

"Der er allerede endnu mere avancerede teknologier, hvor vi kan komme ned på få megabytes.”

“Når du kommer dertil, at en model kun fylder to megabytes og stadig er meget præcis, kan den udrulles hvor som helst. To megabytes kan være på en lille bitte chip - og så kan det være i dine høretelefoner, i dine briller, i din ring eller hvor som helst.”

“Så det kommer kommer helt sikkert,” lyder det fra Julein Simon fra AWS.  

Læs også:

Helt nye brugergrænseflader på fremmarch: Stiller meget store krav til dig som softwareudvikler

It-udviklere jubler over opbakning fra eksperter: Kontrolfikserede chefer ødelægger innovationen

App-udvikling er blevet langt lettere – men adgangen til back-end volder problemer

Kæmpe cloud-rapport: Her er styrkerne og svaghederne ved alle cloud-leverandørerne

Læses lige nu

    Navnenyt fra it-Danmark

    Adeno K/S har pr. 2. februar 2026 ansat Kia Harding Martinussen som ServiceNow Expert. Hun kommer fra en stilling som Principal Consultant hos Devoteam A/S. Nyt job
    Alcadon ApS har pr. 1. januar 2026 ansat Per Claus Henriksen som Datacenter-specialist. Per skal især beskæftige sig med opbygning og udvikling af Alcadons datacenterforretning. Per har tidligere beskæftiget sig med forskellige facetter af datacenterbranchen. Både via PR-bureau og som ansat i datacentre. Nyt job

    Per Claus Henriksen

    Alcadon ApS

    Thomas Morville Helmert, chefkonsulent hos Rigspolitiet, har pr. 28. januar 2026 fuldført uddannelsen Master i it, linjen i organisation på Aarhus Universitet via It-vest-samarbejdet. Færdiggjort uddannelse
    Idura har pr. 15. januar 2026 ansat Mark-Oliver Junge, 26 år,  som software engineer. Han skal især beskæftige sig med at udvikle nye extensions, der gør godkendelsesprocesser mere fleksible, samt bygge infrastruktur til caller authentication. Han kommer fra en stilling som fullstack engineer hos Wayfare.ai. Han er uddannet Fachinformatiker für Anwendungsentwicklung, der betyder “ekspert i softwareudvikling”. Han har tidligere beskæftiget sig med udvikling af softwarearkitektur, DevOps og rammeværk til analyse + orkestrering af SQL-datapipelines. Nyt job