Giv Microsofts nye AI-app tre sekunders stemmeklip og den vil efterligne din stemme

Microsofts nye AI-værktøj giver imponerende resultater, der let ville kunne misbruges.

Artikel top billede

(Foto: Valent Lau/Unsplash)

Microsofts præsenterer denne måned et spritnyt AI-værktøj til automatisk generering af tale.

Værktøjet, døbt VALL-E, er blot i stand til effektivt at simulere tale, men kan også hurtigt trænes til at efterligne stemmer, skriver netmediet Ars Technica.

Det kræver blot et stemmeklip på tre sekunder, før VALL-E kan generere et lydklip, hvor stemmen kan fås til at sige hvad det skal være.

Udviklerne bag VALL-E ser mange anvendelsesmuligheder for det nye AI-værktøj, hvor der blandt andet vil kunne redigeres i lydoptagelser af personer ud fra et script, hvilket i praksis betyder at personer kan få deres lydklip efterbehandlet til at ytre vilkårlige ting.

VALL-E markerer sig samtidig ved at kunne genskabe tonefald og humøret fra taleren, mens det omgivelserne lydkulisse kan gengives.

Programmet vises frem på en GitHub demoside, hvor adskillige lydklip kan aflyttes her.

Her anerkender udviklerne bag værktøjet også potentialet for misbrug af teknologien, til at fabrikere falske udsagn fra udvalgte personer. Her understreges det, at hvis modellen skal udbredes til den brede offentlighed vil det skulle akkompagneres af en protokol til at sikre, at eventuel manipulation og talesyntese sker med indtalerens accept.

Af samme grund har Microsoft valgt ikke at gøre værktøjet bredt tilgængeligt.

Bryder tale ned i små bidder

VALL-E er ifølge Microsoft et såkaldt ’neural sprog-codec model’ som er en overbygning på en teknologi kaldet EnCodec, som Meta præsenterede i oktober 2022.

Modellerne fungerer ved at generere stemmer ud fra specifikke tekst og akustiske brudstykker, fremfor at bero på traditionel stemmesyntese.

VALL-E nedbryder altså stemme-input til brudstykker, kaldet ’tokens’, hvor bare tre sekunders klip er nok til at definere en talers stemmeklang, som derefter sammenkøres med en stemmesyntese-model, for at generere stemmeefterligningerne.

Microsofts AI-værktøj er ligesom Metas EnCodec trænet med LibriLight databasen som inkluderer over 60.000 timers engelsk tale indtalt af over 7.000 mennesker.

Læses lige nu

    Annonceindlæg fra Opentext

    Identity er omdrejningspunkt for AI, applikationer og angreb og kræver klar governance

    Det gælder om at reducere risici – fra medarbejdere over privilegerede brugere til maskinidentiteter.

    Navnenyt fra it-Danmark

    Adeno K/S har pr. 2. februar 2026 ansat Kia Harding Martinussen som ServiceNow Expert. Hun kommer fra en stilling som Principal Consultant hos Devoteam A/S. Nyt job
    Marie Søndergaard, Acting Chief Product Owner hos Energinet, har pr. 26. januar 2026 fuldført uddannelsen Master i it, linjen i organisation på Aarhus Universitet via It-vest-samarbejdet. Færdiggjort uddannelse

    Marie Søndergaard

    Energinet

    Idura har pr. 5. januar 2026 ansat Arjuna Enait, 34 år,  som software engineer. Han skal især beskæftige sig med videreudvikling af Verify-systemet samt arbejde på implementeringen af CIBA i Norsk BankID. Han kommer fra en stilling som software engineer hos Lasso X. Han er uddannet civilingeniør med speciale i geoteknik. Han har tidligere beskæftiget sig med at bygge microservices til dataindsamling og -processering, samt opdatere legacy-systemer. Nyt job

    Arjuna Enait

    Idura

    Lector ApS har pr. 2. februar 2026 ansat Jacob Pontoppidan som Sales Executive i Lectors TeamShare gruppe. Jacob skal især beskæftige sig med vækst af TeamShare med fokus på kommerciel skalering, mersalg og en stærk go to market eksekvering. Jacob har tidligere beskæftiget sig med salg og forretningsudvikling i internationale SaaS virksomheder. Nyt job

    Jacob Pontoppidan

    Lector ApS