Nogle af verdens førende AI-eksperter underskriver fælles erklæring: Vi vil ikke udvikle intelligente våben

En række af verdens førende eksperter inden for kunstig intelligens underskriver fælles erklæring om, at de ikke vil bruge deres skills til at udvikle intelligente våben.

Artikel top billede

En række af verdens førende AI-firmaer har for anden gang på blot et år igen underskrevet en erklæring om, at de ikke vil deltage i udvikling, fremstilling, handel med eller anvendelse af ‘dødelige, selvstændige våben.’

Det er anden gang på blot et år, at selskaberne underskriver sådan en erklæring om, at de vil afstå fra at udvikle intelligente våben.

Teknologierne inden for kunstig intelligens er nemlig nået så langt i udviklingen, at det på mange måder er muligt allerede i dag at anvende dem til våbenmæssige og dødelige formål.

Sidste år underskrev 150 selskaber og 2.400 AI-eksperter fra 90 lande erklæringen, hvis fulde ordlyd du kan se længere nede i denne artikel.

Blandt underskriverne finder vi blandt mange andre Google DeepMind, Elon Musk, MIT samt en række af verdens førende AI-hjerner.

Mange af underskriverne skrev også under på et åbent brev til FN sidste år, hvor de opfordrede verdens lande til at stoppe med at anvende automatiske og selvstændige våben i det, som de betegnede som den ‘krigsførelsens tredje revolution.’

Man kalder disse våben for LAWS, Lethal Autonomous Weapons Systems. De er i stand til helt uden menneskelig indblanding at identificere, udsøge, sigte på og dræbe personer.

Det vil altså sige, at de selv træffer beslutningen om at slå et menneske ihjel.

“Vi må ikke overlade en beslutning om, hvem der skal leve, og hvem der skal dø, til maskiner, som ikke har noget etisk kompas,” lyder det fra professor i kunstig intelligens, Toby Walsh, skriver Computerworlds amerikanske nyhedsbureau.

Her finder du den fulde erklæring:

Artificial intelligence (AI) is poised to play an increasing role in military systems. There is an urgent opportunity and necessity for citizens, policymakers, and leaders to distinguish between acceptable and unacceptable uses of AI.

In this light, we the undersigned agree that the decision to take a human life should never be delegated to a machine.

There is a moral component to this position, that we should not allow machines to make life-taking decisions for which others – or nobody – will be culpable.

There is also a powerful pragmatic argument: lethal autonomous weapons, selecting and engaging targets without human intervention, would be dangerously destabilizing for every country and individual.

Thousands of AI researchers agree that by removing the risk, attributability, and difficulty of taking human lives, lethal autonomous weapons could become powerful instruments of violence and oppression, especially when linked to surveillance and data systems.

Moreover, lethal autonomous weapons have characteristics quite different from nuclear, chemical and biological weapons, and the unilateral actions of a single group could too easily spark an arms race that the international community lacks the technical tools and global governance systems to manage.

Stigmatizing and preventing such an arms race should be a high priority for national and global security.

We, the undersigned, call upon governments and government leaders to create a future with strong international norms, regulations and laws against lethal autonomous weapons.

These currently being absent, we opt to hold ourselves to a high standard: we will neither participate in nor support the development, manufacture, trade, or use of lethal autonomous weapons.

We ask that technology companies and organizations, as well as leaders, policymakers, and other individuals, join us in this pledge.

Læses lige nu

    Event: Cyber Security Festival 2025

    Sikkerhed | København

    Mød Danmarks skrappeste it-sikkerhedseksperter og bliv klar til at planlægge og eksekvere en operationel og effektiv cybersikkerhedsstrategi, når vi åbner dørene for +1.200 it-professionelle. Du kan glæde dig til oplæg fra mere end 50 talere og møde mere end 30 leverandører over to dage.

    4. & 5. november 2025 | Gratis deltagelse

    Forsvarsministeriets Materiel- og Indkøbsstyrelse

    Chef til Dataarkitektur og –model i Forsvaret

    Københavnsområdet

    Forsvarsministeriets Materiel- og Indkøbsstyrelse

    Erfaren IT-tekniker indenfor serverhardware og datacenterdrift

    Københavnsområdet

    Navnenyt fra it-Danmark

    Netip A/S har pr. 15. september 2025 ansat Peter Holst Ring Madsen som Systemkonsulent ved netIP's kontor i Holstebro. Han kommer fra en stilling som Team Lead hos Thise Mejeri. Nyt job
    Norriq Danmark A/S har pr. 1. oktober 2025 ansat Rasmus Stage Sørensen som Operations Director. Han kommer fra en stilling som Partner & Director, Delivery hos Impact Commerce. Han er uddannet kandidat it i communication and organization på Aarhus University. Han har tidligere beskæftiget sig med med at drive leveranceorganisationer. Nyt job

    Rasmus Stage Sørensen

    Norriq Danmark A/S

    Norriq Danmark A/S har pr. 1. september 2025 ansat Søren Vindfelt Røn som Data & AI Consultant. Han skal især beskæftige sig med at effektivisere, planlægge og implementere innovative, digitale løsninger for Norriqs kunder. Han kommer fra en stilling som Co-founder & CMO hos DrinkSaver. Han er uddannet Masters of science på Københavns IT-Universitet. Nyt job

    Søren Vindfelt Røn

    Norriq Danmark A/S