Det mener professor i kognitiv computing, Mark Bishop, ved Goldsmith Universitetet i England, hvor han også sidder som formand for Foreningen for Studier af Kunstig Intelligens og Simulering (AISB).
Professoren påpeger at det stadigt stigende forbrug af forsvarsvåben som det amerikanske Phalanx-system og ubemandede angrebsrobotter som det israelske antennekøretøj Harpy designet til at angribe radarssystemer simpelthen er et skred i en meget uheldig retning.
Det skriver New Scientist.
Kan føre til seriøse konflikter
"Der er grunde til at tvivle på, om selvstyrende systemer kan afgøre, hvornår de skal tages i brug, om de reagerer proportionalt i forhold til truslen, og om de kan skelne mellem soldater og civilbefolkning," siger Mark Bishop til New Scientist.
Professorens udtalelser kommer i forbindelse med, at en international kampagne initieret af flere NGO'er vil have stoppet dræberroboternes fremmarch.
Mark Bishop hejser også et advarselsflag, når det kommer til uforudsete konsekvenser i erhvervelsen af de mange komplekse selvkørende, -flyvende og -skydende softwarevåben med et eksempel fra bøgernes verden, hvor der også bliver brugt robotter til udarbejdelsen af priser.
"Et levende eksempel blev set på Amazon.com i 2011, da robotter satte prisen på bogen 'The Making of a Fly' til over 23 millioner dollar," forklarer han til New Scientist.
Og han vender sig hurtigt mod slagmarken igen, hvor de autonome våben sænker omkostningerne for både producenter og kunderne - hvilket vil sige regeringer overalt på kloden, der dermed kan købe endnu flere våben end i dag.
"I Sydkorea er forskere ved at udvikle en robot til at patruljere langs grænsen til Nordkorea. Hvis sådan en robot blev indsat forkert, eller den angreb uden forbehold for den reelle trussel, er det nemt at forestille sig, hvordan en mindre grænsesituation kunne udvikle sig til en seriøs konfrontation," siger Mark Bishop.
Artiklen fortsætter på næste side...