Artificiell intelligens, en resurs och en utmaning. Bilden visar ett exempel på hur maskininlärning kan manipuleras. Foto: Shutterstock.com.

I media hör och läser vi regelbundet om att AI, Artificiell Intelligens, kommer ta över miljontals jobb och att vi står inför en radikal förändring av hur samhällen och företag kommer vara organiserade och styrda. I en aktuell undersökning genomförd av Kairos Future framkommer att av 300 tillfrågade svenska toppchefer tror 38% att företag som inte lyckas transformera verksamheten till en AI- och datadriven organisation är borta från marknaden år 2030. En tredjedel bedömer också att man 2030 kommer att ha en icke-mänsklig medlem i sin ledningsgrupp. Fler än 70% av toppföretagen identifierar brist på kompetent personal som en av deras främsta utmaningar.

Myndigheter är inte konkurrensutsatta på samma sätt som företag, men jag vill påstå att samma grundläggande insikter måste finnas även hos organisationer som inte är affärsdrivande. Den digitala eran är redan här och utan förståelse för hur det påverkar verksamheten – och åtgärder för att anpassa sig – blir man snart överflödig. Inte minst viktigt är att kunna rekrytera kompetent personal för att hantera transformationen.

Försvarsmakten har en speciell situation i sin rätt att utöva våld för att försvara landets suveränitet och dess invånares säkerhet. För att vara trovärdig i en konflikt måste man då ha möjlighet att agera med utrustning och personal som är relevant i relation till motståndaren.

I militära sammanhang talas idag ofta om begrepp som precisionsbekämpning, multistatisk radar, obemannade och även autonoma farkoster, signaturanpassning etc, som alla bygger på en kvalificerad användning av digitala data. Inget av detta är nytt, men miniatyrisering och en snabb ökning av tillgänglig processorkraft gör att vi nu ser tillämpningar där begrepp som AI, maskininlärning och djupinlärning har börjat tillämpas i militära system. En annan förändring är den begynnande förekomsten av hypersoniska vapen, som kan flyga och slå ner i farter av 5-10 gånger ljudhastigheten, med en enorm anslagsenergi som gör att de kan penetrera nästan alla mål. Att bekämpa sådana ställer krav på förvarning med oerhört korta tidsintervall samt på nya kvalificerade motmedel.

Den mänskliga hjärnan är fantastisk, men kan inte ta in och bearbeta mer än en mycket begränsad mängd information per tidsenhet, medan ett nätverk av sensorer och kraftfulla datorer, med datafusion och med koppling även till databaser med tidigare erfarenhetsdata, i den nya snabba verkligheten är överlägsen som grund för beslutsfattande. Med AI kan smarta algoritmer göra beräkningar, simulera olika utfall och därefter anpassa algoritmerna och göra nya beräkningar – allt detta sekundsnabbt. Med maskininlärnings­metoder kan systemet successivt lära sig och förbättra sig. Med ännu mer avancerade djupinlärningsmetoder ser vi ytterligare ett steg på väg mot överlägsenhet. Då syftar jag på överlägsenhet över människans tänkande. Om motståndaren använder liknande verktyg för att bygga sina smarta vapen så accelererar det i ett race om vem som har de mest avancerade algoritmerna.

Men här ligger också faran! Sådan AI som med djupinlärning (Deep Learning) lyckats slå världsmästaren i det strategiska spelet Go 100 gånger av 100, är inte förutsägbar. Vi kan därför inte förstå varje steg i hur systemet modifierar sina algoritmer och drar sina slutsatser. Ett system med vapenverkan som använder sådana principer skulle kunna vinna i varje hotsituation, men om besluten att agera inte fattas baserat på krigets lagar och demokratiska principer om människors lika värde och regler för att så långt möjligt undvika civila offer etc – vad har vi då skapat för samhälle?

I traditionell militär utbildning och träning, och i alla historiska konflikter, finns alltid ett läge där någon har getts mandatet att fatta beslut. Därefter kan vederbörande göras ansvarig för sina handlingar. Om AI, innefattande maskininlärning och djupinlärning, ges möjlighet att själv göra anpassningar och förändringar med uppdraget att vinna en duell eller förgöra ett mål, kan människan inte fullt ut styra hur detta sker och framför allt inte i förväg veta hur beslutskedjan ser ut. Därmed kan människan, individen, inte ta ansvar för resultatet.

Samma dilemma diskuteras idag avseende AI i självkörande bilar. Om en situation uppstår att det inte går att stanna bilen innan den kolliderar (de fysikaliska lagarna om fart, massa och tröghet kan inte upphävas), ska systemet då välja att köra på två människor på vägkanten eller krascha bilen över stupet på andra sidan, med en säker död för personerna i bilen? Vem skriver algoritmen som beräknar det optimala utfallet och hur värderas olika människoliv?

Om det är svårt i daglig fredstid, hur svårt blir det inte i konflikt och krig?! Det besvärande i detta dilemma är också att alla stater inte agerar efter samma grundläggande värderingar. Problemet med AI-styrda vapen – och då talar jag inte om själva styrningen, eller sensorinhämtningen, där AI kommer användas i stor utsträckning, utan om beslutsprocessen för insats med vapenverkan – är att utfallet blir definitivt men inte förutsägbart och att vi samtidigt bekänner oss till demokratiska regelverk som ska kunna efterlevas.

Det stannar inte heller vid osäkerheten kring hur systemet anpassar sitt agerande för att nå optimal verkan. Helt digitaliserade system är sällan avskilda från omgivande nätverk, genom vilka de kan (och kommer) utsättas för intrångsförsök. Möjligheter att ”hacka” AI-baserade system och på sofistikerade sätt introducera kod som förändrar systemets uppträdande, kommer locka statliga ”Cyberkrigare” såväl som kriminella mörka krafter.

Det finns ett forskningsområde inom AI, på engelska benämnt ”Adversarial machine learning”, som närmast kan översättas med ”fientlig maskininlärning”. Genom att träna system på fel data kan man åstadkomma obehagliga beteenden, som blir obegripliga för en betraktare. Ett exempel som genomförts för att visa effekten var: ett självkörande system för bil tränades på vägmärken ur en bilddatabas, så att den skulle kunna köra helt korrekt efter alla regler. Man satte så några ganska små klisterlappar på bilder av en stoppskylt (vårt mänskliga förnuft såg direkt att det var en stoppskylt) och lärde systemet att detta var en hastighetsbegränsning, t ex 90. Systemet tolkade sedan alla vanliga stoppskyltar rätt, men genom att klistra på de bestämda symbolerna på en kritisk stoppskylt någonstans skulle bilens autopilot tolka det som en 90-skylt, inte stanna utan accelerera iväg med haveri som ett troligt resultat.

Om en sabotör lyckas hacka/attackera en beslutsdatabas för militärt beslutsfattande och lär systemet att satellitbilden av ett visst sexkantigt sjukhus föreställer en grupp stridsvagnar, trots att ett mänskligt öga kan se skillnaden, skulle resultatet bli än mer förödande. Cybersäkerhetsaspekten blir således en extremt viktig del i uppbyggnaden av framtida automatiserade militära lednings- och beslutssystem, om sådana introduceras. Exemplet är påhittat och givetvis skulle många säkerhets­funktioner byggas in för att förhindra ett sådant scenario, men hur vet vi att vi ”har full koll”?.

AI-utvecklingen leds idag av Kina, som gör enorma ekonomiska satsningar, utbildar, publicerar (numera med hög kvalitet och i större antal än de fyra ledande europeiska länderna tillsammans)  och sätter upp målsättningar och program. Där finns inte så tydliga skiljelinjer mellan civila forsknings­institutioner och militära intressenter och vi kan läsa om nya vapensystem där AI spelar en stor roll. Det sker även i Ryssland, som under hösten börjat rulla ut ett automatiserat ledningssystem, ISBU och Akatsia-M som (från en artikel i Izvestia i juni) utnyttjar AI-metoder som ”samlar information om fiendens aktiviteter, sedan om luft, mark, störning, strålning och övriga NBC-situationen i arméns verkansområde. Det summerar också data avseende tillgänglighet av materiel, tillgänglighet av ammunition, bränsle mm samt även om moral och den psykologiska statusen hos egen personal”. Systemet hämtar data från radio, fasta nät, satellit m fl informationskanaler. Med detta som grund görs ett antal simuleringar och systemet lämnar därefter en prioriterad lista över lämpligaste agerande, som underlag för befälhavarens beslut. Detta sker på bråkdelar av den tid det tagit i tidigare system och ryska armén hävdar att USA och Nato inte har något liknande framme. Allt detta enligt öppna ryska källor. Troligen tar det tid innan ett sådant system fungerar fullt ut, men det ger ändå en bild av vad vi kan förvänta oss och vad som säkert är under utveckling även på andra håll, inte minst i Kina. Det som beskrivs känner vi igen som ”nätverksbaserat försvar”, men med lite nya förtecken.

En uppenbar nytta med AI i militära sammanhang är alltså att ge avgörande stöd när tiden är alltför knapp, genom att analysera och prioritera bland en mängd handlingsalternativ i situationer när människan själv inte klarar av omfattningen.

Andra områden med försvarsanknytning där AI kommer att göra sitt intåg är t ex inom underrättelse­ tjänst, logistik och underhåll, undervisning, försvarsmedicin samt på bredden inom HMI-området, dvs människa-maskin-samverkan.

I dessa former, snarare än att autonomt sättas att fatta beslut om vapenverkan, kommer vi se en omfattande utveckling. I den måste Sverige och svensk försvarsmateriel – och därmed försvarsindustri – sträva efter att hålla sig i kunskapens framkant.

Författaren är överste, fil.lic. och ledamot av KKrVA. Han har också varit delprojektledare inom KV21.