≡ Menu

Kungl Krigsvetenskaps­akademien grundades 1796 av general­löjtnanten, friherre Gustaf Wilhelm af Tibell.
Akademien ska främja vetenskaper av bety­delse för fädernes­landets försvar samt följa och bevaka forsk­ning och utveck­ling av bety­delse för rikets säkerhet och försvar.
Akademiens vilja är att, som en oberoende institution, bidra till och delta i försvars- och säkerhetsdebatten.
Tibellska fonden är öppen för att stödja Akademiens verk­samhet som ett veten­skapligt instrument inom säkerhets- och försvars­området.
 Stöd Akademien! Lämna ett bidrag till Tibellska fonden!
Klicka på bilden för mer information.

 av Magnus Sjöland
Artificiell intelligens har kommit för att stanna. Foto: Shutterstock.com

Artificiell intelligens har kommit för att stanna. Foto: Shutterstock.com

Den senaste tiden har jag fått många frågor runt AI (Artificiell Intelligens) av vänner och bekanta. Hur kommer AI att påverka oss? Vad händer i samhället när AI tar över mer tänkande från oss människor? Hur kommer detta att påverka våra vapensystem? Eller kanske en ännu mer brännande fråga, hur mycket AI kan vi tillåta i ett vapensystem? Vi har sett protester både bland beslutsfattare och utvecklingsingenjörer under det senaste året mot vissa former av vapenutveckling innehållande intelligens.

Man kan ju fundera över vad AI är och på vilket sätt den skiljer sig från vår mänsklig intelligens. AI är kiselbaserad och kan redan inom många områden vida överträffa den mänskliga som är baserad på biologiska kolväten. Mängder med utvecklare, forskare och tänkare jobbar på att utveckla och förbättra den kiselbaserade intelligensen där den idag kommer till korta mot den mänskliga. Är det önskvärt att den kiselbaserade intelligensen blir överlägsen oss på de flesta områden?

Många av de algoritmer som togs fram på 80-talet är samma idag som då, men datorerna är ofantligt mycket kraftfullare både vad gäller beräkningskapacitet och minne. Den största förändringen är dock mängden data som vi har idag, den som äger data är den som sitter på en guldgruva och kan göra fantastiska applikationer och ta utvecklingen framåt i stora kliv. Det är därför datagiganter som Google, IBM, Facebook och Microsoft jobbar hårt på att bygga stora datalagringshallar och fylla dessa med information. Denna är i första hand till för civila tillämpningar, men när nu Amerikanska försvaret vill öka sin AI-forskning så är de intresserade av att samarbeta med datagiganterna. Det blev en massiv kritik mot Google när de vann en upphandling runt ansiktsigenkänning och automatisk maskininlärning till US Department of Defense för att kunna förbättra de amerikanska truppernas förmåga att slå ut terroristceller i främmande länder. Tanken är att lägga in nya inlärningsalgoritmer i drönare så att de kan hitta fientlig aktivitet från terrorister och andra som med våld bryter mot de mänskliga rättigheterna. Rykten säger att Pentagon ville ha hjälp av Google med att ta fram maskinövervakning av hela städer med hjälp av AI. Många anställda på Google sa upp sig i protest, så under stort tumult har nu Google dragit sig ur projektet och tagit fram nya etiska regler runt militära tillämpningar och AI. Det kanske är så att det som hindrar datagiganterna från att hjälpa Pentagon med AI, är deras egen personal?

Med de data som datagiganterna har samlat på sig tillsammans med AI så kan man idag bygga en modell över hela jordklotet och kunna ”klicka på en byggnad” och se allt som är kopplat till denna, som bilar, människor, speciella egenskaper samt även studera folkmassor i hela städer. Mycket av dessa data ligger i exempelvis Googles molntjänst, och får en stat tillgång till dessa data kan de användas i militära och andra säkerhetssyften. Data blir uppdaterade i så hög takt att man kan prata om ”nära realtidsanalys av händelseförlopp”. Google tvekar att ge sig in och bygga en sådan tillämpning, men enligt New York Times så jobbar Amazon och Microsoft med liknande tillämpningar.

Flera stater tävlar om att bli ledande, Kina är nog det land som är mest fokuserat på att ta en ledarroll. I många avseenden passar AI perfekt för att ta fram en stor kontrollapparat av befolkningen och vi har den senaste tiden hört talas om och sett flera hårresande system som de tagit fram för att med AI hålla kontroll på sin stora befolkning. Kamerasystem som känner igen alla människor på gatan och analyserar vad de gör och vem de träffar, samt system som håller koll på alla barnen i ett klassrum. Ett annat integritetskränkande system har utvecklats där varje individ får en social poäng baserad på vad de gör, sina åsikter och vilka de träffar. Om de har låg poäng sägs deras banklån upp, deras barn får inte gå i de bästa skolorna och de har svårt att få ett bra jobb. George Orwell, 1984 är en västanfläkt mot vad som nu byggs upp i vissa stater. En enorm kontrollapparat, skött av kiselbaserad intelligens.

Den 17 november 2018 säger Apples VD Tim Cook i en intervju i HBO: ”att nya lagar som reglerar techindustrin är oundvikliga. Att datagiganternas produkter och tjänster varken är goda eller onda, men att deras produkter kan användas för onda ändamål. Den fria marknaden fungerar inte.”

Min fundering är att om en fintlig aktör kommer över stora mängder data som t ex Nätoperatörerna, Google och Facebook har samlat om oss alla, så kan de få en otroligt obehaglig koll på oss, mycket större än vad DDR hade på sin befolkning innan muren föll. De kan exempelvis få reda på vilka vi umgås med, var vi har varit, vad vi tycker om och inte tycker om, vad vi läser och vilka frågor vi ställer. Vad händer om en diktatur eller terrororganisation köper datagiganterna vid en börskrasch? Har de rätt att använda sig av all data som samlats in om hela världens befolkning? Har datagiganterna rätt att sälja information om enskilda medborgare till den som är villig att betala? Har de rätt att med AI dra långtgående slutsatser om enskilda individer eller folk? Som i så många andra sammanhang så krävs det en internationell lagstiftning, då data flödar fritt i hela världen.

Om vi tittar på datagiganterna så vill de förenkla och förbättra våra liv så mycket det går genom att ta fram applikationer och maskiner som de kan tjäna pengar på. Just nu är det stort fokus på små högtalare som är utplacerade i våra hem som vi kan prata med, ge kommandon till, sköta många av våra vardagliga tjänster med samt styra våra hem. Tänk dock på att aldrig prata hemligheter i närheten av en AI-högtalare, den lyssnar på vad du säger.

Det utvecklas också generiska AI assistenter som kan byggas in i fordon och andra maskiner där det blir enkelt att muntligen ge kommandon. Många fantasieggande projekt är under utveckling och ibland känns det som att endast fantasin sätter gränserna. Jag kan nämna några: Google håller på att ta fram en simultantolk så att människor kan prata med varandra trots att vi pratar olika språk, en fransman kan t ex prata på sitt modersmål med en japan utan språkförbistring. Ett annat spännande projekt är att tolka vad någon säger utan att behöva lyssna på ljudet, vilket kan vara bra i bullriga miljöer som i en fabrik eller mellan två piloter.

Om vi nu funderar på framtida militära och andra försvarssystem och var AI kan finnas i dessa så har jag redan ovan listat flera tillämpningar där även militär och säkerhetstjänst är intresserad. Piloter på ett stridsflygplan behöver också prata med varandra, försvarets fordon behöver också styras med muntliga kommandon, vi behöver inte anlita tolkar i främmande länder i framtiden som blir utsatta för våld när trupperna reser hem, terrorister och andra fientliga personer kan snabbt identifieras med kameror med ansiktsigenkänning, vi rekryterar rätt människor med AI-HR, fältsjukhusen blir effektivare eller varningssystem som säger till när något onormalt håller på att hända utifrån de mönster som brukar förekomma.

Jag har tidigare skrivit i detta forum om det upprop som skett bland ledande AI forskare och näringslivsföreträdare, där de kräver internationellt förbud mot så kallade mördarrobotar. Robotar med AI som helt utan mänsklig inblandning kan förflytta sig och skjuta människor, med inbyggd förmåga att välja vilka som skall dö och vilka som skall få leva. Detta upprop stödjer jag helhjärtat och ett förbud håller på att få genomslag i både EU och USA, vi får hålla tummarna att det blir ett internationellt förbud som alla stater ställer sig bakom!

AI kommer att byggas in i framtida vapensystem och i andra militära tillämpningar för att hjälpa soldater att fatta bättre beslut och underlätta deras uppgifter. Vi kommer att få se autonoma farkoster i en mängd olika storlekar med och utan mänsklig besättning. Precis som vi nu ser bilar som kan köra själva, kommer framtidens stridsfordon att kunna ta sig fram utan att någon styr dem. Färre människor riskerar livet vid t ex transport av förnödenheter när det inte måste sitta en förare i varje lastbil.

Jag kan avsluta med att säga att AI är här för att stanna. Att sia om hur stor förändringen blir i våra vardagliga liv på 20 års sikt är svårt, självkörande bilar, prata obehindrat med alla på jorden eller att ha full koll på alla sina vänner? Hur intelligenta tillåter vi oss att våra framtida vapensystem blir, det tror jag att internationella avtal får begränsa. Redan idag har vi teknologin för att kunna bygga autonoma farkoster som kan söka upp och döda de som en diktatur anser vara oönskade, eller en krigsmakt anser vara fiender. Vi har teknologin idag för att hålla koll på en hel befolkning, sin egen eller ett främmande lands. Men, skall vi verkligen bygga sådana system?

 
Författaren är direktör och ledamot av KKrVA.

Comments on this entry are closed.