När AI-genererad desinformation riktad mot polsk demokrati och säkerhet spreds via Tiktok agerade Polens regering inom dagar. Polska regeringen vände sig direkt till EU-kommissionen och krävde en granskning av plattformens ansvar enligt Digital Services Act. Innehållet som fick Polen att agera; syntetiska videor av unga kvinnor i polska nationalfärger som uppmanar landet att lämna EU. Videoklippen fick stor spridning och hade tydliga spår av ryskt ursprung. Tiktok är dessutom en tjänst som är under det kinesiska kommunistpartiets kontroll, och där Kina är direkt möjliggörare för Rysslands anfallskrig mot Ukraina. Kina agerar också aktivt tillsammans med Ryssland på den globala informationsarenan. Runt nyårsaftonen svämmade Tiktok över med hotfulla videoklipp om Kinas historiskt aggressiva militärövning mot Taiwan, som kan ses som en generalrepetition för en blockad av den demokratiska ön samtidigt som Xi Jinping höll nyårstal om en kommande ”återförening”.
Det polska agerandet är alltså inte en överreaktion på Tiktok-kontons postningar. Det är ett väl avvägt självförsvar i ett nytt medielandskap i en allvarstid då Sverige och andra demokratier är under angrepp i informationsarenan av diktaturer. Till den globala säkerhetspolitiska osäkerheten kan också Trumpadministrationen läggas, där USA bryter mot folkrätten i fallet Venezuela och diktatorn Maduro, men även upprepade territoriella anspråk på Grönland, ett direkt hot mot Danmark – en Nato-allierad. Den amerikanska administrationen använder sig också av sociala medier för sin informationspåverkan, och har riktat hårda angrepp mot EU:s Digital Service Act som ställer krav på de sociala mediejättarna.
Sverige har upprepade gånger utsatts för liknande informationsattacker som Polen har drabbats av. LVU-kampanjen, där falska anklagelser om att svenska myndigheter kidnappade muslimska barn spreds via Tiktok, Twitter, Facebook och Youtube, fick allvarliga konsekvenser med hot mot socialtjänsten och ett skadat förtroende för Sverige i den muslimska världen. Koranbränningarna är ett ännu tydligare exempel där olika inblandade aktörer hade direkta eller indirekta kontakter med Iran och Ryssland. Koranbränningarna exploaterades sedan och förstärktes genom massiv spridning på sociala medier. Innehållet förvrängdes och användes för att framställa Sverige som ett land som står bakom angrepp på islam. Syftet var att skada Sverige och svenska intressen i en tid när bland annat Natoansökan låg på bordet. Statsaktörer som Iran, Ryssland och Kina bidrog aktivt till att internationalisera och sprida narrativen i syfte att mobilisera protester och skada Sveriges relationer. Resultatet blev våldsamma demonstrationer, stormning av Sveriges ambassad i Bagdad, terrordåd mot svenska medborgare i Bryssel och ett försämrat säkerhetsläge. Stora ekonomiska bojkotter kunde undvikas först genom ett aktivt och skickligt diplomatiskt fotarbete av regeringen, så skadorna kunde ha blivit betydligt större än vad de blev. Det är viktigt att understryka att detta inte var en yttrandefrihetsdebatt. Det var informationspåverkan med säkerhetspolitiska konsekvenser för Sverige.
Det samlade svenska psykologiska försvaret, som är långt bredare än bara myndigheten med samma namn, behöver skaffa sig självklara rutiner för att agera gentemot plattformarna, nationellt såväl som i EU. Det duger inte att vara passiv. Inte i ett försämrat säkerhetspolitiskt läge, och absolut inte i ett valår.
Det svenska agerandet faller för mycket mellan stolarna och ägarskapet i frågan är för otydlig. Det är olika ministrar, departement och myndigheter som är inblandade. Justitieminister Gunnar Strömmer med ansvar för Säpo och Polisen, digitaliseringsminister Erik Slottner som har Post- och Telestyrelsen och Digitaliseringsmyndigheten (dessa slås samman från 1 januari 2027), ministern för civilt försvar Carl-Oskar Bohlin med Myndigheten för Psykologiskt Försvar, Myndigheten för Civilt Försvar samt cybersäkerhetsfrågorna och kulturminister Parisa Liljestrand med Mediemyndigheten.
För att komma till rätta med de brister som vi ser föreslår vi:
- Inrätta en nationell incidentrapporteringsrutin för informationspåverkan på plattformar. Regeringen bör ge Post- och telestyrelsen i uppdrag att före valet 2026 etablera en snabbrapporteringsrutin för att anmäla misstänkt koordinerad informationspåverkan till EU-kommissionen under Digital Services Act. Rutinen ska göra det lätt att göra rätt för aktörer att rapportera efter det att en incident identifierats.
- Tydligt ansvar. Regeringen bör klargöra vilken minister som har det övergripande ansvaret för att leda Sveriges agerande när sociala plattformar används som verktyg i främmande makts påverkansoperationer. Det delade ansvaret mellan fyra ministrar skapar i dag en lucka som hotaktörer kan exploatera.
- Ge Myndigheten för psykologiskt försvar i uppdrag att löpande publicera lägesbilder över plattformarnas agerande. MPF bör få i uppdrag att löpande offentliggöra en lägesbild över hur de stora plattformarna hanterar identifierad informationspåverkan mot Sverige; inklusive svarstider, borttaget innehåll och kvarstående brister. Transparens skapar tryck och ger riksdagen underlag för tillsyn.
Lagstiftning som redan finns måste användas och hålla plattformarna ansvariga när deras tjänster är förutsättningar för hotaktörers påverkansoperationer. När AI-genererat, koordinerat och statsförstärkt innehåll tillåts spridas i stor skala, blir plattformarnas bristande agerande i sig ett säkerhetsproblem. EU:s Digital Services Act är konstruerad för just detta. Men den fungerar bara om medlemsstaterna faktiskt använder den.
Sverige går mot ett valår. Erfarenheterna från tidigare val visar att perioden kring valdagen är sårbar för koordinerade påverkansoperationer, men att tiden innan som formar debatten också är en känslig period. Plattformarnas algoritmer premierar innehåll som väcker starka känslor. Polariserande narrativ sprids snabbare än nyanserad debatt. AI-genererat innehåll gör det allt svårare att skilja äkta från fabricerat.
I detta läge räcker det inte att analysera i efterhand vad det var som hände, för den som agerar i efterhand har redan förlorat i ett krig. Det krävs tydliga rutiner, snabba rapporteringsvägar och politisk vilja att agera kraftfullt på minsta tecken på att plattformarna sviker sitt ansvar. Regeringen bör ge berörda myndigheter ett tydligt uppdrag att etablera sådana rutiner omgående.
Plattformsreglering genom DSA är ett nödvändigt men inte tillräckligt verktyg. Ett effektivt psykologiskt försvar vilar på tre ben. Reglering som håller plattformarna ansvariga, resiliens som stärker samhällets motståndskraft mot desinformation, och avskräckning som signalerar att påverkansoperationer får konsekvenser. Sverige har investerat i resiliens genom MPF:s arbete med att höja allmänhetens och myndigheternas förmåga. Men avskräckning kräver att vi faktiskt använder de verktyg som finns; inklusive att tydligt attribuera operationer och agera kraftfullt mot plattformar som möjliggör dem. DSA ger oss ett sådant verktyg. Det är dags att använda det.
Polen har förstått det och visar vägen. Med Sveriges erfarenheter borde vi vara ett land som driver på. I stället råder en märklig passivitet genom att ansvaret är delat på för många aktörer. Det håller inte i allvarstid, fara finns i dröjsmål.