När AI-innehåll möter motstånd: vad handlar backlashen om?
20 januari 2026
När vi blickar tillbaka på 2025 kan vi se att det skett ett tydligt skifte i kommunikationslandskapet. Allt fler reagerar starkt negativt på innehåll som upplevs som massproducerat, slarvigt eller utan tydligt avsändaransvar. Och kritiken riktas i första hand mot innehåll som misstänks, eller öppet deklareras, vara AI-genererat.
När AI var nytt och bar den kreativa idén
För att förstå dagens reaktioner behöver vi göra en kort tillbakablick till 2023. Då var generativ AI fortfarande nytt, förvånande och i sig ett kreativt grepp. Det gick att bygga hela kampanjidéer på att AI hade använts.
Ett ofta lyft exempel är Pressbyråns kampanj inför Kanelbullens dag. Kampanjen lekte med parfymvärldens estetik: snitsiga franska formuleringar, poserande modeller med intensiv blick – och bilder som skapats med generativ AI. Det var en tydlig, genomarbetad idé, och AI användes som ett medel för att skapa ett uttryck som annars hade varit dyrt eller svårt att producera. Kampanjen prisades och togs emot väl. Här var AI en viktig del av hantverket – men inte hela poängen.
Det finns också exempel där AI i högre grad var själva idén. Middagsfrids kampanj med overkliga matkassar byggde på kontrasten mellan artificiella bilder och företagets autentiska erbjudande. Enligt Middagsfrids marknadschef var syftet just att förstärka känslan av äkthet. Kampanjen kändes möjligen något krystad, men den väckte heller inga större negativa reaktioner.
Gemensamt för dessa tidiga exempel är att AI användes i ett sammanhang där mottagaren fortfarande var nyfiken och till och med imponerad av vad som var möjligt att göra med AI.
Från nyfikenhet till irritation
Spolar vi fram till 2025 ser vi ett tydligt skifte. Allt fler kampanjer som använder AI – särskilt för bildproduktion – möts av kritik, både i sociala medier och i traditionella medier.
Coops AI-reklam är ett exempel som väckte starka reaktioner. Kritiken handlade inte bara om estetik, utan om känslan av snålhet och brist på omsorg.
Än tydligare blev detta i Coca-Colas julkampanj 2025, där företaget gjorde en AI-genererad remake av den ikoniska Holidays are coming-reklamen från 1995. Filmen kritiserades hårt för onaturliga rörelser, designmissar och tekniska inkonsekvenser – lastbilar som glider fram utan att hjulen snurrar, detaljer som förändras mellan klipp.
Men den starkaste kritiken handlade om något annat: att kampanjen saknade mänsklig värme och kändes slapp, trots varumärkets resurser. Det var inte bara att AI användes som provocerade – utan hur.
När effektivitet möter perception
Det intressanta är att detta sker parallellt med studier som visar att AI-genererade annonser faktiskt kan prestera bättre än människoskapade.
En studie från flera ledande amerikanska handelshögskolor visar bland annat att AI-annonser får 19 procent högre klickfrekvens. Men – och detta är avgörande – bara så länge mottagaren inte vet att AI har använts.
När annonserna märktes upp som AI-genererade sjönk effekten drastiskt. Klickfrekvensen minskade med 31,5 procent.
Slutsatsen är svår att ignorera: negativa reaktioner förutsätter att mottagaren vet, eller misstänker, att AI har använts. Det är AI-användningen i sig som väcker känslor och kritik.
Detta ställer oss som marknadsförare och kommunikatörer inför ett reellt dilemma – särskilt i ljuset av AI-förordningen, som kräver ökad transparens. Ska vi undvika att använda AI där det syns? Hur förhåller vi oss till märkning när perceptionen påverkar effekten?
AI-slop, brus och förtroendekris
För att förstå reaktionerna behöver vi också se till kontexten. Under de senaste åren har AI-slop blivit allt vanligare, särskilt i sociala medier. Algoritmiska rekommendationssystem premierar ofta innehåll som är extremt och väcker engagemang. Mycket av detta innehåll är AI-genererat, skapat specifikt för att maximera räckvidd snarare än värde. I vissa fall talar man om ”slopaganda” – AI-drivet innehåll med politiska budskap, designat för att manipulera.
Här är det viktigt att vara tydlig: allt AI-skapat innehåll är inte skräp. Men i princip allt skräpcontent i dag skapas med hjälp av AI. Det är dock fortfarande människor som står bakom. AI är ett verktyg, inte en avsändare.
En studie som The Guardian rapporterat om visar att över 20 procent av videorna som rekommenderas till nya YouTube-användare klassificeras som lågkvalitativt AI-innehåll.
Det bidrar till ett växande brus, och en sjunkande tolerans hos publiken.
När texter “känns” AI-skrivna
Intressant nog handlar mycket av motståndet om känsla snarare än fakta. Många upplever sig kunna känna igen AI-texter. Ofta pekar man på återkommande stilgrepp:
Rubriker Med Stor Bokstav i Början Av Varje Ord
Tankstreck—framförallt såna här extra långa
Klyschor och bombastiska formuleringar
Konstruktioner som “Det handlar inte om X – utan om Y”
Oavsett hur mycket AI vi använder så behöver vi alltså säkerställa att kommunikationen upplevs som autentisk och trovärdig, och det kan vi delvis göra genom att skala av och städa bort artefakter i listan. Jag har själv känt mig tvingad att skära ner på antalet tankstreck, som länge varit en favorit bland skiljetecken och som i min mening kan göra en text både tydligare och förmedla ett starkare resonemang.
Vad människor egentligen reagerar på
De negativa reaktionerna på AI-innehåll bottnar i flera saker, ofta emotionella snarare än tekniska:
Upplevd låg kvalitet – generiskt, slätstruket, utan tydlig tanke.
Brist på mänsklig närvaro – inget personligt perspektiv, ingen erfarenhet.
Känslan av att bli lurad – särskilt i tider av desinformation och fake news.
Överproduktion och brus – innehåll som säger lite, men finns överallt.
Etiska och samhälleliga farhågor – energiförbrukning, upphovsrätt, förlorade arbetstillfällen.
Detta är inte alltid rationella invändningar. Men de är högst verkliga, och de påverkar mottagandet.
Men det vi ser nu är inte slutet för AI som stöd i kommunikationsarbetet. Det är slutet för tanken att AI ska göra hela jobbet åt oss. När innehåll blir billigt blir omdöme, kvalitet och ansvar det som särskiljer.
Här gör jag mig skyldig till en formulering som starkt doftar AI och möjligtvis sänker förtroendet hos dig som läsare: Frågan framåt är inte om vi ska använda AI. Utan hur, var – och med vilket ansvar.
Mer kunskap och inspiration