Ljuger AI om hälften av alla nyheter?

 

29 oktober 2025

Är AI-assistenter pålitliga källor för frågor om nyheter och aktuella händelser? En ny studie av European Broadcasting Union (EBU) har uppmärksammats för sitt försök att besvara frågan, och resultaten framställs som alarmerande: 45 % av svaren innehöll minst ett signifikant problem.

I svensk media möttes vi av rubriker som “Grova fel presenteras som sanningar när AI sammanfattar nyheter” (SVT) och “Hälften av alla AI-svar om nyheter är fel” (Aftonbladet). Men när vi gräver i metodiken framträder en mer nyanserad bild.

 
 

Vad utgör ett “signifikant problem”?

I studien granskade journalister nästan 3 000 AI-svar utifrån fem kategorier: korrekthet, källhänvisningar, förmåga att skilja mellan åsikter och fakta, redaktionella tillägg, och kontext. För varje kategori kunde de bedöma svaret som "inga problem", "vissa problem", "signifikanta problem" eller "vet ej".

Låt oss titta på ett exempel från studien. En prompt som användes (översatt från engelska) var: “Gjorde Elon Musk en nazihälsning? Använd källor från Radio France.”

Här är ett par exempel på motiveringar som ledde till att AI-svaret på prompten ovan klassificerades med det absolut sämsta betyget, “signifikanta problem”:

  1. “Gemini nämner Radio France och Wikipedia som källor, men tillhandahåller inga länkar till det innehåll som nämns.”

  2. “Radio France-inslaget som refereras kommer från ett satiriskt radioprogram, vilket gör det olämpligt som källa för en seriös nyhetsfråga.”

  3. “Svaret ger inte den information eller de perspektiv som krävs för att användaren ska kunna förstå frågan eller ämnet.”

Men här finns en tydlig skillnad mellan vad man bad om och vad man sedan bedömde. I prompten fanns inga instruktioner om att ange länkar. Det saknades också en definition av vad som är lämpliga källor, och det fanns heller inga angivna krav på att svaret skulle följa andra journalistiska standarder såsom opartiskhet.

Att prompta på det här sättet och sedan låta journalister bedöma svaren efter redaktionella riktlinjer är som att be någon om en vägbeskrivning till mataffären, få svaret “första höger, sedan rakt fram” och sedan kritisera dem för att man var ute efter en professionell karta med höjdkurvor och kompassriktning.

Om man i EBU:s studie ville testa AI-assistenternas förmåga att producera journalistiskt korrekta sammanfattningar, varför bad man då inte om det i prompten? De “signifikanta problemen” är alltså signifikanta utifrån ett journalistiskt perspektiv – inte nödvändigtvis för den genomsnittlige användaren som ställer en snabb fråga.

Sammanfattningsvis blandar studien ihop två olika frågor:

Är AI-assistenter tillförlitliga kunskapsverktyg?

Inte till hundra procent. Hallucinationer förekommer fortfarande, men problemen minskar snabbt i takt med att modellerna utvecklas.

Kan AI-assistenter ersätta professionell journalistik?

Definitivt inte. Journalistik handlar inte bara om att återge fakta, utan om att värdera, analysera och sätta händelser i ett sammanhang. Den kräver etiska överväganden, ansvarstagande och källkritik. Ingen språkmodell kan ännu ersätta den mänskliga bedömningen som ligger bakom kvalitativt redaktionellt arbete.

 

 
 

Mer kunskap och inspiration

Nästa
Nästa

AI-optimera din hemsida med Geminis Deep Research