Kom ihåg mänskligt omdöme
AI handlar inte om teknik, utan om människor, överblick, strategi, implementering och utbildning, tror Jacob Dalhoff Steensen, som är bidragsgivare till IT-branschens NewTech-kommitté, Dansk Standards Kommitté för Artificiell Intelligens och IAMCP samt ägare till AI Rådgivning , och han slår bestämt att AI ska ses som det verktyg det är.
Den ökande användningen av artificiell intelligens (AI) i både stora och små organisationer har belyst hur mycket teknik kan göra vårt arbete mer effektivt. Men parallellt med vinstpotentialen väcker AI också frågor om mänskligt omdöme: Blir vi beroende av "maskinsvar" på bekostnad av vårt eget kritiska sinne?
En ny, omfattande rapport, "AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking" (Gerlich, SBS Swiss Business School, 2025), målar upp en detaljerad bild av just denna utmaning. Baserat på en studie med 666 deltagare drar rapporten slutsatsen att det finns ett signifikant negativt samband mellan frekvent användning av AI-verktyg och förmågan att tänka kritiskt. Detta beror till stor del på kognitiv avlastning – tendensen att låta maskinen ta över uppgifter som tidigare krävde mänsklig reflektion.
Det förklarar Jacob Dalhoff Steensen, ägare av AI Rådgivning, som hjälper företag på deras AI-resa, och han fortsätter med att konstatera: ”Om du är ägare eller chef för ett företag är det en självklar anledning att fråga: Hur gör man ser du till att AI blir en kompetenshöjning istället för en osynlig "krycka" som gör dina anställda yrkesmässigt svagare över tiden?"
För "AI är inte här för att ersätta vårt tänkande - det är här för att göra det skarpare", tillmötesgår Jacob Dalhoff Steensen, som lyfter fram några av rapportens nyckelpunkter.
1. Signifikant negativ korrelation
Enligt rapportens statistiska analyser (inklusive ANOVA och korrelationstester) finns det ett starkt negativt samband mellan frekvent AI-användning och anställdas kritiska tänkande. Med andra ord: Ju mer en anställd förlitar sig på AI för att lösa kognitiva uppgifter, desto mindre sannolikt är det att de utvärderar och utmanar information självständigt.
2. Yngre vs. Äldre — ålder och utbildning spelar roll
- Ålder: Yngre deltagare (17–25 år) visade sig vara mer beroende av AI-verktyg och fick lägre poäng på kritiskt tänkande än äldre motsvarigheter. Rapporten påpekar att "digitala infödda" ofta har ett naturligt förtroende för teknik, vilket kan minska incitamentet att tänka själva.
- Utbildningsnivå: Personer med högre utbildning hade en bättre tendens att ifrågasätta algoritmernas svar och korskontrollera resultat från flera källor. De var mindre sårbara för nedgången i kritiskt tänkande som AI annars skulle kunna medföra.
3. Övertro: 72% accepterar "blindt" AI-förslag
72 % av deltagarna accepterade ofta eller alltid AI:s rekommendationer utan ytterligare validering. Detta är ett tydligt tecken på kognitiv avlastning, där du helt enkelt sparar tid och mental ansträngning genom att ta "maskinens" ord för givna.
4. Kognitiv avlastning – komfort har ett pris
Begreppet kognitiv avlastning är central i rapporten. Genom att låta tekniken hantera komplexa analyser tappar medarbetarna den naturliga träningen i kritiskt tänkande. Med tiden kan detta leda till "kognitiv lättja", vilket inte bara försvagar kvaliteten på beslut utan också minskar lärande, kreativitet och innovation.
Kritiskt tänkande måste stå i fokus
Kritiskt tänkande handlar om förmågan att ställa frågor, bedöma nyanser och väga alternativ. Ur ett affärsperspektiv är det nära kopplat till riskhantering, felsökning och affärsutveckling. Både nyare forskning inom organisationspsykologi och konkreta erfarenheter från näringslivet visar att team med hög grad av kritisk reflektion fattar mer hållbara beslut och är bättre rustade att hantera oförutsedda utmaningar.
Att blind tillit till AI kan undergräva dessa förmågor borde vara en varningssignal till ledarna. Tekniken är kraftfull, men om den blir en "autopilot" kan människors naturliga omdöme hamna på autopilot också.
Hur undviker vi "övertilltro"?
Rapporten föreslår ett antal praktiska steg som chefer kan vidta för att bibehålla medarbetarnas analytiska skärpa samtidigt som de drar nytta av fördelarna med AI:
1. AI Feedback loop
- Rekommendation från rapporten: Inför interna system där medarbetare kontinuerligt utvärderar och kommenterar AI-lösningar.
- Varför det fungerar: ”Det främjar en kultur där att ifrågasätta och kritisera algoritmer är en del av vardagen. Detta motverkar tendensen att "outsourca" kritisk analys till maskinen, säger Jacob Dalhoff Steensen.
2. Träning i kritiskt tänkande
- Rekommendation från rapporten: Gör kritiskt tänkande till en central del av dina utbildningsprogram.
- Datastöd: ”Rapporten visar att organisationer med formell utbildning i ”kritisk användning av AI” har en 28% lägre tendens till blind tillit. Den här typen av utbildning kan till exempel handla om simuleringar där AI-levererade lösningar medvetet innehåller fel som deltagarna måste upptäcka”, säger Jacob Dalhoff Steensen.
3. Korsvalidering
- Rekommendation från rapporten: Låt anställda krysskolla AI:s rekommendationer med andra källor, som manuella beräkningar eller externa datauppsättningar.
- Varför det fungerar: "Enligt rapporten är "multi-source approach" en av de mest effektiva metoderna för att upprätthålla en sund skepsis mot AI-verktyg, säger Jacob Dalhoff Steensen.
4. AI som rådgivare, inte domare
- Rekommendation från rapporten: Gör det till en rutin att slutliga beslut alltid fattas av en människa – inte av en algoritm.
- Datastöd: Enligt Gerlich (2025) hade organisationer som aktivt praktiserade ”human-in-the-loop”-modeller 35 % färre fel som kunde spåras tillbaka till AI-missförstånd.
"AI:s värdeskapande potential frigörs verkligen när tekniken och den mänskliga hjärnan samarbetar", säger Jacob Dalhoff Steensen, och han rekommenderar att du ställer dig själv några frågor för reflektion:
- Vilka AI-relaterade uppgifter kan potentiellt försvaga anställdas kritiska tänkande mest, och hur kan vi göra dem mer meningsfulla?
- Vilka konkreta mekanismer har vi i organisationen för att fånga upp, diskutera och lära av fel som härrör från AI-beslut?
- Hur kan vi – på ledningsnivå – visa att att utmana AI:s resultat är en styrka, inte en svaghet?
Frekvent och okritisk användning av AI kan försvaga mänskligt omdöme, vilket på sikt kan minska kvaliteten på besluten och innovationshastigheten i en organisation. Data indikerar att yngre anställda är särskilt utsatta och att överdriven kognitiv avlastning redan är en växande utmaning.
”För att motverka denna utveckling måste ledare aktivt arbeta för att AI används som ett verktyg för empowerment snarare än en ersättning för medarbetarnas egna analyser. Detta kräver bland annat fortlöpande utbildning, tvärfunktionell validering och tydlig kommunikation om att ”människan bakom skärmen” bär det yttersta ansvaret”, säger Jacob Dalhoff Steensen, och han avslutar med att konstatera att ”AI:s värdeskapande potential är verkligen släpps lös när teknik och den mänskliga hjärnan samarbetar. Kritiskt tänkande bör inte offras i effektivitetens namn. Tvärtom, som ledare måste vi se till att de två sakerna går hand i hand.”