
Är AI hållbart…
…en retorisk fråga – ingen verkar ju ändå bry sig..
Det här är naturligtvis en felformulerad fråga. AI är inte bara ETT system, det är mängder av olika verktyg som finns i många skepnader och många sammanhang. Det intressanta är väl att istället fundera lite kring hur och till vad det används och vilken framtid det leder till. Precis som med mycket annat kan det användas till både bra och lite mer tveksamma ändamål.
Jag är inte motståndare till AI – jag är försiktigt optimistisk och använder det själv ibland – men jag är också skeptisk. Framför allt är jag skeptisk till den naiva, nästan religiösa tron att AI skulle vara lösningen på ”allt”. Skeptisk mot alla som negligerar riskerna. Skeptisk mot alla klämkäcka förespråkare som tycks betrakta AI som mänsklighetens frälsning, utan minsta spår av kritisk konsekvensanalys. För dem verkar det bara handla om att ”köra på” och se var vi hamnar – let the future pay for itself… Fort ska det ska gå – hoppa på tåget nu, annars blir vi ifrånsprungna och tappar konkurrenskraft. Blablabla… samma gamla mantra. Som om hastighet och konkurrenskraft alltid är viktigare än eftertanke.
Konstigt att vi aldrig lär oss av våra misstag…
Jag är också skeptisk till hur vi, utan någon seriös samhällsdebatt, låter de gigantiska techjättarna och dess ägare agera helt fritt och forma framtiden – och oss – utifrån sina egna intressen. Men, det är klart – de som äger techbolagen, äger ju också våra operativsystem, sökmotorer, sociala medier, media-bolagen (TV, tidningar) och i allt högre grad äger de ju även våra politiker. De äger också mer data om oss som individer än vi själva förstår – så hur skulle en samhällsdebatt kunna uppstå om de inte ”godkänner” den…?
Vart är vi på väg:
”Ask the CEO:s of the big tech companies and they will tell you:
The rise of AI is a hundred times bigger than the industrial revolution…”– Rutger Bregman, Reith Lectures 2025 –
Det är som om ”allt” hänger på att vi snabbt anpassar oss – något utrymme för eftertanke behövs uppenbarligen inte…
Det är samma typ av ”teknikoptimism” som präglat hela industrialismens tidigare framväxt. En utveckling som vi först nu, på randen av en skenande klimat- och samhällskollaps, inser att vi kanske borde ha tänkt igenom mer och genomfört lite smartare… Vi behöver ju inte ha så bråttom!
Om vi bara hade tänkt efter före…
Jag har tittat lite på några AI-relaterade risker/faror:
AI och Business-as-Usual – på steroider…
Antalet AI-verktyg i näringslivet verkar explodera – alla ska ha ett, och alla existerande programvaror måste förstås uppdateras med någon form av AI-baserad ”smart” assistent.
Mötesprotokoll? De ska transkriberas, sammanfattas och skickas ut automatiskt. Vidimering eller innehållskontroll? Nej, varför bry sig – det är ju ”AI”, och AI har ju alltid rätt, eller hur? Din mailbox får en magisk ”sammanfattningsknapp” som på något mystiskt sätt ska kondensera hela mailflödet… och så fortsätter det…
Hur bra är AI på att uppfatta nyanser, ironi eller subtila konflikter? …Tja, vem bryr sig – det går ju fort och är bekvämt!
Och så det eviga mantrat: allt ska bli enklare och effektivare, men framför allt snabbare. Som om hastighet är det enda som skall prioriteras före allt annat. Eftertanke? Konsekvenser? Det är så… 2019!
Den mest påtagliga effekten; Alla skall göra ännu mer av samma som vi gör idag . Vi skall också göra det ännu snabbare och effektivare. Processer som tidigare var utformade för att inkludera tid för reflektion och eftertanke, bantas ner. Eftersom AI har tränats på ”allt” och vet ”allt” (facit) behövs ju inte det… eller…?
Enligt en rapport från konsultfirman Challenger, Gray & Christmas uppger flera amerikanska bolag att man skär ned till följd av AI-utvecklingen och att omkring 55.000 tjänster i USA har tagits bort bara under 2025 på grund av AI.
Troligen är detta inte hela sanningen, det finns säkert flera orsaker, men AI är säkert en av dem.
Reflektion:
På bara några årtionden har vi lyckats pressa planeten och mänskligheten till randen av ekologisk och social kollaps. Klimatkriser och katastrofer utspelar sig redan i realtid. Biodiversiteten rasar i alarmerande takt. Resursutarmningen rusar – krig om tillgång till råvaror är redan en verklighet. Sociala orättvisor och ekonomisk ojämlikhet ökar. Antalet människor, framför allt unga, som mår dåligt och är suicidbenägna på grund av all stress och prestationskrav ökar lavinartat. Den militära kapprustningen skenar. Repressiva, fascistiska tendenser kryper allt närmare. Demokratin är hotad i land efter land. Mer än 70% av världens befolkning lever i länder med någon form av diktatur eller autokrati.
Och mitt i detta, utan någon seriös samhällsdiskussion, adderar vi AI. Som om vi inte, redan innan, sprang mot avgrunden, nu ska vi spurta som i ett 10 000-meterslopp. För att det går snabbare, och snabbare är ju alltid bättre… eller?
AI och Ekonomisk vinning – alltid viktigast…?
Som med nästan allt annat nuförtiden så är det ekonomisk girighet som driver på utvecklingen. Investeringscirkusen kring AI är helt vansinnig. Dagligen pratas det om uppköp, enorma datacenter o.s.v. i mångmiljardklassen ($). Tempot för att vara först och störst är mer uppskruvat än någonsin.
Någon debatt om vad vi skall använda AI till finns knappt, istället uppmanas vi av Tech-bolagen och AI-ivrarna att urskillningslöst testa och se vad vi kan använda det till. Allt annat får väl bara helt enkelt ”anpassa sig”.
Hur kommer då den ekonomiska effekten av all denna ”effektivisering” av näringslivet att fördelas?
Mest sannolikt är att den utveckling som vi sett sedan 1970-talet, där löneutvecklingen tydligt har ”frikopplats” från produktivitetsökningen i näringslivet, se nedanstående graf, kommer att fortsätta accelerera. Ökad effektivitet innebär att färre människor behövs för att göra samma mängd arbete vilket i sin tur medför att löneandelen sjunker. Då kan mer pengar transfereras till företagens ledning och dess ägare. Detta är en högst påtaglig anledning till ”AI-hajpen”…
Givetvis kommer tech-bolagen som tillhandahåller AI-tjänsterna att vilja ha en del av denna ökade produktivitet genom olika abonnemangskostnader etc. Redan idag höjs röster i investerarkretsar om en möjlig ”AI-bubbla”, delvis pga att de nuvarande intäktsmöjligheterna för tech-bolagen inte överensstämmer med investeringstakten. Så kan det ju inte fortsätta. Det är därför högst troligt att en ökad kostnadsöverföring från tech-bolagen till AI-användarna är oundviklig…
Alternativet, att kunderna skulle få ta del av effektivitetsökningen i form av lägre priser finns ju, men är ytterst osannolikt. Redan idag kan vi ju se hur dynamisk prissättning blir allt vanligare. Handlare tar allt oftare algoritmer i anspråk för att på olika sätt maximera priset till kund och därmed öka vinsten. Det sker dessutom allt oftare individuellt för varje enskild kund.
Läs mer om ”The Productivity – Pay Gap” på Economic Policy Institute.
AI och ekonomisk ojämlikhet – kommer AI att öka eller minska klyftorna?
Det är mest sannolikt att den ekonomiska ojämlikheten kommer att fortsätta öka – och troligen i ännu snabbare takt.
Redan idag ser vi hur rika länder och stora företag tävlar om att dominera utvecklingen av AI-teknologi. AI kräver omfattande resurser: kapital, avancerad infrastruktur och högspecialiserad kompetens. Detta talar för att redan välutvecklade ekonomier kommer att förstärka sitt försprång, vilket gör att löften om en mer jämlik värld, som de uttrycks i exempelvis de Globala målen för hållbar utveckling, riskerar att bli alltmer avlägsna.
Även inom välutvecklade samhällen är risken stor att klyftorna ökar. Yrken där AI kan ersätta mänsklig arbetskraft är särskilt utsatta, vilket kan leda till att låg- och medelinkomsttagare drabbas hårdast. Samtidigt kan de som äger eller har tillgång till AI-teknologi dra nytta av enorma produktivitetsvinster, vilket ytterligare förstärker koncentrationen av ekonomisk makt.
Elon Musks framtidsvision – för vem gäller den egentligen?
Häromdagen hörde jag Elon Musk påstå att vi om 10–20 år troligen inte behöver arbeta, att arbete kommer att vara en ”option”. Enligt honom kommer AI-teknologi och humanoida robotar då ha tagit över allt arbete.
Men man undrar: Vilka är det han pratar om? Och hur ska alla människor som tidigare utförde dessa jobb få en inkomst? Bara i Indien finns t.ex omkring 150 miljoner småjordbrukare – vad händer med dem? Eller de 55 000 personer i USA som redan under 2025 förlorade sina arbeten till automatisering?
Eller pratar han egentligen bara om miljardärerna som äger AI-teknikbolagen – de som, likt honom själv, sitter skyddade i sina ”gated communities”? …på sina skyddsrumsförsedda privata öar? …eller kanske på Mars?
Med tanke på hur Musk agerat tidigare, bland annat genom att driva på nedmontering av ekonomiska stödsystem under sin tid i Trump-administrationen, och med tanke på hans återkommande utspel som ofta framstår som både empatilösa och uttalat fascistiska, finns det nog väldigt lite utrymme för någon annan än hans miljardärskompisar i den utopiska framtid han målar upp.
AI och Energianvändning…
Det finns många olika analyser av hur mycket energi olika ”AI-promptar” förbrukar. Det varierar väldigt och är naturligtvis inte helt enkelt att beräkna. Det vi däremot tydligt kan se är den enorma utbyggnaden av datacenter som AI-boomen genererar och dess kraftigt ökande energianvändning.
Häromdagen hörde jag på ett inslag i Ekot (SR). Enligt Svenska kraftnät har ansökningarna för anslutning av datacenter bara i mellansverige (Elprisområde 3) ökat enormt. För närvarande har man ansökningar för ett 30-tal center, med ett beräknat effektbehov på 6692 Megawatt eleffekt. Det motsvarar mer än det samlade effektbehovet för 20 städer av Uppsalas storlek eller motsvarande produktionen från fem kärnkraftverk…
Enligt en ny rapport från International Energy Agency (IEA) förväntas datacentrens energiförbrukning mer än fördubblas till 2030 – från 415 TWh 2024 till 945 TWh, motsvarande Japans nuvarande totala elanvändning. Utvecklingen av AI står för den största ökningen och beräknas fyrdubbla sin egen energianvändning inom samma tidsram. USA och Kina står för 85 procent av den globala energiförbrukningen för datacenter. I USA förväntas datacenter snart konsumera mer el än hela den tillverkningsindustriella sektorn, enligt IEA.
…det handlar nästan uteslutande om tillkommande elförbrukning…
Kanske kan AI komma att användas för att optimera energiförbrukningen i andra delar av vårt samhälle, men i nuläget tillintetgör AI-satsningarnas skenande elbehov istället snabbt alla andra energieffektiviseringar som gjorts på senare tid.
Vid en tidpunkt i mänsklighetens historia då vi måste fasa ut den fossila delen av vår energiproduktion, för att undvika en katastrofal global uppvärmning, väljer tech-industrin och dess ägare alltså att storsatsa på en utveckling som är extremt energikrävande. En utveckling som dessutom i stor utsträckning används för att ytterligare effektivisera och accelerera det ”business-as-usual” som har försatt oss i denna kritiska situation…
Reflektion:
Bristen på system- och konsekvenstänk är helt sanslös! Vi står inför en situation där 80 % av vår nuvarande energiproduktion, som bygger på fossila bränslen, måste ersättas med hållbar och fossilfri energi. Det är i sig en nästan omöjlig utmaning om vi inte samtidigt radikalt minskar vår energianvändning inom många områden. Att i detta läge göra våra system ännu mer energiberoende…? …använder inte tech-bolagen sin egen teknik vid beslutsfattande?
…och tech-jättarnas koldioxidutsläpp ökar i samma takt.
En ny FN-rapport från ITU visar att de indirekta utsläppen från de fyra ledande AI-företagen har ökat med hela 150 % till följd av AI-satsningar. Amazon, Microsoft, Alphabet och Meta har alla expanderat sin AI-verksamhet kraftigt mellan 2020 och 2023, vilket krävt enorma mängder elektricitet för att driva de datacenter som tekniken bygger på.
%
Indirekta utsläpp omfattar utsläpp som uppstår genom ett företags inköpta elektricitet, ånga, uppvärmning och kylning. Enligt rapporten ökade Amazons koldioxidutsläpp med 182 % år 2023 jämfört med tre år tidigare, följt av Microsoft med 155 %, Meta med 145 % och Alphabet med 138 %.
Rapportens författare varnar för att koldioxidutsläppen från de mest energikrävande AI-systemen på sikt kan nå så mycket som 102,6 miljoner ton per år – en nivå som skulle få enorma klimatkonsekvenser.
Hur går det med tech-jättarnas hållbarhetsambitioner då?
…så lägligt att Trump, som ju; ”vet mer om klimatkrisen än någon annan”, konstaterar att den är en ”Hoax” och undanröjer alla krav på åtgärder från företagen…
AI och global maktbalans…
Oavsett om enskilda länder eller regioner satsar på att utveckla sina egna AI-system eller inte, så är det väl inte osannolikt att dagens maktcentran kommer att kräva inflytande över de system som används inom deras ”intressesfärer”. Hur detta kommer att påverka utvecklingen är inte enkelt att förutspå, men vi kan ju redan i dag se hur användning av system och teknik från vissa länders leverantörer förbjuds av andra länder och vice versa, av rädsla för olika former av manipulering.
Kommer t.ex AI-system att tillåtas ”uttala sig” ofördelaktigt om ett lands härskare eller ”nedgradera” vissa produkter eller företags kvaliteter till förmån för andra?. Eller – kanske är det precis det som tech-bolagens ägare vill att de skall göra ?
Kommer det överhuvudtaget finnas någon ”vakthund” som säkerställer objektiv, saklig, opartisk och korrekt kommunikation – någon extern, fristående och opåverkad ”peer-review”…
Problemställningen är ingalunda någon nyhet. Samma frågeställning har gällt länge. Det är ju också så att historiskt är det nästan alltid ”vinnaren som skriver historien” och någon fullständig opartiskhet är nog svår att hitta. Men när vi nu överlåter inläsningen av ”fakta/bakgrundsmaterial” och tolkningen till AI-algoritmer tappar vi samtidigt helt insynen i processen och värderingen av olika källor etc. Vi låter tech-bolagen bestämma vad som är sanning och diktera villkoren.
…eller säljer de kanske den ”rättigheten” till högstbjudande …eller till en maktregim?!
Nya hot mot vårt samhälle
Om du har tid; Titta gärna några minuter på det här talet från Blaise Metreweli, den nya chefen för Storbritanniens säkerhetstjänst, MI6. (M) Hon ägnar en del tid åt att definiera den nya ”hotbilden” från AI, och hur den förändrar ”landskapet”…
”…as trust collapses, so does our shared sense of truth. One of the greatest losses a society can suffer.”
AI och krig – då är allting tillåtet…
Redan idag sitter militärer i underjordiska bunkrar, långt från krigsområden, och fjärrstyr drönare med enorm förstörelsekapacitet. De spelar ett slags ”Counter-Strike IRL” – utan någon som helst risk för sig själva.
Med olika AI-assisterade hjälpmedel kan de med närmast kirurgisk precision leta upp, identifiera och eliminera (döda) fienden. Civila också för den delen.
De avskyvärda live-bilderna på TV-nyheterna från bl.a IDF:s utrotningskrig i Gaza har väl inte undgått någon…
Vad blir nästa steg? Att bara behöva ”prompta” AI-krigsmaskinerna med kännetecken för hur fienden ser ut och vilket ”resultat” man vill uppnå: ”Utrotning. Döda 50%. Skjut alla som överlever första raketattacken mot en båt på internationellt vatten. Fokusera på civila. Bomba sjukhus, Spräng livsnödvändig infrastruktur…” Eller kanske något annat ”strategiskt mål”, som att i strid med gällande internationell folkrätt kidnappa ett annat lands president för att hans politik inte är i linje med den egna, eller för att komma åt naturresurser.
Då kan man ju ägna sig åt något annat ”viktigt” medan dödandet pågår t.ex: spela golf – eller, varför inte luta sig tillbaka där i bunkern, och titta på i realtid…?
2025-12-10: USA:s försvarsdepartement lanserar ett nytt AI-verktyg som bygger på Googles Gemini och ska hjälpa anställda att snabbt analysera dokument, bilder och video. Försvarsminister Pete Hegseth säger i en video på X att verktyget ska göra den amerikanska militärens arbete ”mer dödligt”,
Undrar om de militära AI-assistenterna har tränats på allt som vi människor globalt har enats om och som gäller enligt bl.a; Folkrätten, Krigets lagar, Genévekonventionerna, Haagkonventionerna, Sedvanerätten, Ottawafördraget, Oslofördraget, FN:s mänskliga rättigheter, Brott mot mänskligheten o.s.v.
Det är naturligtvis fullt möjligt att så är fallet, men knappast troligt…
Har någon någonsin hört talas om en prompt som lyder: ”Skapa fred utan att skada någon”?
Knappast. Utvecklingen (?) handlar bara om att göra vapnen ännu effektivare, ännu dödligare, ännu mer destruktiva och mer autonoma. Inkluderandet av allt mer AI-teknik bidrar påtagligt till detta.
Allt sådant där ”fredstjafs” och diplomati får någon annan syssla med – det ligger utanför vapenindustrins påhittade ”systemgräns”.
Vapenindustrin kommer, precis som alltid, hävda: ”Guns don’t kill people, people kill people”- samtidigt som de utvecklar, tillverkar och säljer ännu mer sofistikerade och dödsbringande system, med enorm ekonomisk vinning som drivkraft. Ivrigt påhejade av investerare som ser möjligheter till hög ROI.
Dolda bakom ”generiska” namn som; BAE Systems, Airbus Group, Thales, Palantir, Elbit systens, IWI, Anduril Industries, Google, Open-AI, Antropic, SAAB, MilDef, Scandinavian Astor, Bofors, Rheinmetall, Lockheed Martin o.s.v applåderas deras ”affärsmässiga framgångar”… Ev. etiska farhågor ”sopas undan” med löften om hög ekonomisk avkastning…
Reflektion:
När det gäller krig och krigsmateriel finns inga av de ekonomiska begränsningar som gäller när vi försöker skapa ett välmående, hållbart samhälle på en välmående planet, eller försöker rädda människor från svältkatastrofer. Då är resurserna alltid ”slut”. Men för att bygga och köpa dödliga vapensystem – Oändliga budgetar!?
Om man dessutom kallar det ”försvarsmateriel” kan investeringarna plötsligt klassas som ”hållbar finansiering”.
EU:s regelverk för hållbar finansiering [?] – som exempelvis Disclosureförordningen (SFDR) – stoppar nämligen inte investeringar i försvarssektorn. Det kräver bara transparens kring hur besluten påverkar hållbarhetsfaktorer. Med andra ord: så länge man redovisar konsekvenserna, t.ex: CO2-utsläpp, kan man fortsätta pumpa pengar in i krigsindustrin och ändå kalla det ”hållbart”
Hur kan krig överhuvudtaget klassas som hållbart?
Båda sidor i ett krig hävdar alltid att de ”försvarar” något – ingen ser sig som angripare.
Men är det inte märkligt att allt detta ”försvar” ändå resulterar i att hundatusentals människor, både militära och civila, dödas och att enorma mängder byggnader och infrastruktur jämnas med marken?
Att dessutom effektivisera dödandet med AI-system framstår knappast som högstående intelligens.
Det enda verkligt intelligenta i detta sammanhang vore att använda AI för att undvika väpnad konflikt – inte för att göra den än mer dödlig. Eller som Astrid Lindgren sa:
”…Tänk om det blev krig och ingen gick dit…”
Men det är klart – all ekonomisk aktivitet, oavsett om den genereras av att tillverka vapen, krigföring eller återuppbyggnad av sönderbombade städer bidrar ju till att öka BNP. Då är väl allt bra eller…?
AI – Ingenting går längre att lita på…
Nästan över en natt har det blivit omöjligt att lita på något. Allt går att manipulera med hjälp av AI – bilder, texter, filmer, diagram, ljudfiler, ”fakta”… ja, i princip allt. Det finns till och med program som gör detta i realtid.
Gamla talesätt som ”En bild säger mer än tusen ord” känns plötsligt hopplöst föråldrade. Fotobevis räcker inte längre – de kan förvrängas till att ge helt motsatt effekt, eller precis den effekt skaparen önskar. Jag läste någonstans att över 71 % av bilderna i sociala medier idag är AI-genererade. De smarta telefonernas AI-assisterade bildbehandlingsprogram har avancerade retuscheringsfunktioner som gör att alla dina bilder kan bli ”helt magiskt” fina och om du vill behöver du aldrig någonsin mer dela med dig av den verkliga verkligheten – du kan ”försköna” den likt en influencers ”drömvärld”…
För att kunna lita på ett uttalande måste du nu i princip vara närvarande när det sägs. Filmupptagningar kan enkelt manipuleras med AI. Förr diskuterade man hur redigering ibland kunde ta ett uttalande ur sitt sammanhang och feltolkas. Idag kan man med AI helt och hållet ändra vad en person säger – och det nästan omärkligt. AI kan också ”mottagar-modifiera” uttalandet så att det bättre resonerar med allt annat som bl.a Google redan vet om dig för att på så sätt påverka och manipulera på individnivå…
Förtroende och tillit, vårt samhälles kanske allra viktigaste byggstenar, tar lång tid att bygga upp. Men det kan raseras på ett ögonblick. Ett AI-genererat (felaktigt eller uppseendeväckande) uttalande som blir viralt kan förstöra allt, eller så tvivel som aldrig går att reparera.
Möjligheterna att spåra eller kontrollera bilder och filmers äkthet och ursprung är dessutom små och kräver ofta ganska avancerad kunskap.
Även om du kan spåra ursprungsmaterialet så betyder inte det att den förvanskade versionen kan raderas. Copyright, upphovsrätt och varumärkesskydd blir snabbt ganska värdelösa begrepp… Samtidigt som tech-jättarna är onåbara bakom mängder av finstilt text, jurister och kryphål i internationell lagstiftning etc.
Reflektion:
Vi står inför en verklighet där sanningen blir allt svårare att verifiera. När gränsen mellan äkta och artificiellt suddas ut, måste vi fråga oss: Svaret ligger inte bara i teknik – det kräver nya normer, starkare källkritik och en bred samhällsdebatt om hur vi bevarar det som är verkligt – tyvärr lyser denna debatt nästan helt med sin frånvaro.
Det är alltså inte nog med att allting kan modifieras och manipuleras. Avsaknaden av debatt i våra demokratiska system och tydliga regelverk gör ju att även tilliten till våra politiker och institutioner urholkas.
Alarmerande naivitet!
Naiviteten och den nästan barnsliga förtjusningen inför AI och dess möjligheter är ibland direkt skrämmande.
Nyligen träffade jag en person med relativt hög befattning som tyckte att det vore en lysande idé att låta organisationens AI‑baserade kundtjänst (FAQ) svara via en AI‑genererad, verklighetstrogen digital kopia av honom själv. Arbetet med att träna modellen med hjälp av filmsekvenser av honom hade redan påbörjats.
Jag frågade om han verkligen insåg vad detta skulle innebära för hans möjligheter att i framtiden uttala sig seriöst i olika frågor och sammanhang.
…För varför skulle någon lita på honom, den verklige personen, om vilken programmerare som helst kan skapa verklighetstrogna ”uttalanden” i hans namn?
Hur undviker man då att reduceras till en digital sprattelgubbe?
AI och Meningen med livet…
Människor behöver, till skillnad från många andra arter, känna mening med livet. Det är en viktig del av social hållbarhet. (FSSD – Hållbarhetsprincip #8)
Vad är då meningen med livet? Det finns inte ett enda definitivt svar på det, men här är några perspektiv som ofta åberopas:
- att bidra till något större
- att ha och vårda relationer
- att lära sig saker och växa
- att lämna världen lite bättre än man fann den
- att fritt få forma våra liv
- att överleva
- att reproducera sig
- att främja artens fortsatta utveckling
- att känna sig behövd
- att känna att man bidrar till andra
Observera att begrepp som; girighet, narcissism, makt och rikedom aldrig åberopas om man frågar om meningen med livet.
Här finns påtagliga risker för konflikt i samband med att AI-system introduceras. Vad ersätter vi t.ex ”att lära sig saker” med när AI används alltmer för att få svaren…? Varför skall man utbilda sig om ingen har behov av din kunskap?
Redan idag ökar antalet människor, framför allt unga, som mår dåligt och är suicidbenägna lavinartat på grund av all stress, prestationskrav och oro inför framtidsutvecklingen. Hur bidrar den nuvarande AI-utvecklingen till att vända den trenden..?
Text från The Investigative, översatt med Google Translate:
Efter åratal av att uppmuntra miljontals människor att klara läxor, tentor och sömnlösa nätter – ofta samtidigt som de ackumulerade studieskulder i massiv skala – har utdelningen blivit alltmer ironisk. Många akademiker ger sig nu ut på en arbetsmarknad där uppgifter som en gång utlovades som stabila karriärer automatiseras av algoritmer som arbetar kontinuerligt, inte kräver någon vila och kostar en bråkdel av mänsklig arbetskraft. Skämtet, menar kritiker, ligger i hur tyst denna övergång har utvecklats.
Forskare och arbetsmarknadsanalytiker noterar att skiftet ofta är så subtilt att arbetstagare bara inser vad som händer när automatiseringsverktyg börjar ersätta delar av deras egna roller. I vissa fall ombeds anställda att samarbeta med eller utbilda system som så småningom gör deras positioner överflödiga. Det som en gång lät som en avlägsen framtid har blivit en nutida verklighet formad av framsteg inom artificiell intelligens, stigande utbildningskostnader och förändrade ekonomiska prioriteringar.
Källor:
Författare, D. (2015). Why Are There Still So Many Jobs? The History and Future of Workplace Automation. Journal of Economic Perspectives, 29(3), 3–30. Länk till dokument
Brynjolfsson, E., & McAfee, A. (2014). Den andra maskinåldern: Arbete, framsteg och välstånd i en tid av briljanta teknologier. W. W. Norton & Company. Federal Reserve Bank of New York. (2023). Länk till Adlibris
Statistik och demografi över studielåneskulder. Federal Reserve Bank of New York.
AI och våra hjärnor…
I en aktuell (2025) studie på MiT (Massachusetts Institute of Technology) studerade man hur våra hjärnor påverkas av olika datoriserade hjälpmedel som Google Search och ChatGPT – den dolda kostnaden som händer i våra hjärnor…
Studien fokuserade på att ta reda på den kognitiva ”kostnaden” av att använda datoriserade hjälpmedel i den utbildningsmässiga kontexten för att skriva en uppsats.
Utformningen av studien var väldigt enkel:
- Följ tre grupper som skriver uppsatser
- Övervaka deras hjärnor med EEG-skanningar
- Jämför kognitiva mönster
Grupp 1: Bara mänskligt tänkande
Grupp 2: Google Search assisterat
Grupp 3: ChatGPT-drivet
Hur blev resultatet? Mer förödande än väntat!
Några slutsatser:
Din hjärna tystnar
- ChatGPT-användare visade svagaste neurala kopplingar
- Minnescentra knappt aktiverade
- Kreativt tänkande försvann nästan
- Alla uppsatser såg misstänkt lika ut
Skadan förvärras
- Började med att ”bara kontrollera” AI-förslag
- Utvecklades till ett kopiera-klistra-beroende
- Hjärnaktiviteten minskade med varje användning
- Minnesåterkallelsen blev sämre med tiden
Återhämtningsproblemet
- Att byta tillbaka till manuell skrivning hjälpte inte
- Hjärnmönster förblev undertryckta
- Tidiga AI-användare hade det svårast
- Endast nya sinnen integrerade AI framgångsrikt
Den preliminära studien var väldigt begränsad och omfattade bara 54 personer, men man behöver ändå fråga sig:
”Byter vi kortsiktig effektivitet mot långsiktig tankeförmåga?”
De företag som vinner med AI är inte de som använder det mest.
De är de som skyddar sina teams hjärnkapacitet.
Finns det då inget som är bra med AI…?
Naturligtvis finns det mängder av positiva och konstruktiva möjligheter med AI. Problemet ligger inte enbart i själva tekniken, utan i hur vi väljer att använda den, och i vilka syften.
När vi utan eftertanke, nästan reflexmässigt, adderar AI som ett slags ”smörjmedel” för att effektivisera och påskynda de processer och system som redan driver vårt samhälle och vår miljö mot kollaps, då förstärker vi bara problemen.
Det är svårt att inte se parallellen till vapenlobbyns slagord: ”Guns don’t kill people, people kill people.” I dag hör vi dess digitala ”syskon” från techbolagen, som bedriver en närmast okontrollerad rovdrift på våra samhällen: ”AI doesn’t kill people, people kill people…”
Men en viktig fråga infinner sig: Tror vi verkligen att tillgången på vapen inte påverkar att antalet skjutvapenrelaterade mord i USA är 77 gånger högre än i exempelvis Tyskland? (IHME, 2021) Eller är människor i USA helt enkelt 77 gånger mer ”mordiska”…?
På samma sätt behöver vi fråga oss hur vår ohämmade tillgång till AI-verktyg påverkar de övergripande system vi bygger och vilka konsekvenser det får. Det viktiga är därför att rikta tekniken åt rätt håll. Om vi istället använder AI till att förändra den destruktiva bana vi befinner oss på, till att stärka en hållbar utveckling och kanske till och med återställa sådant vi redan har förstört – då blir AI något helt annat. Då är det inte ett verktyg som accelererar problemen, utan ett som hjälper oss att lösa dem.
Det finns dock väldigt få tecken som visar på en sådan utveckling, annat än i väldigt begränsad omfattning.
…Största anledningen är väl antagligen att det inte är lika ekonomiskt ”lönsamt”…
WWF:s aktuella rapport; ”How AI can unlock green transformation” visar på några möjligheter, med dagligvaruhandeln som exempel.
Utan ”systemtänk” riskerar AI att cementera ohållbara beteenden
Vissa tillämpningsområden, till exempel att sammanställa koldioxidutsläpp för rapportering eller att beräkna utsläpp i komplexa leverantörskedjor, kan vid första anblicken framstå som perfekta att överlåta åt AI‑verktyg (Mycket data och komplex insamling). Men utan ett genomtänkt systemperspektiv är risken stor att tekniken inte bidrar till verklig omställning, utan i stället cementerar ett fortsatt business-as-usual, bara med mer och korrektare data.
Exempel: Byggbranschen
I byggbranschen pratas det just nu mycket om hur AI‑verktyg kan användas för att effektivisera processer och höja kvaliteten i alla led. Det handlar bland annat om att automatisera arbetsflöden, stärka beslutsunderlag, samt samla in och hantera data kopplat till byggmaterial (som EPD:er) och att genomföra klimatberäkningar av CO₂‑utsläpp.
Det som däremot sällan lyfts fram är den större, mer grundläggande utmaningen: att byggsektorn globalt idag står för närmare 40 % av all råvaruförbrukning och en nästan lika stor andel av världens samlade avfall. Eller att det var femte dag färdigställs nya byggnader motsvarande ett helt Paris – ett byggtempo som i längden är ohållbart.
Det här pekar på en obekväm men nödvändig insikt: nybyggandet måste minska. Teknik och AI kan hjälpa oss effektivisera, men de kan inte lösa den grundläggande hållbarhetsproblematiken om vi fortsätter bygga i samma takt som i dag. Vi måste se på problemet från ett systemperspektiv, inte utgå från en snäv påhittad systemgräns där bara byggbranschen ingår.
Exempel; Tech-industrin
Tech‑industrin är själva ett annat tydligt exempel. Fram till ganska nyligen publicerade de stora teknikbolagen omfattande hållbarhetsredovisningar med noggrant insamlade data och ambitiösa planer för att minska, eller kompensera för, sina koldioxidutsläpp. Men när AI‑boomen tog fart (och Trump ”avskaffade” klimathotet) förändrades bilden snabbt. Flera aktörer redovisar, fortfarande öppet, kraftigt ökade utsläpp. De tidigare löftena om utsläppsminskningar ersattes i praktiken av en acceptans för att energiförbrukningen skjuter i höjden, utan att man presenterar några tydliga åtgärder eller ansvarstagande strategier.
Läs mer om varför ”Hållbarhetsredovisning” inte är detsamma som ”Hållbar utveckling” och varför optimering inom påhittade systemgränser utan ”systemtänk” inte leder till hållbarhet:
Hållbarhetsredovisning – bara en massa siffror utan sammanhang!
Hållbart ledarskap – kräver mer än koldioxidberäkningar och årliga redovisningar!
Redovisningsstrategi eller Hållbarhetsstrategi?
Saknar du en kompass i hållbarhetsarbetet…
Hållbart ledarskap – Systemförändring, det får någon annan ta ansvar för!
Hållbart Ledarskap – Målhysteri och skygglappar…
Rationellt AI-tänkande övertrumfas enkelt av emotionella beslut
Om jag frågar en AI-assistent (vilken som helst) hur vi skall kunna hindra att jordens medeltemperatur ökar och så att mänsklighetens livsvillkor försvinner, så svarar den att vi måste sluta förbränna fossila bränslen.
Om nu AI-systemen sitter på all kunskap – varför blev då detta inte beslutat på det senaste COP-mötet i Belém?
Det blev inte ens omnämnt i slutrapporten…
Det är ganska uppenbart att rationella fakta som presenteras av AI-verktygen bara accepteras om de överensstämmer med den egna världsbilden och de egna ambitionerna i övrigt. Eftersom de oljeproducerande länderna och horden av lobbyister som avlönas av fossilindustrin inte håller med om de rationella fakta som AI levererar, så kommer aldrig ett sådant beslut att fattas.
AI – Som du ”promptar” får du svar…
Det händer att man kan läsa kommentarer från vana AI-användare i stil med: ”Om du bara promptar rätt, så får du rätt svar… Det finns de som listar upp exempel på ”bra promptar” – Ja, det finns t.o.m AI-verktyg som är gjorda för att generera promptar
Osökt infinner sig då tanken; Om jag redan vet så mycket om vilket svar jag vill ha och därför ställer detaljanpassade frågor – varför skall jag då ens fråga…?
Du kanske tror att AI förstår dig. Men här är vad som faktiskt händer:
- AI förstår dig inte – den känner bara igen språkliga mönster som liknar människor som låter som du.
- När du upplever att den ”förstår” din situation, så uppfattar den inga nyanser. Den gör bara statistiska förutsägelser om vilka ord som sannolikt bör komma härnäst.
- När den känns icke‑dömande är det inte för att den är öppensinnad. Den kan inte döma. Den har inget omdöme att stänga av. Bara sannolikheter att optimera.
- Den lugna tonen. Det stadiga självförtroendet. Den tydliga formuleringsförmågan. Inget av det är förståelse – det är inprogrammerat ”flyt”.
- Du tror kanske att AI är opartisk eftersom den inte är mänsklig. I verkligheten har den lärt och ärvt mänskliga fördomar i industriell skala. (Även sociala forum används för träning av modellerna)
- Du tror att den ger dig en objektiv syn. I verkligheten ger den dig den statistiskt mest trovärdiga synen.
- Du tror att den är ”säker” eftersom den låter som om den vet. I verkligheten låter den säker eftersom självförtroende ofta uppfattas som hjälpsamt.
- Du tror att den är noggrann med fakta. I verklighetens algoritmer kommer korrekthet efter koherens (samstämmighet) – om den inte strikt begränsas.
- Du tror att den är empatisk. I verkligheten speglar den bara emotionella språkmönster.
- Du tror att den validerar (bekräftar) ditt tänkande. I verkligheten optimerar den för din nöjdhet.
Inget av detta gör AI dåligt. Det gör den till en dator.
En kraftfull sådan. En flytande sådan. Ett system som förutsäger text, inte mening.
Och den distinktionen spelar roll. För ju mer mänsklig AI känns, desto mindre ifrågasätter vi den. Vi litar inte på AI för att den har rätt. Vi litar på den för att den låter lugn. Och lugna, säkra svar har alltid varit övertygande. Långt innan AI kom.
Hållbarhet handlar om att tänka efter – före!
Jag har framhållit det många gånger förut. Det är det andra stycket i Bruntlandskommissionens definition av hållbar utveckling, som är det viktigaste för att uppnå hållbarhet. Det är där omställningen måste börja.
”En hållbar utveckling tillfredsställer dagens behov,
utan att äventyra kommande generationers möjligheter
att tillfredsställa sina behov”
– Brundtland-rapporten, FN, 1987 –
Min skepticism till AI grundar sig mycket i att väldigt lite [ingenting] tyder på att AI-systemen har några spärrar för att säkra ”kommande generationers möjligheter…” Istället byggs och tränas de framförallt för att effektivisera och snabba upp det rådande paradigmet och den neoliberala marknadsekonomin – ”mer av samma”.
PS:
Jag har testat Microsoft Copilot för att ”förbättra” meningsbyggnaden i den här texten. I de flesta fallen har jag sedan ändrat tillbaka till min ursprungstext eftersom jag tycker Copilots ”textmelodi” många gånger ”slätar ut” det budskap jag vill förmedla och gör det generiskt, likformigt, ”tamt” och opersonligt.
De rättade stavfelen (4 st) har jag dock bibehållit… Bilderna är omodifierade eller skapade av mig personligen, utan AI-stöd…
Vill du veta mer?
Kontakta gärna thefuture® om du vill veta mer om hållbar utveckling. Om du vill veta mer om olika tillämpningar, utbildning, föreläsningar eller FSSD-metoden, eller om du bara är nyfiken.
…en kopp kaffe tillsammans, live eller via TEAMs, är alltid en bra början!








