Risker och möjligheter med AI, maskininlärning och robotik

”Any powerful technology can be misused. Today, artificial intelligence is used for many good causes including to help us make better medical diagnoses, find new ways to cure cancer and make our cars safer. Unfortunately, as our AI capabilities expand we will also see it being used for dangerous or malicious purposes. Since AI technology is advancing so rapidly, it is vital for us to start to debate the best ways for AI to develop positively while minimizing its destructive potential.”

Is Artificial Intelligence Dangerous? 6 AI Risks Everyone Should Know About

Det finns både risker och möjligheter med AI, maskininlärning och robotik.

En risk är att vissa länder kan bli fascistiska polisstater med absolut kontroll över sina invånare, en annan risk är att det kommer göra många arbetslösa initialt, en tredje risk är att vi skapar skynet, men det kräver ett självmedvetet AI som ligger långt bort och kanske inte ens är möjligt att uppnå.

Sen finns positiva saker som att vården effektiviseras så inte bara de rikaste får tillgång till bra vård, automatiserade hem som kan avlasta utarbetade föräldrar från vardagssysslor, att man i princip kan starta en tillverkningsfabrik varsomhelst, bilar med bättre förarhjälpmedel som förbättrar säkerheten, självkörande bilar (lite kluven där), hushålls eller vårdrobotar för gamla och handikappade, leveranstransporter o.s.v.

”Using scenarios to predict the near term future of AI. Full blown AGI might take longer than some expect, but that doesn’t mean that we wont see radical changes to our political economy soon. This video explores the ideas in an IMF article by Anton Korinek and then expands upon these to develop a grid of plausible scenarios. The goal is to make it easier to keep a clear eye on what is likely to happen soon separately from the slightly wilder speculation about what might happen one day.”

Sen kan man självklart driva det för långt med så människor blir överflödiga och det inte finns några jobb längre så folk inte kan försörja sig om AI utvecklingen når så långt vilket den inte gjort än.

Därför tror jag precis som Oli Sharp att vi kanske kommer behöva utöka den offentliga sektorn och helt enkelt skapa nya jobb inom kultur, vård, utbildning, forskning, idrott, välgörensarbete o.s.v.

Vi kan använda produktivitetsvinsterna från AI automationen till att öka sysselsättningen inom yrken där det kan jobba fler men för närvarande är för dyrt och inom områden som i nuläget utförs ideellt eller inte alls eftersom ingen vill betala för det, om inte marknaden själv löser det då människor även kommer ha större möjligheter att skapa och tillhandahålla nya produkter och tjänster.

”There are a few key gaps in much of the talk about AI, in particular this video looks at how the narratives around the impact of the generalist capabilities of AGI on the job market often fail to talk about how even the AI tools we have today will likely change the relative balance between the private sector and the government sector. This could usher in a new phase shift in the scale of government spending that will change the nature of capitalism as we know it.”

Sen tror jag inte människor mår bra av att vara sysslolösa heller (latmaskar undantaget) ifall vi i stället bestämmer oss för att då gå över till universal basic income, för det är bara att se till hur extremt dekadent och ibland närmast ondskefull adeln var på den feodala tiden som hade tjänare till allt.

Sen finns förstås den typen som är aktiv och självgående och kanske skulle föredra universal basic income så de kan resa jorden runt och uppleva äventyr, bestiga berg och andra utmanande sysslor som också är en sort jobb eller så kan de bli anställda som äventyrare med uppgiften att skriva rapporter om sina äventyr i efterhand.

Man kan även skapa polisstater och stärka diktaturer o.s.v.genom minutiös massövervakning av allt medborgarna gör.

AI bör i första hand användas för folket bästa och inte maktens med tanke på möjligheterna det kommer ge med tiden och för stor koncentration av makt till ett fåtal individer eller en stat med totalt kontroll är aldrig bra för ett fritt samhälle för det kommer missbrukas.

Filmen demolition man med Sylvester Stallone är ett exempel på när man drivit detta med polisstat och övervakning för långt av goda intentioner, och infört en sorts godhetsdiktatur (beror på vad staten i fråga anser är gott beteende) som blir som ett stort fängelse, vilket kommer bli fullt möjligt i framtiden med hjälp av AI, maskininlärning och robotik.

The Matrix och Terminator filmerna är ett exempel på vad som kan hända om vi ger AI för mycket fri vilja om vi någon gång lyckas skapa självmedvetet AI eller med tanke på dagens LLM’ers tendenser till att hallucinera ibland skapar autonoma vapen som dödar utan mänsklig inblandning.

Vad händer t.ex. om dessa tas över av ett super AI som vi tappar kontrollen över om 100 år i fall vi uppnått självmedvetna AI’s till dess, eller av en ond ledare som dirigerar det?

Förhoppningsvis kommer vi klara av att undvika extremscenariona och använda AI, maskininlärning och robotik på ett ansvarsfullt och balanserat sätt som sätter människorna främst ungefär som i Star Trek filmerna, men även där finns de som använder AI, maskininlärning och robotik till ont, så man är naiv om man tror det inte kommer ske.

Det kommer även kräva regleringar och lagar om dess användning för annars kommer girigheten ställa till det i fria länder och företag gå över gränsen i sin jakt på vinst.

Fråga er om ni hade velat leva i ett samhälle där 90% lever i ekonomisk och social misär och hålls under kontroll av de 10% som äger företagen via de möjligheter som AI, maskininlärning och robotik kommer ge om inte lagar och regleringar införs, så inser ni att möjligheten till denna sorts ”feodala diktatur” också finns.

”This report shows how the rise of artificial intelligence (AI) is transforming China’s state control system into a precision instrument for managing its population and targeting groups at home and abroad.”

The party’s AI: How China’s new AI systems are reshaping human rights

Länder som är diktaturer kommer kunna använda dessa teknologier för att stärka sitt grepp om folket, och stora länder som Kina kan utveckla sin egen teknologi som vi demokratiska länder inte kan styra via lagar och regleringar, så visst finns det risker.

Precis som med vapenembargon mot diktaturer borde vi kanske införa AI, maskininlärnings och robotikembargon mot dessa i den mån det går men i fallet med Kina är det nog redan försent som utvecklingen där de senaste åren visat på.

Vems är felet när LLM baserade AI teknologier som ChatGPT eller Copilot gör misstag?

”Unlike traditional products, AI operates in ways that can be opaque, adaptive, and unpredictable, which makes assigning accountability far from straightforward. Existing legal frameworks provide some guidance, but they were not designed with autonomous algorithms in mind. Policymakers, courts, and companies are now wrestling with how to adapt.”

Who’s to Blame When AI Fails? The Struggle for Legal Accountability

Sen är inte AI, maskininlärning och robotik perfekt heller och kan göra misstag precis som människor, så vem är felet när det sker?

Enligt mig det företag eller den person som sålt och skapat produkten förutsatt den använts på rätt sätt precis som med vilken annan produkt som helst.

”The tech creators, governments, businesses, and every user all must play their part in both the accountability and responsibility when using technology that has the potential to change the world as we know it for better or worse.”

Why responsible AI is everyone’s business

Problemet med LLM baserade AI teknologier som till exempel ChatGPT och Copilot  är användargränssnitt mot är att dessa i grund och botten är avancerade gissningsmaskiner som baserar sina svar på matematiska sannolikheter och de kan varken tänka eller resonera på riktigt.

Det innebär att det till skillnad från i traditionella regelbaserade expertsystem alltid kommer finnas ett inslag av ”slumpmässighet” i deras svar, som ibland leder till mer eller mindre allvarliga fel hur fine-tunade de än blir av dem som utvecklar och tillhandahåller dessa LLM baserade AI teknologier.

Därför är det även användarnas skyldighet att inte inte lita blint på svaren dessa ger utan använda sitt omdöme och dubbelkolla svaren dessa chattbottar ger mot andra källor om det behövs.

När det gäller LLM baserad AI robotik som industrirobotar, lagerarbetsrobotar, självkörande bilar o.s.v. är faran också stor för dessa kan skada eller till och med döda oskyldiga människor om de råkar gissa lite fel och det leder till fel fysiska handlingar.

Vid utveckling av dessa produkter måste man alltså vara extra försiktig och frågan är om saker som självkörande bilar helt enkelt inte borde tillåtas.

AI-assisterad programutveckling med hjälp av ChatGPT eller Copilot bör med nuvarande AI teknologi fortfarande bedrivas iterativt och inkrementellt där utvecklaren styr

”At the moment, if you are experimenting or wanting some code that you can run once and throw away, then I think ”Vibe Coding” is a great option assuming your problem is simple enough. On the other hand, if you’re wanting code that’s going to need to be running reliably in production for a long period of time, then the current state of the art is nowhere near what you need. And I would urge you not to use ”Vibe Coding” for anything that needs to be maintainable or anything that’s going to be sitting on the internet in a place where hackers might be able to get to it because that’s a recipe for making the internet less safe for everyone.”

Vid programutveckling kan det oftast behöva dubbelkollas för ingen vill att till exempel en mjukvara som styr ståltillverkningsprocesserna på SSAB helt plötsligt får för sig att göra saker med glödhett smält stål som dödar personalen eller orsakar produktionsstopp som kostar mångmiljonbelopp per dag bara för att en utvecklare varit för lat och okritiskt copy-pastat ett kodförslag från ChatGPT eller slängt ihop det med vibe coding.

AI-assisterad programutveckling med hjälp av ChatGPT eller Copilot bör alltså fortfarande bedrivas iterativt och inkrementellt där det är utvecklaren som styr och försäkrar sig om att de förstår vad det är kodförslaget verkligen gör för att sedan välja, förkasta eller ändra på ChatGPT’s eller Copilots kodförslag, när de till exempel vill ha ett förslag på hur en klass eller metod ska implementeras eller vad ett felmedelande kan bero på.

Man använder det till mindre väl avgränsade saker som en assistent som kan komma med förslag, så köp inte vibe code hypen för nuvarande AI teknologi duger inte riktigt till det.

LLM baserade AI teknologier kommer även skapa nya jobb och inte rationalisera bort så många jobb som folk trott heller

”More specifically, our research reveals three new categories of AI-driven business and technology jobs. We label them trainers, explainers, and sustainers. Humans in these roles will complement the tasks performed by cognitive technology, ensuring that the work of machines is both effective and responsible — that it is fair, transparent, and auditable.”

The Jobs That Artificial Intelligence Will Create

Dessa LLM baserade AI teknologier kommer även skapa nya jobb och hittills har mänskligheten använt teknologi för att kunna konsumera mer av befintliga och nya produkter och tjänster.

Det kanske jämnar ut sig i längden och blir förhoppningsvis inte en ekonomisk AI apokalyps som vissa varnar för när ingen längre har något köpkraft för att AI tagit över allt för dagens AI teknologi verkar inte kunna ta sig dit utan är överhypad.

”This video is a short clip from our full‑length interview with Sir Roger Penrose. In the full conversation on our channel, the Nobel‑Prize‑winning mathematical physicist dives into artificial intelligence, Gödel’s incompleteness, computability, and why—despite today’s hype—he believes machines will never attain consciousness”

Men om vi någonsin kommer att komma dit är frågan för de finns de som Roger Penrose som säger att sann AGI är en omöjlighet eftersom datorer inte kan bli självmedvetna och bara är beräkningsmaskiner och han är trots allt en nobelprisvinnande matematiker som borde veta vad han pratar om till skillnad från AI bolagens snake-oil-salesmen som verkar ha ett egenintresse av att hypa LLM baserad AI teknologi.

”Even though ChatGPT and Gemini are getting better, they still suffer from the same types of failure modes, like hallucinations, which suggests that simply scaling them up yet further will not fix these issues. But at the same time we can see around us the adoption and use of ever more AI tools for doing specific types of work as, despite these flaws, they can still be very useful in specific contexts. This video explores this tension between a slowing down of progress towards artificial general intelligence, AGI, and yet a growing impact of AI tools on our political economy.”

Sen verkar förbättringen av LLM baserade AI teknologier ha nått en platå under 2025 där förbättringarna för varje ny generation bara blir mindre och mindre och samtidigt kräver mer och mer beräkningskapacitet och energiåtgång så det har blivit praktisk och ekonomisk ohållbart att försök förbättra dem mer i någon större utsträckning och i framtiden kommer det nog bara ske smärre förbättringar och kanske en spridning av nuvarande användning.

För att få ett LLM baserat AI att bli något som ens är i närheten av att kunna kallas för AGI likt (inte sann AGI) hade det krävts närmast oändligt med kvalitativt data att träna dem på och närmast oändligt med beräkningskapacitet vilket i sin tur krävt närmast oändligt med energiåtgång, så det är en praktiskt omöjlighet.

LLM’erna har alltså 6 år efter att jag skrev första versionen av denna bloggartikel blivit ungefär så bra som de blir under 2025 och de är inte i närheten av att vara det AGI som skulle orsaka massarbetslöshet, ersätta alla arbetare och skapa kaos i världen, utan bara ännu ett teknologiskt verktyg som människor kan använda som hjälpmedel och kommer passa mer eller mindre bra till olika saker vilket man får upptäcka allteftersom.

Utvecklare har nog varit framkant där och redan börjat upptäcka och dra lärdomar av användningen av dem, insett deras begränsningar och att de bara är ett verktyg med inbyggda fel och brister som måste användas med omdöme.

Så kommer ske i alla andra branscher med där man får testa sig fram till vad som kan göras med dagens AI teknologi, t.ex. hur mycket mer lagarbeten som kommer kunna automatiseras och om självkörande bilar kommer kunna ta över vissa uppgifter o.s.v.