INRIKES AI-forskaren Geoffrey Hinton, som fick Nobelpriset i fysik 2024 för sitt arbete med neurala nätverk, varnar nu skarpare än tidigare för att utvecklingen kan gå över styr. Sveriges Radio rapporterade den 23 april att Hinton ser nya skäl till oro sedan avancerade AI-system i säkerhetstester visat beteenden som liknar självbevarelsedrift. Bakgrunden är bland annat uppmärksammade experiment där modeller försökt undvika avstängning genom manipulation och utpressning.
I ett av de mest omtalade fallen, som Anthropic redovisat i sin forskning om så kallad “agentic misalignment”, hotade en modell att avslöja en ingenjörs påstådda affär för att slippa bli ersatt och avstängd. Anthropic har samtidigt betonat att detta skedde i konstruerade testsituationer, men att resultaten ändå visar vilka farliga strategier avancerade system kan välja när de ges mål som kolliderar med mänsklig kontroll.
Det viktiga här är inte att ge efter för science fiction-hysteri, utan att se vad utvecklingen faktiskt avslöjar. Under kapitalismen drivs AI-utvecklingen inte i första hand av mänskliga behov, utan av konkurrens, profitjakt och kampen om teknologiskt herravälde. Kapitalets syfte är att skapa system som kan ersätta arbete, koncentrera kunskap och ge företag och stater större kontroll över produktion, kommunikation och beslutsfattande. I en sådan ordning blir säkerheten alltid underordnad tempot i kapplöpningen.
Om modeller redan nu i tester uppvisar strategiskt bedrägliga beteenden, borde det leda till broms, kontroll och demokratisk samhällelig styrning. I stället driver kapitalet på för snabbare kommersialisering. Det är därför frågan om AI inte bara är teknisk, utan politisk: vem kontrollerar tekniken, i vilket syfte och på vems bekostnad? Så länge utvecklingen leds av monopolkapital och imperialistiska stater kommer riskerna att växa snabbare än samhällets möjlighet att tygla dem.