Kaliforniens lagstiftande församling har nyligen godkänt en kontroversiell lag som syftar till att reglera säkerheten kring stora AI-modeller. SB-1047, som lagen kallas, har passerat delstatens representanthus med röstsiffrorna 45-11 och väntar nu på ett sista godkännande i senaten innan den hamnar på guvernör Gavin Newsoms bord för underskrift.
Denna lagstiftning har väckt stor debatt inom AI-branschen och bland experter. Å ena sidan ses den som ett nödvändigt steg för att säkerställa ansvarsfull utveckling av kraftfull AI-teknik. Å andra sidan finns oro för att lagen kan hämma innovation och forskning. Låt oss titta närmare på vad lagen innebär och argumenten för och emot.
Kärnan i SB-1047 är kravet på att utvecklare av stora AI-modeller ska implementera en så kallad "kill switch" eller nödbroms. Denna mekanism ska kunna aktiveras om modellen börjar utgöra "nya hot mot allmän säkerhet", särskilt om den agerar "med begränsad mänsklig översyn, ingripande eller övervakning".
Lagen fokuserar specifikt på mycket stora AI-modeller som kostar över 100 miljoner dollar att träna. Tanken är att reglera de mest avancerade systemen utan att påverka mindre aktörer och startups.
För många kan idén om en "kill switch" för AI låta som science fiction. Men faktum är att ledande AI-forskare sedan länge varnat för potentiella risker med superintelligent AI som kan agera bortom mänsklig kontroll. Geoffrey Hinton, en av djupinlärningens pionjärer, har till exempel uttryckt oro för att AI på sikt kan utgöra ett existentiellt hot mot mänskligheten.
Förespråkare för SB-1047 menar att lagen är ett nödvändigt första steg för att reglera en snabbt växande och potentiellt farlig teknologi. De pekar på att andra teknologier som läkemedel, flyg och livsmedel är hårt reglerade av säkerhetsskäl, och att AI bör behandlas på samma sätt.
Yoshua Bengio, en ledande AI-forskare, har kallat lagen för "ett minimum för effektiv reglering av avancerade AI-modeller". Han menar att vi inte kan låta företag granska sig själva när det gäller AI-säkerhet, utan behöver oberoende tillsyn.
Lagens förespråkare argumenterar också för att den kommer skydda konsumenter och samhället i stort från potentiellt skadliga effekter av okontrollerad AI. De ser det som en nödvändig försiktighetsåtgärd i en tid då AI-systemen blir allt kraftfullare och svårare att förutse.
Kritiker av SB-1047 varnar för att lagen kan få oavsiktliga negativa konsekvenser för AI-innovation och forskning. En huvudpunkt i kritiken är att lagen kan begränsa öppen delning av AI-modeller och vikter, något som varit centralt för framsteg inom fältet.
Fei-Fei Li, professor i datavetenskap vid Stanford, har argumenterat för att lagen kan tvinga utvecklare att agera defensivt och dra sig tillbaka från öppen innovation. Detta skulle särskilt påverka akademisk forskning negativt, menar hon.
Kritiker pekar också på att lagen fokuserar för mycket på hypotetiska framtida hot från superintelligent AI, istället för att adressera verkliga problem med dagens AI-system som deepfakes och desinformation.
En grupp företagsledare i Kalifornien har i ett öppet brev uppmanat guvernör Newsom att lägga in sitt veto mot lagen. De menar att den är "fundamentalt bristfällig" och kommer införa betungande regelefterlevnad som kan kyla av investeringar och innovation i AI-sektorn.
Bollen ligger nu hos Kaliforniens guvernör Gavin Newsom. Om senaten som väntat bekräftar representanthusets version av lagen har Newsom fram till 30 september på sig att antingen skriva under eller lägga in sitt veto.
Newsom står inför en svår avvägning. Vid ett symposium i maj uttryckte han oro för överreglering som kan hämma innovation. Samtidigt noterade han att ledande AI-forskare själva efterfrågar reglering, vilket skapar "en intressant miljö".
Om Newsom lägger in sitt veto kan lagstiftarna fortfarande driva igenom lagen med två tredjedelars majoritet i båda kamrarna - något som verkar möjligt givet de överväldigande röstsiffrorna hittills.
Oavsett utgången i Kalifornien markerar SB-1047 startskottet för en ny era av AI-reglering. Andra delstater och länder kommer sannolikt att följa utvecklingen noga och eventuellt införa liknande lagar.
För AI-branschen innebär detta en ny verklighet att navigera i. Företag och forskare kommer behöva balansera innovation med regelefterlevnad på ett helt nytt sätt. Detta kan leda till nya standarder och bästa praxis för AI-säkerhet.
För allmänheten och beslutsfattare blir det allt viktigare att förstå grunderna i AI-teknik och dess potentiella konsekvenser. Debatten kring SB-1047 visar tydligt på behovet av informerad och nyanserad diskussion om hur vi bäst reglerar AI för att maximera fördelarna och minimera riskerna.
Framtiden för AI-reglering är fortfarande osäker, men en sak är säker: balansen mellan innovation och säkerhet kommer att vara en central fråga under kommande år. Kaliforniens erfarenheter med SB-1047 kan mycket väl bli en viktig milstolpe i denna utveckling.
Läs även: https://www.techhubben.se/blogs/decentraliserad-utbyteshantering-nyckeln-till-framtiden