[{"published": "2026-04-01 06:30", "relative_age": "19 d", "source": "IDG.se", "category": "tech", "title": "AI-budgetar skjuter i höjden, men ROI fortfarande svårmätt", "link": "https://computersweden.se/article/4152298/budgetarna-for-ai-skjuter-i-hojden-men-avkastningen-ar-fortfarande-svar-att-mata.html", "topic_tag": "budgetar", "cves": [], "vendor": "", "cvss": null, "risk_level": "low", "item_type": "misc", "summary": "Företagens investeringar i generativ AI har ökat kraftigt under det senaste året, men för många it-chefer börjar de svåraste diskussionerna först nu. Styrelser och ekonomichefer frågar inte längre om organisationen investerar i AI. De frågar vad den får tillbaka – i mätbara ekonomiska termer. Enligt analytiker på Forrester Research har budgetarna för generativ AI ökat avsevärt från år till år, men ändå har en majoritet av organisationerna fortfarande svårt att visa på en hållbar avkastning på investeringen. Tidiga pilotprojekt ser ofta lovande ut, men värdet blir svårare att förklara när systemen skalas upp, kostnaderna fluktuerar och förväntningarna på styrning ökar. Intervjuer med analytiker, cio:er samt ledare inom AI-plattformar och styrning pekar på ett konsekvent mönster. Problemet är inte att AI misslyckas tekniskt. Det är att företagen tillämpar traditionella modeller för budgetering, drift och ansvarsskyldighet på en teknik vars ekonomi fungerar på ett helt annat sätt. Som ett resultat urholkas avkastningen inte för att AI slutar fungera, utan för att organisationerna förlorar förmågan att förklara, försvara och prioritera den. Analytikerns perspektiv Ur ett analytikerperspektiv förstås debatten om AI-avkastningen bäst som en del av en bredare konvergens mellan it och ekonomi. Greg Zorella, huvudanalytiker på Forrester med ansvar för it-ekonomistyrning, hävdar att högpresterande it-organisationer inte längre behandlar ekonomiavdelningen som en grindvakt med fokus på kostnadsbegränsning. Istället blir it-ekonomi en förmåga att leverera strategiskt värde – som kopplar teknikinvesteringar direkt till affärstillväxt och konkurrensfördelar. – It-ekonomi finns inte där för att it spenderar mycket pengar, säger Zorella. – Den finns där för att it-utgifter verkligen kan driva strategiska resultat för företaget. Denna distinktion är viktig för AI. Traditionella it-investeringar – ERP-system, infrastrukturuppdateringar, SaaS-licenser – passar relativt väl in i etablerade finansiella modeller. Generativ AI gör det inte. Kostnaderna är konsumtionsbaserade, användningsmönstren är oförutsägbara och fördelarna är ofta indirekta eller riskjusterade snarare än transaktionsbaserade. Zorella konstaterar att många företag intellektuellt inser denna förändring men underskattar den organisatoriska insats som krävs för att agera på den. En mogen kostnadstransparens bygger på gemensamma tillskrivningsmodeller, tillförlitliga data och enighet mellan it, produkt, försäljning och marknadsföring om hur värde definieras. – Att försöka göra allt på en gång är helt enkelt för mycket” säger han. De organisationer som gör framsteg tenderar att börja med avgränsade bevis som visar hur bättre ekonomisk insyn förbättrar beslutsfattandet. Viktigt är att Zorella ifrågasätter uppfattningen att det är negativt i sig att överskrida it-budgetar. Överskridanden kan vara rationella – om de speglar medvetna investeringar i initiativ med högre värde. Det verkliga misslyckandet, menar han, är att spendera för mycket utan en prioriteringsmekanism som gör det möjligt för ledare att nedprioritera arbete med mindre genomslagskraft när nya möjligheter dyker upp. Verkligheten för cio:er Den analytiska ramen möter en betydligt mer begränsad verklighet inom företaget. Sumit Johar, cio på Black Line, som tillverkar programvara för finansiell automatisering och hantering, beskriver hur AI-investeringar går igenom en välbekant cykel. Under de senaste åren har den initiala skepsisen gett vika för grupptryck när styrelser och ledning krävt synliga AI-initiativ. I dag är den fasen på väg att ta slut. Finanschefer ställer tuffare frågor, och AI behandlas inte längre som en särskild kategori som är undantagen från granskning. – Om jag säger till min cfo att 95 procent av de anställda använder AI, betyder det ingenting, säger Johar. – Det är som att säga att 100 procent av de anställda använder e-post. Ekonomifunktionen bryr sig om påverkan på lönsamhet, intäkter eller risk – allt annat faller platt. Johar gör en tydlig åtskillnad mellan två typer av AI-investeringar. Den första är breda produktivitetsplattformar – vad han kallar ”vardags-AI” – som hjälper anställda att skriva, söka, sammanfatta eller analysera information. Dessa verktyg kan vara kulturellt transformativa, men de är notoriskt svåra att kvantifiera. Engagemangsmätningar och självrapporterade produktivitetsvinster klarar sällan den finansiella granskningen. Den andra kategorin består av resultatdrivna AI-initiativ som är uttryckligen kopplade till affärsprioriteringar: att påskynda kundintroduktionen, minska implementeringstiden, sänka driftskostnaderna eller öka intäktsströmmen. Dessa initiativ konkurrerar direkt med andra företagsinvesteringar och utvärderas därefter. Det som har förändrats mest, säger Johar, är att AI-utgifterna inte längre är additiva. Ccio:er får inte stegvisa budgetökningar ”bara för att det är AI”. Alla ytterligare investeringar måste finansieras genom omfördelning av befintliga budgetar. – Ingen slänger längre pengar på AI i blindo. Om vi vill spendera mer måste vi flytta runt saker.” Hos Black Line återspeglar AI-styrningen denna verklighet. Föreslagna initiativ granskas gemensamt av it-, ekonomi- och affärsledare, med tydliga förväntningar på resultat och ansvar. Målet är inte att bromsa experimenterandet, utan att säkerställa att ansvaret för värdeskapandet inte enbart vilar på cio:n. – Detta är ett problem med affärstransformation, inte ett teknikproblem. Om ägarskapet enbart ligger hos it-avdelningen kommer du aldrig att få det värde du förväntar dig. Operativa felmodeller Även när AI-initiativ klarar budgethindren misslyckas många med att leverera hållbar ROI när de går vidare från pilotfasen. Enligt Jim Olsen, cto på Model Op, tillverkare av plattformar för AI-livscykelhantering och styrning, orsakas misslyckandet sällan av en enda brist. Det är strukturellt. Tidiga AI-projekt utvecklas vanligtvis i kontrollerade miljöer med begränsad data och förutsägbar användning. Kostnaderna verkar hanterbara och prestandan ser stark ut. Produktionsmiljöer beter sig helt annorlunda. – Man utvecklar något lokalt och det ser väldigt genomförbart ut, säger Olsen. – Men så fort det går i produktion förändras användningsmönstren, sammanhangen exploderar och plötsligt dyker den verkliga kostnaden upp. Generativ AI förstärker detta problem. Fri användarinteraktion ökar tokenförbrukningen på oförutsägbara sätt. Modeller är inbäddade i arbetsflöden och återanvänds av flera team, vilket gör det svårt att hänföra kostnad eller värde till specifika resultat. Utan tydlig inventering och livscykeluppföljning hamnar företagen i att hantera AI-utgifterna i aggregerad form – medan värde skapas eller går förlorat i marginalerna. Olsen säger att många organisationer saknar till och med en grundläggande förståelse för vilka AI-system de har i produktion. – Om du inte vet vad som finns där ute kan du inte mäta det, styra det eller koppla det till avkastningen. Resultatet är ett välbekant mönster: lovande pilotprojekt följt av kostnadsöverskridanden, följt av skepsis. I vissa fall gör uppmärksammade misstag organisationer riskovilliga, vilket bromsar framtida införande även där AI skulle kunna ge verkliga fördelar. Lösningen, menar Olsen, är att behandla AI som industriell infrastruktur snarare än som experimentella verktyg. Livscykelhantering – som omfattar utveckling, driftsättning, övervakning och avveckling – är inte byråkratisk overhead. Det är det enda sättet att upprätthålla ansvarsskyldigheten när modellerna utvecklas och användningen ökar. Styrning och försvarbarhet Operativ disciplin räcker dock inte på egen hand. Eftersom AI-investeringar granskas av tillsynsmyndigheter och styrelser avgör styrningen i allt högre grad om ROI överhuvudtaget kan försvaras. Anthony Habayeb, vd och medgrundare av Monitaur, en leverantör av programvara för AI-styrning, hävdar att många AI-initiativ misslyckas vid granskning, inte för att de presterar dåligt, utan för att framgång aldrig definierades tydligt. – Vi springer runt med en hammare och letar efter en spik, säger han. – Om man inte vet hur framgång ser ut från början kan man inte försvara avkastningen senare. Brister i styrningen upptäcks ofta först efter implementeringen, när organisationer försöker rättfärdiga utgifterna i efterhand. Vid den tidpunkten blir luckor i dokumentation, övervakning och ansvarsskyldighet en belastning. Projekt som saknar tydligt formulerade mål eller resultat blir lätta mål när budgetarna dras åt. Habayeb ifrågasätter uppfattningen att styrning främst handlar om efterlevnad. I praktiken, säger han, förbättrar styrning avkastningen genom att avslöja okända risker och optimeringsmöjligheter. När organisationer inför strukturerad validering och övervakning identifierar de ofta sätt att förbättra noggrannhet, robusthet och effektivitet – vilket direkt förbättrar affärseffekten. Regulatoriskt tryck påskyndar den här förändringen. Ramverk som EU:s AI-lag driver på organisationer att formalisera tillsynen, men Habayeb säger att de smartaste företagen använder regleringen som en drivkraft för att bygga upp bredare styrningskapacitet. – Styrning bör inte vara en separat post för regelefterlevnad. Det bör vara en del av hur man får AI att fungera för verksamheten. Från entusiasm till uthållighet Sammantaget pekar dessa perspektiv på en mognadsfas i företagens införande av AI. Frågan är inte längre om AI kan leverera värde, utan om organisationer kan bevisa att det gör det – konsekvent, transparent och under granskning. De företag som gör framsteg har flera gemensamma drag. De anpassar AI-investeringar till affärsstrategin istället för att behandla dem som en fristående kategori. De bygger finansiella modeller som rymmer konsumtionsbaserade kostnader och indirekt värde. De upprätthåller operativ disciplin genom hela AI-livscykeln. Och de integrerar styrning tidigt – inte som en broms på innovation, utan som en grund för förtroende och hållbarhet. För cio:er som planerar budgetar för 2026 är budskapet allvarsamt men konstruktivt. AI kommer inte att rättfärdiga sig själv. Värdet måste utformas, mätas och försvaras med hjälp av verktyg och metoder som många organisationer först nu börjar utveckla. AI:s era som experiment är på väg att ta slut. AI:s era som en ansvarsfull företagstillgång har börjat."}, {"published": "2026-03-31 06:30", "relative_age": "20 d", "source": "IDG.se", "category": "tech", "title": "Dödsbedrägerier ett växande AI-hot", "link": "https://computersweden.se/article/4151663/vad-it-chefer-behover-veta-om-bedragerier-med-dodsfall-som-drivs-av-ai.html", "topic_tag": "dödsbedrägerier", "cves": [], "vendor": "", "cvss": null, "risk_level": "low", "item_type": "misc", "summary": "Döden är alltid ett obehagligt ämne som oftast ignoreras tills den står för dörren. Men för it-chefer är bedragare som använder falska dödsattester genererade av AI för att stjäla data och begå en rad andra brott helt enkelt för farliga för att ignoreras. Det finns två olika former av dessa dödsbedrägerier: att lura ett företag att felaktigt tro att en kund har avlidit, och att på bedrägligt sätt utnyttja en faktisk kunds död. I båda fallen är målet att få kontroll över den avlidnes konto och/eller data genom att utge sig för att vara dennes anhöriga. De här brotten utnyttjar två sidor av tekniken. Genom att använda artificiell intelligens för att skapa nästan perfekta kopior av olika typer av dödsattester använder bedragaren kraftfull teknik för ett skändligt syfte. Bedrägeriet fungerar på grund av en stor teknisk lucka: avsaknaden av standardiserade, kontinuerligt uppdaterade myndighetsdatabaser som organisationer överallt i världen kan konsultera för officiell information om dödsfall och anhöriga. – De flesta system för kundidentifiering utgår från att den användare som skapade kontot kommer att förbli den person som interagerar med det, säger Sanchit Vir Gogia, chefsanalytiker på Greyhound Research. – Autentiseringsmetoder, återställning av lösenord och multifaktorautentisering är alla utformade utifrån det antagandet. När personen bakom kontot avlider står systemet plötsligt inför en situation som det aldrig var utformat för att hantera. Gogia tillägger: – Bedrägerier som involverar falska dödsanmälningar är inte hypotetiska. De sker redan, och förutsättningarna som möjliggör dem blir allt mer gynnsamma för angripare. Valence Howden, analytiker vid Info-Tech Research Group, beskriver problemet som farligt, delvis eftersom så få företag betraktar det som ett allvarligt hot. – Det är ett enormt problem, eftersom det fortfarande ses som ett undantagsfall. Användningen av deepfakes har ökat eftersom det nu är så mycket enklare att göra, säger Howden. – Det finns en risk för företagets rykte, juridiska frågor och regelefterlevnad. Jag tror inte att folk inser hur mycket som händer just nu. Melody Brue, chefsanalytiker på Moor Insights & Strategy, ser också dödsbedrägerier som ett enormt problem för företag. – Missbruk av identitet efter döden – verkligt eller falskt – är en verklig operativ risk för alla digitala plattformar, inte bara för banker, eftersom illvilliga aktörer kan använda kontohistorik, relationsdiagram eller spår av inloggningsuppgifter för att genom social manipulation begå betydligt större bedrägerier på andra håll, säger Brue. En ny form av bedrägeri Hotet från AI-fejkade identitetshandlingar har diskuterats i åratal, men det specifika användningsfallet att antingen fejka en kunds död eller fejka inloggningsuppgifterna för en faktiskt avliden kunds anhöriga har fått relativt lite uppmärksamhet. Den bristen på fokus är ett stort problem, med tanke på de många sätt som bedragare kan utnyttja den åtkomsten och/eller informationen på. Situationen beror på företagets bransch, där starkt reglerade vertikaler – särskilt finans och hälso- och sjukvård – står inför en annan verklighet. Det beror på att tillsynsmyndigheter värderar penningöverföringar och extremt känsliga filer, såsom journaler, så högt att de har infört juridiska hinder för överföring av dessa kontroller. Problemet är att även andra branscher står inför allvarliga hot utan samma regleringsmässiga skyddsräcken. Tänk på ett flygbolag eller en hotellkedja där en angripare kan stjäla och använda poäng för att lura till sig gratisflyg eller hotellrum. Det kanske inte är laglig valuta, men det är ändå en ekonomisk smäll för dessa företag. Men de mest troliga scenarierna är där angriparna skulle använda kontokontrollen för att iscensätta mycket trovärdiga social engineering-kampanjer riktade mot personer som kanske har interagerat med offret i åratal. Möjligheten att få tillgång till data såsom en historik över personliga interaktioner, inköp eller resor skulle kunna möjliggöra effektiva phishing-attacker för ännu mer information – och regelrätt stöld. Onlinekonton innehåller ofta en mängd värdefull data, såsom användarens hemadress, lagrad betalkortsinformation och andra inloggningsuppgifter, relationsdata inklusive adresser till släktingar och foton taggade med personers namn. Bedragaren kan använda den informationen för att på ett övertygande sätt utge sig för att vara kontoinnehavaren och lura till sig pengar, varor eller mer data från deras nära kontakter. Detta är särskilt troligt om offret är ett värdefullt mål, såsom en framstående chef eller en förmögen person. Och problemet med falska identitetshandlingar kan få en fruktansvärd motsatt effekt: det kan göra det betydligt svårare för den riktiga användaren att övertyga företaget om sin identitet och återfå kontrollen. Detta problem sträcker sig också bortom B2C-företag. För ett typiskt B2B-företag kan taktiken användas för att övertyga företaget om att den primära kontakten för en affärspartner har avlidit och att bedragaren har anlitats för att ersätta denne. Denna attack är lättare att avvärja, men inte alla företag undersöker rutinmässigt sådana påståenden. Verifieringshinder En stor del av problemet är att de rutiner som företag förlitar sig på för att verifiera en kunds död helt enkelt är dåligt rustade för att hantera dagens AI-intensifierade bedrägerier, säger Greyhounds Gogia. – I dag är det möjligt att snabbt och i stor skala generera övertygande intyg, juridiska brev och administrativa formulär. En angripare kan skapa flera versioner av ett dokument och testa dem hos olika organisationer tills en klarar granskningen, säger Gogia. – En annan utmaning är avsaknaden av en tillförlitlig verifieringsinfrastruktur. Många företag antar att det måste finnas en central databas som bekräftar om någon har avlidit. I verkligheten är dessa databaser fragmenterade. Vissa är begränsade till myndigheter. Andra uppdateras inte tillräckligt snabbt för att stödja verifiering i realtid. Gränsöverskridande verifiering är särskilt svår, säger han. När det gäller internationella anspråk kan dokumenten komma från domstolar i olika länder med okända juridiska format. Dödsattester och arvskiftesbeslut kan utfärdas på olika språk, säger Gogia. – Kundsupportteam har sällan den expertis som krävs för att verifiera dessa dokument med fullständig säkerhet. Det som förvärrar situationen är den extrema graden av sammankoppling mellan olika appkonton, säger Justin Greis, vd för konsultföretaget Acceligence och tidigare chef för den nordamerikanska cybersäkerhetsverksamheten på McKinsey. – Det finns en identitetsspridning, där en användares digitala fotavtryck inte bara är knutet till ett konto, säger Greis och nämner Google- och Apple-konton som exempel. Dessa identiteter används ofta som autentiseringsuppgifter för många partnersajter, vilket innebär att dödsuppgifter som delas från dem kan ge tillgång till otaliga andra företagskonton. – Det är ett systemiskt branschproblem. Och vissa företag kan drabbas av sin egen kundtjänstutbildning, särskilt om den utbildningen inkluderar respekt och artighet vid sådana dödsanmälningar, säger Gogia. – Arbetsflödena vid dödsfall är utformade kring empati. När någon anmäler att en kund har avlidit försöker organisationen vanligtvis underlätta processen för familjen. Kundtjänstmedarbetare är utbildade att bemöta detta med känslighet snarare än misstänksamhet, säger Gogia. – Den inställningen är helt förståelig, men det innebär också att dessa arbetsflöden inte alltid är utformade med tanke på fientliga scenarier. En bedragare som hävdar att en levande kund har avlidit kan utnyttja den dynamiken. Om organisationen godtar dokument utan att verifiera händelsen via en annan kanal kan angriparen lyckas utlösa kontoändringar eller få tillgång till känslig information. Den verkliga kontoinnehavaren kanske inte ens inser vad som har hänt förrän hen själv försöker komma åt kontot. I många fall bryr sig företag helt enkelt inte om att kontrollera dödsanmälningar eftersom dödsbedrägerier inte påverkar deras resultat i någon större utsträckning. Även om andra företag eller individer drabbas till följd av det ursprungliga företagets försummelse, hålls det första företaget vanligtvis inte ansvarigt. Det handlar i grunden om vad Howden kallar ”kopplingsproblemet”. Låt oss säga att företaget i fråga är en stor detaljhandlare. De luras av bedragaren och överlämnar kontoinformationen till någon som de felaktigt trodde var den närmast anhörige. Inom en vecka använder bedragaren informationen från det kontot för att stjäla pengar eller inloggningsuppgifter från ett halvt dussin personer i den icke-avlidna offrets krets. Det är där bristen på koppling kommer in i bilden. Det är högst osannolikt att myndigheterna skulle identifiera att en del av de uppgifter som tjuven använde kom från att ha lurat just den återförsäljaren. Det skulle innebära att återförsäljaren sannolikt skulle undvika problem med regelefterlevnad eller en stämning. För att lösa problemet behöver vi bättre kopplingar och ansvarsskyldighet så att alla företag får incitament att städa upp i sin egen bakgård. Ofullkomliga lösningar Vissa företag har valt att kringgå frågan genom att stänga en avliden kunds konto och spärra det, och därmed varken ge åtkomst eller data till någon, inte ens en legitim arvinge. Info-Techs Howden säger att han inte är någon anhängare av att spärra eller radera den avlidnes konto – inte ens efter att en bekräftelse har mottagits – på grund av juridiska och regelefterlevnadsmässiga problem. – Äger du egentligen personens information? Vilka konsekvenser får förlusten av dessa uppgifter för familjen? säger Howden. Den före detta federala åklagaren och nuvarande cybersäkerhetskonsulten Brian Levine, vd för Former Gov, menar att om ett företag väljer att ha en policy om att en avliden persons konto ska frysas eller raderas, måste företaget uttryckligen informera användarna om detta. – Användarvillkoren bör ange att om kontoinnehavaren avlider eller på annat sätt blir oförmögen, så är det detta som händer med kontot, säger Levine. En bra metod för att försöka verifiera en anmälan om dödsfall är att noggrant granska användningshistoriken och mönstren, säger Levine. Låt oss till exempel säga att anmälan gäller att personen avled den 1 mars. Har det förekommit någon aktivitet alls på det kontot efter det datumet? – Man kan bekräfta att ingen har loggat in under en viss tid. Man vet också vad som är det normala beteendet för det kontot, säger Levine. Om användaren vanligtvis bara loggar in en gång varannan månad, säger han, betyder det kanske ingenting att hen inte har loggat in på tre veckor. Men om användaren vanligtvis loggar in två gånger om dagen, sju dagar i veckan, kan det avbrottet i aktiviteten stödja anmälan. Vissa företag har börjat erbjuda alternativ för digital arvplanering som låter användare ange vem som ska ha tillgång till deras konto när de dör. Denna metod skulle teoretiskt sett kunna bidra till att minska dödsbedrägerier, men sådana alternativ brister vanligtvis på flera punkter: de används inkonsekvent, är inte obligatoriska, är inte tillräckligt detaljerade och uppdateras sällan. Dessa ”dödsformulär” utgår till exempel ofta från att alla digitala tillgångar ska gå till en utsedd person, påpekade Dean Saxe, grundare och medordförande för Death and the Digital Estate (DADE) community group vid Open ID Foundation. – Jag kanske vill att en del av den informationen ska förstöras, en del ska gå till min fru, en del till mina barn och inte min fru, säger Saxe. Nader Henein, analytiker på Gartner, säger att de byråkratiska rutiner som många företag använder kan visa sig vara en bra sak när det gäller bedrägerier i samband med dödsfall. – Det tar lång tid för dem att gå igenom processen, och de flesta bedragare är inte villiga att vänta i 60 dagar, säger Henein. Men ett problem uppstår när de initialt strikta riktlinjerna försvagas med tiden. – De flesta organisationer tenderar att inrätta en process för detta första gången det händer. Processen börjar som mycket besvärlig, men sedan urvattnas den till ett minimum, säger Henein. Därför är det viktigt att it-avdelningen samarbetar med HR, kundsupport och andra företagsledare för att utveckla och kodifiera riktlinjer för kunders bortgång som inte kan kringgås. AI-agenter och delegerad behörighet Mike Kiser är direktör för strategi och standarder på Sailpoint och fungerar även som en av DADE:s medordförande. Kiser säger att autonoma agentsystem både parallelliserar och komplicerar problemet med dödsbedrägerier. – Den nuvarande metoden är identitetsstöld, där efterlevande använder den avlidnes lösenord. Vissa AI-agenter fungerar på samma sätt och återanvänder inloggningsuppgifter för att agera som någon snarare än på uppdrag av någon. Detta är osäkert och medför juridiska problem, säger Kiser. Det finns ett bättre sätt, menar Kiser: – OAuth Token Exchange finns som en teknisk lösning som möjliggör korrekt delegerad behörighet genom att den bevisar att Bob är behörig att agera för Alice, inte bara att Bob har Alices lösenord. Men den är inte allmänt antagen. En relaterad fråga är att agentbaserade system nu kan skapa posthuma avatarer och deepfakes av avlidna personer, vilket väcker frågor om samtycke och kontroll, säger Kiser. – Obehöriga efterbildningar har redan lett till juridiska tvister, men det finns inga ramverk där människor kan ange om, eller hur, deras avbildning ska användas efter döden. Detta väcker också frågor om hur identitetsautentiseringssystem i dag hanterar autonoma agenter. – Att gå från delegerad åtkomst, som att ha inloggningsuppgifter, till delegerad behörighet kräver arbete på flera fronter. Specifikt för AI, även med korrekt delegering, hur bevisar man att en AI-avatar överhuvudtaget var auktoriserad att existera? säger Kiser. – Det finns inget rättsligt ramverk för vad som utgör samtycke, särskilt postumt samtycke. Det är i bästa fall galet oklart. Att utveckla och implementera internationella standarder för delegerad befogenhet skulle bidra till att lösa båda dessa frågor. – Att bygga en infrastruktur för delegerad befogenhet för AI-agenter skulle också lösa frågan om digitala dödsbon, säger Kiser. – Det är samma grundläggande problem."}]