I dagarna släppte Ekonomistyrningsverket ytterligare rapporter från sitt uppdrag att beskriva digitaliseringen av det offentliga Sverige. Jag kommenterar:
Huvudrapporten sid 7: Man behöver ha kontroll på kostnaderna för att väga kostnad mot nytta. Man behöver ha processer och modeller på plats för att styra och leda arbetet. Endast ett fåtal följer upp sina utvecklingsinitiativ, och väldigt sällan utifrån nyttohemtagning.
Jag håller helt med! Men jag vill göra ett par anmärkningar jag tycker är viktiga. För det första: man ska inte försöka behandla kostnader för digitalisering som IT-kostnader. För som jag skrivit tidigare: Vad är en IT-kostnad? De digitala verktygen möjliggör nya sätt att bedriva verksamheten på. Det handlar alltså om att personer med verksamhetskunskap och personer med IT-kunskap samarbetar tätt för att se hur de kan stöpa om värdeflödena för de personer som vill nyttja ens tjänster.
Det går inte att isolera på samma sätt som förr i tiden. Då tittade man på ett besvärligt verksamhetssteg som skulle kunna förbättras med hjälp av IT-stöd, och man uppdrog till en separat IT-enhet att ta fram detta stöd. Verksamheten var i grunden likadan fast flera av de manuella stegen, som att skicka ut blanketter och läsa in blanketter, kunde automatiseras. Nu är vi i ett läge där vi ska fråga oss om blanketter alls är relevant, handlar det inte i grunden om att få in validerad information från olika källor i rättan tid, oavsett om det sker via blanketter eller på annat sätt? Flödena måste definieras om helt utifrån dagens informationsekosystem.
Processer och modeller finns på plats. Men de är definierade utifrån det äldre behovet vilket ger oss fokus på stora projekt istället för på löpande förfining och en beställare-utförarmodell som i onödan separerar verksamhet och IT. Projekt som styrmodell för utveckling av digitala tjänster är visserligen bättre än ingen styrmodell alls, men med sina fokus på förplanering (ofta i detalj) utifrån ogrundade antaganden samt tröghet till att omdefiniera projektmålen när man får nya insikter, så lämpar sig projektmodellerna inte jättebra när det gäller den typen av ständig utforskning som byggandet av digitala värdeströmmar innebär.
Projektmodellerna styr IT-projekten mot på förhand fastslagna produktmål, och följer även upp på huruvida de ursprungliga produktmålen nåddes. Moderna agila styrmodeller styr istället utvecklingen mot effektmålen, nyttorna, och justerar produktmålen i takt med att man får nya insikter om hur effektmålen bättre kan uppnås. Så länge som de offentliga aktörerna styr och följer upp på fastslagna produktmål och inte löpande följer upp mot nyttor, så får vi inte det nyttofokus som Ekonomistyrningsverket vill se.
Jag tänker särskilt på ett stort projekt där förstudie och uppföljning bedrevs med gammal projektmetod, medan genomförandet bedrevs agilt. Väldigt snart i genomförandet såg projektet hur flera av de ursprungliga antagandena i förstudien var felaktiga, men man kunde snabbt arbeta om kraven så att de nyttor som projektet motiverades med bättre kunde realiseras. Vid revisionen senare fick projektet dock kritik eftersom man arbetat om kraven så många gånger under resans gång. Uppföljningen mätte kravstabilitet, såg förändringar och anpassningar till verkligheten som något negativt, och ignorerade nyttohemtagningen.
Den typen av mekanismer är rotorsaken till mycket utebliven nyttohemtagning i det offentliga. När Ekonomistyrningsverket (ESV) skriver "Det är också viktigt att man har processer och modeller på plats för att leda och styra arbetet" vill jag lägga till "...löpande mot nyttohemtagning". På sidan 9 i huvudrapporten skriver ESV: "ESV anser att frågan om ett bredare införande av nyttorealisering är central för att öka takten i digitaliseringen." Jag håller med, och säger: se till att den offentliga sektorn använder de metoder som redan idag finns, metoder som faktiskt styr på nytta.
Huvudrapporten sid 9-10: Med "digitalisering" menar ESV både att information blir digital, att nya verktyg därigenom kan användas för att effektivisera samhällstjänster samt möjliggöra nya, och att detta troligen kommer att transformera samhället i grunden. Med "effektivisera" menar ESV både att öka "inre effektivitet" (att processerna i de befintliga verksamheterna blir effektivare) och "yttre effektivitet" (att nyttan för den enskilde medborgaren ökar).
Jag tycker att det är bra att man lanserar begreppet "yttre effektivitet" för att få folk att tänka på något större än att bara snabba upp befintliga verksamheter eller att göra dem billigare. På engelska brukar man skilja mellan "efficiency", att saker går snabbt och utan spill, och "effectiveness", att saker är verksamma och precis vad vi behöver. När vi arbetar med tjänsteutveckling brukar vi använda workshoptekniker som understryker att värdet först och främst ligger i att tjänsten har hög "effectiveness". Är tjänsten halvkass blir ingen glad av att vi utför den billigare idag än igår, om vi istället kunde gjort den mer i linje med vad folk faktiskt behövde. Att leverera det som inte behövs, att missa målet litegrann, är spill och slöseri. "Effectiveness" är ett centralt begrepp för att kunna styra på nytta. Det känns som om ESV vill använda "yttre effektivitet" på samma sätt.
Huvudrapporten sid 12: I EU:s handlingsplan för e-förvaltning 2016-2020 finns bland annat några principer för bra digitala tjänster: de är byggda för interoperabilitet (och därmed gränslöshet) och de ska vara säkra och tillgängliga.
Det här rör något som vi inom systemutvecklingen har propagerat för länge, och som nu äntligen börjar tas hänsyn till även utanför IT-avdelningarna. Ett självklart sätt att dela upp ett system på är mellan ett bakomliggande system (som tar hand om att lagra och bearbeta datat) och dess gränssnitt (som möjliggör in- och utmatningen av samma data). Ett gränssnitt kan vara avsett för andra system, eller så kan det vara avsett för människor. Det går (med mycket möda) att få ett annat system att använda ett gränssnitt avsett för människor. Det är däremot mycket enkelt att få ett gränsnitt avsett för människor att använda ett gränssnitt avsett för andra system (så länge de utgår från ungefär samma mentala modeller av saker och ting). Om du läser den här texten på webben är det precis så det går till: din webbläsare eller app är byggd för att visa texten (utifrån en mental modell av att texten har en rubrik, stycken, meningar och ord) på ett mänskligt sätt, men den pratar med själva systemet på betydligt mer standardiserat maskinellt sätt (exakt vilken text identifieras av en precis adress, rubriker och stycken och bokstäver har speciella sifferkoder).
Flera av dessa hopplösa system som den offentliga sektorn idag har köpt på sig och tvingar sina anställda att använda fungerar inte så: där är det bakomliggande systemet och dess gränssnitt sammanvävda. Det är som om du hade varit tvungen att installera en särskild webbläsare för just mina texter, och en annan webbläsare för andra människors texter, och så vidare. Om ett system, till exempel ett journalsystem eller ett bibliotekssystem, istället tar på sig ansvaret att hantera och bearbeta datat på ett säkert sätt, med ett gränssnitt avsett för andra system, så kan man ha olika gränsnitt för olika människor lagda ovanpå. Det är mycket enklare och billigare att genomföra förändringar på gränssnittsnivå när större delen av komplexiteten göms under ett maskingränsnsitt, och vi kan få till snabbare uppdatering av gränssnitten och samverkan mellan system utan att hela systemet behöver uppgraderas.
Alla problem är därmed inte lösta. Vi behöver fortfarande tänka till runt hur vi identifierar oss när vi använder de olika systemen, men att få inköpare och leverantörer att förstå vinsterna med att kräva maskingränssnitt (även kallat "API:er") på allt är centralt för att få till sömlösa digitala värdeströmmar.
Det här var första inlägget i en serie om flera.
Inga kommentarer:
Skicka en kommentar