DEL I

Datateknologi i kulturell sammenheng

Innledning

Fra 1960-tallet og fremover har jeg fulgt den datateknologiske utviklig som deltager og tilskuer. Betraktet som et spørsmål om utstyr og praksis faller datateknikk innenfor det vi kan kalle materiellfeltet. Enkelte ser med Satre på materiellfeltet som et tregt felt.[1] Jeg har vanskelig for å se det slik. Derimot tror jeg at våre forestillinger om slike fenomener kan tillegges enn viss treghet. Vi bringer med oss teoretiske forestillinger fra fortiden i forsøk på å begrepsfeste endringstendenser i nåtiden -- til tross for at disse kan by på kvalitative sprang.

Det såkalte automobilen ble satt i masseproduksjon for snart 80 år siden. Et halvt hundreår senere skulle bilens utvikling og spredning bidra til at bevegelsene til millioner av mennesker på en gang skulle bli detaljstyrt ved hjelp av noen enkle symboler, lys og streker -- ved trafikksymboler i en storby en travel dag. Dette var et kvalitativt sprang som det ville ha vært umulig å foregripe med begreper bare om økonomi og materiell. Derfra var det bare et lite skritt til dataelektronisk regulering av storby-trafikken, som for eksempel i dagens Roma. Begrepsfesting av slike forandringer kaller på begreper om blant annet symbolstørrelser og reguleringsmekanismer.

Men selv med brukbare begreper melder det seg et analytisk og praktisk problem i forsøk på å foregripe forandringer: Man kan ikke forvente de uventede; det er det vante man har forventninger om.

«... en fremtidsstudie gjennomført 1937 overså totalt atomenergi, antibiotika, radar, jetmotor, og EDB-maskin ..., og på mindre enn ti år etter denne analysen var alt dette blitt virkelighet.

Følgende tre forhold gjør en teknisk-vitenskaplig prognose vanskelig:

  1. Tilveksten i teknisk-vitenskaplig kunnskap er eksplosjonsartet (illustrert ved en eksponensiell kurve)...
  2. Oppdagelser kan føre til interaksjon og kjedereaksjon innenfor nær beslektede områder, som frembringer en hel serie av nye, uventede oppdagelser (illustrert med et diagram)...
  3. Om man på forhånd kan beskrive en forventet oppfinnelse i detalj, er oppfinnelsen per definisjon delvis allerede gjort.»[2]

Dette var blant de forbehold jeg tok da jeg en mai-dag 1968 skulle innlede om den forestående datateknologiske utviklingen for en gruppe bedriftsledere samlet i Bretagne. Som ramme for betraktningene trakk jeg opp mine forventninger om samfunnsmessige endringstendenser. De ble gruppert under syv spissformuleringer (Bråten, 1969, ss 27-32, 40):

  1. Fra menneskestyring til maskinstyring av systemer,
    som gikk på forventning om stadig økende automatisering i produksjonen, og der mennesket står i beredskap til å gripe inn overfor datareguleringen om uforutsette hendelser gjør det nødvendig
  2. Fra husmor til husdatamaskin,
    som ville avlaste husfar og husmor i små- og storfamilie-grupper og fylle rollen til slaven i de greske og romerske husstander -- også når det gjelder å bistå med opplysninger og oppdragelse
  3. Fra betaling for å lære fra seg til betaling for å lære seg selv,
    med vekt på kontinuerlig læring og stadig økende belønning for å plassere seg selv i «innlæringsposisjon»
  4. Fra adferdspåvirkning til adferdskontroll,
    som gikk på økende tendenser til kontroll gjennom læring (i Skinners forstand) og til forsøk på regulering fra samfunnets side i en mer dyptgående og total forstand enn tidligere
  5. Fra fysisk distribusjon til informasjonsdistribusjon,
    som gikk på overgangen fra industrisamfunn til informasjonssamfunn, og med elektronisk baserte informasjonsnett som en av nøklene
  6. Fra markedsvurderinger til samfunnsvurderinger,
    med parallelle redefineringer av begreper om økonomi og konkurranse, arbeid og fritid
  7. Fra sosialt mangfold til sosial ensretting,
    der jeg fremhevet visdommen i Mosebok-beretningen om hvordan Babels tårn ble ødelagt slik at kulturell variasjonsrikdom kunne bli mulig, og forventet at etter en periode med sosiale eksplosjoner og gnisninger ville denne variasjonsrikdom etterhvert kunne avta.

På bakgrunn av slike antagelser om samfunnsmessige endringstendenser la jeg den gang frem mine forventninger om datateknologi. Jeg spådde blant annet at utviklingen av maskinvare («hardware») ville være eksplosjonsartet på 1970-tallet med enorm kapasitetsvekst og stadig synkende kostnader, mens utviklingen av programvare («software») ville henge etter. Samme år, 1968, kom da også de første små kompakte datamaskiner (minimaskiner av type DEC) på markedet. Tre år senere begynte arbeidet med den første mikrodatamaskinen, som tok liten plass, men den hadde stor kapasitet for spesielle formål. Såkalte mikroprosessorer ble for første gang solgt i store antall i 1972 -- disse ørsmå brikker som får plass på en fingernegl og som kan virke som datamaskiner. På 1960-tallet hadde vi sett gjennombrudd i utvikling av språk for å skrive programmer som kunne utføres på datamaskin, for eksempel det norskutviklede SIMULA-språket. Men slike gjennombrudd ble ikke fulgt opp på 1970-tallet; det ble faktisk hva enkelte betegner som en «software-krise». Først i de senere år har det igjen begynt å skje virkelig spennende ting med programmeringsspråk.

Når det gjaldt takten i utvikling og spredning av små datamaskiner til personlig bruk i hjem og på lokalsteder, tok jeg feil. Jeg hadde ventet at spredning av det jeg kalte «husdatamaskiner» skulle ha vært igang alerede rundt 1975, og at 1980 endog skulle by på (sam)talende hjemmedatamaskiner. Personlige datamaskiner, på størrelse med et fjernsynsapparat og utstyrt med tangentbord, kom på markedet først i 1974. Ved inngangen til 1980-tallet kan det registreres en spredning av slike i USA, Storbritannia og Vest-Tyskland (tidligere under merker som Apple, Tandy og Commodore, senere utallige merker). Men det er ikke først og fremst til hjemmene; det er til selvstendig næringsdrivende som bruker dem til å holde orden på regnskaper, belastninger, inventar ol. Dernest står hjemmene for tur.

Fremfor tale som kontaktform mellom menneske og maskin, er det den visuelle formidlingen som vies stadig større oppmerksomhet. Skjermer med stadig større oppløsningsgrad blir utviklet, og med mulighet for å peke og tegne direkte fremfor å gå via tangentbordet. Skjermen blir et vindu, som i sin tur inneholder en rad vinduer som kinesiske esker (Xerox har utviklet et system og et språk for denne typen kontakt kalt Smalltalk. Dette programmeringsspråket bygger blant annet på idéer om representasjon av objekter, som ble lagt inn i SIMULA femten år tidligere).

Med dagens utvikling av program- og maskinvare som tillater nettverk av databrukersteder, med stadig større behandlingskapasitet lagt ut på lokale brukersteder, er det rimelig å spørre: Byr datateknologi brukt i det offentlige og private på mulighet for desentralisering og avbyråkratisering, og for styrking av perifere steder? Legg merke til hvordan allerede måten å stille spørsmål på, kan virke hemmende for slike prosesser. Som forsker er jeg en sentrumsperson, og mine begrepsfestinger tar utgangspunkt i denne ståplassen: Begrepet om "desentralisering" har allerede "sentralisering" som utgangspunkt; begrepet om "periferi" tar sitt utgangspunkt i et begrep om "sentrum". Dermed blir man lett fange av en tilsynelatende ufravikelig «logikk» som gjør det vanskelig å få øye på alternativer til hierarkier.[3] Når det gjelder den datateknologiske utviklingen i offentlig forvaltning, ser jeg lite som tyder på annet enn sentralistiske tendenser. Så lenge systemutforming, programvare-utforming og prosedyrer for bruk blir fastlagt på sentralt hold, hjelper det lite med tiltagende spredning av stadig sterkere og rimeligere mini- og mikro-maskiner. Datasystemer og datanett kan desentraliseres både materielt og formelt, og likevel bevare sin karakter av sentralistiske systemer -- så lenge de hviller på sentrale premisser, og på «modellmonopol» til de få.

Når det gjelder bruk av datateknologi i forvaltning og næringsliv, teknikk og vitenskap, har vel utviklingen på 1970-tallet stort sett vært som ventet. Men to ting forbauset og overrasket meg. Det ene var hvor lang tid det gikk før datateknologi skulle bli aktuelt nyhetsstoff i mediesammenheng. Nyhetsmessig var vel 1978 gjennombruddsåret, da BBC produserte en fjernsynsserie over mikro-elektronikk i arbeids og samfunnssammenheng. Det ble vist i norsk fjernsyn og straks etter gjentatt som reprise årsskiftet 1978-79. Antagelig bidro dette til også å aktualisere datateknologi som politisk stoff. Også her kunne Norge oppvise to foregangsarbeider. Datateknologi var ett av nøkkeltemaene i det såkalte Jern- og metallprosjektet[4], og utredning av de juridiske sider ved EDB kom tidlig igang som grunnlag for datalovgivning.

Det andre som forbauset meg var de sterke reaksjoner på og misforståelser rundt den populariserte rapporten fra den såkalte Romaklubben, som kom i 1972[5]. Her hadde en gruppe forskere, der blant andre nordmannen Jørgen Randers deltok, satt seg fore å gi forsøksvise svar på spørsmål om mulige utviklinger i verdensmålestokk under forskjelligartede rammebetingelser og inngrep (eller mangel på slike). Deres redskap var datasimulering. Det vil si at de eksperimenterte med en modell av verden i form av et dataprogram, og kunne spille frem konsekvensene av modellen under varierte symboliserte antagelser. Det var størrelser som forurensning, befolkningsvekst, råvaretilgang og matvareproduksjon de var interessert i å representere utviklingen av i sin datamodell. Når de spilte modellen frem i retning av simulert år 2100 under ellers uendrede betingelser, oppviste modellen katastrofale omslag. Dermed kunne den brukes til å stille spørsmål om betingelser for en global krise. Hensikten var å gi forsøksvise varsler. Men rapporten ble kritisert som om hensikten var å levere enegyldige sannheter. Uansett vakte den oppsikt, og kan hende var ikke forskerne forsiktige nok i sin presentasjon. For aldri tidligere var datasimulering tatt i bruk på en dristigere måte med hensyn til konsekvensrikdom og målestokk.

Nå hadde riktignok et enda mer komplekst system enn vekst og spredning i verdenssamfunnet vært gjenstand for datasimulering ved inngangen til 1960-tallet, nemlig tankevirksomhet og problemløsning i den menneskelige hjerne[6]. Men den gang var forskerne, Allen Newell og Herbert Simon, forsiktige med å trekke implikasjonene. De hevdet ikke at arbeidet var en tanketro etterligning av det som faktisk skjer i mennesker som prøver seg på løsning av logiske problemer. Men de viser hvordan antagelser om slike prosesser kan forfølges og studeres ved datasimulering som nærmest eneste tilgjengelige metode.

Datasimulering innebærer forsøk med en modell eller teori i form av et dataprogram for å få frem forsøksvise svar på spørsmål om konsekvensene av modellen eller teorien -- og helst også på spørsmål om fenomener som modellen eller teorien er ment å gjelde for. Simon advarer mot å ha for store forhåpninger til simulering som vitenskaplig metode anlagt på så komplekse fenomener som for eksempel sosiale systemer utgjør. Uansett hvor store og raske datasystemer som kan utvikles, har naturen systemer å by på som er for store og komplekse til å kunne bli etterlignet i detalj[7]. Men når det gjelder slike fenomener som han er opptatt av -- kognitive (tankemessige) problemløsninger i menneskesinnet og administrataive (styringsmessige) prosesser i bedriften -- betraktet som informasjonsbehandlende systemer, kommer en vanskelig utenom blant annet denne metoden:

«... mest utbredt bruk av simulering av individuell atferd har vært knyttet til såkalte informasjonsbehandlingsteorier, som skiller seg i viktige henseender fra klassiske matematiske teorier. Simulering har nøyaktig samme forhold til informasjonsteorier som til andre formelle teorier -- det er en metode for å avdekke hvordan det system som blir beskrevet av teorien vil oppføre seg, under bestemte betingelser, over en tidsperiode. Det gis imidlertid nesten ingen annen metode for å eksplorere informasjonsbehandlingsteorier.»[8]

Slik datasimulering med modeller av menneskelig aktivitet blir berørt i kapittel 2. I vitenskaplige bestrebelser på å nå frem til forståelse og forklaring ved hjelp av prinsipper (som ofte er reduksjonistiske) ligger det også tendenser i forsøk på danning av et slags monopol på (ene)gyldige forestillinger om mennesket. Det vil si bestrebelser mot modellmonopol. I den grad mennesket søkes forklart ved hjelp av ett og bare ett forklaringsprinsipp, i den grad blir på en måte menneskets verdi tilsvarende rdusert. En slik verdireduserende fare hefter naturlig nok ved forsøk på å etterligne menneskelige prosesser ved hjelp av datamaskinelle programmer. Dessuten ser vi idag på at vi ikke bare ofte ser mennesket i maskinens bilde, men at det også er tendenser til å se maskinen i menneskets bilde, til å menneskeliggjøre maskinen. Som eksempel viser en gjerne til det berømte dataprogrammet, ved navn «Eliza», som ble laget på 1960-tallet. Det kunne delta i «samtaler» med mennesker, og var lagt opp nærmest som en karikatur på den type psykoterapeut som av respekt for den andres integritet og premisser holder seg i bakgrunnen, og stort sett nøyer seg med å følge opp i spørsmåls form ord og uttrykk som pasienten har kommet med. Programbyggeren ble forferdet da han kunne konstatere at folk kom med de mest intime betroelser til «Eliza» -- men ikke til ham -- og til og med påstod at her var det en som virkelig forstod dem.[9] Eksperter enes gjerne med programbyggeren, Weizenbaum, om at her ble det avdekket et svært uheldig trekk ved utviklingen. Delvis har de rett. Men det går også an å tolke disse hendelsene på en annen måte -- der programmet er med på å utløse dialogisk og selvrefleksiv bevissthet hos mennesker -- som ellers i møte med andre mennesker har fått satt et mentalt «lokk» på seg og blitt hemmet -- snarere enn fremmet -- i sin selvreflektive dialogiske utvikling. Jeg kommer såvidt inn på dette i kapittel 1, der pedagogiske sammenhenger står i fokus. Her blir også modellmaktteorien kortfattet presentert. Den bygger på et dialogisk grunnsyn og ligger under de fleste kapitlene i boken. I kapittel 3 kommer den blant annet til anvendelse på datateknologiske sammenhenger. Her tas opp blant annet datanettverk og tendenser som trekker i retning av et nettverkssamfunn. Teorien tillater konsekvenser som trekker i motsatt retning av manges forventninger. Et eksempel er en kybernetikers anbefaling om at en såkalt «ydmyk beslutningselite» må ta seg god tid til å redegjøre for premisser og beslutningsunderlag for at folk skal kunne delta på demokratisk vis i databaserte informasjons- og planleggingsnettverk. Ut fra tesen om modellmakt kan dette danne bedre grunnlag for at en slik elite kan få dannet monopol på sin egen virkelighetsforståelse, og dermed styrke sin kontroll gjennom en innsnevret -- snarere enn en utvidet -- kreativ horisont for virksomheten. (Dette blir forfulgt i del II.)

Til denne eliten hører samfunnsforskerne, samfunnsplanleggerne og ekspertene i offentlig og privat forvaltning. De har alle en felles interesse av å få tilgang til sammenkoblede databaser med personnummer-opplysiner slik at de får et skikkeligere grunnlag for å forske, planlegge og beslutte til beste for oss alle. Men det gjør hver enkelt av oss til gjennomlyste gjenstander, fratatt vår verdighet og egenverdi. Til tross for det viktige personvern som datalov og datatilsyn gir, er det et spørsmål om dette vernet er tilstrekkelig, gitt de sterke interessene hos samfunnsforskere og planleggere, offentlige og private forvaltere av vår velferd og våre interesser, og som føler at de trenger datagrunnlaget for å kunne gjøre en best mulig jobb for oss alle. I kapittel 3 kommer jeg også inn på dette problemet, og foreslår et begrep om typedata til erstatning for organisering og kobling av databaser gjennom personnummer-data.

Men dette bidrar i tilfelle kun til å forhindre at vi som enkeltmennesker blir fullstendig gjennomlyste gjenstander. Det opphever ikke det grunnlag slik sammenkoblet kunnskap -- selv om det skjer via typedata -- kan gi for enda mer gjennomslagskraftige symbolske virkelighetsdefinisjoner fra forskernes, forvalternes og planleggernes side. De representerer samtidig det etablerte samfunn, gjerne plassert høyt opp i organisajonsmessige hierarkier, og er vant til å tenke på styring og informasjon i «vertikale» og «sentraliserte» termer.

Nå har det imidlertid pågått noe som enkelte forskere har betegnet som «en stille revolusjon» blant folk i den vestlige verden: Det har vært økende andel blant folk flest som legger vekt på andre verdier enn på dem som er knyttet til organisasjonssamfunnet med sin vekt på produksjonsvekst og ytre velstand. Stadig flere søker i retning av indre opplevelsesverdier, selveralisering og utfoldelse på egne premisser -- selv om det innebærer økt usikkerhet. Denne andelen har vært stadig økende, og markerer seg for alvor på 1970-tallet. Del I munner ut i dette. Samtidig sluttes en sirkel til drøftelsen av nettverk i tilknytning til den datateknologiske utviklingen. I denne nye «bølge» er det nemlig en tendens til å bevege seg vekk fra premissene til de store etablerte organisasjoner -- uansett på hvilken partipolitisk side de hører hjemme -- og i retning av mer horisontal nettverksdannelse. Det dreier seg om nettverk som ikke alltid er synlig utenfra eller ovenfra. Både den datateknologiske utviklingen og disse holdningsendringer blant folk lar oss således skimte konturene av det som kunne kalles et «nettsamfunn».