Informasjonens opprinnelse

Fra kap 9 i John C. Lennox bok 'Guds bøddel'

Bilde 1. Mye i samfunnet dreier seg om informasjon

Resumé på kort-form (for lite matematisk orienterte eller interesserte):
At IKT- og informasjonsteorien har inntatt biologien var noe man lenge kjempet mot. En likte kanskje ikke at antagelser og formodninger kunne testes. Imidlertid ser dette ut til å ha tjent begge parter: hver kan få fram håndfast dokumentasjon for sine påstander. At begivenheter har matematiske helt urealistiske sannsynligheter stopper i hvert fall ikke naturalister, for de har ikke andre alternativer.. Så er det imidlertid spennende å se hvor det leder hen. Med simulering i følge anerkjente algoritmer, kan en dokumentere 'hold' eller mangel på sådan i hypoteser som er satt fram. En matematiker som Ödsel (kap.5) mener det er mulig at en i framtiden kan avgjøre i hvilken grad det er mulig at tilfeldighet evt. i kombinasjon med nødvendighet (lover etc.) kan utføre det som vitterlig har skjedd. Spørsmålet i denne sammenheng er hvorvidt en trenger Input utenfra, ikke hvem som står bak denne Input. Det er et spørsmål for troen, ikke vitenskapen.


Hva er informasjon


Selv om vi kommer til å benytte noe matematikk under dette temaet, er det i høy grad rettet også mot filologisk interesserte: Vi skal først se litt på begrepet 'informasjon'. I alminnelig språkbruk bruker vi ordet informasjon til å beskrive noe vi vet nå, men som vi før ikke visste. Vi sier at vi har mottatt informasjon: muntlig, skriftlig, på tegnspråk, i kryptisk kode etc. Om en forsøker si hvor mye informasjon, oppstår imidlertid et problem i forhold til kvantifisering. Den faglige disiplinen informasjonsteori har imidlertid gjort store framskritt, og det er av stor betydning for våre betraktninger omkring genetisk informasjon.


hotell-i-saerklasseLa oss ta utgangspunkt i en intuitiv forestilling om at informasjon forminsker vår usikkerhet. Vi ser som et eks. på en gjest som ankommer et lite hotell, hvor han har reservert et værelse. Han finner ut at hotellet har åtte sådanne. Hvis vi ikke har bedt om et bestemt, og alle rommene er like, er sannsynligheten for å få et bestemt værelse 1/8. Det er et klart uttrykk for vår usikkerhet. Når resepsjonisten forteller at vi har fått værelse nr. 3, forsvinner usikkerheten mht. dette. En måte å kvantifisere informasjonsmengden vi har motatt, er å finne ut minste antall ja/nei spørsmål vi må stille for å få ut svaret. Da viser en søkemetode med gradvis halvering av søkeintervall seg å være effektiv: 1.Sp.mål: Er romnummeret i intervallet 1-4? 2.Sp.mål. er romnummeret i intervallet 1-2? 3.Sp.mål: Er romnummeret 3?

Bilde 2. Hvilket rom ønsker De?


Vi ser vi trenger tre Ja/nei sp.mål for å avgjøre saken. Vi sier da vi har fått informasjon tilsvarende 3 bit. Vi kan i den sammenheng si at 3 er den potens (eksponent) vi opphøyer 2 i for å få 8 (rom). Eller sagt på annen måte: 2-er logaritmen til 8 er 3 (3=2-er logaritmen til 8) Generelt kan vi si, at for n rom på hotellet, er mengden av informasjon nødvendig for å angi et bestemt værelse: log(2) n.


Om vi tar som eks. en SMS, skrevet på (skikkelig) norsk, har vi 29 bokstaver samt et mellomrom til rådighet (kommer til tallene). Vi kan da bruke 30 tegn til språket. Om vi nå venter en beskjed på vår mobil,blir sannsynligheten for at et vilkårlig tegn vi mottar skal være ett bestemt tegn: (1/30). Tilsvarende ovenfor: informasjonsmengden vi mottar ved hvert tegn tilsvarer: log(2) 30 (ca. 4,91). Kvantifisert informasjonsmengde for en streng på m tegn blir da: m*4,91. Vi må her bemerke at kvantifisert informasjonsmengde er relativ til størrelsen på alfabetet vi har med å gjøre. Om vi tar med talltegn i SMSen, får vi 40 tegn i stedet for 30, og informasjonsmengde for hvert tegn på: log(2) 40 som er ca 5,3. En tegnstreng på m tegn, vil tilsvarende ha kvantifisert informasjonsmengde: m*5,3.


I dataverdenen er det en kjent sak at tallet 2, som kan uttrykkes ved at et pkt. i en elektronisk krets har strøm på eller strøm av. Det symbolske alfabet i computerverdenen kan dermed bestå av de to tegn 0 (strøm av) eller 1 (strøm på). Tallet 2 er dermed det minste antall tegn en har bruk for, om en vil kode et hvilket som helst alfabet. For det norske alfabet på 29 bokstaver(+ mellomrom), vil i det i prinsippet være nok med binære strenger på 5 karakterers lengde. (2 opphøyd i 5 er 32 -større enn 30). F.eks. kan mellomrom være 00000 og bokstaven A være 00001 B=00010 C=00011 etc.

Bilde 3. Søppel inn -Søppel ut


Syntaktisk og semantisk informasjon


Det er viktig å skille mellom kvantifisert mengde informasjon og meningen med denne. Vi vet at kodet informasjon kan virke uforståelig, men likevel skjule viktig mening. Om vi skulle få flg. beskjed på mobilen: ZXXUYADFFOIJALØD, kan det selvsagt være noe som vil tulle eller en liten unge som har fått tak i mobilen. Men kan det ligge noe mer bak? Strengen inneholder 16 tegn i sekvens. Om vi kun regner med bokstaver og mellomrom som mulige, har i hht. til beregninger ovenfor mottatt en informasjon tilsvarende: 16*log(2)30 bits (=78,5 dvs. 79 bits (som 0-er eller 1-ere). Da vil noen (filologer) stusse og protestere: 'jeg har ikke motatt noen informasjon overhodet, -jeg vet ikke noe mer enn før'. Vi har nå kommet fram til at en i noen sammenhenger må skille mellom såkalt syntaktisk informasjon, som i SMS-en her og semantisk informasjon (om litt).


La oss gå over til en annen type alfabet, som er lik det biologiske vi skal fram til. Det er fire mulige tegn vi kan motta: A,T,C og G. Vi kommer til å motta et budskap på 5 tegn. Siden det er fire symboler er sannsynligheten for hver av dem (1/4), og informasjonsmengden for hvert motatt tegn er: log(2) 4= 2(bits). Den samlede informasjonsmengden ved 5 tegn, kan da kvantifiseres til 5*2=10 (bits). Sagt på en annen måte: om en teller opp hvor mange mulige meddelelser en kan motta på 5 tegn, med 'alfabet' på 4 bokstaver, blir det: 4*4*4*4*4= 4 opphøyd i 5 eller 2 opphøyd i 10. Forutsetter her at det ikke er noen bindinger (avhengigheter) tegnene i mellom, samt at hvert tegn har akkurat samme sannsynlighet.


For kommunikasjonsteori er ikke innholdet i meldinger interessant, men mer hvor mange tegn som kan sendes samtidig via en kanal, eller tegn pr. sekund. Kanalens pålitelighet, sannsynligheten for at et tegn blir sendt feil, mulighet for feilretting etc, vil være mer interessant. Langsom datakapasitet er et problem mange er villige til å betale for å få rettet. Slike mål på slik syntaktisk informasjon, uten semantisk meningsverdi, er viktig og forbindes med (Claude) Shannons informasjonsteori. Den er grunnlaget for teorien i forbindelse med IKT, som hele vårt samfunn er avhengig av i dag.


Vi trenger nærme oss semantisk informasjon. La oss se på en kunde som kommer inn på et bibliotek og spør etter en bok om nefrologi. Kanskje har ikke Bibliotekbibliotekaren hørt ordet før, men det er jo en streng på ni tegn, og kvantitativ informasjonsmengde blir: 9*log(2)30 bits tilsvarer 45 bits. Om bibliotekaren skriver stavemåten inn i sitt system, får vedkommende opp f.eks. MedSci 46, der en kan finne bøker om emnet. Bibliotekaren kan fungere som en kanal, for å finne ønsket informasjon -selv om den ikke sier noe til personen selv (1).


I dette eks. blir da 'nefrologi' behandlet av bibliotekaren på rent syntaktisk vis. Den eneste informasjon vedkommende trenger, er bokstavene ordet er sammensatt av. I prinsippet kan vedkommende betrakte strengen som en meningsløs rekke symboler. Men for den som er nyrelege, har ordet 'nefrologi' en betydning, som formidler semantisk informasjon. Kvantifisering av semantisk informasjon, er mye avhengig av konteksten som informasjon mottas i. Om en ser et svar 'JA' i en SMS, vet en ikke uten sammenhengen om det dreier seg om svar på frieri eller svar på om en har kjøpt billetter til en fotballkamp. Med andre ord, skal det en hel del mer informasjon til, før en kan tyde en gitt opplysning.

Bilde 4. Konsekvens av darwinistisk tenkemåte


DNA og informasjon


La oss gjøre bruk av denne tankegangen i molekylærbiologien. Vi antar at du kjenner til hva ulike bokstavstrenger 'betyr', slik at du kan dele dem i gener og si hvilke proteiner de koder for. En streng bokstaver har altså en semantisk betydning, antar vi. For deg viser DNA presis samme spesifikke kompleksitet som et språk har, ettersom rekkefølgen bokstavene har i et gen angir rekkefølgen av proteinets sekvens av aminosyrer (2).

Bilde 5. DNA-RNA er informasjonsbærere


For meg som ikke ser det, ser jeg strengen som en lang liste av 'meningsløse' symboler. Men i den syntaktiske eller i Shannons forstand kjenner jeg til denne strengens informasjonsinnhold. Det gir seg ut fra følgende: Det genetiske alfabet består som nevnt, av 4 tegn: A,C,G og T. De kan uttrykkes ved 2 informasjonsbits: (00, 01,10,11) Så DNAet i det menneskelige genom, som tilsvarer ca 3.500 millioner bokstaver, kan uttrykkes ved 7 milliarder informasjonsbits. Om jeg får dem kan jeg skrive DNAet, uten noen idé overhodet om hva jeg har skrevet betyr (sml. bibliotekaren)
Et viktig aspekt i forskningen om genomet, er å finne gjentagende sekvenser eller finne bestemte sekvenser som er felles for mange genomer. PC-søkingen i den store databasen som genomet danner, foregår på det syntaktiske informasjonsnivå.


Kompleksitet


At det menneskelige genom inneholder ca 7 milliarder informasjonsbits, sier noe om kompleksiteten, men bare i et begrenset omfang. Om vi tenker oss flg. binære streng: 100100100100...100, inntil vi når 6 milliarder sifre (foretrekker antall delelig med tre). En slik streng er ikke på noen måte i nærheten av kompleksiteten i menneskelig genom. For å kunne generere en slik rekke som ovenfor, kunne en enkel algoritme (3): Skriv 100 2 milliarder ganger etter hverandre, gjort nytten. Det ville holde med noen få titalls-tastetrykk til å få uttrykt den informasjonen.


Denne 'IT-komprimeringen' av en gitt streng symboler til noe som er mye kortere, er den grunnleggende idéen bak det vi kaller Algoritmisk InformasjonTeori (AIT). Ordet algoritme stammer fra en arabisk matematiker, med det latinske navn: Al-Goritmi. Han arbeidet i 'Visdommens hus' i Bagdad i det nienden århundre. En algoritme er en effektiv prosedyre, hvorpå en kan få noe gjort i et endelig antall skritt. Formel for løsning av 2.grads-likninger, gir eks. på en slik effektiv fremgangsmåte til beregning av løsningene, og er dermed en algoritme. AIT er utviklet av Kolmogorov og Chaitin. de har ønsket holde orden på spesifikke sekvensers informasjonsinnhold. Målet har vært hvor omfattende algoritme en har måtte lage for å få fram informasjonsinnholdet.

Bilde 6. Informasjonsbehandling på algoritme-nivå


Om vi tar for oss et tenkt eks. med en gorilla som har skrevet på et tastatur med alle vestlige alfabet lagt inn, og ser på en tegnsekvens på 6 milliarder tegn. Ettersom strengen i det store og hele er tilfeldig (stokastisk), så ville et forsøk på å lage et algortitme for å beskrive den måtte ende opp med noe nesten like langt som strengen selv. Det innebærer i så fall at strengen er algoritmisk ikke-komprimerbar. Det er en forresten en god forklaring på hva tilfeldighet innebærer. Samtidig kan vi slå fast at denne strengen er maksimalt kompleks, ut fra våre begreper om kompleksitet.

 Bilde 7. Dembskis filter for å sile ut design

Om vi tilsvarende tok en tegnstreng på 6 milliarder tegn som de første bøkene vi fant i et bibliotek, ville også denne teksten bare i mindre grad kunne komprimeres (forutsetter 'ikke-distré' forfattere, med ikke altfor mange 'favorittord'). Denne strengen ville da fra matematisk (syntaktisk) synspunkt være like lite-komprimerbar som den første. Den er altså kompleks i matematisk forstand. Men denne strengen inneholder også semantisk informasjon -som kan forstås av alle som kan språket! Språklig kompleksitet kalles spesifisert kompleksitet (sk) -fra Leslie Orgel (5) og Paul Davies (6). Begrepet har blitt gjennomgripende undersøkt av matematikeren William Dembski, i 'The Design Inferens: Eliminating Change through small Probabilities'. (7)


Denne store forskjellen mellom meget komprimerbare strenger (finnes f.eks. i krystaller) og nesten 'ikke-komprimerbare' strenger (i levende celler) er essensiel i vår sammenheng. At noen slike strenger er 'ikke-komprimerbare' gjør at de ikke kan oppstå via 'emergente' egenskaper ved hjelp av noen relativt simple algoritmer. Det er noen, f.eks. Dawkins, som har hevdet at tekstbehandling er en emergent egenskap ved computere. Det gjelder i så fall kun om den inneholder den informasjon som ligger nedfelt i en intelligent designet softwarepakke. Det finnes ingen 'blind urmaker' som kan være opphav til en computers tekstbehandlingskapasitet.


For å understreke den viktige forskjellen mellom semantisk og syntaktisk informasjon, kan vi betrakte en blekkflekk på et stykke papir. Fra en side sett, er det inntrådt en kompleks begivenhet: Sjansen for å få én akkurat maken blekkflekk, ved forsøk, er forsvinnende liten. Men kompleksiteten i blekkflekken er uspesifisert. Om vi derimot får noen til å skrive en tekst på papiret, står vi med spesifisert kompleksitet.


La oss nå anvende noen av disse idéene på genomet. Alle DNA-molekylets A-er, C-er, G-er og T-er kan innta en hvilken som helst posisjon. Genomet inneholder dermed en språkbruk som er algoritmisk ikke-komprimerbar og fra matematisk (syntaktisk) synsvinkel tilfeldig (stokastisk). Men det må ikke få oss til å tro at DNA-sekvenser er helt vilkårlige. Langt i fra! Det er faktisk en meget liten del av DNA-molekylets mulige sekvenser som har biologisk betydning, og dermed inneholder spesifisert kompleksitet. Et kort eks. kan illustrere: Om en tar en tekst på 10 ord, er det kun noen ene få organiseringer som gir grammatisk riktig mening. Men teksten kan organiseres på 10! måter (1*2*3*..*8*9*10)= 3 628 800. La oss for enkelhets skyld si at 3 rekkefølger er 'korrekte'. Det innebærer at kr 3 628 797 rekkefølger ikke gjør det, eller bryter med grammatikken! En slik 'oppskrift' på hva som er riktig, innebærer at for hvert språk, kan i prinsippet utelukkes flere ikke-korrekte setninger enn det finnes atomer i universet. (ca 10 opphøyd i 80).


Når det gjelder biologi, kan det konstateres at det minste protein vi kjenner til som har en biologisk funksjon, inneholder minst 100 aminosyrer (noen vil si 150). Det innebærer at de DNA-molekyler som svarer til dem, har så mange som 10 opphøyd i 130 mulige sekvenser. Kun en ørliten del av dem vil ha biologisk betydning. Ettersom (deoxy)ribose ikke har noen preferanse for bestemte baser, er alle basesekvenser av en gitt lengde like sannsynlige. Det innebærer at sannsynligheten for én bestemt sekvens skulle oppstå ved et rent tilfelle, er så liten at den må avskrives som forsvinnende liten. ( I praksis vil begivenheter med sannsynlighet lavere enn 10 opphøyd i -60, ikke inntreffe.)
Videre viser erfaring at proteiner viser en høy grad av 'molekylær følsomhet'. Det innebærer at selv utskifting av en enkel aminosyre i et brukbart protein, kan få katastrofale følger (10). En kan dermed med god rette hevde at cellens molekylærbiologi, viser det samme høye stadium av 'fine-tuning' som vi tidligere har konstatert i forbindelse med fysikken og kosmologien.

Bilde 8. Uansett forutsetninger er sannsynligheten for tilfeldig fungerende protein meget liten


Ut fra vårt ståsted er det sentrale her, at en DNA-sekvens som koder for et funksjonelt protein utviser den form for spesifisert kompleksitet som er nødvendig for å gjøre det. Sekvensen blir algoritmisk ikke-komprimerbar, og således tilfeldig i matematisk forstand. Spørsmålet blir: 'Kan spesifisert tilfeldighet garantert være produkt av en mekanisk, naturlovslignende prosess?' Nei, ingen kjente naturlover kan nå fram til et slikt resultat (11). Vi må huske at biologisk relevante makromolekyler besitter to avgjørende egenskaper: tilfeldighet og ekstrem spesifisering. En kaotisk prosess kan nok nå fram til førstnevnte i prinsippet, men vil ha voldsomme problemer med å komme fram til sistnevnte.


Selv om dette i første omgang synes å gjøre genomet til et uoppnåelig fenomen, både ved kjente naturlover og tilfeldigheter, kommer fort påstandene at darwinistisk evolusjon med dens variasjon og seleksjon 'har det som skal til' (12). Men det nettopp her det er uenighet. En kan ikke bare ta for gitt, det som diskuteres! I og med at problemet har med biogenese (livets opphav) å gjøre, kan en ikke ta utgangspunkt i at livet er i funksjon. Evolusjonsteorien kan kanskje forklare 'survival of the fittest', men den har store problemer med å forklare 'arrival of the fittest' (13).


Om det er slik, at ikke tilfeldighet og lovmessighet til sammen kan forklare livets opphav, må en kanskje vurdere om det kan ha vært en tredje faktor med i spillet. Noe kan ikke bli til av ingenting, og det må vurderes om ikke Input av informasjon på en eller måte har vært med i bildet. En kan høre hylekoret, at det er anti-vitenskapelig og intellektuell dovenskap å foreslå noe som reelt sett er en 'Intelligens/Gud i hullene' (gog) tankegang. Det er imidlertid lett å gjøre slikt med ellers uforståelige forhold, enten en påkaller Gud eller evolusjon, til å fylle hullene i det uforklarlige. Minst like ofte ser vi eksempler på det siste, ettersom det har langt mindre tilbøyelighet til å tiltrekke kritiske kommentarer enn førstnevnte.

Bilde 9. Ikke alle er åpne for nyheter


En advarsel fra Robert Laughlin (ikke ID-tilhenger ) tas med: 'Mye av tidens biologiske viten er ideologisk basert. En av de sentrale symptomene på ideologisk tenkning er at en benytter forklaringer som ikke har konsekvenser og som ikke kan testes. Noen kaller slike blindgater anti-teorier, fordi de har motsatt effekt av reelle teorier. De stanser tenkning i stedet for å stimulere den. Slik har Darwins 'store teori' evolusjon ved naturlig utvelgelse i det senere, kommet til å fungere som en slik anti-teori. Den er noe en påkaller når en skal dekke over pinlige forsøk og legitimere funn som i beste fall er tvilsomme, evt. diffuse. Eks. proteinet en sitter med trosser massevirkningsloven (for reversible kjemiske reaksjoner). Et komplisert rot av kjemiske reaksjoner, blir til en kylling: 'evolusjon'! Den menneskelige hjerne fungerer på en måte ingen computer kan etterligne: 'evolusjonen er årsaken'.


Hvordan skal en så forholde seg til anklage om 'gog' eller intellektuell dovenskap? Om en matematisk skulle ha problemer med å vise at en hypotese er sann, vil en ikke dermed gi opp. En vil kunne anta at den er usann, og forsøke motbevise det. En parallell i den fysiske verden er forsøkene på å 'konstruere evighetsmaskinen'(15). Slike forsøk tas ikke lenger seriøst av forskere i termodynamikk. Det har naturligvis sammenheng med energiprinsippet om at energimengden i verden er konstant, at det bare antar andre former. Om en skulle kunne konstruere en evighetsmaskin, som kan fungere uten tilførsel av energi utenfra, ville det være et brudd på dette prinsippet.


Det bør i hvert fall vurderes om en står overfor en parallell til dette i biogenesen. Kanskje kan slike vurderinger føre til en avvisning av forklaringer som ikke innebærer Input av informasjon fra en ekstern kilde. I denne sammenheng er identiteten til denne kilden ikke det avgjørende. Det er kun hvorvidt det må finnes en slik ekstern kilde eller ikke, det står om her. Hvis det er vitenskapelig grunn nok til å slutte at biogenese ikke i tilstrekkelig grad kan forklares uten å trekke inn et informasjons-Input, så vil fokus uvegerlig skifte. Da vil en evt. prøve finne ut hva denne kilden til informasjon er for noe. Så kommer religionsfilosofi og teologi til hjelp, om en evt. finner at det er grunnlag for det.


Kan informasjon bevares?

Bilde 10. Prinsippskisse av bakterie-flagell


Vi har nådd fram til spørsmålet: 'Kan informasjon bevares, i noen meningsfull betydning av dette begrepet'? Hvis svaret er positivt, ville en kunne spare utrolig mye tid og ressurser ved å oppgi søking etter det som informasjons-teoretisk svarer til en evighetsmaskin, noe som er og blir forgjeves. Som nevnt benytter en i dag 'maskinspråk' på det som skjer i molekylærbiologien. Det er nettopp fordi proteiner, flageller, celler osv. er akkurat det molekylære maskiner. Det kan være de er mer enn maskiner, men angående deres evne til å behandle informasjon, er de å betrakte som maskiner forsynt med software.


En kan dermed utsette biologiske maskiner for informasjons-teoretiske analyser. Vi vender oss da mot denne form for analyse, for å få noen idéer til hvordan molekylære maskiner kan generere ny informasjon. Forfatteren av et klassisk verk om informasjonsteori, Leonard Brillouin, er ikke i tvil om hvor svaret er å finne: 'en maskin kan ikke skape ny informasjon; den utøver en meget verdifull transformasjon av allerede kjent informasjon' (16). Tyve år senere skriver Nobelprisvinner Peter Medawar: 'Ingen prosess som styres av et logisk resonnement kan forøke informasjonsinnholdet i de aksiomer og premisser eller observasjonsutsagn, som den stammer fra.' (17)Av denne observasjon utleder han så at det må finnes en form for lovmessighet vedrørende informasjonsoppsamling.


Han utfordrer sine lesere til å finne én logisk handling som vil kunne supplere informasjonsinnholdet av en hvilken som helst ytring. Han gir eksempel på hva han mener: 'Det er nå en gang slik at filosofer og logikere siden Bacons tid ikke har hatt problemer med å erkjenne at deduksjonsprosessen bare presiserer den informasjon som foreligger. Den skaper overhodet ikke ny informasjon. Den berømte østerrikske matematiker Gödel mener at 'det mekaniske i biologien er en vår tids fordommer, og at det engang vil bli motbevist'. Det ville i så fall være en matematisk setning som noe slikt som: ' at fysikkens lover innen for geologisk tid skulle kunne stå for dannelsen av menneskelegemet -ut fra en tilfeldig SCfordeling av elementærpartikler og et elektromagnetisk felt, er like så usannsynlig som en atskillelse av atmosfæren i dens grunnkomponenter skulle skje ved en tilfeldighet' (18).


Om Gödels formodning: at matemtatikken en gang vil varte opp med et bevis angående informasjonens opprinnelse, skulle stemme, ville det være ironisk i og med at Gödel selv banet vei for etterfølgende utvikling på nettopp dette forskningsfeltet. Med hensyn til hvorvidt algoritmer kan bidra til ny informasjon, har matematikeren Gregory Chaitin funnet sterke resultater som er relatert til Gödel, ved hjelp av Algoritmisk InformasjonsTeori (AIT). For det første må en være klar over at det er et veletablert faktum at det finnes en form for informasjonsgrense for hva algoritmer kan utrette. I følge Chaitin kan en f.eks. ikke vise at en gitt tallsekvens har større kompleksitet enn det program som skal til for å generere den (19).

Bilde 11. Ikke-reduserbare kompleksitet del av spesifisert kompleksitet


Ut fra dette har Bernd-Olaf Küppers, ledende forsker på livets opprinnelse, utledet: 'I sekvenser som bærer semantisk informasjon, er informasjonen tydeligvis kodet irredusibel, slik at den ikke kan komprimeres ytterligere. Derfor eksisterer ikke noen algoritmer som er kortere enn de sekvenser de genererer, i hvert fall ikke om det skal være meningsfylte sekvenser (20). Riktignok er dette en formodning, da det er umulig å bevise at for en gitt sekvens og algoritme, at det ikke kan finnes en kortere algoritme som kan generere sekvensen.

Smh

Chaitins argumenter er basert på konseptet med en Türing-maskin. Det er en abstrakt matematisk konstruksjon, oppkalt etter sin oppfinner Alan Turing, som knekket den berømte Enigma-koden. Resultat et av Chaitins arbeid her er å sannsynliggjøre tanken om at ingen Türing-maskin kan generere informasjon som ikke enten tilhører dens Input eller dens egen informasjonsstruktur. Dette har store konsekvenser fordi alt det en Computer noen sinne vil kunne gjøre, det kan også en Türing-maskin. (Church-Türing tesen). For molekylære enheter innebærer det at ingen molekylær enhet er i stand til å generere noen form for informasjon, som ikke ligger enten i dens Input eller i dens egen informative struktur. 

Dembski har i senere år argumentert for en ikke-deterministisk lov for oppsamling av informasjon, som innebærer at naturlige prosesser ikke kan generere ny informasjon, selv om de kan overføre/bearbeide den (21).

 Bilde 12. Interavhengighet fra starten av

Slike idéer som gjelder livets opprinnelse, er en nå i stand til å etterprøve på simuleringer. OM det er slik at informasjon i en eller annen forstand kan bli bevart, kan vi derav forvente at en simulering som hevder å få informasjon 'gratis' vha. helt naturlige prosesser, på en eller annen måte får informasjon smuglet inn utenfra. Noe som det er mulig å kontrollere i forhold til algoritmer. Det kan f.eks. være i form av avviksstyring i forhold til et innlagt 'mål' eller lignende. Det har vært gjort forsøk på å simulere tilblivelse av spesifisert kompleksitet av DNAet ved naturlige prosesser. Dette har vi før sammenliknet med maskinskrivende gorillaer..

Referanser:

1. Det svarer noenlunde til når man spiller Scrablle, slår opp i ordboka for å se om ordet man har konstruert finnes i virkeligheten

2. Den seneste forskning i menneskets genom har funnet at situasjonen er ennå mer komplisert enn dette

3. Det finnes en underholdende gjennomgang av dette viktige prinsipp i boka 'The Advent of the Algorithm' av David Berlinsky (New York, Harcourt Inc, 2000)

4. I motsetning til hovedidéen i Shannons informasjonsteori, som i det store og hele baserer seg på statistikk

5. 'The Origin of Life', Leslie Orgel, New York, Wiley, 1973

6. 'The Fifth Miracle', Paul Davies, New York, Wiley, 1973

7. Cambridge, Cambridge University Press, 1998

7a. gjentakelse av en prosess, en løkke i et computerprogram

8. 20.jan. 1999

9. Derekt Bickerton, Language and Species, Chicago, University of Chicago Press, 1990, ss.57-58

10. Se i den forbindelse D.D. Axes, 'Extreme Functional sensitivity to conservative amino acid changes on enzyme exteriors', Journal of Molecular Biology 301, 585-596

11. The Fifth Miracle, op.cit. s.88

12. In Many Worlds, red. av Steven Dick, Philadelphia and London, The Tempelton Press, 2000, s.21

13. In Many Worlds, red. av Steven Dick, Philadelphia and London, The Tempelton Press, 2000, s21-22

14. A Diffente Universe: Reinventing Physics from the Bottom Down, Ney York, Basic Books, 2005, s.168-169

15. Det finnes mange andre variasjoner over dette temaet, som et søk på nettet vil vise

16. Science and Information Theory, 2. Ed. New York Academic Press, 1962

17. Limits of Science, op.cit. s.79

18. Se Hao Wangs artikkel i Natures Imagination -The Frontiers of Scientific Vision, red. John Cornwell, Oxford, Oxford University Press, 1995, s. 173

19. 'Complexity and Gödels Incompleteness Theorem', CM SIGACT News, No. 9, April 1971, s.11-12

20. 'Der semantische Aspekt von Information und seine Evolutionsbiologische Bedeutung', Nova Acta Leopoldina, NF 72, Nr. 294, 195-210, 1996

21. 'Intelligent Design as a Theory of Information', perspectives on Science and Christian Faith, 49, 3. 1997, ss.180-190. Se videre hans: 'No Free Lunch', Lanham, Rowman and Littlefield, 2002

 

Oversettelse og bilder ved Asbjørn E. Lund