Cornucopia?

Aktuellt

Valueguard: Största prisraset för lägenheter i april någonsin

Valueguards kvalitetsjusterade prisstatistik för lägenheter visar på det största raset för lägenhetspriser någonsin, oavsett om det är lande...

2014-06-02 15:48

Globala katastrofrisker fram till år 2100 - nanoteknologi största hotet

Under konferensen Global Catastrophic Risk i Oxford 2008 genomfördes en informell enkät bland de närvarande kring vilka de största globala katastrofriskerna var fram till år 2100. Störst risk för total utplåning av mänskligheten, 5%, stod nanoteknologi och superintelligent artificiell intelligens för.



Enkäten var förstås informell, men ändå baserat på närvarande experters åsikter.

Man kan notera att utrotning på grund av träff av annan himlakropp (asteroid) eller klimatförändringar inte är med på listan. Enskilda deltagare tog upp dessa risker, men de omfattades inte av enkäten.

När det gäller himlakroppar, så skulle en kometträff motsvarande Tunguskasmällen kunna döda miljontals, om det skedde över tätbefolkat område. Samtidigt är väl kanske 80% av jordklotet nästan helt obefolkat, medräknat polerna, Sibirien och haven. En träff över hav skulle dock ge en omfattande tsunami. Frågan landar då i hur vanlig en Tunguskaträff är? Antagligen är det den enda träffen man hittat spår av sedan skriftspråk blev allerstädes närvarande, dvs minst en per tusen år. Risken för en sådan träff mot befolkat område inom hundra år kan därmed anses som liten.

Vad gäller klimatförändringar så är det kanske inte så mycket en risk, som en etablerad verklighet?

Rapporten Global Catastrophic Risks Survey av Anders Sandberg och Nick Bostrom (PDF) skriver följande om övriga risker, varav flera överlappar de redovisade riskerna och är någon form av variant, t ex krig.
"The list of risks was not intended to be inclusive of all the biggest risks. Respondents were invited to contribute their own global catastrophic risks, showing risks they considered significant. Several suggested totalitarian world government, climate‐induced disasters, ecological/resource crunches and “other risks”‒‐specified or unknowable threats. Other suggestions were asteroid/comet impacts, bad crisis management, high‐ tech asymmetric war attacking brittle IT‐based societies, back‐contamination from space probes, electromagnetic pulses, genocide/democides, risks from physics research and degradation of quality assurance."
Bifogar ovan infografik över riskerna nedan. Klicka för skarp bild.
Globala katastrofrisker fram till år 2100. Källa: Sandberg, Bostrom 2008
Eftersom de tre kategorierna av utfall är mer än en miljon döda, mer än en miljard döda och total utplåning, har jag reducerat de lägre kategorierna med de övre kategoriernas procentsatser. Total utplåning är ju mer än en miljard döda. Exempelvis blev risken för över en miljon döda i krig 98%, men står som 68% i grafiken. Min metodik, rätt eller fel, gör att 5% risk för över en miljard döda genom superintelligenta AI:s försorg blir 0%, då risken för total utplåning sattes till 5%. Utan denna metodik landar krigsumman på 132%. Detta är en förenkling, då det antagligen handlar om tre risker och borde räknas ut annorlunda än enkelt plus och minus, men det blir svårare att göra snygg (men förenklad) infografik av. Tror jag. 

Poängen är att vi kanske fokuserar på fel risker. Riskerna är främst teknologiska och aktivt skapade av människan - framtida nanoteknologiska vapen, artificiell intelligens som bestämmer sig för att utplåna människan, krig, biovapenpandemier och kärnvapenkrig. Naturen dyker först upp som endast 1% risk för total utplåning av en naturlig pandemi, även om risken för minst en miljon döda sattes till 55%.

Och (kärnvapen)terrorism hittar man i botten, med 0% risk för total utplåning av allt mänskligt liv.

Tillägg: Länk till en artikel om ekofagihot från självreplikerande nanomaskiner. Artikeln går igenom en del av problematiken med hur snabbt biomassaätande självreplikerande nanomaskiner skulle kunna äta upp allt liv om sådana släppes fria.
Nedanstående kommentarer är inte en del av det redaktionella innehållet och användare ansvarar själva för sina kommentarer. Se även kommentarsreglerna. För att din kommentar inte automatiskt ska raderas måste du sedan 28:e juni 2019 finnas på en VITLISTA. Skriv med kvalitet och följ kommentarsreglerna, så kan du komma in på listan. Ytterligare anonyma signaturer som unknown etc kommer inte att godkännas. Att vara vitlistad betyder inte att kommentaren stöds av bloggen, bara att kommentatorn når över en viss lägsta kvalitet och inte bryter mot reglerna. Genom att kommentera samtycker du till att din kommentar, tidsstämpel, profillänk och pseudonym sparas av Googles Blogger-system så länge det är relevant, dvs så länge blogginlägget är publicerat.

30 kommentarer:

  1. Eller så är det en klassisk psykologisk överskattning av de okända riskerna, kanske?

    Man kan notera att de "värsta" riskerna (AI; nanoteknologi) är förknippade med nya tekniska applikationer jfrt t ex kärnvapen som existerat i 70 år och som vi fått bekanta oss med hundratals ggr om man räknar med provsprängningarna. Eller pandemier, som existerat som begrepp sedan innan människan.

    SvaraRadera
    Svar
    1. Poängen är väl att vi lärt oss hantera kärnvapen. Men det var väldigt nära att smälla flera ggr under kalla kriget. Inte bara Kubakrisen, utan även den där ryske militären som krävde dubbelkoll av felavläsning av ett amerikanskt kärnvapenanfall och på så sätt hindrade ett globalt kärnvapenkrig.

      Ny teknologi innebär nya hanteringsrisker.

      Radera
    2. Att ny teknologi "Innebär nya hanteringsrisker" utesluter inte att man (också) överskattar risken jfrt ett gammalt välkänt system av psykologiska skäl.

      Radera
    3. Naturligtvis. Jag har redovisat vad expertisen har får åsikter. Kärnvapenkrig med en miljard eller fler döda sätter man ändå till 10% och det är en känd risk. Illa nog tycker jag. Det är en lika stor risk för en miljard eller fler från nanoteknologiska vapen, även om att hela mänskligheten utplånas sätts till större risk med nanotekniken. Vilket är logiskt, då nyare vapen torde vara effektivare än äldre vapen.

      Radera
    4. Notera "åsikt". Det handlar om expertisens åsikter, inte fakta.

      Radera
    5. Tidningarna skriver om någon husbilskatastrof och trafikhelgen på löpsedlarna. Togs dessa risker upp i Oxford.?

      Radera
    6. Dog fler än en miljon?

      Radera
  2. 2008. Det vore intressant med en ny undersökning. Perceptionerna förändras. Jag skulle vilja se siffror för en sådan sak som "ecological/resource crunches".

    SvaraRadera
    Svar
    1. Den här kommentaren har tagits bort av skribenten.

      Radera
  3. En fråga som inte framgår klart var man drar gränsen mellan nanotek-vapen och nanotek-olycka. När det gäller just krig och så förefaller det inte vid första anblick att man skulle avsiktligt orsaka total utrotning, men man kan ju vid närmare eftertanke inte utesluta att någon gör något sådant av ren illvillja.

    Så frågan är hur stor risk man tror det är atat man utplånar mänskligheten av illvilja eller av misstag.

    Rent generellt tror jag dock att naturliga orsaker kan avskrivas som tämligen osannolika (människan har ju klarat sig hittils mot naturen och lär göra det även i fortsättningen).

    SvaraRadera
  4. Klimatfrågan kan vi säkert anpassa oss till. Det har mänskligheten alltid klarat.
    Det vore bra om andra hot uppmärksammas mer.
    På 60 talet då jag började bli medveten om hot så var kärnvapenfrågan och överbefolkningen de stora hoten. Den senare frågan tycks tonas ner allt mer som hot. Men hur hade det sett ut om inte Kina uppmärksammade det på 70 talet med enbarnspolitiken?

    SvaraRadera
    Svar
    1. Hans Rosling har ju lovat oss att befolkningen skulle stanna på nio miljarder. Men nu blir det elva miljarder enligt FN. Oroväckade är också att prognoserna bygger på att folk får det bättre. Vilket de inte nödvändigtvis får, givet att naturresurserna sinar och förstörs. Då kan naiva, ansvarslösa, knasidealistiska miljöpartister som kastat allt livbåtstänkande överbord få extremt fel. Så får vi u-landsförhållanden också i Sverige.

      Radera
    2. oppti visst kan vi med möjligen miljardförlust av liv anpassa oss till klimatfrågan. Den är den givna stora risken om inte någon dramatisk förändring sker.

      När det gäller nanoteknologi kommer även goda möjligheter med stor sannolikhet. Vad som är nanoteknologi skiftar med tiden. Tråkigt nog måste jag hålla med att det också finns risker. Bättre solceller batterier mediciner är bara några positiva områden för nanoteknologi. Elektronik är nog där vi kommit längst och den utvecklingen lär fortsätta ett tag till.

      Personligen just nu tycker jag att AI och kartläggning av större asteroider borde få mer resurser. Att vi inte sett tecken på annan intelligens i rymden kanske beror på att större asteroider brukar utplåna högre liv så där vart 60 miljonte år.

      Vänliga hälsningar

      Nanotec

      Radera
  5. Kan någon ge ett enda exempel på hur nanoteknologi skulle kunna hota mänskligheten?

    SvaraRadera
    Svar
    1. Det klassiska är sk "gray goo" eller aerovorer - självreplikerande nanomaskiner som löper amok och äter upp hela världen. Klassas som olycka.

      I fallet nanovapen, så handlar det om ungefär det samma, men (självreplikerande) vapen som sprids för att ha ihjäl en motståndare. I teorin betydligt effektivare än kärnvapen, och mer frestande, då man kan bygga dem för att enbart ha ihjäl människor, utan någon som helst materiell förstörelse på köpet.

      Finns gott om exempel i skönlitteraturen, t ex Blood Music av Greg Bear, The Forge of God av Greg Bear, Prey av Michael Crichton, Diamond Age av Neal Stephenson mfl böcker.

      Radera
    2. Exemplen handlade om gray goo eller nanovapen, inte nödvändigtvis att mänskligheten helt utplånas i respektive bok.

      Radera
    3. Nanomaskiner som i miljarder ändrar dna i bakterier för att få fram några nyttiga bakterier som tex äter plastskräp i havet eller får fram små metallpartiklar ur sand men råkar göra ett litet misstag som ger en livsduglig extremt människofientlig bakterie med snabbare spridning än vi hinner hantera.

      Osannolikt men tänkbart.

      Vänliga hälsningar

      Nanotec

      Radera
    4. Glöm inte den kanske bästa av dem alla; "Plague Year" av Jeff Carlsson.

      http://www.sfreviews.net/carlson_plague_year.html

      (Nummer 2 och 3 i serien kan man skita i, han tappade bollen några kapitel in i tvåan IMHO).

      Radera
    5. Visst, i fantasin finns många hot, men för att det ska kunna bli ens något uns av sanning i dessa hot så måste åtminstone en liten nanomaskin vara uppfunnen och skapad, vilket inte är fallet. Detta hot är alltså rent bullshit! Jag är mer rädd för naturens nanomaskiner som redan finns, dvs bakterier och virus.

      Radera
  6. En stor asteroid-träff är bara en fråga om tid och sannolikhet, tyvärr ! Kommer att inträffa så småningom. Fram till dess så är riskerna främst en terrorist-atombomb ( troligtvis inte i Swe) , och en sakta försämring av levnadsvillkor pga dålig miljö, brist på bensin / fisk / vatten / mat osv-osv ....

    SvaraRadera
  7. Risker med AI forskas mycket lite på för nästan alla ser den risken för de närmaste 10 åren som ytterst liten. Kartläggning av asteroider eller kometer med banor nära jorden sker i lite större skala vad jag förstår. Hittar vi en med nära risk finns olika optioner om vi får lite tid till godo.

    Vänliga hälsningar

    Nanotec

    SvaraRadera
  8. Min största favorit bland domedagsprofeterna på nätet, bortsett från mig själv förstås, är kanske Gail Tverberg, en veteran och mycket respekterad person i sammanhanget. Härom dagen verkade hon komma ut mer negativt än vanligt och det gör mig glad. Inte för bryr mig speciellt om hur många som utplånas och när utan därför att jag själv framstår som försiktig. Med den här prognosen är det snart färdighandlat i affärerna. Energiförbrukningen är nere på 25 procent av idag redan om 20 år. Huh

    http://ourfiniteworld.com/2014/05/29/converging-energy-crises-and-how-our-current-situation-differs-from-the-past/#more-39009

    Det är självklart naturresurserna som knäcker systemet och leder till massdöd. Det har ju redan börjat så smått med den så kallade finanskrisen. De andra hoten är mer eller knäppa teorier och verklighetsfrämmande. Naturresurserna fördyring kan man till skillnad från det andra flummet räkna på.

    SvaraRadera
    Svar
    1. Tverberg var på domedagskonferens och tog kanske intryck av stämningen. Enligt Romklubbens första nu 42 år gamla prognos ska service, food och industrial output per capita toppa ungefär nu. Men befolkningen är seg och toppar först 2050. Det kan stämma. Svårt att säga för det är så långt bort. Men de andra topparna blir nog lite senare. Kanske om 5 år. Sverige toppade 2008 inom industrial output och än tidigare inom food. Frågan är när kineserna kör in i väggen. Deras BNP ökning är inte som förr. Spanien har tappat BNP 6 år rad och nu ska de satsa stenhårt finansiellt. Det klart att de kommer att misslyckas.

      http://ageoflimits.org/

      Radera
  9. Människoapan uppfinner ett nytt vapen och får omedelbart psykoshybris och inbillar sig att dem kommer sänka hela universum av sin blotta intelligens. vi är 4,5 miljarder år försent till beslutsprosessen om våran existens vara eller icke vara så släpp ångesten och lär er utvecklas tillsammans med naturen istället för att projicera era egna tillkortakommanden på nån jävla teori ingen nånsin kan backa upp med annat än en ny teori.

    Ja klimatförändringar existerar och det har dem alltid gjort och det ända vi kan göra är att lära oss leva med dem. Och är det så att AI tar över och sänker vårat släkte så är det väl bara att acceptera att den talande apan har blivit överflödig, och handen på hjärtat vad fan ska du göra åt det? Game over bitch.

    SvaraRadera
  10. Los puddas när/om du får barn kommer sannolikt ditt eget ansvar för framtiden att öka. Min gissning just nu är att vi kommer att integreras med AI. Ungefär som mobiler har fått större delen av världen att ha tillgång till snabb information. Kunskap är svårare men den ökar snabbt totalt och allt fler kan åtminstone läsa och enkel matematik. I alla länder där baskunskap når kvinnor minskar barnafödandet till en rimlig nivå. Världens invånare har fått det betydligt bättre materiellt och de fattiga minskar snabbt.

    Har en optimistisk läggning men inser att det finns risker i den utveckling jag arbetar för. Idag är det mest genom aktieinvesteringar och just de klimatförändringar vi står för samtidigt med peek oil är en utmaning. Det finns inte en åtgärd utan ständigt allt fler olika att värdera omvärdera och handla efter. Varken peek oil eller klimatförändringarna riskerar utplåna mänskligheten men kan kosta oerhört i liv.

    De teorier som kommer fram på basis av nya hypoteser utvecklar vårt kunnande. Vi är en del av naturen och har anpassat oss till att snabbt ändra den gamla biologiska balansen på jorden. Mängder av organismer dör ut nu på grund av dåliga teorier för hur vi ska bete oss. Nationalekonomer har fått för mycket att säga till om. Naturvetare har för lite inflytande och vi ingenjörer har för lätt att lyssna till mindre kunniga ekonomers predikningar. Ska inte bli något game over Los puddas.

    Våra drömmar formar framtiden den är inte given. Lever idag gott på mina gamla drömmar men vidtar försiktighetsåtgärder också. Ser fram mot nya drömmar.

    Vänliga hälsningar

    Nanotec

    SvaraRadera
  11. när vi glider in i en ny istid - inom en inte alltför avlägsen framtid - kommer en stor del av jordens befolkning att duka under
    Naturen är vår största fiende och den rår vi inte över.

    SvaraRadera
    Svar
    1. Naturen är vårt ursprung och vår vän. Vi får allt mer kunskap om hur vi bäst samverkar med den övriga naturen och har varit är och förblir en del av naturen.

      Nästa istid dröjer troligen till långt efter den klimatpåverkan vi håller på med dvs 1000-tals år.

      Vänliga hälsningar

      Nanotec

      Radera
  12. För några år sedan hade landets centralstyrda television en serie om sånt här. För att motivera och mobilisera massorna hålls dom matade med mindre sannolika hot, för att inte säga skrattretande saker. Deras självförtroende stärks. Fårskallarna får naturligtvis inte övertygas om att systemet håller på att braka ihop. Deras demokratiska system innebär att de är på de godas sida och då går det alltid bra. För detta har de sett från Hollywood. Och om också man fläskar på världens största flyktingmottagning så är sannolikheten för att det går bra och alla blir lyckliga än större. Någon djupare analys än så behöver man egentligen inte göra.

    http://www.ur.se/Produkter/162206-Mansklighetens-sista-dagar-Klimatkollaps

    SvaraRadera