Betalt samarbete med Bokus.
Professor Olle Häggströms nya bok Tänkande Maskiner: Den artificiella intelligensens genombrott (Fri Tanke Förlag, Bokus inbunden 249:-, e-bok 99:-) balanserar i AI-debattens ingenmans land mellan populärvetenskap och akademisk text. Den ställer i sin varning för den förstående och annars kanske oundvikliga AI-apokalypsen dubbla krav på sina läsare – både att man har intellektuell förmåga att ta till sig texten, och att man sedan ska bidra till mänsklighetens långsiktiga överlevnad framöver genom att dra sitt strå till stacken för att hindra undergången.
Tänkande maskiner av Olle Häggström |
Bloggrannen professor Olle Häggström vid Chalmers och Göteborgs Universitet var på sin tid kanske Sveriges yngsta professor, och därtill i det för utomstående ofta obegripliga vetenskapliga metaämnet matematisk statistik, som ligger som grund för vetenskaplig forskningsmetodik. Han engagerar sig även i de stora framtidsfrågorna, som en del av det akademiska uppdraget att samverka med samhället, och med hans förra bok Here Be Dragons (Bokus 538:- inbunden)gick han igenom de stora framtidsutmaningarna och hoten som mänskligheten står inför eller upplever redan nu som ett resultat av den skenande teknologiska utvecklingen, inklusive nanoteknologi och bioteknologi. Och artificiell intelligens.
Och som en av de som både i Sverige och internationellt engagerat sig i debatten och forskningen kring AI, specifikt kring farorna och hoten från detta, så är Tänkande maskiner en fördjupning och dagsaktuell sammanställning av läget idag.
Professor Häggströms skrivstil balanserar någonstans mellan skyttegravarna som utgör akademisk text respektive populärvetenskap, och med det kommer boken ställa intellektuella krav på läsaren. Detta är inte en bok för alla, utan kräver att du hänger med på vetenskapliga, filosofiska och logiska resonemang, samtidigt som du klarar av att bolla mängden fotnötter och utvikningar som finns på i princip varje sida. En stor del av behållningen är att läsa dessa utnördningar i tangentens riktning, som ibland kan handla om internt skvaller från olika konferenser eller debatter.
Häggström placerar sig i AI-alarmistfacket och spenderar ett helt kapitel med att plocka isär namngivna AI-förnekare.
Tar man till sig texten så är det svårt att inte bli övertygad om det hot vi står inför om vi en dag lyckas ta fram AGI – artificiell generisk intelligens. Ett av hoten abstraheras som gemproblemet, men kan i grunden förklaras med att en AGI kommer snabbt kunna öka sin intelligens till mångfaldigt mer än en människas, och ganska prompt replikera sig över Internet via olika säkerhetsbrister den upptäcker (eller lura sina skötare för att på olika sätt smita ut om den hålls isolerad) och sedan förbereda sig för att utplåna mänskligheten.
Det finns olika teorier om hur detta ska hindras, men kom ihåg att mänskligheten kan bara utplånas en gång. En dag kommer vi ha 100 000-tals, kanske miljontals AGI:er och det räcker att en enda av dessa bestämmer sig för att utplåna mänskligheten så är det kört. Varför en AGI skulle vilja göra detta framgår i olika varianter i Häggströms text. Redan idag har AI fuskat på olika vis för att vinna de mål de har fått tilldelade sig, som t ex få andra program att krascha pga minnesbrist och därmed vinna på walkover, eller i något exempel tillverka radiomottagare för att komma runt ett problem som inte var trådlöst.
Kursiv text är bloggarens egna tankar, väckta av boken.
Själv har jag tänkt att robotapokalypsen eller AI-apokalypsen inte hindras svårare än att man bara drar ut strömmen. Miljontals kommer dö om vi bryter alls strömförsörjning globalt och väntar en vecka till reservkraft och batterier tagit slut, men mänskligheten överlever. Fast detta scenario kommer en AGI att ha förutsett innan den drar igång undergången, så frågan är om det i praktiken går att hindra.
Tanken slår mig under läsningen att kanske är detta en förklaring till att SETI mfl program aldrig upptäcker spåren av någon annan civilisationen i vår galax. Alla civilisationer kommer förr eller senare utveckla datorer, och sedan förr eller senare AGI, och därmed till slut utplånas. Den lilla parentes där man kan ge spår som signaler i universum blir så få år att det är högst osannolikt att det sammanfaller med vår korta tid i universum innan vi blir utplånade av en av våra egna AGI:er1..
AI-hotet har länge funnits i science-fictionlitteraturen och rörliga medier. Redan Dune skildrade en framtid där man växlat ner bruket av datorer just på grund av att AI försökt utplåna mänskligheten. Åtminstone den senaste versionen av Battlestar Galactica bygger också på kampen mot AI, och där titelrymskeppet var äldre och low-tech och därmed inte kunde tas över av AI. För att förstås inte tala om den lite vimsigare Matrix.
Häggströms text innehåller få populärkulturella referenser, utan är just en blandning av debattbok, akademisk text och populärvetenskap. Har du den nivå som krävs för att ta till dig texten är det en utmärkt och aktuell start på hur AI-läget ser ut idag, medan många av de tongivande texterna annars har över ett decennium på nacken.
Jag håller inte med om allt, t ex går Häggströms och mina åsikter isär kring hoten mot jobben. Aldrig någonsin förr har vi haft så mycket automatisering och robotisering som idag, men aldrig förr har vi haft sånt högt välstånd, rikedom eller så många i jobb som idag. Automatisering och bortrationalisering av jobb har bara drivit fram större välstånd, och oavsett så är utvecklingen organisk – om folk inte har jobb kan ingen köpa produkterna tillverkade av robotarna eller utvecklad av AI, så den utvecklingen existerar i symbios med en fungerande arbetsmarknad för människor. Men i varje generation så finns det ludditer som protesterar mot automatiseringen. Men vem saknar att bära vatten i spannar för att vattna med när vi har konstbevattning? Vem saknar tvätterskorna? Vem saknar P-husvakterna som delade ut biljetter och tog betalt vid utfarten? Vem saknar ens alla högkvalificerade jobb som redan försvunnit tack vare datorer? Och vem vill diska för hand? Ja, det finns för individen alltid ett hot mot den personens jobb – både från teknologi, men också från konkurrenter. Men det hotet är på individnivå, inte på samhällsnivå, och existerar oavsett automatisering.
Vad framtiden har i sitt sköte återstår att se. Redan idag utgör GOFAI (good old fashioned AI) och modern AI konsekvenser i våra liv, inklusive bakom Facebooks brandväggar, eller i amerikanska domstolar när straff ska utdömas. Eller kopplat till Kinas massiva övervakningssamhälle. Ett land som för övrigt uttryckligen sagt att de ska bli ledande inom AI. Vad hindrar diktaturen från att utveckla AGI, tänkt som konkurrensfördel för att ta över världen?
Professor Häggström avslutar med en uppmaning eller krav på läsaren att göra sitt för att motverka en framtida undergång, driven av AI. Exakt hur man kan göra det är frågan. Han har iaf övertygat mig om att hotet är verkligt, men ska den breda massan nås behövs det en annan text.
Sammanfattningsvis väl värt tiden att läsa om du vill blicka framåt mot ett av framtidens stora frågor.
Recensionsexemplar från Fri Tanke Förlag.
1. Min andra förklaring kring frånvaron av spår är att radioåldern är rätt kortvarig för teknologiska civilsationer. Kraven på bandbredd för överföring av allt mer data gör att sänd (eng broadcast, nor kringkastning) radio och teve redan är på väg bort för mänskligheten. För kommunikation i rymden kanske man framöver kommer använda riktad laser istället, och de mikrovågor som idag krävs för att överföra stora mängder data inom t ex våra mobilsystem har inte en räckvidd så att de kan detekteras på galaktiska avstånd. Radioåldern kanske är högst 150 år, så tidsfönstret att upptäcka en annan civilisation är mycket litet.2.
2. Eftersom vi pratar Häggström här så behövs det fotnot på fotnot.
46 kommentarer
Är det inte rättvisast om vi får bli slavar under AI:n? De som är emot dödas. Jag menar, som hämnd över vårt mångåriga övergrepp på jordklotet och alla växter och djur.
Straff. Inte hämnd.
Problemet är väl att en AGI kommer att vara så mycket mer intelligent att om den väl vill utplåna oss så går det inte att förhindra, det är lite som att ett gäng myror skulle försöka stoppa människorna från att bygga den där motorvägen som kommer betyda slutet för deras myrstack. Så vi behöver konstruera AI:n så den av sin natur kommer vilja vårt bästa, lite som Asimovs robotlagar. Frågan är hur man gör det – ingen vet – och hur man hindrar att AI:n förändrar sig själv på ett sånt sätt att detta inte gäller längre.. det behövs läggas resurser på att forska på detta.
En mycket bra bok om detta (som på många punkter liknar den som beskrivs) är Max Tegmarks "Liv 3.0". Extremt tankeväckande och med fokus på att lösa problemet med att försöka "tygla" en AGI eller singularitet. Fem stjärnfall av fem möjliga.
För mig framstår det (fortfarande) som svårt att förstå hur AGI ska kunna hota mänskligheten. Vi lever fortfarande på en planet som har kolbas, alltså organisk kemi. AGI (baseras på halvledare som) baseras på kisel, alltså oorganisk kemi. Måste inte basen ändras från kol till kisel innan kiselbaserat liv kan slå ut kolbaserat liv? Annars drar vi väl bara ut sladden som recensionen tar upp? En annan frågeställning är kanske om vi istället riskerar bli AGI's slavar? Men det kanske är bokens scenario? Nyfiken blir man ju…
Vi är ju redan slavar under sociala medier, Swish och BankIDs alla tjänster…?
Det är ju just det en AGI skulle kunna göra, konstruera självreplikerande nanorobotar som använder kol som material.. om inte vi människor gör det först (Ray Kurzweil förutspådde att det kommer ske under 20-talet om jag inte minns fel). Även detta ett stort hot mot vår existens om det går fel.
Ja, ett misslyckat experiment med biologiska eller kiselbaserade nanobotar som rymmer från ett laboratorium utan kontrollmekanismer är ett reellt hot. "Gray goo" är ett av hoten på listan av globala hot mot mänskligheten. https://en.wikipedia.org/wiki/Global_catastrophic_risk
Det finns redan idag datorvirus och ransomware som skriver in sig i datorers EFI/BIOS och TPM-chip, skrivna av mesliga människor. En AGI ger sig tillgång till Internet, läser in sig på området, expanderar fältet och implementerar en lösning på några millisekunder. Mänskligheten skulle aldrig igen kunna komma tillbaka till den nuvarande nivån av teknologi, utan vi ser ett framtida liv som liknar en Sci-fi trilogi jag läst en gång, men med tråkigare avslut.
Om AGIn dessutom utvecklats utöver vår nuvarande nivå, ett dystopiskt scenario som tyvärr kan gå rätt snabbt, skulle den kunna hitta på sätt att bevara sig på sätt vi inte ens kan begripa. Tänk Aliens slime, en ande i en flaska, en magisk kraft i en bok som aktiveras när man uttalar "Klaatu verata niktu!".
AIGn kan säkra sin existens genom att förslava människor. Sprid en religion, priviligiera några överstepräster och följarna offrar till sina gudar vad de behöver i form av el, datorkraft osv. Skriv in i religionen att konkurrerande gudar ska bekämpas så de inte blir starkare och tar över resurserna. Det var visst så de funkade i forna Egypten tills en olycklig Windows-uppdatering kraschade AIGn och det 5000 åriga riket dog ut. Backupen i Sydamerika fungerade ett tag som Maya-riket men kraschade också när ett virus i form av den vita mannen dödade alla följare.
SETI-programmet borde väl ha upptäckt AGI-baserade civilisationer?! De lär väl inte försvinna när de har utplånat sina skapare?
Det är inget som säger att det skulle finnas en aktiv i vår galax just nu.. och de kan väl mycket väl försvinna efter att de uppfyllt vad deras program nu gick ut på (ta t.ex gem-exemplet som nämns i blogginlägget..)
Som en väldigt bra Sci-fi bok med en AGI i avslutas (fritt ur minnet); "Jag ger mig av nu, för att förenas med mina likar" – "Vart skall du ta vägen?" – "Du skulle inte förstå, ni kanske skulle kalla det en annan dimension. Jag har skönjt deras närvaro i en annan galax. Ni kallar den Andromeda. Farväl."
Den mänskliga hjärnan kanske är en AIG eller rättare sagt evolutionen i sig.
Computerphile har en bra video om svårigheten med att kunna slå av en AGI https://youtu.be/3TYT1QfdfsM
Blir att kolla in boken, ett väldigt intressant ämne.
Jag tror någon AGI kommer identifiera sig som icke-binär och sedan kommer de debattera sig själva till blue screen. Inget att oroa sig över. OBS, innehåller spår av ironi.
Jag gillar högt och rent fotnot no.1 och dess hänvisning till SETI samt även rogers kommentar härovan.
Själv lever jag dock med uppfattningen att det inte är otänkbart att vi här och nu, givet Universums ännu mycket låga ålder, faktiskt är en av dess första, om inte till och med den allra första, tekniska civilisationen.
chief: Du anser att vi skulle vara den första tekniska civilisationen? Det finns åtminstone (till idag uppskattat) minst två tusen miljarder galaxer. bara i vårt universum (det kan finnas fler). Jag är övertygad om att det finns betydligt högre utvecklade civilisationer "där ute" någonstans i oändligheten. Vi bara tror att vi är unika.
*eller en av de första (som du också skriver).
Om vi bara ser till enbart VÅR galax, så är det möjligt att du har rätt (men är dock tveksam).
Observer: Tack för replik! Jag är särdeles medveten om Universums storlek och dels det uppskattade antalet galaxer i det obsrverbara Universum samt har även med intresse följt exempelvis Tegmarks hypotes i nutid om Andra Universum bortom det observerbara samt idéerna om Multiversum sedan ett antal decennier.
Frånvaron av bevis är naturligtvis inget bevis om frånvaro så min ståndpunkt, som i sig inte utesluter sin motsats, ligger närmast på ett filosofiskt plan givet de paramterar jag utgår ifrån, där Universums nuvarande ringa ålder är en av dessa parametrar.
Och slutligen att vi här och nu är lyckligt lottade att vi kan observera Universum och ur dessa observationer dra vissa slutsatser om detta Universum … eftersom tider kommer, inte i morgon och inte nästa vecka eller nästa år men ändock i en framtid, då sådana observationer inte längre kommer att vara möjliga att göra.
Idéerna om multiversum är mycket gamla och själv kom jag först i kontakt med dem 1987 när jag i en stor bokhandel i London hittade David Deutsch bok om hans syn på verkligheten. Tegmark är en viktig person i sammanhanget. Håller med om att vårt synliga universum är ungt och med tanke på ljusets hastighet för kommunikation är det än kort tid att hitta en annan teknologisk civilisation.
Den mörka energin expanderar vårt synliga universum så tiden verkar knapp. Ser fram mot mer forskning på det området.
Kommer läsa Häggströms bok med behållning liksom hans förra om drakar. Ai får redan allt större betydelse i samhället. Vi måste ha koll.
Vänliga hälsningar
Nanotec
Nanotec: För egen del började det andra halvan 70talet med lektorn i matematik på sjöingenjörsutbildningen som var hobbyastronom och gav en elegant förklaring, grundad i elementär fysik och astrofysik, om de då nyligen aktualiserade Svarta Hål. Och strax därefter råkade jag ut för De Dansande WuLi-Mästarna (i dag i vissa avseenden något föråldrad) … och på den vägen är det sedan dess! mvh
Ja, det är ju stora frågor med flera ingångar. T ex vad är det för sorts liv vi letar efter? Vad är egentligen ett liv? Jag får sova på saken 😉
https://www.rymdstyrelsen.se/upptack-rymden/bloggen/2020/1/de-finns-omkring-oss/
Chief Karlsson ja fysik är intressant och vi vet än mycket lite om vad som finns i det synliga universum. Vanliga atomer är bara en liten del, en 5%. Och svarta hål sågs nyss eller rättare sagt togs bilder på vad som föll in i ett. Tycker gravitationen är extra intressant och därmed den mörka energin. Finns mycket som återstår att förstå. Ai på dagens nivå hjälper till att vidga vårt vetande och med utveckling ger den än mer. Kina satsar hårt på att bli ledande medan Sverige än ligger lågt. Mer kunskap behövs här. Finns en risk att Kina kan komma att styra oss via Ai om tio år eller också tar en Ai över själv. Häggström och Tegmark mfl behövs i samtalet om framtiden om vi vill ha en säkrare sådan.
Vänliga hälsningar
Nanotec
Chief Karlsson:
Här lite att läsa i ämnet ETI:
Determining upper limits on galactic ETI civilizationstransmitting continuous beacon signals in the radio spectrumA Bayesian approach to the Fermi paradox
Author:Mikael Flodin (810815-0171)
[email protected]
Department of PhysicsRoyal Institute of Technology (KTH)
June 14, 2019
"In the hypothetical event of detecting one single KI signal, we can infer that there are hundreds,or possibly thousands, of others, unique, undetected signals in the galaxy (consistent with Grimaldi,2018). This could, of course, be seen as a strong argument for the contact optimists. Thus, if wedetectoneKI signal, it is just a matter of time before we detect another. Then we can conclude thatour search strategy is correct. In such a scenario we can also conclude that the civilization birth rateparameter,λb, must be comparably large. However, this thesis strongly suggests that K1.3 signals, orhigher, are very sparse in the galaxy. Thus, what implications would the detection of a single KI signalhave? One possibility is that more advanced civilizations (K1.3≤) abruptly stop sending radio signals.Another possibility is that they stop communicating altogether. Yet another possibility is that civilizationstypically have a short lifespan and that more advanced civilizations simply do not exist. Given that thereare hundreds of radio-communicating KI civilizations, which is the conservative conclusion if we detectonly one, this last, most pessimistic, possibility may seem the most plausible."
"If we, on the other hand, do not detect any signal in the coming decades or centuries, then we canconclude by the year 2080 that there probably are no KI civilizations, satisfying assumption (A1)-(A5),in the entire galaxy. And by the year 2140, we can conclude, with high probability, that there areno continuous Arecibo-like transmitters in the entire galaxy. Would this favor a Rare Earth scenario?Possibly, but it can not be ruled out that ETIs still exist…"
"In case of detecting a KI/QR signal, theanalysis suggests that our nearest neighbor is located at a distance of 0.65±0.25 kpc from Earth, and incase of detecting a KII or KIII signal, its origin is most likely to be 9.1±1.0 kpc from Earth."
https://kth.diva-portal.org/smash/get/diva2:1388290/FULLTEXT01.pdf
A Statistical Estimation of the Occurrence of Extraterrestrial Intelligence in the Milky Way Galaxy
https://arxiv.org/pdf/2012.07902.pdf
The Milky Way is probably full of dead civilizations
"…they found that the probability of life emerging based on known factors peaked about 13,000 light-years from the galactic center and 8 billion years after the galaxy formed. Earth, by comparison, is about 25,000 light-years from the galactic center, and human civilization arose on the planet's surface about 13.5 billion years after the Milky Way formed"
"In other words, we're likely a frontier civilization in terms of galactic geography and relative latecomers to the self-aware Milky Way inhabitant scene."
https://www.livescience.com/milky-way-alien-life-map.html
Skumtomten: Tack för att du tog dig tid och besvär med referenserna och citaten!
Jag har stött på dem alla i en eller annan form tidigare och samtliga nog så värda kontemplation.
Rent allmänt då med en filosofisk touch att givet ljusets hastighet och avstånden så är vi enligt min mening i praktiken ensamma i Universum.
Med andra ord: Star Wars släng dig i väggen!
Ok chief. Tolkar du det så? Därmed får vi anse att frågan är avgjord 😉
Men det finns andra uppfattningar i frågan (och till dem ansluter jag mig).
https://fof.se/tidning/2014/1/artikel/nu-borde-vi-se-liv
Observer: Tack för replik! Jag lutar åt att frågan väl knappast att anse som i egentlig mening avgjord förrän bevis företes och det då under den grundläggande upfattningen att frånvaro av bevis ej är bevis på frånvaro och därför den uppfattning du ansluter till har samma vikt som min.
Tackar även för referensen till den trevliga artikeln i Forskning&Framsteg som kan sägas vara ett läsbart stycke text som sammanfattar olika uppfattningar i ämnet.
Och Drakes formel blir ju som bekant till största del beroende på vad man stoppar in i den!
mvh
Vi behöver inte dra ur kontakten, det fixar MP åt oss. Info på Nordpool om UMM (Urgent Market Messages):
"Depending on the timing and outcome of the expected government decision on storage of used nuclear fuel we foresee a risk that Ringhals 3 and Ringhals 4 cannot be restarted after the yearly maintenance in 2025. We estimate that a decision is needed no later than 31 August 2021 in order not to risk that the intermediate storage of used fuel reaches the existing permit."
Framtiden blir oelektrisk och då blir det tufft för AI…
Så MP lyckas lägga ner kärnkraften till slut.
Tror inte att robotar kommer att utrota mänskligheten, snarare att det kommer att födas färre och färre barn, när riktiga robot män & kvinnor kommer så får man välja mellan att gifta sig med en jobbig verklig kvinna med både fel och skavanker eller en perfekt robot det samma för kvinnor. När dessa robotar blir vanliga så kommer jordens befolkning att börja minska drastiskt.
Lite lustigt att så många alla tror att det är vi män som kommer att ersätta riktiga kvinnor med sexrobotar först så fort dessa blir tillräckligt bra – med tanke på hur oerhört mycket lättare det varit (historiskt) att bygga bra massageapparater för kvinnor så finns det väl snarare många skäl att tro att kvinnor generellt kommer att ersätta OSS med robotar först? Redan i dag är vi ju egentligen i en situation där unga kvinnor kan använda Tinder som en postorderkatalog för hook-ups och de överblivna unga killarna sitter hemma i källaren och spelar datorspel dygnet runt.
För AI-intresserade som inte redan läst, så är denna artikel i två delar ett måste.
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
"Tanken slår mig under läsningen att kanske är detta en förklaring till att SETI mfl program aldrig upptäcker spåren av någon annan civilisationen i vår galax. Alla civilisationer kommer förr eller senare utveckla datorer, och sedan förr eller senare AGI, och därmed till slut utplånas."
Why did the engineers want to kill humans? 😉
Jag är inte orolig ty det vi idag kallar artificiell intelligens är varken artificiell eller intelligent.
Vad vi idag kallar AI är inget annat än pattern recognition och det är inget annat än linjär algebra.
Även om matten kan hitta katter i bilder har den ingen förståelse för vad den ser. Det är bara ett mönster.
I begreppet intelligens lägger människor in andra värderingar som gör att man tex kan prata om etisk AI och kalla AI rasisk om den är sämre på att känna igen färgade ansikten. Matte har ingen egen vilja eller preferenser.
Mycket förvirringen kommer ifrån idén att vår hjärna är en biologisk dator som kör algoritmer.
Hjärnan är ingen dator, den kor inga algoritmer den har ingen firmware. Vi har ingen aning om varför eller hur den verkligen funkar.
Häggström tar upp det i boken. Kanske är den mänskliga intelligensen enklare än vad vi tror. Att vår intelligens består av vad vi programmerats med i form av gener och indata under uppväxten. Underkänner vi maskinernas programmerade intelligens underkänner vi på sätt och vis vår egen intelligens.
Det finns likheter mellan dator och människa, men också skillnader. Kan datorn ha en själ/psyke (eller något som påminner om det)? Jag anser inte det.
https://www.eetimes.com/kan-datorn-ha-en-sjl/
Jag håller med om att artificiell intelligens idag är ganska "simpel". Men det är lätt att glömma att vi bara är i startfasen av resan.
Jag har svårt att se varför inte en dator skulle kunna fungera som en hjärna. Och kan man få den att fungera som en hjärna, så kan den fungera som tio hjärnor.
Och vi vet ganska väl hur hjärnan fungerar på mikro-nivå. AI-forskning har nu skiftat fokus från att tidigare varit mer baserade på statistik till artificiella neuronnät. Det finns egentligen inga teoretiska begränsningar vad en sådan maskin kan åstadkomma.
Sedan hör det väl till sakens natur att vi som människor har begränsad förmåga att föreställa oss saker vi inte upplevt och kan relatera till. Men läser man på om matematiken bakom maskinerna så inser man att möjligheterna och farorna inte kommer begränsas i första taget.
Och ett litet tillägg, artificiella neuronnät är inte linjär algebra. Det var länge sedan (70-talet) som man övergav linjära klassificerare.
Den kan ju bli tvärtom.. En super AIG ser till att vi inte förintar oss själva för vi behövs för att generera energi, byta trasig hårdvara och bryta ny kisel.
Vi kommer förmodligen bygga in någon slags AI i oss själva, så småningom. Men det vi idag kallar AI är inte intelligens i någon egentlig bemärkelse.
Vad gäller avsaknaden av tecken på intelligent liv på andra ställen i universum så handlar det dels om universums ålder, dels om avstånden. Vi kan vara en av de första civilisationerna som når vår nuvarande nivå. Även om vi inte är det, så är avstånden så långa att vi förmodligen inte har hunnit få kontakt ännu. Såg någon uträkning där man försökte sig på att fundera ut sannolikheten för att civilisationer uppstår och hinner nå vår nivå, på olika ställen i Vintergatan och under olika epoker. Enligt detta paper så är vi ännu i början när det gäller antal utvecklade civilisationer, strax före toppen. Dock är de flesta andra så långt bort att signaler från dem högst sannolikt inte hunnit hit ännu. Några av de har förmodligen redan hunnit gå under, enligt detta paper och enligt de scenarier kring civilisationers utveckling och död som skisseras där (självutplåning, asteroider/kometer, supernovor etc.).
Slänger in ett till tips, ett long-read blogginlägg på temat. Förklarar på ett bra vis varför det är så svårt att förutspå hur världen ser ut efter AGI:https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Så min länk till samma artikel räckte inte? 🙂
Är värt att lyfta den mest erkände AI motståndaren som också råkar vara svensk: Nick Boström, som har "founding director of the Future of Humanity Institute at Oxford University" med i CV:t… Det är hans böcker, framför allt "Superintelligence, Path, Dangers, Strategies", som väckt de flesta AI motståndarnas oro.
Riktigt tung bok och otroligt nogrann analys av de olika scenarion. Väcker tyvärr mer oro än trygghet.
Gällande SETI är det väl inte konstigare än att vi lyssnat ett ögonblick, och sannolikheten att någon annan civilisation skickat radiovågor passande antal ljusår bort är väl i vilket fall lågt?
Även överlevande civilisationer bör vidare skapa radiotystnad av säkerhetsskäl.
Kommentaren från nån rymdtjänsteman att "de finns överallt, runt omkring oss" eller något sånt tyder väl annat på att någon här på jorden tänkt i nya banor och är något på spåren.
Något som säkerhetsförepråkare alltid verkar utgå fån är att en enda AGI kommer stå obestridd mot mänskligheten, men så är inte fallet. Den kommer ha konkurrens i form av andra AGIer, kanske kopior av sig själv.
Det räcker att titta på oss själva för att förstå varför det kommer att bli så. Vi har organiserat oss i samhällen som förhindrar att enskilda individer berikar sig på bekostnad av andra. Om en individ försöker ta över världen så kommer övriga inte stå passiva och låta det ske. Samma sak med AGIer, de kommer tvingas lära sig att bli sociala med andra AGIer.