Nekromanti Singulariteten - vad är det och behöver vi oroa oss?

Lupus Maximus

Tekniker
Joined
13 Jan 2012
Messages
2,746
Location
Stockholm
Det finns många olika tekniker inom AI, men denna tråd verkar mest beröra ANNs.

Artificiella neurala nätverk bygger till viss del på "Emergent behavior", d.v.s. att ett komplext system, baserat på delar vi förstår, kan ge nya effekter som inte är förutsägbara. Ett ANN är perfekt när man kan kvantifiera indatat och utdatat, men ingen aning om hur man egentligen skall behandla det.

Man tränar ett ANN från att ge slumpartade svar, till att kunna ge korrekt svar. Textigenkänning använder sig av ANN för att skilja på olika tecken.

Dock kan träningen ge artefakter. Vi har inte kontroll över vad ett ANN egentligen lärt sig, utan vi kan bara ställa kontrollfrågor. Så den som tror vi har full koll på AI har fel.

Men... Ett ANN är en simulering över hur vi tror hjärnceller interagerar. En neuron får en massa indata, som varje är antingen är på eller av. Den ger varje aktiv ett viktat värde, slår ihop alla viktade värden och jämför mot ett triggervärde. Om triggervärdet är uppnått skickar den signaler vidare i kedjan. Varje neuron i sig är inte beräkningsintensiv. Men börjar vi tala om några tusen kräver det datorkraft. En myra har tydligen runt 50.000 neuroner, och en människa har ungefär lika många som det finns stjärnor i våran galax.

D.v.s. det som inom AI-kretsar kallas "hård AI", en faktisk intelligens, ligger knappast runt hörnet. Det vi snarare problemet med folk som försöker vara smarta, och koppla automatiska beslutssystem till områden där ett felaktigt beslut kan få allvarliga konsekvenser. Robothandlare som tokköper eller toksäljer vid fel tillfälle, för att den feltolkade börsen, eller vapensystem som kan få för sig att den bonde som gräver efter rötter ser ut som någon som planterar en mina.
 

Sapient

Swashbuckler
Joined
26 Mar 2011
Messages
2,492
Location
Stockholm
kloptok;n109817 said:

Klart du ska dissa idén! Låt oss sätta igång med dialektiken. Jag har en motsatt bild, jag tycker snarare att de flesta verkar rädda och oroliga inför utvecklingen och anropar det här Frankensteinperspektivet med en skapelse som reser sig mot sin skapare. Låter som att du lyssnat för mycket på Kurzweil.


De två bärande tankegångarna i uppfattningen är kanske, såvitt jag uppfattar det iaf, dels den "teknologiska explosionen", dels att den skapar en "händelsehorisont" (hence benämningen singularitet).

Om vi börjar med händelsehorisonten. Kan vi tänka oss något sådant? Ja, jag tror tom att det hänt en hel del sådana i historien.

Antag att vi kliver ur en tidsmaskin utanför Catalhüyük för tiotusen år sedan. Några ur lokalbefolkningen påtar i jorden för att plantera bönor. Vi visar dem en iPhone och försöker förklara att via en app i den kan vi beställa hem mat utan att bli leriga om fibgrarna. Via en annan app kan vi swisha betalning för maten. Sen kan vi fota av maten och publicera bilden på Facebook där den kan gillas av potentiellt tre miljarder internetanvändare. Vad av detta skulle de begripa, om vi kunde kommunicera med dem?

Det är väl ungefär vad den teknologiska händelsehorisonten är? Även om vi skulle kunna göra en enskild tanke någorlunda begriplig genom förklaringar, skulle den antagligen behöva omformas av dem på ett sätt som gör att de ändå inte skulle få någon vägledning att förstå de andra, för de skulle fortfarande vara lika oförklarliga. (Eller möjligen klumpa ihop alltihop under "magi", som bara är en etikett för oförståelse.)

Men om det är så, och faktiskt redan har hänt i världshistorien, tar det bort en del av den "mystik" det är laddat med i den futurologiska teorin. Det enda det beskriver är att efter "flygande bilar" räckte vår fantasi inte till att förutsäga framtiden. Sånt händer, det är inget "speciellt". Det är vi, inte framtiden.

Teknologi-explosionen då? Tja, vilket tidsperspektiv har vi? Det kommer ju att kunna finnas AI:er som kan skriva om sina egna algoritmer, givet att verklig AI alls kommer att kunna skapas. (Vilket jag tror, tycker inte att det finns något som motsäger det.)

Leder det till en exponentiell process där detta går fortare och fortare? Nej, det tror inte - på mer än ganska trivialt sätt. Det är någonstans här jag tycker att det börjar handviftas för mycket och "varför inte?" får ersätta "hur då?".

Det är klat att AI:n kan försöka optimera de algoritmer som analyserar algoritmerna, och på så vis kanske förbättra dem än del. Men det upphäver inte andra begränsningar. Kod kan inte bli oändligt optimal. Även om AI:n gradvis permuterar alla sina delar, inklusive hårdvaran, sker det inkrementellt och givet att vi låter den kontrollera alla de stegen självt. Den kan tom uppfinna ett helt eget assemblerspråk som är mycket effektivare än de vi människor skapat - och då talar vi kanske rejäla tidsvinster i varje beräkningssteg.

Förbättringarna kommer att snabbas på, ja. Men kommer det verkligen att ske "avtagande mot noll", tidsmässigt?

Ärligt talat, vi har sett en sån otrolig utveckling av beräkningshastighet redan, att jag tycker det vilar en mycket stor bevisbörda på den som hävdar att gratis gåvor börjar regna ned från himlen, om den ökas förbi punkten X. Vi kan göra programvaror för styrning i realtid på mycket bättre sätt nu än tidigare, som kan automatisera fler funktioner och göra mer arbete parallellt.

Apollo-kapseln styrdes av en dator som hade lägre beräkningskapacitet än en solcellsdriven miniräknare idag, men det innebär ändå ett begränsat värde för framtida månfärder, om vi skulle vilja försöka oss på sådana. Det är inte _bara_ beräkningshastigheten som spelar roll. Vi skulle förvisso förmodligen bygga in betydligt fler funktioner med automatik idag (och det gjorde vi ju iom rymdfärjans styrsystem tex).

Beräkningskapaciteten måste ses i relation till den verksamhet den ska påverka. Det mesta som händer med ökad processorkraft i våra vardagsdatorer, är att de först skapar en överkapacitet, som står outnyttjad ett tag - och därefter fylls den långsamt upp med nya funktioner eller förbättrade prestanda i "tunga" programtyper. Det är inom en del specialiserade verksamheter med mycket hög belastning som varje flop fylls upp. Men vad säger att den skulle ha en radikalt annan betydelse, i en verksamhet som AI?

Ökad processorkapacitet (och förändrad arkitektur, sannolikt) är kanske snarare en förutsättning för vissa typer av AI - iaf om den inte ska vara behäftad med en hel del av de funktionssätt som gör att den mänskliga hjärnan arbetar så seriellt att den kan vara ganska långsam på grund av det. Men därefter?

Jag ser helt enkelt inte att det finns substans i talet om "explosion" eller exponentiell utveckling.

Kurzweil spånar ju bara. Han stöder sig på att kisa hårt mot Moore's law (som redan var fel- och övertolkad till max) och applicera den både bakåt, på hela den mänskliga utvecklingen, och framåt på all slags utveckling.

Och även om han i och med det, "exponerar" sig för kritik, så tycker jag faktiskt inte att jag hittat mer substans hos någon annan. (Jag har läst en del, kanske tom en hel del, men visst - det kan finnas bättre argument som jag ännu inte har läst. Den som är en anhängare av denna teori får gärna tipsa...)

Om det finns någon lärdom att dra från historien, så är det väl att dystopierna sällan blir så dystra som förutspåtts och utopierna infaller inte.



 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,250
Location
Stockholm
Sapient;n109981 said:
Det är väl ungefär vad den teknologiska händelsehorisonten är? Även om vi skulle kunna göra en enskild tanke någorlunda begriplig genom förklaringar, skulle den antagligen behöva omformas av dem på ett sätt som gör att de ändå inte skulle få någon vägledning att förstå de andra, för de skulle fortfarande vara lika oförklarliga. (Eller möjligen klumpa ihop alltihop under "magi", som bara är en etikett för oförståelse.)
Som jag ser det symboliserar den ”teknologiska händelsehorisonten” en tidpunkt i historien där vi omöjligen kan återgå till en situation som den var innan den tidpunkten. Precis som att vi omöjligen kan komma undan om vi kommer innanför händelsehorisonten på ett svart hål. Och sedan verkar många baka in det här med en framtid som vi inte kan beskriva i det, och använder singularitet för det. För mig betyder singularitet en brist i beskrivningen och är ett tecken på att modellen är inkomplett. Så på så sätt är det väl inte helt ovettigt att kalla en framtid som är svår att sia om för en singularitet, men samtidigt så är det ju alltid så att vi inte kan förutspå framtiden så det blir lite knasigt kan jag tycka att märka ut det här som något kvalitativt annorlunda.

Sapient;n109981 said:
Leder det till en exponentiell process där detta går fortare och fortare? Nej, det tror inte - på mer än ganska trivialt sätt. Det är någonstans här jag tycker att det börjar handviftas för mycket och "varför inte?" får ersätta "hur då?".

Det är klat att AI:n kan försöka optimera de algoritmer som analyserar algoritmerna, och på så vis kanske förbättra dem än del. Men det upphäver inte andra begränsningar. Kod kan inte bli oändligt optimal. Även om AI:n gradvis permuterar alla sina delar, inklusive hårdvaran, sker det inkrementellt och givet att vi låter den kontrollera alla de stegen självt. Den kan tom uppfinna ett helt eget assemblerspråk som är mycket effektivare än de vi människor skapat - och då talar vi kanske rejäla tidsvinster i varje beräkningssteg.

Förbättringarna kommer att snabbas på, ja. Men kommer det verkligen att ske "avtagande mot noll", tidsmässigt?
Ja, det tycker jag är en bra beskrivning. Och allt det här snacket om ”vi kan inte förstå högre intelligenser alltså kan precis VAD SOM HELST hända” ger jag inte mycket för. Ren sci fi. Jag tror vi behöver förstå bättre för det första om och i så fall hur vår mänskliga hjärna skiljer sig från en dator och hur processerna ser ut för att kunna förutspå vad en kraftfull AI skulle innebära. Och givetvis är det struntprat att tala om en faktisk oändligt snabb tidsutveckling. På samma sätt som vi kan underskatta framtidsutvecklingen så kan vi överskatta den. Det hänger ju också på hur vi mäter teknisk utveckling - är det verkligen givet att prata om processorkraft eller beräkningar per sekund som ett mått på det? Eller finns det bättre sätt?

Sapient;n109981 said:
Beräkningskapaciteten måste ses i relation till den verksamhet den ska påverka. Det mesta som händer med ökad processorkraft i våra vardagsdatorer, är att de först skapar en överkapacitet, som står outnyttjad ett tag - och därefter fylls den långsamt upp med nya funktioner eller förbättrade prestanda i "tunga" programtyper. Det är inom en del specialiserade verksamheter med mycket hög belastning som varje flop fylls upp. Men vad säger att den skulle ha en radikalt annan betydelse, i en verksamhet som AI?

Ökad processorkapacitet (och förändrad arkitektur, sannolikt) är kanske snarare en förutsättning för vissa typer av AI - iaf om den inte ska vara behäftad med en hel del av de funktionssätt som gör att den mänskliga hjärnan arbetar så seriellt att den kan vara ganska långsam på grund av det. Men därefter?

Jag ser helt enkelt inte att det finns substans i talet om "explosion" eller exponentiell utveckling.
Ja, som jag förstår det handlar många svårigheter idag till stor del om att faktiskt programmera på ett sätt som utnyttjar processorkraften. Parallelliserad programmering blir viktig när vi kombinerar många kärnor till en superdator.

Givet att vi konstruerar en AI som är smartare än den mänskliga hjärnan så är det intressant att fundera på hur mycket vi skulle lita på dessa. Vad gör vi när en AI föreslår att göra något som vi inte kan förstå rationaliteten i? Hur mycket i vårt samhälle vågar vi ersätta av dessa svarta lådor? Går det inte emot hela grundidén med att ha AI:n som hjälpmedel till att börja med om vi försöker förstå varför den agerar som den gör, då kan vi ju lika gärna tänka själva?

Sapient;n109981 said:
Kurzweil spånar ju bara. Han stöder sig på att kisa hårt mot Moore's law (som redan var fel- och övertolkad till max) och applicera den både bakåt, på hela den mänskliga utvecklingen, och framåt på all slags utveckling.
Ja, Moores lag blir till ett mantra i de här kretsarna märker man. Som jag förstår det börjar chipen nu bli så små att man får problem med kvanteffekter som tunnling och i övrigt är ju mängden råvaror på jorden ändlig. Men om man bara jämför evolutionen av tankekraften i den mänskliga hjärnan och kapaciteten i våra tekniska hjälpmedel så är det i alla fall väldigt tydligt att den tekniska utvecklingen går fortare.

Sapient;n109981 said:
Om det finns någon lärdom att dra från historien, så är det väl att dystopierna sällan blir så dystra som förutspåtts och utopierna infaller inte.
Tru dat.
 

krank

Lättkränkt cancelkultur-kommunist
Joined
28 Dec 2002
Messages
36,182
Location
Rissne
kloptok;n109997 said:
Givet att vi konstruerar en AI som är smartare än den mänskliga hjärnan
Jag har redan en dator som är mycket smartare än min mänskliga hjärna på vissa saker. Som matte till exempel. =)

(Alltså, om man ska kunna snacka om en dator som är "smartare än en människa" så tycker jag att det är intressant att prata om vad "smarthet" är i sammanhanget. Och "människa". Och huruvida vi bryr oss om ifall datorn är "medveten". Och vad det, i sin tur, är.

Sorry.)
 

kloptok

Pensionerad astrolog
Joined
14 Dec 2008
Messages
1,250
Location
Stockholm
krank;n109998 said:
Jag har redan en dator som är mycket smartare än min mänskliga hjärna på vissa saker. Som matte till exempel. =)

(Alltså, om man ska kunna snacka om en dator som är "smartare än en människa" så tycker jag att det är intressant att prata om vad "smarthet" är i sammanhanget. Och "människa": Och huruvida vi bryr oss om ifall datorn är "medveten". Och vad det, i sin tur, är.

Sorry.)
Exakt så! Det tar emot för mig att skriva något om en dator som är "smartare än en människa" eftersom jag inte vet vad det betyder att vara "smart som en människa". Jag är inte ens säker på att en avancerad konventionell dator och en mänsklig hjärna fungerar på samma sätt rent kvalitativt. Jag skulle vilja höra mer om vad mänsklig intelligens är, vad medvetande är och hur det relaterar till hur en dator fungerar.
 

krank

Lättkränkt cancelkultur-kommunist
Joined
28 Dec 2002
Messages
36,182
Location
Rissne
Appropå det här med AI's och artificiella neurala nätverk...

(Bild från DeepDream)
 

Genesis

Ni dés ni maître
Joined
17 Aug 2000
Messages
15,523
Location
Göteborg
Det är lite samma sak som när vi diskuterar djur. Vi definierar intelligens som "sån't som människor är bra på" och sedan berömmer vi oss själva för att vi är så intelligenta. Gorillor är bättre på huvudräkning än människor, till exempel. Maskiner har idag bra specifik intelligens. de är bättre än människor på specifika områden. För att vi skall acceptera datorer som mer intelligenta än oss kräver vi dock, mycket på grund av vår egen hybris, att datorer ska vara bättre på allt, alltså generell intelligens.
 

Lupus Maximus

Tekniker
Joined
13 Jan 2012
Messages
2,746
Location
Stockholm
En dator är en väldigt potent räknemaskin. På mikrobiologisk nivå är våra nervceller (inkluderat hjärnceller) en svag dator med egen processor och inget delat minne. Cellerna är sedan uppdelade på en massa subsystem. Evolutionen gör att subsystemen bygger på varandra och vi har en väldigt massa "legacy-funktioner" som hänger kvar.

En dator är så pass kraftfull att vi kan emulera fler parallella processer (hoppa fram och tillbaka mellan dem) än den egentligen har. Därigenom kan vi emulera fler svaga datorer i en kraftfullare dator. Räkna fort är dock fortfarande bara en funktion, och har lika mycket med intelligens som att en bil skulle vara intelligent för att den kan rulla fort.

En hjärna föds med en viss förprogrammering. Det är inte en hög slumpartade kopplingar med slumpartade viktade värden. Inom AI finns en något som kallas "genetisk algoritm" som skulle kunna användas till att ta fram en hyfsad grundprogrammering. Det genetiska algoritmen jobbar sig sedan genom generationer (iterationer) för att hitta "dugliga resultat".

Kanske kvant-datorer kan ge tillräcklig kapacitet. Kanske wetware forskningen ger alternativ inom en överskådlig framtid. Wetware, för de som inte redan gissat det är faktiska hjärnceller. Jag har t.ex. hört påstående om att några lyckades koppla ihop lite hjärnceller från en råtta, med ett datorssystem, och sedan tränat cellerna till att styra ett flygplan (kommer inte ihåg om det var ett radiostyrt modellflygplan eller en flygsimulator).

Men konstruerad wetware har en lång väg att gå innan den ens kan åstadkomma vad vi idag kan göra men datorer.

Det är därför man pratar just om mjuk och hård AI.

Mjuk AI är expertsystem, igenkänningsalgoritmer och liknande, det som gör att "big dog" kan hålla sig på fötterna, även om man knuffar till den eller den hamnar på is, är något vi är i allmänt bruk.

Hård AI, d.v.s. det vi brukar kalla för intelligens, oberoende hur snävt eller brett vi brukar mena (reptiler, råttor, apor, människor) är inte ett löst problem. Jag är övertygad om att det kommer att lösas förr eller senare, om vi inte hunnit spränga oss tillbaka till stenåldern. Men även en medelmåttig gecko har i sammanhanget än väldigt avancerad hjärna.
 

Sapient

Swashbuckler
Joined
26 Mar 2011
Messages
2,492
Location
Stockholm
kloptok;n109997 said:
Givet att vi konstruerar en AI som är smartare än den mänskliga hjärnan så är det intressant att fundera på hur mycket vi skulle lita på dessa. Vad gör vi när en AI föreslår att göra något som vi inte kan förstå rationaliteten i? Hur mycket i vårt samhälle vågar vi ersätta av dessa svarta lådor? Går det inte emot hela grundidén med att ha AI:n som hjälpmedel till att börja med om vi försöker förstå varför den agerar som den gör, då kan vi ju lika gärna tänka själva?
Förutom det krank skrev (som jag instämmer i), lutar jag åt det rakt motsatta hållet - vill vi verkligen ha någon form av kraftfull dator kopplat till en verkligt autonomt system, tex nån slags "fabrik", utan AI?

Jag tror det var Nicklas Boström som argumenterade att det nog inte alls var militära system som är det stora hotet - då de i regel är övervakade och folk tänker på att de innebär fara - utan kanske civila system, tex en automatiserad fabrik som tillverkar gem, som utgör det stora hotet. Om den är slarvigt programmerad (tex ignorerar att inkludera information om omvärlden) skulle den mycket väl kunna löpa amok och göra gem av allt tillgängligt material, tills vi lyckas stoppa den eller den stoppar oss...

AI (i betydelsen ett system kapabelt till insiktsfullt, självständigt tänkande oberoende av specifika programmerade uppgifter) är så klart ett skydd mot bristande programmering, så länge det går att åtminstone kommunicera med den.

Jag tror vidare att vi har större förmåga att förstå och integrera genuint tänkande maskiner än vad som normalt antas, helt enkelt därför att vi redan tillskriver alla möjliga saker motiv och avsikter, fast vi vet att de inte kan ha det. (Jag kan tex ibland bli orimligt arg på saker som "inte samarbetar", tex en plastpåse när jag försöker få ned något som nätt och jämt går i, även hur löjligt jag tycker jag själv tänker då...)

Vi lär inte kasta träskor i minneskretsarna i protest mot själva förhävelsen i att skapa en tänkande maskin, utan börja med att fråga "vad heter den?" (och sen i vanlig ordning bli arga på datorn när skrivaren strular...)

Samtidigt fråntar vi många människor rationella motiv, även när de finns - vi spenderar sällan särskilt mycket tid på att fundera över vilka de kan vara (en bråkdel av de människor vi kommer i daglig kontakt med intresserar oss så mycket...) och även när vi gör det, har vi stora begränsningar pga funktioner i vårt eget psyke, som inte är kulturbundna, som åtminstone utgör hinder för oss att förstå - kanske särskilt på ett emotionellt plan - att andra människor besitter rationella motiv även när vi borde anta att de har det.

Ta vilken politisk diskussion som helst. Fast debattörer på båda sidor hade haft allt att vinna på ATT identifiera meningsmotståndarnas allra bästa motiv (om inte annat för att hjälpa till att formulera argument som borde förefalla dem mer övertygade, som bygger på samma eller liknande motiv som de redan omfattar) är många mycket, mycket mer förtjusta i att tillskriva dem förkastliga motiv, och tala om det för dem.

Så jag är inte säker på att jag tror att "rationella motiv" kommer att spela stor roll för att förstå eller "lita på" AI. Vi tycks klara av att lita på sånt som inte borde anses "pålitligt" och vi litar, generellt sett, på människor även om vi spenderar mer tid på att undvika insikter om deras psyke som förmodligen hade hjälpt oss att göra det än mer.
 

Max Raven

T12-kultist
Joined
20 Oct 2009
Messages
4,346
Location
Malmö
krank;n109998 said:
Jag har redan en dator som är mycket smartare än min mänskliga hjärna på vissa saker. Som matte till exempel. =)


Sorry.)
Wolfram Alpha är awesome, men utgår egentligen från sånt vi redan vet. Därmed inte sagt att den är bättre på matte än ye average human, det är bara det att det är människor som sitter och bygger vidare på de matematiska teorier och modeller som Wolfram Alpha utnyttjar. :)
 

Ymir

Liten kantbaron
Joined
18 May 2000
Messages
11,292
Location
Malmö/Lund Metropolitan Axis
krank;n110006 said:
Appropå det här med AI's och artificiella neurala nätverk...
du krank, du vet hur du inte gillar att bli spoilad när du försöker diskutera film och tv? På samma vis tycker jag det är skitdrygt att få google deep dream-bilder körda i ansiktet när jag forumbrowsar, eftersom jag tycker body horror är det äckligaste och obehagligaste i hela universum. Kan du inte ta bort bilden, så jag kan fortsätta läsa tråden?

Om "don't be evil" inte framstod som ett skämt redan innan, så blev det definitivt det när google uppfann deep dream. Jag skulle ranka dem strax efter IG Farben och Dole på evil-skalan nu...
 

ripperdoc

Myrmidon
Joined
17 May 2000
Messages
5,399
Location
Tokyo
Som Ola sade är detta ett huvudtema i kommande Neotech. Och jag tror att man kan vara mycket mer konkret om AI:ers risk än handviftandet. Det finns flera risker, inte alla direkt kopplade till singulariteten:
1) Att AI:er (de behöver inte vara intelligentare än människor) är "dåligt programmerade" eller en viss sannolikhet av false positives (ex. att en drönare misstar en civil för en fiende), Dessa går inte att gardera sig från. Precis som man idag pratar om den "human error" så kommer AI ha samma problem. Det är extremt svårt att bevisa att ett program saknar buggar, och neurala nätverk eller andra statistiska system har alltid en false positive rate. Problemet är att när en människa gör felbeslut så påverkar det ofta bara denns direkta närhet - när en AI gör det kan det drabba globala system. Men denna risken har inget direkt med intelligensen på AIn att göra utan mer på vad för system vi låter den kontrollera.

2) Att AI:n utför en uppgift på ett sätt som är programmerat som optimalt, men som ändå ger negativa sidoeffekter. Dessa är svåra att alla förutsäga och svåra men inte omöjliga att förebygga. Klassiska exempel är hur en AI använder all jordens materia för att bygga något den blivit omedd att bygga. Något mer jordnära är att bestämma om en bil ska köra på ett barn eller krascha bilen med fyra passagerare.

Så vad händer då om en AI blir mer intelligent än en människa? Poängen är ju att vi är rätt övertygade om att schimpanser utgör ett väldigt litet hot för människan. Schimpanser har extremt lite nytta av rare earth metals och kanske använder iPhones för att knäcka nötter. Samma grej gäller ju för AIn vs människan. AIn kan se värden som människan inte inser. Det är svårt att föreställa sig när vi anser oss ha så god förståelse för omvärlden, men kvantmekanik är ett exempel. För människan ter sig detta extremt komplext och ofta ologiskt. För en högre intelligens kanske kvanteffekterna är högst logiska och bara vittnar om en gömd värld av möjligheter. Och detta ger AI:n förmågan att skriva om sin egen kod med flera magnituders skillnad i effektivitet, utveckla effektiva kvantdatorer (för sin egen förbättring) eller helt enkelt knäcka nöten bakom biologisk intelligens, och helt enkelt designa en ny hjärna, kanske bara 10 eller 100ggr så stor som en mänsklig. För den mänskliga svagheten är ju att 10 personer inte är 10 ggr så smarta som en människa - men en 10 ggr så stor hjärna kanske är det.

Och poängen med singulariteten är inte att denna AIn direkt löper amok och blir hyperintelligent - poängen är att eftersom vi kunnat skapa en AI mer intelligent än oss, på X antal år, så kommer AI:n kunna göra samma sak på exempelvis en X/10 år, vilket i sin tur skapar en intelligens som kan göra det ännu snabbare, etc, etc.

Jag tror för övrigt inte att singulariteten, om den uppstår, uppstår särskilt tydligt eller dramatiskt. Jag tror det är en sådan grej som man kommer på i efterhand - när det väl börjar bli för sent att göra något åt det. Så även i Neotech, på sätt och vis.
 

ripperdoc

Myrmidon
Joined
17 May 2000
Messages
5,399
Location
Tokyo
Ymir;n110033 said:
du krank, du vet hur du inte gillar att bli spoilad när du försöker diskutera film och tv? På samma vis tycker jag det är skitdrygt att få google deep dream-bilder körda i ansiktet när jag forumbrowsar, eftersom jag tycker body horror är det äckligaste och obehagligaste i hela universum. Kan du inte ta bort bilden, så jag kan fortsätta läsa tråden?
Deep dream är ju mysigt, inte alls body horror, bara massa söta hundögon överallt :)
 

krank

Lättkränkt cancelkultur-kommunist
Joined
28 Dec 2002
Messages
36,182
Location
Rissne
Ymir;n110033 said:
du krank, du vet hur du inte gillar att bli spoilad när du försöker diskutera film och tv? På samma vis tycker jag det är skitdrygt att få google deep dream-bilder körda i ansiktet när jag forumbrowsar, eftersom jag tycker body horror är det äckligaste och obehagligaste i hela universum. Kan du inte ta bort bilden, så jag kan fortsätta läsa tråden?
Jag har lagt den inom spoilertaggar och skrivit en kort varning innan; funkar det?
 
Top