Diskussion om AI-genererade bilder

Status
Not open for further replies.

CapnZapp

Myrmidon
Joined
3 Apr 2008
Messages
4,015
PS. Jag letade efter instruktioner för att disabla GPUn, för att testa skillnaden mellan CPU-only och GPU. Men jag hittade sådant som att kommentera bort två rader och istället hårdkoda CPU-styrd generering:

# gpu = torch.device("cuda")
# device = gpu if torch.cuda.is_available() else cpu
device = cpu;


...men i min webui.py Python fil hittar jag inget liknande. Så jag frågar dig istället.
 

zo0ok

Rollspelsamatör
Joined
13 Sep 2020
Messages
2,753
Ska jag gissa du avser följande post?
[...]
På min maskin (alltså med 1660GTX grafik) tar det nästan två minuter generera en sådan bild (alltså Huggingface's standardinställningar förutom att antal steg ökats från 20 till 50; jag använde prompten "masterpiece, best quality, asuka langley sitting cross legged on a chair" om det har någon betydelse.)
[...]
Jag frågar naturligtvis för att om du säger du får ett resultat på bara några minuter bör jag dra slutsatsen mitt grafikkort knappt hjälper alls, medan om din CPU behöver tiotals minuter eller ännu längre, så kan vi dra slutsatsen att även ett relativt blygsamt grafikkort gör skillnad.
Jag får ungefär 10s/step, med 512x512, Euler A, när jag kör på bara CPU.

Så jag får ett resultat på bara några minuter, inte på tiotals minuter.

Jag har ett GTX1650 med 4GB VRAM, och det är ungefär lika snabbt/långsamt som min i7 8th Generation. Och det verkar vara ungefär lika snabbt som för dig. Skillnaden är att med CPU-only kan jag (med 16GB RAM) gå över 512x512 om jag vill, utan att få minnesproblem (jag kommer inte jättehögt med 16GB RAM).

Se gärna, denna för vad jag gjorde med CPU-only.

Om du tycker det funkar "för praktiska ändmål eller inte" är din sak. Men givet vad du berättar om din GPU, så tror jag att du kan ha bättre framgång om du köra med CPU-only, om du har åtminstone 16GB RAM.
 

zo0ok

Rollspelsamatör
Joined
13 Sep 2020
Messages
2,753

CapnZapp

Myrmidon
Joined
3 Apr 2008
Messages
4,015
Ursäkta om jag slösar med din tid, men jag provade ställa tillbaka --lowvram till --medvram och det funkar fortfarande (jag mekade för att det alls skulle fungera och provade uppenbarligen för många parametrar samtidigt).

Nu provade jag dina inställningar:
seed=2 (bacause I did not like seed=1)
Sample Steps=10
Guide=7.5
Sample Model=Euler Ancestral
Resolution=512×512

Enda skillnaden är att jag kör 1.5, inte 1.4

Det tar ca 15 sekunder att få fram följande:

00787-2-fantasy art of village house, cliff, well, town square, market and storm, in the style...png

Så visdomen, att CPU är minst en magnitud långsammare, samt att desktop-GPUer är betydligt snabbare än laptop-CPUer, verkar hålla. Tack för din hjälp.
 

zo0ok

Rollspelsamatör
Joined
13 Sep 2020
Messages
2,753
Ursäkta om jag slösar med din tid
[...]
Så visdomen, att CPU är minst en magnitud långsammare, samt att desktop-GPUer är betydligt snabbare än laptop-CPUer, verkar hålla. Tack för din hjälp.
Tvärtom - jag är här för att lära mig!

Det betyder att din 1660 6GB är 10x så snabb som min Laptop 1650 4GB.
Har du en desktop 1660?
 

zo0ok

Rollspelsamatör
Joined
13 Sep 2020
Messages
2,753
Enda skillnaden är att jag kör 1.5, inte 1.4
Är det bara en drop-in-replacement... eller måste man uppgradera hela stable-diffusion för att kunna använda 1.5?

Upplever du 1.5 som bättre? Jag såg någon redditpost med några 1.4 vs 1.5 jämförelser, och i de flesta fall var 1.4 mer estetiskt tilltalande.
 

CapnZapp

Myrmidon
Joined
3 Apr 2008
Messages
4,015
Är det bara en drop-in-replacement... eller måste man uppgradera hela stable-diffusion för att kunna använda 1.5?
Jag följde Retard guiden, fast med 1.5. Så min gissning blir "kanske bara drop-in".
 

Rickard

Urverk speldesign
Joined
15 Oct 2000
Messages
18,315
Location
Helsingborg
Är det bara en drop-in-replacement... eller måste man uppgradera hela stable-diffusion för att kunna använda 1.5?
Om du kör en `git pull` för web-ui så får du ett textfält längst upp där du kan byta emellan olika modeller. Modellerna (andras eller egentränade) lägger du i en underkatalog. Har du ingen "model.ckpt" så laddar Stable Diffusion den första du har i model-underkatalogen. Den här videon förklarar mer:

 

CapnZapp

Myrmidon
Joined
3 Apr 2008
Messages
4,015
Om du kör en `git pull` för web-ui så får du ett textfält längst upp där du kan byta emellan olika modeller. Modellerna (andras eller egentränade) lägger du i en underkatalog. Har du ingen "model.ckpt" så laddar Stable Diffusion den första du har i model-underkatalogen. Den här videon förklarar mer:
Tack, men ärligt talat behövs ingen video. Bara lägg dina modeller i StableDiffusion-underkatalogen, alltså C:\Users\Zapp\stable-diffusion-webui\models\Stable-diffusion i mitt fall.

Det är coolt hur lätt och snabbt man kan mixa olika modeller för att skapa egna :) (på Checkpoint Merger tabben) Bara ladda de två du vill merga, skriv in ett namn, och vänta en minut. Denna operation skulle jag dock inte vilja köra på en dator med mindre än 16 GB internminne, dock.
 

CapnZapp

Myrmidon
Joined
3 Apr 2008
Messages
4,015
Det är slående hur "avklippt huvud" problemet löses genom att ta in namnet på någon som AIn kan rita ansiktet på.

Typ "Karen Gillan as a pirate" istället för "female pirate". Andelen bilder som blir klippta minskar drastiskt.

Fast detta leder i sin tur till insikten om hur rådande skönhetsideal uppenbart förstoras tusenfalt av AIn. När jag provar med Julia Roberts, Rhona Mitra eller Sandra Bullock blir resultaten ärligt talat hemska (alla skavanker, rynkor och minsta stelhet förstoras till outhärdlighetens gräns); medan för yngre talanger blir resultaten precis lika bra som utlovas.

Visuellt slående ansikten, eller hur jag nu ska försöka förklara det, fungerar klart bäst. Scarlett Johansson, Juree Smollett, Karen Gillan eller Lupita Nyong'o fungerar klart mycket bättre än Cristin Milioti, Sarah Michelle Gellar, Chloë Grace Moretz eller Alexandra Daddario. Kanske är det bara slumpen i urvalet modellen är byggd på.
 

CapnZapp

Myrmidon
Joined
3 Apr 2008
Messages
4,015
Det betyder att din 1660 6GB är 10x så snabb som min Laptop 1650 4GB.
Såvitt jag kan förstå kan man förvänta sig att ett desktop-grafikkort är kanske dubbelt så snabbt som motsvarande laptop-krets. Fast jag har också sett siffror på bra mindre än 50%.

Med andra ord: tio gånger låter mycket.

Vad jag menar är, kolla dina inställningar en extra gång. Kanske gjorde du något liknande som jag, som ju körde en hel dag med kass prestanda innan jag gav mina parametrar en andra titt, och då fick väsentligt bättre schwung. Jag gick ju från 116 sekunder till 22.

Glöm inte att du ändå har ett rimligt vettigt grafikkort, om än ett mobilt. Jämför benchmarks för min gamla laptop som har en AMD A8 med Radeon R5 M240 grafik, där kan vi snacka en faktor tio långsammare... (om inte tjugo!)
 
Last edited:

CapnZapp

Myrmidon
Joined
3 Apr 2008
Messages
4,015
Kan rapportera jag nu testat


och det är precis så enkelt som de påstår. Iallafall för mig kunde jag ladda ner och köra, och allt klödd hände automatiskt (och det var många många steg).

Sedan att min laptop (utan grafikkort) är mer än 35 gånger långsammare än min 1660GTX burk är ju hilarious på sitt eget vis...

Men denna version fungerar alltså både på GPU och CPU.
 

Rickard

Urverk speldesign
Joined
15 Oct 2000
Messages
18,315
Location
Helsingborg
Är ett massivt Spiderman: Into the Spiderverse-fan och jag tappade hakan när jag såg vad de gjorde bara på en vecka. Nu är detta blott en liten del av Stable Diffusion.

 

zo0ok

Rollspelsamatör
Joined
13 Sep 2020
Messages
2,753
Jag är verkligen imponerad av vad folk lyckas skapa. Själv provar jag mig fram, men långt ifrån att jag får fram så fina/roliga bilder som i exemplen ovan.
 
Status
Not open for further replies.
Top