Brukar hjälpa att skriva något om ansiktet, typ "dark hair" eller "angry face".Jag tycker det är intressant att se när det inte funkar.
Här är min "fantasy art warrior with sword"
View attachment 9924
Ja, den fick inget huvud.
Flera av dem har väl funktioner för att be den fortsätta i valfri riktning också? Jag vet att DALL-E har det iaf.Jag tycker det är intressant att se när det inte funkar.
Här är min "fantasy art warrior with sword"
View attachment 9924
Ja, den fick inget huvud.
Japp. För mig har det varit ett måste men @Troberg verkar klara sig bra utan och bara använda "fantasy art".Överlag har Stable Diffusion funkat bra för mig framför allt när jag valt namn på konstnärer som faktiskt gjort bilder i stil med den jag vill göra.
Jag slänger ofta in en Boris Vallejo, Chris Achilleos, Chichoni, Tim White, eller liknande. Det verkar ge en viss skillnad, men den är svår att förutse. Giger, däremot, slår genom stenhårt på allt.Japp. För mig har det varit ett måste men @Troberg verkar klara sig bra utan och bara använda "fantasy art".
Inte funderat på att byta ut Greg Rutkowski mot HR Giger på den?Jag bad min om "Teacher holding book in front of students, Greg Rutkowski" och blev generellt rätt nöjd med resultatet. Detta är via min lite fläsligare externa GPU som jag har hemma:
Förklarar bröstvårtorna på vissa av bilderna i sådana fall. Fick likadant när jag också körde en "Boris Vallejo, Julie Bell" på mina uggle-magiker-bilder.Jag slänger ofta in en Boris Vallejo,
Jag testade, detta är "Teacher holding book in front of students, hr giger". Men det känns som att den bara sket i Giger.Inte funderat på att byta ut Greg Rutkowski mot HR Giger på den?
Caravaggio och Bosch ger också bra resultat (även om det ibland dyker upp ett elverktyg på Bosch).Vill man ha ett varmt, gulaktigt ljus från sidan och lugn stämning i bilden funkar det bra att lägga in Rembrandt i prompten. Blir ofta snyggt.
Upplösningen gör nog en hel del. Exempelvis tycker jag problemet med croppade huvuden försvinner om bilderna får fler pixlar, dom verkar liksom inte skalas till storleken så bra. Annars borde själva kortet inte ha någon betydelse för kvaliteten, vad jag kan tänka mig.En sak jag funderar över med Stable Diffusion är hur stor skillnad själva grafikkortet gör. Jag har testat att generera saker med min laptops inbyggda 3050-kort som har mindre VRAM, och förutom den klart sämre upplösningen tycker jag också att jag generellt får sämre bilder. Trots att det enda jag justerar är just bildstorleken, som jag alltid sätter precis under punkten där jag får felmeddelande. För det interna kortet brukar det bli 384×384, medan jag med min externa GPU (Laptop-3080 med 16gb videoram) kan pressa upp till 768×768.
Är det helt enkelt så att upplösningen i sig bidrar till bättre bilder?
(Jag kör Stable Diffusion WebUI i en WSL2-maskin för att slippa ha en massa bös drällande i Windowsinstallationen)
Vi kommer nog se en turbulent tid framöver innan saker faller på plats. Jag tänker på den eldiga debatten som hölls om fildelning (var det tio år sen typ?) och sen kom Spotify och Netflix och nu är det ingen som pratar om fildelning länge. Tror vi kommer se samma utveckling för AI-bilder på sikt.En del konstnärer (bland annat den fantastiske Jon Juarez) diskuterar nu att helt enkelt sluta publicera bilder online, med anledning av att de inte vill få dem plagierade av AI-mjukvaran. Jag har full förståelse för dem, men tycker det är väldigt tråkigt och att internet blir en fattigare plats av detta.
Och gudarna ska veta att internet verkligen inte behövde bli sämre.
Det är knepigt det här. Å ena sidan verkarVi kommer nog se en turbulent tid framöver innan saker faller på plats. Jag tänker på den eldiga debatten som hölls om fildelning (var det tio år sen typ?) och sen kom Spotify och Netflix och nu är det ingen som pratar om fildelning länge. Tror vi kommer se samma utveckling för AI-bilder på sikt.
Jag tror i ärlighetens namn inte att diskussionen kommer bli lika högljudd. I fildelningsdebatten fördes talan av ekonomiska giganter inom film-, och musikindustrin. Konstnärer har varken makt eller pengar, och i det här fallet ligger AI:ns rätt att plagiera i företagens intresse.Vi kommer nog se en turbulent tid framöver innan saker faller på plats. Jag tänker på den eldiga debatten som hölls om fildelning (var det tio år sen typ?) och sen kom Spotify och Netflix och nu är det ingen som pratar om fildelning länge. Tror vi kommer se samma utveckling för AI-bilder på sikt.
Jag håller med dig. Min poäng är mer att vi har en ny verklighet att anpassa oss till, och att vi (människor) brukar vara bra på att anpassa oss. Likheterna till fildelningsdebatten är, enligt mig, snarare hur det förutspåddes att artister inte längre skulle kunna tjäna pengar och att ingen någonsin igen skulle betala för kultur.Jag tror i ärlighetens namn inte att diskussionen kommer bli lika högljudd. I fildelningsdebatten fördes talan av ekonomiska giganter inom film-, och musikindustrin. Konstnärer har varken makt eller pengar, och i det här fallet ligger AI:ns rätt att plagiera i företagens intresse.
Fildelning skadade företagen, AI skadar arbetstagarna och gynnar företagen.
Ja, de skitbilderna jag visade ovan är genererade på en laptop med ett Nvidia GTX 1650 med 4GB RAM.Är det helt enkelt så att upplösningen i sig bidrar till bättre bilder?
Den skapar ju brus, som den sen förfinar tills det blir en bild. Jag tror att färre pixlar ger ett lågupplöst brus och därav färre variabler att jobba med.Bättre upplösning = fler neuroner = mer komplexitet i modellen, kanske?
Jag har en väldigt speciell och kostsam lösning – ett paket med en ROG Flow X13-laptop och så en ROG XG-docka till den. Dockan kan jag inte byta grafikkort i, och den har en väldigt speciell koppling som är unik för just ROG-laptops. Så om jag byter laptop kommer jag inte att kunna ha kvar den… i gengäld är den (vad jag förstått) väldigt snabb jämfört med vanliga Thunderbolt-dockor.Vad kör du för extern GPU när du får bra resultat, och vad har den för anslutning till datorn?