日本一わかりやすいLoRA学習!sd-scripts導入から学習実行まで解説!東北ずん子LoRAを作ってみよう!【Stable Diffusion】
#sdscripts #ローラ学習 #stablediffusion #aiart #automatic1111 #python3.10.6 #WD14Tagger #LoRA #kohya #Dreambooth #training #東北ずん子 #LoRA学習 やり方 #AIモデル解説 #AIモ...
日本一わかりやすいLoRA学習!sd-scripts導入から学習実行まで解説!東北ずん子LoRAを作ってみよう!【Stable Diffusion】
#sdscripts #ローラ学習 #stablediffusion #aiart #automatic1111 #python3.10.6 #WD14Tagger #LoRA #kohya #Dreambooth #training #東北ずん子 #LoRA学習 やり方 #AIモデル解説 #AIモ...
🎨 Top Kurs für KI-Bildgenerierung mit WebUI!
Lerne Schritt für Schritt, wie du mit der Stable Diffusion WebUI (Automatic1111) atemberaubende KI-Bilder erzeugst – ganz ohne teure Hardware!
✅ Für Einsteiger & Fortgeschrittene
✅ Unbegrenzt & kostenlos nutzbar
✅ Top bewertet & super erschwinglich
🌐 Jetzt durchstarten:
https://hall-of-learning.de/courses/stable-diffusion-kurs-webui-automatic/
#StableDiffusion #WebUI #AIArt #Bildgenerierung #KIKunst #AIGeneratedImages #DeepLearning #KIBilder #halloflearning #automatic1111 #AIKurs
Started preparing for my next talk on @u3acommunities.org.
Will outline running #generativeai locally, mainly for privacy reasons.
Will include #llamacpp #ollama #AUTOMATIC1111 #openwebui and probably others.
Any pointers of things to mention appreciated !
Don't really have the time to mess with it tonight, but I'm at least gonna install #SwarmUI so I can try it out tomorrow. Been having some issues with #Forge and there's no way I'm going back to regular #automatic1111 speeds for #StableDiffusion
I hear there might be an opening for governor of Minnesota. Or maybe just to play Tim Walz on SNL? #automatic1111
One thing is for sure, I'm no Peter Cushing... #automatic1111 #iaminstarwars
First experimentation with #automatic1111 and the 'roop' extension to do face swaps. Simple prompt to create an image of Han Solo, but used controlnet and roop to copy my (doughy) face onto the generated image. It deleted the glasses and did all the blending and color shifting of the face itself without user interaction. While the hair style is questionable, the eyes, nose, forehead all seem pretty credible.
One thing that many of the image generation models seem to get confused by is scale. I took an alley photo from the movie Blade Runner, used it to extract a crude depth map, and then asked it to synthesize a daytime view from Tatooine. The cab (besides not being especially star wars) is tiny compared to the trooper, and other scale differences are apparent. #automatic1111
Обновление ИИ-генератора Automatic1111 до 1.10.0: поддержка SD3, новшества и возможные проблемы. Стоит ли обновляться?
Всем привет, сегодня вышло обновление популярного интерфейса для генерации изображений на моделях Stable Diffusion - Automatic 1111 до версии 1.10.0. Меня зовут Илья , я основатель онлайн-нейросети для создания изображений ArtGeneration.me , техноблогер и нейро-евангелист и мы с вами рассмотрим стоит ли новое обновление внимания, или его можно пропустить. Сразу хочу отметить, что это обновление в основном сосредоточено на исправлении ошибок и небольших улучшениях производительности. Самым заметным нововведением является поддержка Stable Diffusion 3, но, к сожалению, у многих пользователей, включая меня, возникли проблемы с его запуском. Несмотря на правильную установку модели, система выдает ошибку.
https://habr.com/ru/articles/831918/
#changelog #нейросети #генерация_изображений #sd3 #обновление #automatic1111 #stablediffusion #нейросеть_локально
Используем модель Stable Diffusion 3 в SD WebUI (он же Automatic1111)
Для Stable Diffusion WebUI (он же Automatic1111) уже несколько дней, как стала доступна модель генерации изображений Stable Diffusion 3. Мы в HOSTKEY попробовали модель и написали, как вам также это можно сделать.
https://habr.com/ru/companies/hostkey/articles/828294/
#sd3 #stable_diffusion_3 #графика #нейросети #automatic1111 #исскуственный_интеллект
VERDAAAAAAMD !!!!! Ich habs tatsächlich hinbekommen.
Habe mich bisher ja gescheut, mich mit #StableDiffusion & #Automatic1111 zu beschäftigen weil ich Panik vorm Intallationsdingens hatte. Hab bei sowas wenig Talent und kaum Erfahrung.
Na, nach nur fast sieben Stunden konnte ich gerade die UI aufrufen. Dann mal schauen ob das auch funktioniert 😬
#AI #KI
TO my AI Image friends, what usually is your preferd tool?
I keep trying to use proper tools but I have some issues between automatic1111 and comfyui. A lot of it is that I am using Google Colab since I don't have the local hardware I need.
Tra ieri e oggi ho un po’ (ri)provato Stable Diffusion (1.5)… questo software è fin troppo profondo rispetto a roba come DALL-E, non si scherza, non è affatto accessibile, ma proprio per questo mi sa che, se si ha abbastanza pazienza, probabilmente lo si può usare per cose che vanno oltre il semplice generare disegnini a caso di situazioni assurde per ridere. Può essere un vero e proprio editor fotografico… se e solo se i tuoi input gli stanno simpatici. Non l’ho potuto più usare per un bel periodo prima di ora (un annetto?) perché su Google Colab, non importa quante volte io ci provassi, non girava più senza crediti. Io soldi da dare a Google non li ho (se li avessi costruirei direttamente il mio datacenter, fanculo), quindi, un po’ perché configurare tutto in locale era sempre una rogna, un po’ perché ho sempre immaginato sarebbe andato malissimo, non ho mai provato. 👽️
…Però, ho trovato una bella app cross-platform, Stability Matrix, che ha una UI parecchio laggante, ma ha una UX eccellente: permette con pochi click di installare tutti i frontend, i modelli, ogni cosa che serve avere per usare Stable Diffusion. Dopo aver liberato quasi 15 GB di spazio sul PC fisso per solo il software di base con la WebUI di #Automatic1111, e aver sclerato perché a quanto pare installare il software in una dotfolder rompe tutto (bruh), in realtà mi sono stupita di quanto funzioni bene… si prende i suoi non pochi GB di RAM, e non ho capito se mi usa la GPU integrata oppure va solo con la CPU, ma è solo il doppio più lento di Colab Free, mentre io pensavo che il PC sarebbe esploso! 💖️
Solo Dio sa quanto verrà a costare ai miei la bolletta della luce per questo mese, ma comunque, quello con cui volevo giocare era l’inpainting, cioè la trasformazione di immagini in altre immagini grazie alla #IA che ci disegna sopra. La funzione si può usare per letteralmente qualsiasi cosa, ma ho iniziato subito provando qualcosa di mezzo difficile… perché francamente non me ne faccio molto di, esempio banale, aggiungere dei fiori sullo sfondo di una foto, quello lo faccio tranquillamente anche con una mano su GIMP dal telefono con la luminosità al minimo e mentre nel frattempo gioco anche a MKDS. Quindi, ho provato la trasformazione dei vestiti, leggendo questa guida: openaijourney.com/change-clothes-in-stable-diffusion. 🥻️
La prima schermata è un risultato quasi decente avuto ieri sera, mettendo come input un’immagine generata da zero con il prompt generico lì, e non una esistente, usando il modello general-purpose DreamShaper. Ho quindi marchiato un’area di #inpaint, ho messo “hatsune miku” al posto di “goth”, e l’ho messo a cucinare per circa 3 minuti… ed ecco qui. Peccato che, con virtualmente qualsiasi altro input, i risultati erano enormi miss per una richiesta simile. 🤥️Dopo un casino allucinante, solo stasera sono riuscita a modificare una mia foto, ma usando il modello #epiCRealism. A sinistra c’è l’originale con marchiata la zona di #inpainting, e a destra il risultato per il prompt che ho dato. Ho installato ControlNet con OpenPose, ma per qualche motivo non mi esce il modello e quindi non posso selezionarlo, però in questo caso non è servito, la mia posa è stata rispettata… sarebbe probabilmente utile se volessi ancora provare l’altro modello, perché oh, in questo qui non c’è proprio verso di avere i vestiti di Hatsune Miku… 💎️In generale, le informazioni che quella guida da riguardo i parametri, incluso il prompt negativo che copio testualmente, sembrano essere buone, però bisogna giocare con la zona di inpainting. È facilissimo che vada a sbavare, e finché lo fa sullo sfondo (come per la mia #foto), allora ok non freca (anche se io con GIMP non farei un simile errore modificando robe a mano); ma se lo fa sui bordi dei soggetti (come per l’immagine generata), allora si vede subito il guaio. Soprattutto avendo parti del corpo sovrapposte, come le mie braccia lì (non riuscivo a mettermi in alcun’altra posa decente), bisogna avere la pazienza di rigenerare più volte, con un prompt ben descrittivo. E, come accennavo, è schizzinoso: non c’è verso di #modificare bene qualcosa includendo anche l’area dei miei capelli, o usando una foto allo specchio col telefono che copre mezza faccia. (Il peperone che urla “questa foto è stata alterata usando software libero“, infatti, l’ho aggiunto solo qui, la mia foto in input l’ho data con la faccia coperta solo da quel poco delle manine giunte.) 😃️
https://octospacc.altervista.org/2024/06/27/diffusione-instabile/
#Automatic1111 #epiCRealism #foto #GAN #IA #inpaint #inpainting #modificare #StabilityAI #StabilityMatrix #StableDiffusion
Hello everyone. I am Dr. Furkan Gözükara. This is my #introduction post. I have PhD in Computer Engineering. You can check out my Google Scholar profile.
I produce content, tutorials, scripts, apps, guides, videos for #AI #AIArt #Drawing #Art #DigitalArt #Tutorial #Guide #Tech #Technology #StableDiffusion #SDXL #SD3 #New #News #ComfyUI #SwarmUI #Automatic1111 #TTS #Animation #Videos #Video #Anime #Illustration #Lecture #Course #2D #3D #Concept #Sketch #PhD #Academia #Tool #Software #Script
Erschreckend: So gut sind OpenSource-KI-Bildgeneratoren
@Em0nM4stodon For #photography I recommend:
#digikam for photo management
#darktable and #rawtherapee for RAW development
#gimp with #gmic for advanced photo editing/manipulation
And if you need the fancy new image generation features, you can use open models like stable diffusion with interfaces like #automatic1111 for e.g. inpainting (if you have a modern graphics card)
@figuratum I love #ai and use it a lot, but I don't think everything has to always use AI.
Especially if the AI is hidden and closed source.
For example, from my understanding, #Mastodon doesn't use AI algorithms for content or people recommendations.
What you see in the feed is what you get. Which means that you have full control over what you're doing and the content that you subscribe.
Personally, the AI that I use is free and open source with #gpt4all and #automatic1111 #foss
ich mag #StableDiffusion und #automatic1111
(und sagt nicht dass das keine kunst ist die prompts zu basteln die dann solches zeugs auspucken)
Modified a file in the #ComfyUI folder on Google to try and get it sharing models with an #Automatic1111 setup. Save me some file space doing that and be able to use one or the other at times.
Not sure if it will work out long term or short, but being able to use one or the other and not worry about where models are or the space they take up is a lovely thing.