#Automatic1111

Hall of learninghalloflearningDE
2025-06-21

🎨 Top Kurs für KI-Bildgenerierung mit WebUI!
Lerne Schritt für Schritt, wie du mit der Stable Diffusion WebUI (Automatic1111) atemberaubende KI-Bilder erzeugst – ganz ohne teure Hardware!

✅ Für Einsteiger & Fortgeschrittene
✅ Unbegrenzt & kostenlos nutzbar
✅ Top bewertet & super erschwinglich

🌐 Jetzt durchstarten:
hall-of-learning.de/courses/st

Peter Lordplord12
2025-04-21

Started preparing for my next talk on @u3acommunities.org.

Will outline running locally, mainly for privacy reasons.

Will include and probably others.

Any pointers of things to mention appreciated !

AI generated Imagesai_images@myimg.social
2024-11-20
Generator: Automatic1111 (Local)
Model: VXP_XL v2.2
LoRA: ClearHandsXL

#aigenerated #aiimage #aiart #ai #generativeai #generativeart #automatic1111 #vxp #vxpxl
2024-10-17

Don't really have the time to mess with it tonight, but I'm at least gonna install #SwarmUI so I can try it out tomorrow. Been having some issues with #Forge and there's no way I'm going back to regular #automatic1111 speeds for #StableDiffusion

Mᴀʀᴋ VᴀɴᴅᴇWᴇᴛᴛᴇʀɪɴɢbrainwagon
2024-08-09

I hear there might be an opening for governor of Minnesota. Or maybe just to play Tim Walz on SNL?

Mᴀʀᴋ VᴀɴᴅᴇWᴇᴛᴛᴇʀɪɴɢbrainwagon
2024-08-08

One thing is for sure, I'm no Peter Cushing...

Mᴀʀᴋ VᴀɴᴅᴇWᴇᴛᴛᴇʀɪɴɢbrainwagon
2024-08-06

First experimentation with and the 'roop' extension to do face swaps. Simple prompt to create an image of Han Solo, but used controlnet and roop to copy my (doughy) face onto the generated image. It deleted the glasses and did all the blending and color shifting of the face itself without user interaction. While the hair style is questionable, the eyes, nose, forehead all seem pretty credible.

Mᴀʀᴋ VᴀɴᴅᴇWᴇᴛᴛᴇʀɪɴɢbrainwagon
2024-08-04

One thing that many of the image generation models seem to get confused by is scale. I took an alley photo from the movie Blade Runner, used it to extract a crude depth map, and then asked it to synthesize a daytime view from Tatooine. The cab (besides not being especially star wars) is tiny compared to the trooper, and other scale differences are apparent.

2024-07-27

Обновление ИИ-генератора Automatic1111 до 1.10.0: поддержка SD3, новшества и возможные проблемы. Стоит ли обновляться?

Всем привет, сегодня вышло обновление популярного интерфейса для генерации изображений на моделях Stable Diffusion - Automatic 1111 до версии 1.10.0. Меня зовут Илья , я основатель онлайн-нейросети для создания изображений ArtGeneration.me , техноблогер и нейро-евангелист и мы с вами рассмотрим стоит ли новое обновление внимания, или его можно пропустить. Сразу хочу отметить, что это обновление в основном сосредоточено на исправлении ошибок и небольших улучшениях производительности. Самым заметным нововведением является поддержка Stable Diffusion 3, но, к сожалению, у многих пользователей, включая меня, возникли проблемы с его запуском. Несмотря на правильную установку модели, система выдает ошибку.

habr.com/ru/articles/831918/

#changelog #нейросети #генерация_изображений #sd3 #обновление #automatic1111 #stablediffusion #нейросеть_локально

2024-07-11

Используем модель Stable Diffusion 3 в SD WebUI (он же Automatic1111)

Для Stable Diffusion WebUI (он же Automatic1111) уже несколько дней, как стала доступна модель генерации изображений Stable Diffusion 3. Мы в HOSTKEY попробовали модель и написали, как вам также это можно сделать.

habr.com/ru/companies/hostkey/

#sd3 #stable_diffusion_3 #графика #нейросети #automatic1111 #исскуственный_интеллект

Sky for Harrissky@skyland.social
2024-06-30

VERDAAAAAAMD !!!!! Ich habs tatsächlich hinbekommen.

Habe mich bisher ja gescheut, mich mit
#StableDiffusion & #Automatic1111 zu beschäftigen weil ich Panik vorm Intallationsdingens hatte. Hab bei sowas wenig Talent und kaum Erfahrung.

Na, nach nur fast sieben Stunden konnte ich gerade die UI aufrufen. Dann mal schauen ob das auch funktioniert
😬

#AI #KI

2024-06-29

TO my AI Image friends, what usually is your preferd tool?

I keep trying to use proper tools but I have some issues between automatic1111 and comfyui. A lot of it is that I am using Google Colab since I don't have the local hardware I need.

#AIArt
#StableDifusion
#ComfyUI
#Automatic1111

Tra ieri e oggi ho un po’ (ri)provato Stable Diffusion (1.5)… questo software è fin troppo profondo rispetto a roba come DALL-E, non si scherza, non è affatto accessibile, ma proprio per questo mi sa che, se si ha abbastanza pazienza, probabilmente lo si può usare per cose che vanno oltre il semplice generare disegnini a caso di situazioni assurde per ridere. Può essere un vero e proprio editor fotografico… se e solo se i tuoi input gli stanno simpatici. Non l’ho potuto più usare per un bel periodo prima di ora (un annetto?) perché su Google Colab, non importa quante volte io ci provassi, non girava più senza crediti. Io soldi da dare a Google non li ho (se li avessi costruirei direttamente il mio datacenter, fanculo), quindi, un po’ perché configurare tutto in locale era sempre una rogna, un po’ perché ho sempre immaginato sarebbe andato malissimo, non ho mai provato. 👽️

…Però, ho trovato una bella app cross-platform, Stability Matrix, che ha una UI parecchio laggante, ma ha una UX eccellente: permette con pochi click di installare tutti i frontend, i modelli, ogni cosa che serve avere per usare Stable Diffusion. Dopo aver liberato quasi 15 GB di spazio sul PC fisso per solo il software di base con la WebUI di #Automatic1111, e aver sclerato perché a quanto pare installare il software in una dotfolder rompe tutto (bruh), in realtà mi sono stupita di quanto funzioni bene… si prende i suoi non pochi GB di RAM, e non ho capito se mi usa la GPU integrata oppure va solo con la CPU, ma è solo il doppio più lento di Colab Free, mentre io pensavo che il PC sarebbe esploso! 💖️

Solo Dio sa quanto verrà a costare ai miei la bolletta della luce per questo mese, ma comunque, quello con cui volevo giocare era l’inpainting, cioè la trasformazione di immagini in altre immagini grazie alla #IA che ci disegna sopra. La funzione si può usare per letteralmente qualsiasi cosa, ma ho iniziato subito provando qualcosa di mezzo difficile… perché francamente non me ne faccio molto di, esempio banale, aggiungere dei fiori sullo sfondo di una foto, quello lo faccio tranquillamente anche con una mano su GIMP dal telefono con la luminosità al minimo e mentre nel frattempo gioco anche a MKDS. Quindi, ho provato la trasformazione dei vestiti, leggendo questa guida: openaijourney.com/change-clothes-in-stable-diffusion. 🥻️

La prima schermata è un risultato quasi decente avuto ieri sera, mettendo come input un’immagine generata da zero con il prompt generico lì, e non una esistente, usando il modello general-purpose DreamShaper. Ho quindi marchiato un’area di #inpaint, ho messo “hatsune miku” al posto di “goth”, e l’ho messo a cucinare per circa 3 minuti… ed ecco qui. Peccato che, con virtualmente qualsiasi altro input, i risultati erano enormi miss per una richiesta simile. 🤥️

Dopo un casino allucinante, solo stasera sono riuscita a modificare una mia foto, ma usando il modello #epiCRealism. A sinistra c’è l’originale con marchiata la zona di #inpainting, e a destra il risultato per il prompt che ho dato. Ho installato ControlNet con OpenPose, ma per qualche motivo non mi esce il modello e quindi non posso selezionarlo, però in questo caso non è servito, la mia posa è stata rispettata… sarebbe probabilmente utile se volessi ancora provare l’altro modello, perché oh, in questo qui non c’è proprio verso di avere i vestiti di Hatsune Miku… 💎️

In generale, le informazioni che quella guida da riguardo i parametri, incluso il prompt negativo che copio testualmente, sembrano essere buone, però bisogna giocare con la zona di inpainting. È facilissimo che vada a sbavare, e finché lo fa sullo sfondo (come per la mia #foto), allora ok non freca (anche se io con GIMP non farei un simile errore modificando robe a mano); ma se lo fa sui bordi dei soggetti (come per l’immagine generata), allora si vede subito il guaio. Soprattutto avendo parti del corpo sovrapposte, come le mie braccia lì (non riuscivo a mettermi in alcun’altra posa decente), bisogna avere la pazienza di rigenerare più volte, con un prompt ben descrittivo. E, come accennavo, è schizzinoso: non c’è verso di #modificare bene qualcosa includendo anche l’area dei miei capelli, o usando una foto allo specchio col telefono che copre mezza faccia. (Il peperone che urla “questa foto è stata alterata usando software libero“, infatti, l’ho aggiunto solo qui, la mia foto in input l’ho data con la faccia coperta solo da quel poco delle manine giunte.) 😃️

https://octospacc.altervista.org/2024/06/27/diffusione-instabile/

#Automatic1111 #epiCRealism #foto #GAN #IA #inpaint #inpainting #modificare #StabilityAI #StabilityMatrix #StableDiffusion

Furkan Gözükarafurkangozukara
2024-06-27

Hello everyone. I am Dr. Furkan Gözükara. This is my post. I have PhD in Computer Engineering. You can check out my Google Scholar profile.

I produce content, tutorials, scripts, apps, guides, videos for

2024-06-17

Erschreckend: So gut sind OpenSource-KI-Bildgeneratoren

tube.tchncs.de/videos/watch/75

Picturavispicturavis
2024-06-07

@Em0nM4stodon For I recommend:
for photo management
and for RAW development
with for advanced photo editing/manipulation
And if you need the fancy new image generation features, you can use open models like stable diffusion with interfaces like for e.g. inpainting (if you have a modern graphics card)

Frank Ringthefrankring
2024-05-24

@figuratum I love and use it a lot, but I don't think everything has to always use AI.

Especially if the AI is hidden and closed source.

For example, from my understanding, doesn't use AI algorithms for content or people recommendations.

What you see in the feed is what you get. Which means that you have full control over what you're doing and the content that you subscribe.

Personally, the AI that I use is free and open source with and

𝗣𝗠𝗝 👽pmj@social.pmj.rocks
2024-04-26

ich mag #StableDiffusion und #automatic1111
(und sagt nicht dass das keine kunst ist die prompts zu basteln die dann solches zeugs auspucken)

eine silhouette einer person steht vor einem farbigen, leuchtenden wirrwar an elektrischen schaltkreisen
die farben gehen von links nach rechts von blau über grün zu violett und dann orange/rot
die farben sind leuchtend intensiv mit hohem kontrast
2024-04-21

Modified a file in the #ComfyUI folder on Google to try and get it sharing models with an #Automatic1111 setup. Save me some file space doing that and be able to use one or the other at times.

Not sure if it will work out long term or short, but being able to use one or the other and not worry about where models are or the space they take up is a lovely thing.

2024-04-11

Домашняя нейронка. Какое «железо» выбрать для Stable Diffusion?

Нейросетями теперь пользуются почти все мои знакомые. Чат-боты с искусственным интеллектом в плане сбора информации намного удобнее поисковых систем, а нейросети, генерирующие картинки по запросу, нашли свое применение в рекламе и иллюстрировании контента. Однако как раз с ними не все столь гладко, как хотелось бы. Доступ к одним без плясок с бубном и нервотрепки невозможно оплатить из России, другие не радуют качеством изображений, путаясь в количестве пальцев, изгибая конечности персонажей невообразимым образом или выдавая в ответ на запрос совсем не то, что требовалось. Тут у меня и возникла идея развернуть Stable Diffusion на локальной машине, чтобы не мучиться с оплатой и токенами. А для этого сначала следует разобраться, какое железо потребуется для реализации подобной задумки.

habr.com/ru/companies/serversp

#Stable_Diffusion #SDXL #stability_ai #AUTOMATIC1111 #vladmandic #Fooocus #SHARK #nvidia #amd #DirectML #OpenVINO #Tensor #DiffusionBee

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst