#Hypernetwork

2025-07-06

Text-to-LoRA: мгновенная адаптация трансформеров

Исследователи Sakana AI разработали Text-to-LoRA (T2L) , гиперсеть, которая динамически генерирует веса Low-Rank Adaptation (LoRA) для больших языковых моделей на основе описаний целевых задач на естественном языке. Этот метод обеспечивает эффективную адаптацию без предварительной настройки (zero-shot), превосходя установленные базовые показатели и достигая производительности, сравнимой с тонко настроенными адаптерами на ранее не встречавшихся задачах.

habr.com/ru/articles/925404/

#ai #ml #llm #lora #sakana #TextToLoRA #Hypernetwork #finetuning

Hacker Newsh4ckernews
2025-06-15

Text-to-LoRA: Hypernetwork that generates task-specific LLM adapters (LoRAs)

github.com/SakanaAI/text-to-lo

Alessia Antelmialeant@datasci.social
2025-03-31

If you work on #hypernetwork science, you cannot miss these events 👇

1⃣ HONAI Satellite
@NetSciConf
👉 hons-web.github.io

2⃣ Tutorial on High-order Interactions in Social Media Data
@icwsm
👉 dsh2025.github.io

3⃣ HyperSCI workshop
@asonamcon
*CallOpen*
👉 hypersci2025.github.io

dakonr :verified:dakonr@layer8.space
2022-12-23

Mit #AI zu arbeiten und seine eigenen #Hypernetwork|s zu erstellen ist auch so ein rabbit hole 😅

Nafnlaus 🇮🇸 🇺🇦nafnlaus@fosstodon.org
2022-11-13

Increasingly thinking that once I finish my current training project, maybe I should train #StableDiffusion... either a #hypernetwork or #Dreambooth... to specifically generate #NAFO fellas. ;)

Nafnlaus 🇮🇸 🇺🇦nafnlaus@fosstodon.org
2022-11-06

Testing two patches to #AUTOMATIC1111 #StableDiffusion for #Hypernetwork training - one to display multiple seeds at once during training, the other for automatic learning rate control. I'm trying a really difficult training task with ~1,5k images that needs high fidelity, so this would be better done with #Dreambooth, but I can't get it to work on my RTX 3060. :Þ
So I'm using a big hypernetwork. 50k steps in and there's still a long way to go.

#MachineLearning #NeuralNetworks #AiArt

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst