#SFT

Mathieu GittonGitton
2025-04-08

Euroscope — Liquidité bancaire en Europe : stabilité ou risque ?

La Commission européenne propose de pérenniser les règles actuelles sur la liquidité des banques pour préserver compétitivité et stabilité financière. Débat ouvert sur l'alignement international et l'impact sur la dette publique.

whatsapp.com/channel/0029VaE5W

65dBnoise65dBnoise
2025-03-25

ESA should pay a little more attention to the images they post, making sure they reflect a project's reality rather than serve as a contractor's free advertisement.

Why is this important? Because when people are fed distorted views of reality, they become prone to believing big lies. And that's how the EU can avoid becoming the hell the US is right now.

So, and developed the clock and has paid for it, AFAICT. Airbus is just the contractor doing the assembly.

2/2

📡 Flight Radar Mechelen 🇧🇪RadarMechelen
2025-02-20

Flight:
ICAO code:
Callsign: TIME
Operator: JetTime
Country: 🇩🇰
From: to
Speed: 861 kmh
Altitude: 11887 m
Distance: 5.3 km
Angle ∆: 65.9°
Direction ->: NE
Track:
tinyurl.com/2c2earj8
History:
radarbox.com/data/mode-s/45AB21
Seen: 37x

2024-08-12

[Перевод] Как дообучать LLM с помощью Supervised Fine-Tuning

Обычно большие языковые модели (large language model, LLM) обучают в несколько этапов, включающих предварительное обучение и множество этапов fine-tuning (см. ниже). Предварительное обучение — это дорогостоящий процесс (например, требующий многих сотен тысяч долларов на вычислительные ресурсы), однако fine-tuning модели LLM (или контекстное обучение) по сравнению с этим гораздо дешевле (например, сотни долларов или даже меньше). Учитывая широкую доступность и бесплатность (даже для коммерческого использования) предварительно обученных LLM (например, MPT , Falcon или LLAMA-2 ), мы можем создавать большой спектр мощных приложений благодаря fine-tuning моделей под нужные задачи. Этапы обучения LLM На текущем этапе исследований ИИ одним из самых широко применяемых видов fine-tuning моделей LLM стал supervised fine-tuning (SFT). При этой методике курируемый датасет высококачественных выходных данных LLM применяется для непосредственного fine-tuning модели. SFT прост и дёшев в использовании, это полезный инструмент выравнивания языковых моделей, ставший популярным даже за пределами исследовательского сообщества опенсорсных LLM. В этой статье мы вкратце расскажем о принципах SFT, рассмотрим исследования по этой теме и приведём примеры того, как практикующие специалисты могут с лёгкостью пользоваться SFT, написав всего несколько строк кода на Python.

habr.com/ru/articles/830396/

#Машинное_обучение #data_labeling #data_annotation #dataset #разметка_данных #SFT #Finetuning #LLM

2024-08-09

[Перевод] Fine-tuning больших языковых моделей в 2024 году

Не секрет, что большие языковые модели (LLM) эволюционируют с безумной скоростью и привлекают внимание всей отрасли генеративного ИИ. Корпорации не просто заинтригованы, они одержимы LLM, и в частности, потенциалом fine-tuning LLM. В исследования и разработку LLM сейчас вкладываются миллиарды долларов. Лидеры отрасли и энтузиасты технологий всё сильнее стремятся углубить своё понимание LLM и их fine-tuning. Эта сфера natural language processing (NLP) постоянно расширяется, поэтому критически важно иметь актуальную информацию. Польза, которую LLM могут принести вашему бизнесу, зависит от ваших знаний и понимания этой технологии. Цикл жизни большой языковой модели состоит из множества важных этапов, и сегодня мы рассмотрим один из самых любопытных и активно развивающихся частей этого цикла — процесс fine-tuning моделей LLM. Это трудозатратная, тяжёлая, но перспективная задача, используемая во многих процессах обучения языковых моделей.

habr.com/ru/articles/830414/

#Машинное_обучение #data_labeling #data_annotation #dataset #разметка_данных #SFT #Finetuning #LLM

2024-07-24

[Перевод] Что такое supervised fine-tuning?

Supervised fine-tuning (SFT) — это методика, применяемая для адаптации предварительно обученных Large Language Model (LLM) под конкретную задачу при помощи размеченных данных. В процессе SFT предварительно обученные LLM подвергаются fine-tuning на основе размеченного датасета при помощи методик обучения с учителем. Веса модели выравниваются на основании градиентов, полученных из функции потерь конкретной задачи, измеряющей разность между прогнозами LLM и эталонной разметкой. Этот процесс позволяет модели обучаться паттернам и нюансам конкретной задачи, адаптируя её параметры в соответствии с распределением конкретных данных и требований задачи. SFT, обычно выполняемый после предварительного обучения модели, применяется для того, чтобы научить модель следовать переданным пользователем инструкциям. Он более вычислительно затратен, чем fine-tuning без учителя, но и имеет больше шансов достичь повышенной точности. Объём необходимого дообучения зависит от сложности задачи и размера датасета. В случае простого переноса стиля с использованием моделей OpenAI наподобие GPT-3.5 или GPT-4 для получения превосходных результатов обычно достаточно 30-50 высококачественных примеров. Чтобы преобразовать базовую Large Language Model (LLM) в выполняющую инструкции LLM (например, превратить Mistral в Mistral Instruct), обычно требуется обучение на десятках тысяч примеров. Дообучение Zephyr 7b выполнялось на 16 GPU Nvidia A100 в течение примерно четырёх часов. Это можно считать примером отправной точки для модели с 7 миллиардами параметров.

habr.com/ru/articles/829318/

#Машинное_обучение #LLM #finetuning #Трансферное_обучение #LoRA #QLoRA #SFT #Supervised_finetuning #датасет #размета_данных #dataset #данные #data #разметка

2024-07-23

[Перевод] Как с помощью supervised fine-tuning кастомизировать LLM

В быстро развивающейся сфере Natural Language Processing (NLP) fine-tuning стал мощным и эффективным инструментом адаптации предварительно обученных больших языковых моделей (Large Language Model, LLM) под конкретные задачи. Предварительно обученные LLM (например, семейство GPT) продемонстрировали существенный прогресс в понимании и генерации языка. Однако эти предварительно обученные модели обычно учатся на огромных объёмах текстовых данных при помощи обучения без учителя и могут быть не оптимизированы под узкую задачу. Fine-tuning позволяет закрыть этот пробел, воспользовавшись преимуществами общего понимания языка, полученными во время предварительного обучения, и адаптировав их к целевой задаче при помощи обучения с учителем. Благодаря fine-tuning предварительно обученной модели на специфичном для задачи датасете разработчики NLP могут достигать впечатляющих результатов с гораздо меньшим объёмом данных обучения и вычислительных ресурсов, чем при обучении модели с нуля. В частности, для LLM fine-tuning крайне важен, так как повторное обучение на всём объёме данных вычислительно слишком затратно. Сравнение предварительного обучения LLM и fine-tuning Успех fine-tuning привёл ко множеству передовых результатов в широком спектре задач NLP и сделал его стандартной практикой в разработке высокоточных языковых моделей. Исследователи и практики продолжают исследовать варианты и оптимизации методик fine-tuning, чтобы ещё больше расширить возможности NLP. В этой статье мы глубже изучим процесс fine-tuning LLM на основе инструкций при помощи библиотеки transformers двумя разными способами: просто с библиотекой transformers и с модулем trl .

habr.com/ru/articles/829324/

#Машинное_обучение #LLM #Finetuning #SFT #Supervised_finetuning #NLP #Large_Language_Model #датасет #размета_данных #dataset #данные #data #разметка

2024-07-22

[Перевод] Supervised Fine-Tuning: как настроить LLM под конкретную задачу?

Пожалуй, для адаптации больших языковых моделей (large language model, LLM) под чётко очерченные задачи обработки естественного языка (natural language processing, NLP) нет технологии лучше, чем SFT (supervised fine-tuning). Для дообучения модели её необходимо предварительно обучить, а это означает, что она уже многому научилась из широкого спектра текстов. Но можно ли после одного лишь предварительного обучения использовать модель в различных типах задач? Да, но ей всё равно будет не хватать совершенствования при помощи SFT, чтобы она действительно могла выполнять требуемые действия и стала опытной в определённой сфере знаний.

habr.com/ru/articles/829936/

#Машинное_обучение #supervised_finetuning #SFT #LLM #NLP #RAG #Instruction_finetuning #датасет #размета_данных #dataset #данные #data #разметка

Unofficial Football Club ChampUFCC_World@mastodon.org.uk
2024-05-26

🔴 LIVE - #UFCC Match #5324

71‘ - 🇭🇷 Mario Pašalić converts a penalty to Bergamo’s 3 goal lead

#GoAtalantaGo #SFT #SerieA

#AtalantaTorino 3-0

Unofficial Football Club ChampUFCC_World@mastodon.org.uk
2024-05-26

🔴 LIVE - #UFCC Match #5324

43‘ - 🇳🇬 Ademola Lookman doubles the lead for the title holder

#GoAtalantaGo #SFT #SerieA

#AtalantaTorino 2-0

Unofficial Football Club ChampUFCC_World@mastodon.org.uk
2024-05-26

🔴 LIVE - #UFCC Match #5324

25‘ - 🇮🇹 Gianluca Scamacca marks the lead for la Dea

#GoAtalantaGo #SFT #SerieA

#AtalantaTorino 1-0

2024-02-16

And we know that it is _not_ #bratzenamt (told us so by them).

If #SFT (@openage) can finally find us this photograph again, that can also be helpful.

Regards!

2024-02-16

Ahoj,
I still sit on a #chaospost quest from the #37c3. It is a postcard from the #cccamp23. The adress reads:

> "Lynn Conway Way, Ecke Henrietta Lacks Street, Blickrichtung Osten, das grüne Tunnelzelt mit der lampion-Lichterkette auf der rechten Seite"

and the description points to
map.events.ccc.de/camp/2023/ma

Since our research now reached a dead end, I now want to ask to the crowd knowledge:
Which group's tent could that have been? (It is a big tent, #SFT has shown us a photo of it.)

Regards

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst