#zeroshot

2025-04-04

Zero-shot и Few-shot Learning в NLP

Zero-shot Learning (ZSL) - это способность модели выполнять задачи без каких-либо примеров обучения. Она делает это за счёт обобщённых знаний, полученных во время предобучения. Few-shot Learning (FSL) - это метод, при котором модели предоставляется всего несколько примеров (обычно от 1 до 5), чтобы лучше понять структуру задачи.

habr.com/ru/articles/897604/

#NLP #Zeroshot #Fewshot #Finetuning #Zeroshot_и_Fewshot_Learning_в_NLP #Zeroshot_или_Fewshot

2024-01-26

InstantID: Создание персонализированных изображений по одному фото. И лучший бесплатный генератор нейро-аватарок

Друзья, всем привет, вышла в свет новая удивительная технология, на гите она подписана как InstantID : Zero-shot Identity-Preserving Generation in Seconds . Но по факту это самый крутой генератор аватарок в мире, который по одной лишь вашей фотографии может создать персонализированное изображение с вашим лицом в любом стиле по текстовому запросу используя SDXL модели Stable Diffusion . Так что к концу этой статьи, у вас так же как и у меня будет десяток новых аватарок и совершенно бесплатно. В статье много красивых и тяжелых картинок.

habr.com/ru/articles/789028/

#InstantID #zeroshot #stablediffusion #аватарки #персонализация #controlnet #нейросети #генерация #sdxl

2024-01-25

InstantID: Создание персонализированных изображений по одному фото. И лучший бесплатный генератор нейро-аватарок

Друзья, всем привет, вышла в свет новая удивительная технология, на гите она подписана как InstantID : Zero-shot Identity-Preserving Generation in Seconds . Но по факту это самый крутой генератор аватарок в мире, который по одной лишь вашей фотографии может создать персонализированное изображение с вашим лицом в любом стиле по текстовому запросу используя SDXL модели Stable Diffusion . Так что к концу этой статьи, у вас так же как и у меня будет десяток новых аватарок и совершенно бесплатно. В статье много красивых и тяжелых картинок.

habr.com/ru/articles/789028/

#InstantID #zeroshot #stablediffusion #аватарки #персонализация #controlnet #нейросети #генерация #sdxl

Shawn M. Jones, PhDshawnmjones@hachyderm.io
2023-09-28

Yesterday at #TPDL2023 David Pride presented “CORE-GPT: Combining Open Access research and large language models for credible, trustworthy question answering”

Rather than #ZeroShot question/answering, Pride’s team combines the #CORE #OpenAccess dataset with #ElasticSearch to create #FewShot prompts that leverage the strength of combining #search results with the #LLM’s (#GPT) #summarization abilities to produce an answer to a user’s question including citations.

Ref: doi.org/10.1007/978-3-031-4384

David Pride at TPDL2023 is presenting “CORE-GPT: Combining Open Access research and large language models for credible, trustworthy question answering” The current slide is titled “Do LLMs produce accurate citations?”
2023-08-08

Proud to announce our new paper, "Relevant Entity Selection: Knowledge Graph Bootstrapping via Zero-Shot Analogical Pruning" with Lucas Jarnac and Miguel Couceiro, accepted in #cikm2023

#knowledgeGraph #machineLearning #graphEmbedding #transferLearning #zeroShot #openScience

Shiwali Mohan | शिवाली मोहनshiwali@sigmoid.social
2023-04-06

@Riedl

I have a #LLM that has 100% accuracy and #ZeroShot transfer on all blocks world problems. It is 'better than humans' who only have 80% accuracy. I call it the PDDLModel. With some prompt engineering (also called model writing), it can #zeroshot transfer to other problems like tower-of-hanoi, 8-puzzle, eaters, and what not. It even fits on a raspberry pi.

We can only imagine what this new #AGI would enable.

github.com/gerryai/PDDL4J/blob

Let's all play this game!!

2023-01-31

#Stanford Introduces #DetectGPT to Help #Educators Fight Back Against #ChatGPT Generated Papers

"This method, called ' #ZeroShot,' allows DetectGPT to detect machine-written text without any knowledge of the #AI that was used to generate it. It operates in stark contrast to other methods which require training #classifiers and datasets of real and generated passages."

#ArtificialIntelligence #Education #Teaching #OpenAI #TechNews #TechnologyNews #BreakingNews

neowin.net/news/stanford-intro

2022-11-16

@dx One of the papers in the #zeroshot space is "Language Models are Zero-Shot Reasoners" (arxiv.org/abs/2205.11916)

Followup work ("Impact of Pretraining Term Frequencies on Few-Shot Reasoning", arxiv.org/abs/2202.07206) found that the model only does well on arithmetic test items that appear at least 10^7 times in the training set (for the test item "what is 2 times 24?", the problem and answer appears 10^7 times in training set).

Hard to think of this as “zero” or “few” shot learning.

2022-11-16

@cmaclell I think that's an important point. I like framing it as #transfer learning, because you have a network that has settled pretty solidly into a particular basin of the parameter space, based on the data it was trained with. This is VERY different than a system that has abstracted generalizable, relevant concepts, which is what I think people want to be true in #zeroshot learning.

2022-11-16

I dislike how people frame the use of pre-trained models as engaging in #zeroshot or #fewshot learning.

There is rarely discussion about the data used for pre-training. I suspect the “generic” data used for pre-training probably includes examples similar to “task-specific” targets.

Without knowing the scope of the pre-training data, how can we evaluate the claim of few- or zero-shot learning?

It would be better to describe most of this work as investigating #transfer.

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst