#Seq2Seq

2025-04-10

12 событий апреля, которые нельзя пропустить

Мы собрали для вас серию открытых уроков, которые пройдут в апреле и помогут не просто разобраться в сложных темах, а применить знания на практике. Будущее AI агентов на основе LLM, Prometheus для мониторинга, как избежать хаоса в IT-проектах и как обучить модель понимать языки — на эти и не только темы поговорим с экспертами в IT. Рассмотрим реальные кейсы, обсудим опыт и получим понимание того, как внедрять эти технологии в проекты.

habr.com/ru/companies/otus/art

#AI_агенты #Scrum #seq2seq #автоматизация_тестирования #Docker #Apache_Kafka #Смартконтракты #data_science #prometheus

2025-04-07

Ведущий разработчик ChatGPT и его новый проект — Безопасный Сверхинтеллект

Многие знают об Илье Суцкевере только то, что он выдающийся учёный и программист, родился в СССР, соосновал OpenAI и входит в число тех, кто в 2023 году изгнал из компании менеджера Сэма Альтмана. А когда того вернули, Суцкевер уволился по собственному желанию в новый стартап Safe Superintelligence («Безопасный Сверхинтеллект»). Илья Суцкевер действительно организовал OpenAI вместе с Маском, Брокманом, Альтманом и другими единомышленниками, причём был главным техническим гением в компании. Ведущий учёный OpenAI сыграл ключевую роль в разработке ChatGPT и других продуктов. Сейчас Илье всего 38 лет — совсем немного для звезды мировой величины.

habr.com/ru/companies/ruvds/ar

#Илья_Суцкевер #Ilya_Sutskever #OpenAI #10x_engineer #AlexNet #Safe_Superintelligence #ImageNet #неокогнитрон #GPU #GPGPU #CUDA #компьютерное_зрение #LeNet #Nvidia_GTX 580 #DNNResearch #Google_Brain #Алекс_Крижевски #Джеффри_Хинтон #Seq2seq #TensorFlow #AlphaGo #Томаш_Миколов #Word2vec #fewshot_learning #машина_Больцмана #сверхинтеллект #GPT #ChatGPT #ruvds_статьи

鯖魚蒜末貓Yoxem@g0v.social
2024-07-05

#seq2seq 教學內底ê法語kàu英語ê模型,感覺猶是buē準。

test of translation
2024-03-29

Обработка текста. Модель Sequence-to-sequence

Сегодня мы рассмотрим принцип работы модели seq2seq, модификации, как верно подготовить данные для модели.

habr.com/ru/articles/803815/

#data_science #seq2seq #токенизация #embeddings #llm #уии

2024-01-26

Предсказать ошибку. Как методы оценки неопределенности помогают повышать качество seq2seq-моделей

Всем привет! Меня зовут Артём Важенцев , я аспирант в Сколтехе и младший научный сотрудник AIRI. Наша группа занимается исследованием и разработкой новых методов оценивания неопределенности для языковых моделей. Этим летом мы опубликовали две статьи на ACL 2023 . Про одну из них я уже рассказывал в одном из предыдущих текстов — там мы описали новый гибридный метод оценивания неопределенности для задачи выборочной классификации текстов. Другая же статья про то, как мы адаптировали современные методы оценивания неопределенности на основе скрытого представления модели для задачи генерации текста, а так же показали их высокое качество и скорость работы для задачи обнаружения примеров вне обучающего распределения. Ниже я хотел бы подробнее рассказать об используемых методах и результатах, которые мы получили.

habr.com/ru/companies/airi/art

#uncertainty_estimation #natural_language_processing #machine_translation #question_answering #summarization #seq2seq

2023-10-31

Dive into the world of Seq2Seq models in machine learning! Discover their architecture, variations, and how they're used in real-world applications! 🤖🌐 Check out the full blog post here: ak-codes.com/seq2seq/

2023-01-05

Can anyone recommend an online survey course on Neural Networks in Python? I'm especially interested in learning about applied #NLP, #RNN, #CNN, #Seq2Seq, #BERT, and #GPT. Thanks!

Dave Howcroft_dmh
2022-11-07

This is not to say, however, that I think these models are useless. I think the interesting question is how to integrate these models into systems that express a particular meaning, a la data-to-text . Whether this involves , integrating them into the decoder for models, or some other more clever application remains to be seen. I am looking forward to seeing how /s get used for going forward.

Dave Howcroft_dmh
2022-11-07

Around 2015 and 2016 we saw sequence-to-sequence () models applied to data-to-text for the first time. These models were trained end-to-end and were very exciting because it raised the prospect of reducing the amount of hand-crafted one would have to do to create a system.

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst