#qlearning

2024-09-09

Нейронные оптимизаторы запросов в реляционных БД (Часть 1)

В 1970-х годах известный программист Эдгар Кодд разработал математически выверенную теорию организации данных в виде таблиц (реляций). С тех пор утекло немало воды — появилось большое количество различных коммерческих и open-source реляционных систем управления базами данных (РСУБД). Скоро стало понятно, что эффективное получение данных из базы — задача далеко не тривиальная. Если говорить прямо, она нелинейная и в общем случае NP-сложная. Когда SQL-запрос становится немного сложнее: SELECT * FROM table , у нас появляется огромная вариативность его исполнения внутри системы — и не всегда понятно, какой из возможных вариантов эффективнее как по памяти, так и по скорости. Чтобы сократить огромное количество вариантов до приемлемого, обычно используются так называемые эвристики — эмпирические правила, которые придуманы человеком для сокращения пространства поиска на несколько порядков. Понятное дело, эти правила могут отсечь и сам оптимальный план выполнения запроса, но позволяют получить хоть что-то приемлемое за адекватное время. В последние годы в связи с активным развитием ML начали развиваться и нейронные оптимизаторы запросов —особенность которых в том, что они самостоятельно, без участия человека, находят необходимые закономерности в выполнении сложных планов исходя из обучения на огромном количестве данных. Тенденция началась приблизительно в 2017 году и продолжается до сих пор. Давайте посмотрим, что уже появилось в этой области в хронологическом порядке и какие перспективы нас ждут.

habr.com/ru/companies/postgres

#postgresql #Оптимизация #оптимизация_запросов #reinforcementlearning #машинное_обучение #нейросети #qlearning #deep_qlearning #оптимизация_плана #субд

2024-04-26

Sometimes I wish I stayed at the university and continued studying #MachineLearning. I could have been playing #Atari video games!

Look what cool experiments have been done with classic #Atari games and Deep Q-Learning Network (DQN).

DQN outperformed humans in majority of those games.

#AI #Qlearning #DeepLearning

2024-04-07

[Перевод] Гайд на Reinforcement Learning для новичков. Реализация простой задачи

Давайте рассмотрим аналогию с обучением собаки новым трюкам. В этом сценарии мы моделируем ситуацию, а собака пытается реагировать на нее по-разному. Если реакция собаки оказывается желаемой, мы поощряем ее кормом. В противном случае мы тем или иным способом даем понять, что ее реакция не является желаемой. Теперь каждый раз, когда собака попадает в ту же ситуацию, она выполняет аналогичное действие с еще большим энтузиазмом, ожидая получить больше еды. По сути, она учится тому, что нужно делать, на основе положительного опыта. Точно так же она будет учиться тому, что не следует делать, когда сталкивается с негативным опытом. Именно так работает Reinforcement Learning в широком смысле

habr.com/ru/articles/805917/

#ml #qlearning #reinforcementlearning #алгоритмы #машинное+обучение

2024-01-26

Обучение с подкреплением. Q-обучение. Понятное объяснение

В данной статье я подробно опишу один из методов обучения с подкреплением - обучение на основе функции полезности (Q-обучение или Q-learning).

habr.com/ru/articles/789218/

#qlearning #qобучение #обучение_с_подкреплением #машинное_обучение #машинное_обучение_нейросети_python

Tiago F. R. Ribeirotiago_ribeiro
2024-01-25

“Essentials of Metaheuristics” — A Set of Undergraduate Lecture Notes by Sean Luke

Este livro contém os fundamentos da metaheurística. É fácil de ler e compreender, destinado a estudantes de licenciatura, profissionais, programadores e outros leigos.

O PDF está aqui. 👇

🔗cs.gmu.edu/~sean/book/metaheur

eicker.news ᳇ tech newstechnews@eicker.news
2023-11-25

»What is #Q* and #QLearning? #OpenAI Could Have Imploded Over AI Fears: A technological milestone reportedly called Q* was concerning enough to spark a coup at the world’s leading AI company.« decrypt.co/207413/what-is-q-st #tech #media

2023-11-23

To calm down all your craze about #AGI, Therminator and end of the world. Q* will not unlock AGI
#Qlearning , the Belmman-Ford and Dijkstra algorithms for shortest path search all share a common principle called "relaxation" ... nothing special
#OpenAIDrama like a telenovelas

रञ्जित (Ranjit Mathew)rmathew
2023-10-24

This is just silly; I don't know what the author was really expecting here:

"I Asked An Algorithm To Optimize My Life. Here's What Happened", Wired (wired.com/story/i-asked-an-alg).

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst