#VLA

RoboHub (@XRoboHub)

NVIDIA가 EgoScale을 발표했습니다. NVIDIA Research는 VLA 모델들을 사람 시점(egocentric) 비디오 20,000시간 이상으로 사전학습(pretraining)해 로봇 숙련도(robot dexterity)가 로그-선형 스케일링 법칙을 따른다는 연구 결과를 공개했으며, 이 데이터셋은 이전보다 약 20배 큰 규모라고 설명합니다. 대규모 시청각 사전학습과 로봇 제어·학습의 연결을 제시하는 중요한 연구 발표입니다.

x.com/XRoboHub/status/20280513

#nvidia #egoscale #robotics #dataset #vla

2026-02-26

[Перевод] «Обучение на опыте» для малых моделей: переносим методы Physical Intelligence на ACT без использования VLA или диффузии

Поведенческое клонирование (BC) - это доминирующая парадигма в ИИ-робототехнике, которая позволяет моделям обучаться имитации роботов под управлением человека на основе успешных действий. При обучении BC-политики мы исключаем ошибки из датасета, чтобы тренироваться только на успешных эпизодах - в конце концов, мы не хотим учиться подражать ошибкам! Самое перспективное направление в ИИ-робототехнике сегодня - это «обучение на опыте». Поскольку BC-политики учатся только имитировать успешные действия, им трудно восстанавливаться после ошибок, которые неизбежно случаются в сложных сценариях реального мира. Умение отличать хорошие действия от плохих помогло бы политике освоить механизмы восстановления и оптимизировать скорость и эффективность движений. Постобучение через обучение с подкреплением (RL) обещает именно это - обучение на своих ошибках, а не просто имитацию поведения человека. Пожалуй, самая интересная научная работа в области робототехники этой осенью вышла у Physical Intelligence. Они представили свой метод Pi*0.6 для постобучения базовых моделей роботов через оффлайн-RL. Сначала вы классифицируете действия как «сильные» или «слабые» в зависимости от того, насколько они выгодны, а затем просто добавляете эту классификацию в окно контекста политики действий. В процессе работы мы запрашиваем «сильные» действия, что позволяет сэмплировать варианты из набора, который привел к хорошим результатам во время обучения. Нет нужды в PPO или других сложных градиентных методах, нет проблем с регуляризацией или катастрофическим забыванием, которые часто за ними следуют. Просто говоришь: «Мне нужны хорошие действия», и робот их выполняет. Звучит слишком хорошо, правда?

habr.com/ru/articles/1003998/

#rl #reinforcementlearning #VLA #Робототехника #VisionLanguageAction #Action_Chunking_Transformer #ACT

The Humanoid Hub (@TheHumanoidHub)

휴머노이드 원격조종(teleoperation)은 비용과 확장성 문제가 있는데, 이를 겨냥한 NVIDIA의 EgoScale이 소개됩니다. EgoScale은 수천 시간의 제1인칭(egocentric) 인간 영상으로 사전학습된 VLA 모델이며, 인간-로봇 정렬을 위해 50시간의 인간 데이터와 4시간의 로봇 '플레이' 데이터로 미드트레이닝되었다고 합니다.

x.com/TheHumanoidHub/status/20

#nvidia #egoscale #vla #teleoperation #robotics

The Humanoid Hub (@TheHumanoidHub)

Physical Intelligence의 π0.6 모델이 실사용 사례에 적용되었다. Weave는 자율 빨래 개기(autonomous laundry folding)에, Ultra는 전자상거래 포장에 활용되며, 해당 모델들은 시각·언어·행동 통합을 목표로 하는 Vision-Language-Action(VLA) 프레임워크 기반으로 설계되었다.

x.com/TheHumanoidHub/status/20

#visionlanguage #robotics #automation #vla

2026-02-18

Nice set of embodied foundation models this week:

in 2B, 8B, and 30B variants + RynnBrain‑Plan (manipulation planning), RynnBrain‑Nav (navigation), and RynnBrain‑CoP (spatial reasoning).

alibaba-damo-academy.github.io

ABot-M0: VLA Foundation Model for Robotic Manipulation, github.com/amap-cvlab/ABot-Man

ABot-N0: Unified VLA for embodied navigation, amap-cvlab.github.io/ABot-Navi

#foundationModels #embodied #robotics #robotFoundationModels #embodiedFoundationModels #VLA

#Vlaanderen doorheen de geschiedenis en door de ogen van de N-VA
#VLA

vier kaartjes waarboven de tekst staat: 'Limburg krijgt slechts fractie van Vlaams geld voor infrastructuur.'
Op het kaartje linksboven staat een gebied afgebakend met de tekst: 'Vlaanderen omstreeks 1200' Dit gebied komt overeen met het graafschap Vlaanderen in de Middeleeuwen
Op het kaartje rechtsboven staat een gebied afgebakend met de tekst: 'Vlaanderen omstreeks 1700' Dit gebied komt overeen met wat er overbleef van het graafschap Vlaanderen ten tijde van de Habsburgse Nederlanden.
Op het kaartje linksonder staat een gebied afgebakend met de tekst: 'Vlaanderen omstreeks 2000'. Dit gebied is het Vlaams Gewest.
Op het kaartje rechtsonder staat een gebied afgebakend met de tekst: 'Vlaanderen volgens N-VA' Dit gebied is de stad Antwerpen (die niet in het graafschap Vlaanderen lag)
2026-02-06

VLM / VLA / World Models / Physical AI

Нейроночки в последнее время заполонили всё. Ну, почти всё. Cейчас подбираются к роботам. Настоящего прогресса почти так же много как нейрослопа, пиара и преувеличений. В этой статье попробую рассказать про нейроночки для управления роботами: 🤖 Расскажу немного про теорию 🤖 Покажу как обучить всё это дома на коленке (и стать экспертом в Physical AI конечно)

habr.com/ru/companies/recognit

#VLM #LLM #VLA #World_models

Amirhosein Shirani (@amirhshirani)

MSFT Research의 Rho-alpha와 VLA+로의 진화가 촉망된다는 내용으로, 특히 촉각 피드백(tactile feedback) 추가가 주목받고 있음. 다만 저자는 데이터 수집뿐 아니라 촉각 센싱의 정확도와 지연(latency)이 정밀한 미세 동작 작업에서 주요 공학적 난제라고 지적함.

x.com/amirhshirani/status/2017

#vla #rhoalpha #tactilesensing #msftresearch #robotics

Axis AI (@axisrobotics)

중국이 Hugging Face에서 오픈소스 LLM 물결을 주도해왔고, deepseek_ai·Alibaba_Qwen·Kimi_Moonshot 등이 '메이드 인 차이나' AI에 대한 서구의 시각을 바꿨다는 주장입니다. 작성자는 다음 쟁점으로 실리콘밸리에서 오픈소스 VLA(vision-language agents) 가능성을 묻고 있다는 점을 제기합니다.

x.com/axisrobotics/status/2015

#opensource #llm #huggingface #vla #chinaai

Yanjiang Guo (@GYanjiang)

VLA 모델이 급증하는 상황에서 기본 VLM(비전-언어 모델) 선택이 VLA 성능에 어떻게 영향을 주는지를 규명하기 위한 대규모 체계적 연구를 발표합니다. 해당 연구는 Alibaba의 Qwen과 협력해 진행되었으며, VLM 선택에 따른 성능 차이 분석을 통해 멀티모달 에이전트 설계에 중요한 인사이트를 제공합니다.

x.com/GYanjiang/status/2011264

#vla #vlm #multimodal #qwen #research

2026-01-11

Una lente cosmica rivela la culla iperattiva di un futuro ammasso galattico

#alma #vla @astronomia

Il VLA e ALMA scoprono il primo nucleo di protocluster fortemente lenticellare, uno sciame compatto di galassie polverose e in fase di formazione stellare nell'Universo primordiale

umbertogaetani.substack.com/p/

La lente galattica J0846 nella luce ottica (in basso a destra), la vista ALMA delle galassie avvolte dalla polvere e in fase di formazione stellare fortemente lente in archi luminosi (in alto a destra) e una vista composita (a sinistra) che rivela almeno 11 galassie polverose in un nucleo protocluster compatto a più di 11 miliardi di anni luce di distanza, ingrandite dalla gravità dell'ammasso in primo piano.
Aidooaidoo
2026-01-09

Cloud-9: nube compacta de hidrógeno sin estrellas junto a M94; podría ser un relicto de halo de materia oscura que nunca formó una galaxia. aidoo.news/noticia/62ydvr

Kuuke's Sterrenbeeldenkuuke@mastodon.nl
2026-01-01

Drievoudig systeem van actieve galactische kernen gevonden
Een zeldzaam trio van samensmeltende sterrenstelsels, J121/1219+1035 genaamd, herbergt drie actief materie aantrekkende, radioheldere supermassieve zwarte gaten, aldus een team
#ActieveGalactischeKern #radiosignaal #SupermassiefZwartGat #vla #vlba #ZwartGat
kuuke.nl/drievoudig-systeem-va

Een artist impressie van J1218/1219+1035
2025-12-30

The Karl G. Jansky Very Large Array, commonly known as the VLA, is a multi-purpose tool designed to study astronomical objects. The complex consists of a collection of 27 radio telescopes, placed in a Y-shaped configuration. They move the individual dishes into four standard arrangements on a three month rotation to provide astronomers with varying levels of detail and sensitivity.

#NewMexico #travel #roadtrip #daytrip #weekendgetaway #VLA #radioastronomy

36Kr Japan | 最大級の中国テック・スタートアップ専門メディア36kr.jp@web.brid.gy
2025-12-25

小鵬汽車、広州で自動運転レベル3公道試験を開始 米テスラ「FSD」に挑戦状

fed.brid.gy/r/https://36kr.jp/

<p><span style="font-weight: 400;">中国の電気自動車(EV)メーカー「小鵬汽車(Xpeng Motors)」は12月16日、広東省広州市でレベル3(L3)の自動運転車の公道走行試験ライセンスを取得し、市内の高速道路で走行試験を開始したと発表した。</span></p>
<p><span style="font-weight: 400;">レベル2ではドライバーが常にシステムを監視する必要があるのに対し、レベル3ではドライバーは常時監視から解放され、特定条件下でハンドルやペダル操作をする必要がなくなる。ただし、システムが正確に判断できない場合には、ドライバーが運転に介入する「条件付き自動運転」となっている。</span></p>
<blockquote class="wp-embedded-content"><p><a href="https://36kr.jp/447705/">高速120キロ走行も「手放し」実現 中国のスマートEVがL3公道試験開始、ファーウェイの技術搭載</a></p></blockquote>
<p></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">小鵬は</span><span style="font-weight: 400;">11月に開かれた年次イベントで、第2世代のVLA(Vision-Language-Action)モデルを搭載した</span><span style="font-weight: 400;">レベル4(L4:特定条件下での完全自動運転)の自動運転車を発表した。何小鵬CEOは、</span><span style="font-weight: 400;">2026年にもハード・ソフトの双方がレベル4相当の量産車を市場に投入する方針を明らかにしている。</span></p>
<blockquote class="wp-embedded-content"><p><a href="https://36kr.jp/442893/">「運転支援=自動運転」誤解に歯止めーー中国が運転支援機能の国家標準策定へ、ドライバー監視を強化</a></p></blockquote>
<p></p>
<p>&nbsp;</p>
<p><span style="font-weight: 400;">小鵬汽車は米テスラをライバル視しており、12月11には何CEOが自身のSNSで「スタッフと面白い賭けをした」と投稿した。その内容は、2026年8月30日までに同社の「VLA2.0」がテスラの「FSD v14.2」の水準に達した場合は、本社食堂を参考にした中国風レストランをシリコンバレーに開設する。一方、達しなかった場合は、自動運転チームを率いる劉先明氏がゴールデンゲートブリッジを裸で走るという“過激”な約束だった。ユーモアを交えつつも、テスラの背中を捉えたという強固な自信が伺える。</span></p>
<blockquote class="wp-embedded-content"><p><a href="https://36kr.jp/445213/">小鵬汽車、7~9月は売上高101.8%増  EV・ロボタクシー・ヒューマノイドの3本柱で攻勢</a></p></blockquote>
<p></p>
<p><span style="font-weight: 400;">(36Kr Japan編集部)</span></p>
eicker.news ᳇ tech newstechnews@eicker.news
2025-12-20

#Emergentcapabilities in #largelanguagemodels, such as in-context learning, can also appear in #visionlanguageaction (#VLA) models. Scaling up #roboticfoundationmodels allows for emergent human-to-robot transfer, improving performance on tasks demonstrated in human videos by approximately 2x. physicalintelligence.company/r #tech #media #news

2025-12-09

CognitiveDrone: система на VLA с когнитивными способностями для управления летающим роботом в трехмерном пространстве

VLA-модели объединяют визуальное восприятие, понимание естественного языка и выполнение физических действий. Обычно они применяются для манипуляций — например, чтобы робот взял предмет или повернул рычаг. Но управление роботом, особенно летающим, это не всегда изменение состояния — иногда это перемещение его в трехмерном пространстве. Добавление VLA-моделей в этот сегмент робототехники может дать устройствам способность мыслить и принимать решения в условиях слабой связи или полной автономности. Такой подход особенно важен для задач, где нет права на ошибку, например в спасательных миссиях. Я Артем Лыков, ведущий RnD-разработчик в МТС Web Services. Параллельно работе — аспирант в лаборатории интеллектуальной космической робототехники Сколтеха (руководитель Дмитрий Тетерюков), где лидирую направление когнитивной робототехники. Сегодня расскажу, как в рамках научной работы вместе с коллегами по лаборатории мы обучили OpenVLA и создали CognitiveDrone — первую VLA-модель для летающих роботов. А также объясню, зачем мы внедрили модуль VLM и за счет чего он помог повысить качество решения когнитивных задач на 17,6%.

habr.com/ru/companies/ru_mts/a

#vla #когнитивная_робототехника #рассуждающие_модели #модульная_архитектура #llm #искусственный_интеллект #CognitiveDrone #CognitiveDroneBench #Physical_AI

2025-11-14

Strany rodící se vlády musí v nejbližších týdnech vyřešit nelehkou úlohu. Do 17. prosince chtějí projednat a schválit státní rozpočet na příští rok, který jim tento týden poslal kabinet v demisi Petra Fialy (ODS). V něm podle hnutí ANO a jeho koaličních partnerů SPD a Motoristů sobě chybí až sto...

Tón: : mírně negativní
#česko #gdelt #rozpočet #vláda #vlá...

domaci.hn.cz/c1-67813680-nevim

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst