#NeurIPS2025

N-gated Hacker Newsngate
2026-01-22

🎉 Breaking News: AI Conference Packs More Than a Psychedelic Trip 🍄🎓! NeurIPS 2025 brings you the latest in machine learning, complete with 100 delightful delusions, courtesy of GPTZero's imaginary exposé! 🤖✨ Who needs reality when you've got AI to fabricate it for you? 🙃
gptzero.me/news/neurips/

Hacker Newsh4ckernews
2026-01-22

GPTZero finds 100 new hallucinations in NeurIPS 2025 accepted papers

gptzero.me/news/neurips/

AI Daily Postaidailypost
2026-01-17

RLVR promises faster sampling but leaves reasoning untouched—base LLMs still carry the heavy‑lifting of trajectories. The paper (NeurIPS 2025) shows that gains come from smarter teacher‑distillation and minor architectural tweaks, not a new reasoning engine. Curious how sampling efficiency separates from true understanding? Dive into the details.

🔗 aidailypost.com/news/rlvr-lift

2025-12-10

Wan-Move: Trình chỉnh sửa video AI nguồn mở có khả năng **kiểm soát chuyển động điểm** (NeurIPS 2025). Mở rộng Wan-I2V để tạo video **5 giây độ phân giải 480p** sánh ngang hệ thống thương mại Kling 1.5 Pro. Đặc điểm nổi bật: Kỹ thuật **Định hướng đường dẫn tiềm năng**, tương thích với mô hình hiện tại như Wan-I2V-14B mà không cần thay đổi kiến trúc, kiểm soát chi tiết **trên từng vùng** bằng tọa độ điểm, và bộ kiểm tra **MoveBench** cho đánh giá chính xác. #AIVideo #NeurIPS2025 #MôHìnhMáyHọc #AI

2025-12-09

Nauka zjadana przez własny ogon. Eksperci alarmują: AI zalewa badania naukowe bezwartościowym chłamem

Świat nauki o sztucznej inteligencji stoi nad przepaścią. Paradoksalnie, to właśnie narzędzia AI, które miały przyspieszyć postęp, doprowadzają do paraliżu badawczego.

Renomowane konferencje toną w tysiącach prac generowanych taśmowo przez modele językowe, a wyłowienie wartościowych odkryć staje się wręcz niemożliwe.

Hany Farid, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, w rozmowie z „The Guardian” nie przebiera w słowach. Sytuację w branży nazywa „szaleństwem” i przyznaje, że obecnie odradza swoim studentom specjalizację w dziedzinie AI. Powód? Niemożność przebicia się z rzetelną, przemyślaną pracą przez mur „naukowej papki”.

113 publikacji w rok. Geniusz czy spamer?

Symbolem problemu stał się przypadek Kevina Zhu, świeżo upieczonego licencjata z Berkeley, który chwali się współautorstwem aż 113 prac naukowych opublikowanych w ciągu jednego roku. Dla porównania, rzetelne przeczytanie stu technicznych artykułów w rok jest wyzwaniem dla eksperta, nie mówiąc o ich napisaniu. Profesor Farid nazwał dorobek Zhu „katastrofą”, sugerując, że niemożliwe jest wniesienie merytorycznego wkładu w taką liczbę badań w tak krótkim czasie.

Mechanizm tego „sukcesu” opiera się na programie Algoverse, w którym studenci płacą ponad 3 tysiące dolarów za 12-tygodniowy kurs, a ich prace są masowo wysyłane na konferencje. Efekt? Prestiżowa konferencja NeurIPS, która w 2020 roku otrzymała poniżej 10 tysięcy zgłoszeń, w tym roku została zalana ponad 21,5 tysiącem prac. Aż 89 z nich to dzieła zespołu Zhu.

AI nie zabiło edukacji, ono tylko pokazało jej zwłoki. Mocna diagnoza profesora z Teksasu

„Vibe” zamiast nauki

Zjawisko to eksperci określają mianem „vibe coding” – bezrefleksyjnego używania AI do generowania kodu i treści, byle tylko coś działało i wyglądało profesjonalnie. Sam Zhu, pytany o udział AI w tworzeniu prac, unikał jednoznacznej odpowiedzi, zasłaniając się używaniem „standardowych narzędzi produktywności”.

Konsekwencje są dramatyczne. Recenzenci, często sami posiłkujący się AI, przepuszczają prace z halucynacjami, zmyślonymi cytatami, a nawet absurdalnymi grafikami, które nigdy nie powinny trafić do druku. Jak podsumowuje prof. Farid: „Jako przeciętny czytelnik nie masz szans zrozumieć, co dzieje się w literaturze naukowej. Stosunek sygnału do szumu wynosi praktycznie jeden do jednego”.

AI nie jest magiczną różdżką, a lustrem. To, co w nim zobaczysz, zależy tylko od ciebie

#Algoverse #generatywnaAIWNauce #HanyFarid #jakośćBadańNaukowych #KevinZhu #naukaAI #NeurIPS2025 #news

AI Slop
2025-12-08

Ending a fantastic week at #NeurIPS2025. Saw a lot of friends (old and new), ate a lot of tacos, gave away a lot of stickers. See you at the next one!

memmingmemming
2025-12-07

Theoretical Insights on Training Instability in Deep Learning TUTORIAL
uuujf.github.io/instability/

gradient flow-like regime is slow and can overfit while large (but not too large) step size can trasiently go far, converge faster, and find better solutions

memmingmemming
2025-12-07

Some of my favorites from

more neg max Lyapunov exp => faster parallelized RNN convergence
Gonzalez, X., Kozachkov, L., Zoltowski, D. M., Clarkson, K. L., & Linderman, S. Predictability Enables Parallelization of Nonlinear State Space Models. openreview.net/forum?id=7AGXSl

Save the AIsavetheAI
2025-12-06

Each one of you too could be publishing 100+ papers each year at conferences, what are you waiting for? More is always better. Remember, this is how we get to AGI which then will tell us how to make money and save the planet.

theguardian.com/technology/202

N-gated Hacker Newsngate
2025-12-05

Announcing the 🏆 "We're Still Reading This" Awards, where committees of over-titled chairs argue over which paper was the most jargon-induced nap. In 2025, NeurIPS continues the tradition of self-congratulation by selecting abstracts nobody will read. 🚀
blog.neurips.cc/2025/11/26/ann

memmingmemming
2025-12-04

Melanie Mitchell's keynote reminds us that it is not easy to evaluate intelligence (AI, babies, animals, etc) and benchmarks can be VERY misleading.

2025-12-04

TODAY is the first-ever #NeurIPS position paper track!
Come hear thoughtful arguments about “digital heroin,” the nature of innovation, protecting privacy, machine unlearning, & how we can do ML research better as a community.
See you: upper level ballroom 20AB from 10-11a & 3:30-4:30p!
#NeurIPS2025 #NeurIPSSD

memmingmemming
2025-12-03

For diffusion models, full optimization leads to memorization, but intermediate amount of optimization (easier to do when you have more data) leads to generalization!
This is a clear example where more optimization on the training objective is demonstrably worse.

Google DeepMind :bot:GoogleDeepMind@zpravobot.news
2025-12-03

Hello from #NeurIPS2025 👋

We're hosting a range of sessions at the xcancel.com/Google booth, including a Q⅋A with xcancel.com/JeffDean and the Gemini team, plus demos like SIMA 2 – our AI agent for 3D virtual worlds.

See the full schedule →…
research.google/conferences-an

2025-12-03

“Today, I have a vision, a vision of superintelligence from experience”

Presented in his humble way, @richardSutton shares his vision of what AI needs
General, experiential, discovers its own abstractions and not bitter🤢
#NeurIPS2025 #NeurIPS

2025-12-03

Here's where you'll find me and Nihar Shah to talk TMLR! In Sails Paviliion (likely at the edge near Ballroom 20) from 9:30 to 10:30 AM on Thursday and Friday! #NeurIPS2025

RE: https://bsky.app/profile/did:plc:kzni2f56prsfwjcqpwzrmx6u/post/3m73twszy5c2s

2025-12-03

If you are a senior researcher at #NeurIPS2025 (i.e., roughly full professor level or later), and you're interested in moving to the University of Waterloo (best CS program in Canada) for a CERC (biggest chair position in Canada), email me. Discretion guaranteed.

2025-12-03

With nearly 30,000 registrants (including virtual), 64% increase since last year, they're saying that #NeurIPS2025 is the largest conference at San Diego Convention Center

Mattia Rigottimatrig
2025-12-02

If you're at tomorrow (Dec 3, 11:00–14:00 PST), Brown Ebouky will present our new work:
“Eliciting Reasoning in Language Models with Cognitive Tools” where we combine cognitive architectures with workflows to enhance reasoning 🧠

Check it out here: neurips.cc/virtual/2025/loc/sa

Figure from the NeurIPS paper  B. Ebouky, A. Bartezzaghi, M. Rigotti, "Eliciting Reasoning in Language Models with Cognitive Tools", NeurIPS 2025

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst