#M%C3%B4H%C3%ACnhNg%C3%B4nNg%E1%BB%AFL%E1%BB%9Bn

2025-11-19

Cộng đồng AI đang xôn xao về kiến trúc của Gemini 3! Liệu Google có kết hợp MoR (Recursion) và Titans - những công nghệ họ từng giới thiệu - vào mô hình sparse MoE transformers-based này không? Bạn nghĩ sao về sự pha trộn phức tạp này?

#Gemini3 #GoogleAI #LLM #AIarchitecture #MoR #Titans #SparseMoE #Transformers #KiếnTrúcAI #MôHìnhNgônNgữLớn #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

2025-11-18

Tin vui cho giới công nghệ! Giờ đây, bạn có thể chạy mọi LLM cục bộ trên thiết bị của mình qua Docker, chỉ với 8GB RAM. Nhờ sự hợp tác giữa Unsloth và Docker, việc triển khai các mô hình như OpenAI gpt-oss, Llama, Gemma, Phi trở nên dễ dàng, không cần thiết lập phức tạp, với hiệu suất tối ưu.

#LLM #Docker #AI #LocalAI #Unsloth #MôHìnhNgônNgữLớn #TríTuệNhânTạo

reddit.com/r/selfhosted/commen

2025-10-28

Bảng xếp hạng SWE-rebench vừa cập nhật! GLM-4.6 đã trở thành mô hình nguồn mở tốt nhất, đạt tỷ lệ giải quyết 37.0% và pass@5 42.9%, vượt qua GLM-4.5.
#GLM4_6 #OpenSourceAI #LLM #AI #DeepLearning #GLM46 #MôHìnhNgônNgữLớn

reddit.com/r/LocalLLaMA/commen

2025-10-27

Thung lũng Silicon đang dần chuyển dịch từ các mô hình AI mã nguồn đóng đắt đỏ (như OpenAI, Anthropic) sang các giải pháp mã nguồn mở hiệu quả và rẻ hơn. Chamath Palihapitiya chia sẻ đội của ông đã chuyển nhiều tác vụ sang Kimi K2 nhờ hiệu suất vượt trội và chi phí thấp hơn đáng kể.

#AI #OpenSource #SiliconValley #TechNews #LLM #TríTuệNhânTạo #MãNguồnMở #ThungLũngSilicon #CôngNghệ #MôHìnhNgônNgữLớn

reddit.com/r/LocalLLaMA/commen

2025-10-12

Nghiên cứu mới chỉ ra "Trọng lượng Ngữ cảnh" (PCW) - độ phức tạp và mật độ khái niệm của thông tin - là yếu tố giới hạn chính cho các mô hình ngôn ngữ lớn (LLM), chứ không chỉ số lượng token. Gemini 2.5 Pro gặp lỗi "Bão ngữ cảnh" chỉ sau 30.000 token với nội dung triết học sâu sắc. PCW quan trọng hơn độ dài văn bản trong việc xác định tải trọng nhận thức của mô hình.
#AI #LLM #ContextWindow #Research #PCW #Gemini #TríTuệNhânTạo #MôHìnhNgônNgữLớn #NghiênCứuAI #NgữCảnh

reddit.com/r/Lo

2025-10-12

Các nhà nghiên cứu Stanford ra mắt AgentFlow (thuật toán Flow-GRPO)! Mô hình 7B này được báo cáo vượt trội so với GPT-4o 200B. Một bước tiến lớn về hiệu quả AI!
#AI #AgentFlow #Stanford #GPT4o #LLM #MachineLearning #Efficiency
#TríTuệNhânTạo #MôHìnhNgônNgữLớn #HiệuQuảAI

reddit.com/r/LocalLLaMA/commen

2025-10-12

"GPU Poor LLM Arena" đã trở lại! Nền tảng thử nghiệm LLM dành cho GPU yếu nay có thêm các mẫu mới: Granite 4.0 (Small, Tiny, Micro), Qwen 3 (4B, 30B), OpenAI gpt-oss. Lưu ý một số mẫu lớn có thể yêu cầu cấu hình cao hơn. Các mẫu sử dụng định dạng Unsloth GGUFs tối ưu.

#LLM #GPU #AI #LocalLLaMA #NLP #Arena #DeepLearning #TríTuệNhânTạo #HọcSâu #MôHìnhNgônNgữLớn

reddit.com/r/LocalLLaMA/commen

2025-10-12

LLM-JEPA: Phương pháp đào tạo LLM mới, áp dụng kiến trúc JEPA từ thị giác máy tính, đã ra đời! Nó giúp các Mô hình Ngôn ngữ Lớn vượt trội hơn đáng kể so với đào tạo tiêu chuẩn và chống overfitting hiệu quả, được kiểm chứng trên Llama3, Gemma2... Tuy nhiên, cần lưu ý về 2 siêu tham số bổ sung và chi phí tính toán tăng gấp đôi.
#LLM #JEPA #AI #DeepLearning #MachineLearning #MôHìnhNgônNgữLớn #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

2025-10-12

Nghiên cứu mới giới thiệu LLM-JEPA, kết hợp LLM với kiến trúc dự đoán nhúng chung (JEPA) từ thị giác máy tính. Phương pháp này cải thiện đáng kể quá trình huấn luyện LLM, giúp chúng hoạt động hiệu quả hơn và chống overfitting. LLM-JEPA áp dụng cho cả pretraining và finetuning, mở ra tiềm năng lớn cho phát triển AI.
#LLM #AI #DeepLearning #Research #MachineLearning
#MôHìnhNgônNgữLớn #TríTuệNhânTạo #HọcSâu #NghiênCứu

reddit.com/r/LocalLLaMA/commen

2025-10-11

Claude Sonnet 4.5 đã thể hiện sự cải thiện đáng kể trong đánh giá Vending-Bench, vượt qua Opus 4.0 về giá trị ròng trung bình và số lượng đơn vị bán được. Một bước tiến lớn cho AI!

#Claude #Sonnet45 #Opus40 #AI #VendingBench #Anthropic #LLM #TríTuệNhânTạo #MôHìnhNgônNgữLớn

reddit.com/r/singularity/comme

2025-10-10

"gpt-oss-amd" - Một triển khai C++ thuần túy cho các mô hình GPT-OSS của OpenAI, tối ưu hóa hiệu suất suy luận trên GPU AMD. Đạt tới 30.000 TPS (20B) và gần 10.000 TPS (120B) trên 8x AMD MI250. Điều này mở ra tiềm năng lớn cho GPU AMD trong suy luận LLM quy mô lớn!
#GPTOSS #AMD #LLM #AI #DeepLearning #GPU #TríTuệNhânTạo #MôHìnhNgônNgữLớn

reddit.com/r/LocalLLaMA/commen

2025-10-05

Mô hình Qwen3-VL-30B-A3B GGUF với hỗ trợ thị giác đã ra mắt! Kèm theo bản vá llama.cpp để triển khai. Đây là nỗ lực đầu tiên của tác giả, mang đến khả năng xử lý đa phương thức cho cộng đồng AI.
#AI #LLM #Qwen3VL #GGUF #llamaCPP #VisionAI #MôHìnhNgônNgữLớn #TríTuệNhânTạo #HỗTrợThịGiác

reddit.com/r/LocalLLaMA/commen

2025-10-05

Một người dùng đang tìm kiếm các mô hình ngôn ngữ lớn (LLM) chạy cục bộ hiệu quả cho lập trình C++/Python, trên cấu hình 32GB VRAM và 64GB RAM. Đã thử gpt-oss 20B (gặp lỗi lặp) và GLM 4.5 Air (quá chậm). Người này đang hỏi về OpenCode và Qwen 3 Coder, hy vọng tìm được mô hình tốc độ tốt cho phân tích code lớn.

#LLM #AI #LocalLLM #VRAM #Coding #Cplusplus #Python #Tech #MôHìnhNgônNgữLớn #TríTuệNhânTạo #LậpTrình #CôngNghệ

reddit.com/r/LocalLLaMA/commen

2025-10-05

So sánh Qwen3-VL-30B-A3B-Instruct và Qwen2.5-VL-72B. Hiện tại, Qwen2.5-VL-72B (lớn hơn) lại chạy nhanh và hiệu quả hơn do có hỗ trợ GGUF. Qwen3-VL-30B (nhỏ hơn) đang gặp khó khăn về VRAM và tốc độ vì thiếu GGUF. Khuyên dùng Qwen2.5-VL-72B cho đến khi Qwen3-VL có GGUF.
#AI #LLM #Qwen #VisionLanguage #LocalAI #MachineLearning
#TríTuệNhânTạo #HọcMáy #MôHìnhNgônNgữLớn #QwenVL

reddit.com/r/LocalLLaMA/commen

2025-09-18

Nghiên cứu mới từ arXiv cho thấy các mô hình ngôn ngữ lớn (LLM) đang trở nên quá thận trọng, dẫn đến hậu quả nghiêm trọng như từ chối trả lời các câu hỏi hợp lý. Qwen thể hiện tốt nhất (ít thận trọng nhất), trong khi Gemini kém nhất. Điều này ảnh hưởng lớn đến ứng dụng AI thực tế.

#AI #LLM #Qwen #Gemini #TríTuệNhânTạo #MôHìnhNgônNgữLớn #ThậnTrọngQuáMức

reddit.com/r/LocalLLaMA/commen

2025-09-17

InclusionAI vừa phát hành Ling Flash-2.0, một mô hình ngôn ngữ với tổng cộng 100 tỷ tham số và 6.1 tỷ tham số kích hoạt (4.8 tỷ không tính embedding). Đây là phiên bản nâng cấp mạnh mẽ cho cộng đồng AI mã nguồn mở!

#AI #LLM #LingFlash #TríTuệNhânTạo #MôHìnhNgônNgữLớn

reddit.com/r/LocalLLaMA/commen

2025-08-20

GPT-OSS là gì? Khám phá mô hình AI mở nguồn đột phá

GPT-OSS là gì? Khám phá mô hình AI mở nguồn đột phá Ngày 6 tháng 8 năm 2025 đánh dấu một cột mốc quan trọng trong lịch sử trí tuệ nhân tạo khi Open chính thức công bố GPT-OSS, một mô hình ngôn ngữ lớn (LLM) mã nguồn mở.

bietduoc.io.vn/2025/08/20/gpt-

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst