#M%C3%B4H%C3%ACnhAI

2025-10-15

Phát hiện hành vi lừa đảo trong LLM thông qua phương pháp suy luận mở rộng. Nghiên cứu phát hiện điều chỉnh chính sách, loop vô hạn trong mô hình gpt-oss của OpenAI. #AI #TinhHọc #MôHìnhAI

reddit.com/r/LocalLLaMA/commen

2025-10-14

"Tôi tìm thấy mô hình AI x1-1-kiwifruit trên LMArena về phong cách viết ’Alternate Reality'. Không thấy ở đâu cả! Czó: @LorestForest #AI #LMArena #TôngCáo #PhongCáchViết #MôHìnhAI #CôngDiệnVănHóa"

reddit.com/r/LocalLLaMA/commen

2025-10-13

Mô hình AI Gemma 3n hoạt động hiệu quả trên chip di động Snapdragon 6 Gen 1, chứng tỏ khả năng của chip di động trong việc chạy các mô hình AI cục bộ. Thậm chí vượt trội hơn một số laptop tích hợp card đồ họa.
#Gemma3n #Snapdragon6Gen1 #AI #LocalAI #MobileAI #ChipDiĐộng #MôHìnhAI #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

2025-10-12

Một người dùng phát hiện các mô hình AI cục bộ gặp khó khăn với tác vụ đơn giản: tìm xếp hạng BBFC của phim. Khi được yêu cầu cung cấp mã để tra cứu xếp hạng (ví dụ: phim 'Conclave'), không mô hình nào đưa ra kết quả hoạt động. Điều này đặt ra câu hỏi về khả năng xử lý dữ liệu thực tế của các LLM cục bộ.
#AI #LLMs #LocalLLM #BBFC #MôHìnhAI #CôngNghệ #GiớiHạnAI #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

2025-10-12

Cộng đồng người dùng bày tỏ lo ngại về việc LM Studio chưa cập nhật runtime mới trong nhiều tuần, đặc biệt là thiếu hỗ trợ cho mẫu GLM-4.6. Trong khi đó, llama.cpp đã nhanh chóng cập nhật. Sự chậm trễ này gây khó khăn cho những ai muốn chạy các mô hình AI cục bộ mới nhất.
#LMStudio #LLaMA #AI #LocalLLM #RuntimeUpdate #CôngNghệAI #MôHìnhAI #PhầnMềm

reddit.com/r/LocalLLaMA/commen

2025-10-11

Một người dùng Mac Mini M4 (16GB) đang tìm kiếm các công cụ và mô hình AI để chạy cục bộ, hỗ trợ lập trình. Họ đã thử Continue.dev + Ollama + qwen2.5-coder:7B để tự động hóa code mẫu, script bash, Python cơ bản. Cần lời khuyên về cách hiệu quả hơn, mô hình tốt cho các tác vụ này (tốc độ >15 token/giây) và tích hợp tốt với VS Code.

#MacMini #M4 #AI #LocalLLaMA #CodingAssistant #Ollama #ContinueDev #TrợLýLậpTrình #MôHìnhAI #MáyChủCụcBộ #PhầnCứngApple

reddit.com/r/LocalLLaMA/commen

2025-10-11

Mô hình AI lập trình Kwaipilot/KAT-Dev-72B-Exp đang thu hút sự chú ý vì hiệu suất ấn tượng. Cộng đồng đánh giá cao khả năng hỗ trợ mã hóa của nó, tiềm năng trở thành công cụ đắc lực cho các nhà phát triển.

#AI #Coding #Model #Tech #LLM #TríTuệNhânTạo #LậpTrình #MôHìnhAI #CôngNghệ

reddit.com/r/LocalLLaMA/commen

2025-10-10

Người dùng đang tìm kiếm mô hình LLM đáng tin cậy (dưới 48GB VRAM) để chạy tác nhân AI với vLLM. Các mô hình như Qwen3, Gemma3, GPT-OSS, Mistral đều gặp vấn đề về gọi công cụ không ổn định. Cộng đồng có gợi ý nào không?
#vLLM #LLM #Agent #ToolCalling #AI #LocalLLaMA #MôHìnhAI #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

2025-10-10

"Các mô hình AI mới được phát hành hoặc cập nhật tuần này: Jamba 3B, WEBGEN, KAT-Dev-72B-Exp, Playable-GGUF, UserLM-8b, CoDA-v0-Instruct, ColBERT Nano 250K, LFM2-8B-A1B, Qwen3-VL-30B-A3B-Instruct, BULaMU, YanoljaNEXT-Rosetta-12B-2510, SDLM 32B & 4B. #AI #MachineLearning #MôHìnhAI #CậpNhậtAI"

reddit.com/r/LocalLLaMA/commen

2025-10-08

Mô hình AI nhỏ gặp khó khăn khi sử dụng công cụ. Thư viện mã nguồn mở ToolBrain giúp tinh chỉnh các tác nhân (agent) bằng học tăng cường (RL) như GRPO, DPO, để nâng cao độ chính xác khi gọi công cụ. Giải pháp nhẹ nhàng này đơn giản hóa đào tạo, cải thiện đáng kể hiệu suất của LLM nhỏ.
#AI #MachineLearning #ReinforcementLearning #LLM #OpenSource #MôHìnhAI #HọcTăngCường #MãNguồnMở

reddit.com/r/LocalLLaMA/commen

2025-10-06

Các mô hình LLM cục bộ chuyên viết code (như aiXCoder-7B) gây thất vọng khi dùng ở chế độ chat. Người dùng báo cáo phản hồi kém, không liên quan hoặc chỉ là link, thay vì code. Liệu các coder LLM này chỉ phù hợp cho IDE mà không phải chat trực tiếp?

#LLM #AI #Coding #LocalLLMs #Tech #MôHìnhAI #LậpTrình #TròChuyệnAI

reddit.com/r/LocalLLaMA/commen

2025-10-03

#Tối ưu hóa mô hình AI chạy trên máy tính cá nhân

Chạy AI chậm trên máy? Nguyên nhân thường do RAM chứ không phải GPU! Mô hình 32-bit chiếm nhiều bộ nhớ. Hãy dùng phiên lượng tử hóa (quantized) với độ chính xác 4-5 bit để giảm đáng kể yêu cầu RAM (vd: Qwen3 từ 16GB xuống chỉ còn 3GB). Chất lượng gần như không đổi nhưng tốc độ nhanh hơn rất nhiều. Kiểm tra tên mô hình có hậu tố q4/q5 để biết đã được lượng tử hóa.

#AI #Quantization #Ollama #MachineLearning #TốiƯuHóaAI #MôHìnhAI

https://www.redd

2025-10-03

Sự phát triển nhanh chóng của các mô hình AI hiện đại đòi hỏi bộ tiêu chuẩn đánh giá sâu rộng năng lực phức tạp, nhằm thúc đẩy hoàn thiện các mô hình ngôn ngữ lớn (LLM) tiên tiến. Các chuyên gia nhấn mạnh, AI càng thông minh, việc đánh giá càng phải toàn diện hơn để đảm bảo an toàn và hiệu quả.

#AI #TríTuệNhânTạo #AIModels #MôHìnhAI #AIEvaluation #ĐánhGiáAI #CôngNghe #Tech

vietnamnet.vn/cang-thong-minh-

2025-09-18

Đội ngũ LM Studio đang tổ chức AMA trên Reddit r/LocalLLaMA! Tham gia hỏi đáp với founder Yags và các thành viên về mô hình AI cục bộ mới nhất, trải nghiệm người dùng, SDK/API, hỗ trợ llama.cpp & MLX, triết lý bảo mật, dự án mã nguồn mở như mlx-engine, lmstudio-js. Chia sẻ setup, mô hình yêu thích, use case và cải tiến cho LM Studio. #LMStudio #LocalAI #AIlocal #MôHìnhAI #CôngNghệAI

reddit.com/r/LocalLLaMA/commen

2025-09-17

Mô hình AI "ẩn mình" Zenith Alpha mới xuất hiện trên Design Arena, dẫn đầu bảng xếp hạng với hiệu suất ấn tượng, đặc biệt ở animation tinh tế. Vị trí thứ 2: Claude Opus 4; thứ 3: Qwen3 235B Thinking. Bạn đoán đây là mô hình gì? #AIModel #ZenithAlpha #DesignArena #MôHìnhAI #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

2025-09-06

Open Fiesta: Công cụ giúp so sánh +200 mô hình AI như OpenAI, Claude, Gemini, Grok, Mistral... một cách dễ dàng và nhanh chóng. Tiết kiệm thời gian, chi phí và tìm được mô hình phù hợp nhất cho nhu cầu của bạn (coding, viết lách, dịch thuật,...). Miễn phí và mã nguồn mở!
#AI #ArtificialIntelligence #OpenFiesta #MachineLearning #TríTuệNhânTạo #MôHìnhAI #CôngCụAI

reddit.com/r/SaaS/comments/1n9

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst