布留川英一 / Hidekazu Furukawa (@npaka123)
무명 AI 기업이 개발한 초소형 일본어 LLM 'LFM 2.5-JP'의 성능이 매우 우수하다는 유튜브 소개 글입니다. 소형 일본어 모델의 등장으로 로컬/경량 모델 환경에서의 실용성 가능성과 일본어 처리 역량 향상을 시사합니다.
布留川英一 / Hidekazu Furukawa (@npaka123)
무명 AI 기업이 개발한 초소형 일본어 LLM 'LFM 2.5-JP'의 성능이 매우 우수하다는 유튜브 소개 글입니다. 소형 일본어 모델의 등장으로 로컬/경량 모델 환경에서의 실용성 가능성과 일본어 처리 역량 향상을 시사합니다.
Liquid AI ra mắt LFM2-2.6B-Transcript, mô hình AI chép lời họp mã nguồn mở cực nhanh, sánh ngang các gã khổng lồ đóng kín.
Mô hình 2.6B tham số chạy trên thiết bị, sử dụng <3GB RAM, chép 60 phút họp trong 16 giây, chất lượng tóm tắt sánh ngang đám mây, tiết kiệm năng lượng và độ trễ thấp.
#LFM2 #LiquidAI #Transcription #AI #OnDevice #Summarization #ChépLời #TríTuệNhânTạo #AItrênThiếtBị #TómTắt
https://www.reddit.com/r/LocalLLaMA/comments/1q6nm6a/liquid_ai_releases_lfm226btranscript_an/
Awni Hannun (@awnihannun)
LFM2.5가 mlx-lm에서 M5 노트북으로 매우 빠른 prefill 성능을 보였습니다. 전체 정밀도 모델이 28k 토큰 프롬프트를 6초 미만(<6s)에 처리(>5k tok/s)하여, 소형 기기와 뉴럴 가속기를 활용한 온디바이스 추론에 적합한 경량 모델 후보로 평가됩니다.
Liquid AI ra mắt LFM2.5: Mô hình 1.2B với kiến trúc lai mới, tốc độ xử lý trên CPU nhanh gấp đôi Qwen3 và Llama 3.2. Tối ưu ở 4-bit, chạy hiệu quả trên điện thoại, laptop mà không cần kết nối cloud. Đánh dấu bước tiến lớn cho AI cục bộ, mở ra thời đại "dồi dào trí tuệ". #LiquidAI #LFM2.5 #AI #OnDeviceAI #TríTuệNhânTạo #CôngNghệ #AIcụcbộ
https://www.reddit.com/r/singularity/comments/1q5b2gj/lfm25_released_liquid_ai_brings_frontiergrade/
Mô hình LFM2 2.6B-Exp trên Android đạt 40+ TPS và 32K ngữ cảnh. Hiệu suất tương tự GPT-4. #LFM2 #GPT4 #AI #TríTuệNhânTạo #Android #MôHìnhHọcMáy
https://www.reddit.com/r/LocalLLaMA/comments/1q1k9g3/lfm2_26bexp_on_android_40_tps_and_32k_context/