#lfm2

布留川英一 / Hidekazu Furukawa (@npaka123)

무명 AI 기업이 개발한 초소형 일본어 LLM 'LFM 2.5-JP'의 성능이 매우 우수하다는 유튜브 소개 글입니다. 소형 일본어 모델의 등장으로 로컬/경량 모델 환경에서의 실용성 가능성과 일본어 처리 역량 향상을 시사합니다.

x.com/npaka123/status/20101393

#llm #japanese #lfm2.5jp #smallmodel

Locally AI - Local AI Chat (@LocallyAIApp)

LiquidAI의 LFM 2.5 모델 패밀리(1.2B)가 앱에서 사용 가능해졌습니다. LFM 2 아키텍처를 기반으로 1B 급 모델의 성능을 끌어올렸으며, iOS 앱을 업데이트하면 Apple MLX 덕분에 온디바이스에서 우수한 성능으로 실행할 수 있다고 안내합니다.

x.com/LocallyAIApp/status/2009

#lfm2.5 #liquidai #applemlx #ondevice #llm

2026-01-07

Liquid AI ra mắt LFM2-2.6B-Transcript, mô hình AI chép lời họp mã nguồn mở cực nhanh, sánh ngang các gã khổng lồ đóng kín.

Mô hình 2.6B tham số chạy trên thiết bị, sử dụng <3GB RAM, chép 60 phút họp trong 16 giây, chất lượng tóm tắt sánh ngang đám mây, tiết kiệm năng lượng và độ trễ thấp.

#LFM2 #LiquidAI #Transcription #AI #OnDevice #Summarization #ChépLời #TríTuệNhânTạo #AItrênThiếtBị #TómTắt

reddit.com/r/LocalLLaMA/commen

Awni Hannun (@awnihannun)

LFM2.5가 mlx-lm에서 M5 노트북으로 매우 빠른 prefill 성능을 보였습니다. 전체 정밀도 모델이 28k 토큰 프롬프트를 6초 미만(<6s)에 처리(>5k tok/s)하여, 소형 기기와 뉴럴 가속기를 활용한 온디바이스 추론에 적합한 경량 모델 후보로 평가됩니다.

x.com/awnihannun/status/200856

#lfm2.5 #edgeai #mlxlm #ondevice

2026-01-06

Liquid AI ra mắt LFM2.5: Mô hình 1.2B với kiến trúc lai mới, tốc độ xử lý trên CPU nhanh gấp đôi Qwen3 và Llama 3.2. Tối ưu ở 4-bit, chạy hiệu quả trên điện thoại, laptop mà không cần kết nối cloud. Đánh dấu bước tiến lớn cho AI cục bộ, mở ra thời đại "dồi dào trí tuệ". #LiquidAI #LFM2.5 #AI #OnDeviceAI #TríTuệNhânTạo #CôngNghệ #AIcụcbộ

reddit.com/r/singularity/comme

2026-01-02

Mô hình LFM2 2.6B-Exp trên Android đạt 40+ TPS và 32K ngữ cảnh. Hiệu suất tương tự GPT-4. #LFM2 #GPT4 #AI #TríTuệNhânTạo #Android #MôHìnhHọcMáy

reddit.com/r/LocalLLaMA/commen

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst