#languageModel

2023-03-29

Artificial Intelligence and Film Studies: Midjourney versus CAMELS

CAMELS? As an English teacher, I’ve done a lot of analytical film studies over the years. The biggest problem is always students’ grasp of technical language: film analysis tends to drift off into character and plot description, even more so than for written texts. So, when I teach film, I lean more into my Media Studies background. In the UK I completed my undergrad in English and American Literatures. When I trained to teach, it was in English, Media, and Drama. Then, when I first […]

leonfurze.com/2023/03/29/artif

Kilo (@kilocode)

Kilo Coders 커뮤니티(혹은 그룹)에서 최신 모델 GLM-5-Turbo에 큰 호응을 보이고 있다는 소식입니다. 출시 직후부터 KiloClaw 내에서 선두주자로 자리잡으며 주목받고 있다는 내용으로, GLM-5-Turbo의 초기 채택과 트렌드 형성을 알리는 발표성 트윗입니다.

x.com/kilocode/status/20335452

#glm5turbo #glm #ai #languagemodel

Chetaslua (@chetaslua)

MiniMax M2.5가 가격의 1/10 수준에서 모든 모델보다 우수하다는 강한 주장. MiniMax(약 10B 활성 파라미터)의 가성비와 성능 우수성을 강조하며, Opus 4.5와 4.6 비교를 언급하는 내용이다.

x.com/chetaslua/status/2027804

#minimax #languagemodel #modelcomparison #aibenchmarks

N-gated Hacker Newsngate
2026-02-24

🤔 Oh, look—a language model that can supposedly explain itself! Because clearly, what we needed was a robot that can eloquently justify its own nonsensical ramblings. 🚀 Trained on a modest 1.35 trillion tokens, because who needs a life when you can count to a trillion! 😂
guidelabs.ai/post/steerling-8b

Hacker Newsh4ckernews
2026-02-24

Awni Hannun (@awnihannun)

'Recursive LM' 논문 관련 추가 논의에서 핵심은 프롬프트를 세분화해 하위 LLM들이 각각 부분 작업을 수행하고 결과를 통합하는 재귀적 구조라는 점이 강조됩니다. 또한 LLM에 REPL을 제공하여 코드 실행과 같은 상호작용을 가능하게 하는 부분이 주요한 혁신 포인트로 언급됩니다.

x.com/awnihannun/status/202529

#llm #repl #rlm #languagemodel #research

Nick Byrd, Ph.D.ByrdNick@nerdculture.de
2026-02-18

#AI #Education experiments can be great, if careful.

A 6-week #writing course gave one group an in-person instructor and the other group a #languageModel.

But the AI group accessed the #LLM *during* the pre-test?

Shouldn’t baseline conditions be equal?

doi.org/10.1007/s44217-026-011

Overview of the quasi-experimentHow writing assignments were scored: two independent, trained graders.The appendix shows that the experimental group (EG) had access to AI during the pre-test, but the control group (CG) did not. So the pre-test or baseline measurement was not identical.The results show more improvement in the AI group and the control group, but one has to wonder if the AI group may have improved more if their pre-test/baseline score could not have been inflated by access to AI.

TestingCatalog News (@testingcatalog)

트윗에 따르면 Z AI가 2월 중으로 GLM-5를 공개할 가능성이 제기되었습니다. 확정 발표는 아니며 출시 시기 관련 루머 수준의 정보로 모델 출시 예정 소식에 대한 예비 알림입니다.

x.com/testingcatalog/status/20

#glm5 #languagemodel #zai

Nick Byrd, Ph.D.ByrdNick@nerdculture.de
2026-01-23

Can Socratic reflection improve #AI answers to medical questions?

Adding a critic to a #languageModel pipeline improved performance on two measures of medical question-answering.

The improvement didn't depend on the critic's model.

doi.org/10.48550/arXiv.2601.04

#tech #medicine #edu

"As illustrated in Fig 1, the system follows a loop that mirrors how clinicians gather evidence, generate a provisional explanation, and reassess whether their reasoning is sufficiently supported. At each iteration, the model retrieves context passages, produces an answer and r ationale, then evaluates that rationale through a scoring module. If parts of the rationale are unsupported or contradictory, the system reformulates the query to target missing information and repeats retrieval and generation. This reflection cycle allows Self MedRAG to progressively strengthen factual grounding while ensuring that the final answer and rationale remain clinically coherent, and evidence based.""Medical question answering (QA) benchmarks evaluate a model’s ability to generate clinically reliable, evidence-grounded responses. Widely used datasets include MedQA for diagnostic reasoning from medical exams [and] PubMedQA for evidence-based biomedical inference over research abstracts....""The results presented in Table 1. demonstrate the performance trends across retrieval strategies and critic configurations. For Base RAG methods, hybrid retrieval using the combination of both BM25 and Contriever using Reciprocal Rank Fusion (RRF) achieves substantially stronger performan ce than any single retriever on both PubMedQA and MedQA dataset. While BM25 and Contriever individually reach accuracies of 66.80% and 67.90% on PubMedQA, their fusion through RRF slightly increases their performance accuracy to 69.10 %. The effect is more pronounced on MedQA, where the method introduces a large jump of performance from 41.74% (BM25 alone) and 43.30% (Contriever alone) to 80.00% accuracy. This dramatic improvement proves that the fused retrieval using RRF provides broader coverage of clinically relevant evidence by integrating both high precision lexical signals from BM25 and semantically aligned passages recovered by Contriever.""...both critics surpass the non -critic, non-itera baseline, demonstrating that the improve in performance is due to the iteration mechanism itself, rather than the specific critic choice."

"Fig 3 details the cumulative impact of the iterative process done on Self Reflective module for both accuracy and F1 scores. We observe a substantial performance leap between the first and second iterations across both datasets, with MedQA accuracy rising from 79.3% to 86.1% and PubMedQA from 69.8% to 83.3%. The upward trend confirms the potential performance gains done by the Self-Reflective module in identifying and correcting unsupported rationales. Extending the process to a third iteration, however, seems to result in a diminishing return, with performance either plateauing for PubMedQA or slightly declining for MedQA."
2026-01-15

🧠 LFM 2.5 (~1B) gây ấn tượng! Hiệu năng sánh ngang 3‑8B, ổn trong QA, tóm tắt và thậm chí tiếng Bồ Đào Nha dù chưa hỗ trợ chính thức. Không còn lỗi vòng lặp hay quên facts cơ bản. Đánh giá: giữa LLaMA‑2 7B và LLaMA‑3 8B. Hãy thử Q6, kết quả xuất sắc! #AI #MachineLearning #LFM #LanguageModel #CôngNghệ #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

N-gated Hacker Newsngate
2026-01-12

🚀 Oh wow, a Language Model stuck in the Victorian Era! 🕰️ Just what we needed: an AI that can't understand electricity, let alone the Internet 🌐. Next, they'll train one on cave paintings! 😜
github.com/haykgrigo3/TimeCaps

2026-01-05

Mô hình ngôn ngữ Bielik-11B-v3.0-Instruct với 11 tỷ tham số, được tinh chỉnh hướng dẫn, phát triển bởi SpeakLeash và ACK Cyfronet AGH. Được huấn luyện trên 32 ngôn ngữ châu Âu, tập trung vào tiếng Ba Lan, sử dụng cơ sở hạ tầng tính toán quy mô lớn tại Ba Lan. Khả dụng trên Hugging Face và hỗ trợ GGUF. #AI #LanguageModel #Bielik #SpeakLeash #HPC #TríTuệNhânTạo #MôHìnhNgônNgữ #AIĐịaPhương

reddit.com/r/LocalLLaMA/commen

2025-12-31

Một mô hình ngôn ngữ mở lớn khác từ Hàn Quốc sắp được phát hành vào ngày 4 tháng 1 năm 2026, có tên A.X K1 của SK Telecom (SK Hynix). Hiện chưa có thông tin về trọng lượng hoặc hiệu suất của mô hình này.

#MôHìnhNgônNgữ #HànQuốc #SKTelecom #TríTuệNhânTạo #AIXK1 #MôHìnhMở

#ArtificialIntelligence #OpenModel #LanguageModel #SKHynix #KoreaTech #NewRelease #AIModel

reddit.com/r/LocalLLaMA/commen

2025-12-29

Công ty chúng tôi đã xuất hiện trong kết quả của ChatGPT, Claude và Grok. Bí quyết là tối ưu hóa mô hình ngôn ngữ (LMO), không chỉ SEO Google.

Những thay đổi chính:
🔹 Tham gia thảo luận trên Reddit, Quora, Medium.
🔹 Viết nội dung rõ ràng, tự nhiên, có Q&A.
🔹 Đăng bài nhằm vào AI记忆 (Memory).
🔹 Trả lời câu hỏi trước khi người dùng hỏi.

AI đang trở thành công cụ tìm kiếm mới. Hãy chuẩn bị!

#LMO #SEO #AI #ChatGPT #VietnamBusiness #MarketingOnline #Optimization #LanguageModel

https://www.redd

2025-12-29

**Title:** 21 ngày xây dựng mô hình ngôn ngữ nhỏ | Chúc Mừng Năm Mới 2024
**Content:**
Cảm ơn quý follower đã đồng hành suốt 21 ngày project. Truyện đọc video recap đầy hấp dẫn! Chúc một Chúc Mừng Năm Mới 2024 đầy niềm vui, hy vọng và định hướng Define cùng quý cộng đồng.
**Tags (English/Vietnamese):** #BuildingAI, #LanguageModel, #HappyNewYear, [Xây dựng AI], [Mô hình ngôn ngữ], [2024]

reddit.com/r/LocalLLaMA/commen

2025-11-26

Hyena Hierarchy: Mô hình ngôn ngữ đột phá với ngữ cảnh vô hạn, cơ chế chú ý toàn cục không cần attention-heads và không gian tiềm ẩn tối ưu, mang lại hiệu suất vượt trội. Một bước tiến đáng chú ý trong lĩnh vực AI!
#HyenaHierarchy #LanguageModel #AI #MachineLearning #MôHìnhNgônNgữ #TríTuệNhânTạo

reddit.com/r/SideProject/comme

2025-11-24

Fara-7B là mô hình ngôn ngữ nhỏ (SLM) của Microsoft, 7 tỷ tham số. Mô hình tiên tiến, nhỏ gọn, cạnh tranh với hệ thống lớn hơn. #Fara7B #MôHìnhNgônNgữ #TríTuệNhânTạo #AI #ArtificialIntelligence #LanguageModel

huggingface.co/microsoft/Fara-

2025-11-24

Công cụ PhantomTXT biến văn bản thông thường thành định dạng khó cho mô hình ngôn ngữ và scraper xử lý mà vẫn đọc được dễ dàng. Không theo dõi, không tài khoản, không lưu trữ. #PhantomTXT #NgônNgữThiênTin #AI #TríTuệNhânTạo #BảoMật #AnToànThôngTin #LanguageModel #TextProtection

i.redd.it/r5mjtuexb83g1.png

2025-11-24

Tìm kiếm mô hình ngôn ngữ dự đoán token tiếp theo thuần túy, không qua xử lý hậu đào tạo. Mô hình này dễ bị ảo giác, hiểu lầm ý định người dùng. #MôHìnhNgônNgữ #LanguageModel #NextTokenPredictor #DựĐoánTokenTiếpTheo #AI #TríTuệNhânTạo #ArtificialIntelligence

reddit.com/r/LocalLLaMA/commen

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst