#onprem

2026-01-24

🛠️ Đã xây dựng dịch vụ JSON→PDF on‑prem bằng Java. Sản xuất ~100k PDF trong 24h, mục tiêu lên tới ~1M/ngày với phần cứng tốt. Mời mọi người thảo luận cách tối ưu quy mô, rate‑limiting vs burst, kiến trúc khác. #Java #PDF #OnPrem #SelfHosted #Tech #CôngNghệ #PDF #Java #OnPrem

reddit.com/r/selfhosted/commen

2026-01-23

Công ty muốn triển khai AI coding assistant nội bộ cho ~300 lập trình viên, yêu cầu LLM chạy on‑premise vì bảo mật. Đang cân nhắc Qwen‑3‑Coder‑32B hoặc mô hình lớn hơn đã quantize. Cần hạ tầng GPU mạnh (ví dụ 8×A100/RTX‑4090), VRAM đủ, interconnect tốc độ cao, SSD nhanh, mạng nội bộ ổn định, backup & bảo mật dữ liệu. #AI #CodingAssistant #OnPrem #LLM #MachineLearning #CôngNghệ #LậpTrình #AIinVietnam #DevOps #KỹThuật

reddit.com/r/LocalLLaMA/commen

2026-01-22

Как мы стандартизировали SaaS-внедрение HR-платформы Skillaz

У многих компаний, которые создают облачные SaaS-решения, рано или поздно может возникнуть запрос от пользователей: «Можно ли поставить ваш продукт у нас на собственной инфраструктуре?», то есть появляется запрос на on-prem версию. Но не каждый SaaS-продукт сразу готов к такому сценарию: чтобы он работал у клиента, его нужно корректно внедрить в инфраструктуру заказчика. С таким вопросом столкнулась и компания Skillaz , которая предоставляет HR-платформу для автоматизации управления персоналом. Мы подключились к Skillaz, чтобы помочь выстроить этот процесс — от инфраструктурной части до организационной. Ниже мы расскажем, как формируется внедрение на железе клиента, а не в привычных и удобных для подобных развертываний облаках. А также о том, как мы вместе превращали эти внедрения в воспроизводимый и управляемый сценарий.

habr.com/ru/companies/itsumma/

#onprem #собственные_сервера #переезд_инфраструктуры #бэкэнд #skillaz #ITSumma #saas_услуги

2026-01-19

От железа к облаку и обратно — кейсы миграции

Эта статья — не про то, что «облако плохо» или «дедики устарели», а про реальные кейсы с проверенными цифрами, где компании принимали решение о миграции, считали экономику процесса и делились результатами публично. Попробуем разобраться, что они узнали на собственном опыте.

habr.com/ru/companies/hostkey/

#hostkey #миграция #облако #гибрид #экономия #Kubernetes #serverless #GDPR #onprem

Markus Herhofferd135_1r43
2026-01-08

Bisschen late to the party, aber dennoch: Ich freue mich auf die erste echte LLM-Inference mit unserem neuen .

2026-01-05

On-prem or cloud? Choosing a SIEM deployment isn’t just about technology. It’s about control, compliance, scale, and operational reality. Learn how to match your SIEM deployment model to your environment, whether that’s on-prem, cloud, or hybrid.

#SIEM #LogManagement #CloudSecurity #OnPrem #HybridSecurity

graylog.org/post/cloud-vs-on-p

2026-01-01

Chúng tôi đã xây dựng một hệ thống ERP/CRM tại chỗ (on-prem) tích hợp OCR, chạy mượt trên máy cấu hình thấp — không cần GPU mạnh, không tốn phí cloud. OCR xử lý nhanh, tiết kiệm tài nguyên nhờ tối ưu thuật toán. Hệ thống gọn nhẹ, an toàn dữ liệu, phù hợp doanh nghiệp vừa và nhỏ. Đang ở giai đoạn MVP – cần phản hồi chân thật: Bạn có dùng thử không? Cần thêm tính năng gì? #ERP #CRM #OCR #OnPrem #TechVietnam #Software #Startup #MVP

reddit.com/r/SaaS/comments/1q1

2026-01-01

Chúng tôi đã phát triển hệ thống ERP/CRM cài đặt tại chỗ (on-prem) tích hợp OCR, chạy mượt trên PC cấu hình thấp – không cần GPU mạnh hay đám mây. OCR xử lý nhanh, tiết kiệm chi phí, dữ liệu bảo mật tuyệt đối. Ứng dụng ở giai đoạn MVP, chưa phải sản phẩm hoàn chỉnh. Cần góp ý từ bạn: liệu bạn có quan tâm dùng thử? Tính năng mong đợi là gì? #ERP #CRM #OCR #TechVietnam #Software #OnPrem #LowCode #CôngNghệ

reddit.com/r/SaaS/comments/1q1

Good Morning Dear Good Fellows. Even #CloudAct and #CivilWar #Trump. I trust in the brave mindset of #signal and #bluesky #doctorow. Today is the last day of #39c3, so I re:start my R5 of a nice #100DaysofCode Chapter. Focus: #Design, #Rust, #OnPrem & #CrowdCloud, #OSPO, #GameDev, #Funding, #NGO

CodeFreezR (he/him)CodeFreezR@chaos.social
2025-12-28

Openmates.org ... hmm das klingt spannend.. Irgendwas mit #KI #AI ... #OnPrem LLM? Ich versuchs gerade zu verstehen, aber die Folien fliegen grad n bissel wild hin und her...

Ah von #glowingkitty Leider nur auf #github.... Vielleicht bald auf #codeberg?

\__
#lightningTalk #39c3 @C3_LightningTLK

2025-12-10
#ProxLB start supporting #Proxmox's native HA rules (affinity/anti-affinity) with release 1.1.11.

This way, you can simply use the built-in rules via the interface, but still use enhanced rules via ProxLB by tags or pools (even for non HA VMs/CTs). This feature was already requested a long time ago and get's now streamlined over all ways, ensuring we can balance our VMs (and CTs) across the nodes with and even without any configured HA objects - fully flexible to your needs!

Requirements:
* Proxmox 9.x
* ProxLB 1.1.11

Version 1.1.11 is expected to be released by the end of this or within the upcoming week; depending on my spare time.

PS: Keep in mind, tomorrow starts our "Virtualization Gathering" at @credativde@mastodon.social and I'm providing a talk about my @BoxyBSD@bsd.cafe project where I tell you a bit more about the infrastrucutre/hypervisors (due to the limited time only very high level)! Feel free to join, it's free!

Tags: #opensource #PVE #homelab #enterprise #vmware #virtualization #cloud #onprem #kvm #pve #resourcescheduler #loadbalancer #loadbalancing #drs

https://github.com/gyptazy/ProxLB/issues/391

2025-12-05

Một người dùng đang triển khai Open WebUI + Ollama (gpt-oss:120b) nội bộ, nhắm mục tiêu 100 người dùng đồng thời. Họ gặp vấn đề hiệu suất chậm với card RTX 6000 và đang tìm lời khuyên về tính khả thi, các tối ưu hóa cần thiết (lượng tử hóa, giới hạn ngữ cảnh) và cách triển khai TLS 1.2.

#AI #Ollama #OpenWebUI #OnPrem #LLM #Performance #Tech #TríTuệNhânTạo #HệThốngNộiBộ #HiệuSuất

reddit.com/r/LocalLLaMA/commen

2025-11-24

So sánh AMD AI Max+ 395: ROG Flow Z13 (64GB) vs Framework Desktop (128GB) cho On-Prem LLM Inference. Cần giúp đỡ để quyết định giữa 2 tùy chọn #AMD #AIMax #LLM #OnPrem #ROGFlowZ13 #FrameworkDesktop #TríTuệNhânTạo #ArtificialIntelligence #MáyTính #Computer

reddit.com/r/LocalLLaMA/commen

2025-11-24

Как выбрать между облаком, арендой GPU и своим железом для LLM-систем

В этой статье разберём, во сколько обходится LLM-сервис при нагрузке в 100 000 диалогов в день и где проходит граница окупаемости разных вариантов. Посмотрим на стоимость облачных API, аренды GPU и собственного железа, а заодно прикинем, какая инфраструктура нужна, чтобы всё это выдержало боевой трафик.

habr.com/ru/articles/969828/

#LLMсервис #GPT4omini #Qwen2532BInstruct #облачные_API #аренда_GPU #видеокарты_A100 #onprem #LLM #ИИ #AI

Explore on-prem maps in 3 simple steps! We’ve made it super easy to host the amazing #maps you can download for your on-prem applications. Just follow the steps that appear when you are downloading your maps. Find out more via the link in the first reply! #OnPrem #SelfHosting

Abimelech B. 🐧🇩🇪| wörk ™️abimelechbeutelbilch@fulda.social
2025-10-28

@GossiTheDog But why? Because #microsoft wants all #onprem #exchange gone into the #cloud and doesn't supply any updates anymore? 🤷🏻‍♂️😵‍💫😳🤬

JKN Techjkntech
2025-10-17

Where will you be when the bursts?

JKN Media & Technology will be here to clean up the mess.
- Decades of experience building actual servers and applications with our hands
- Marketing and PR campaigns to blame someone else and rebuild public trust

Order now and secure your business sustainability, with pre-Collapse discounts!

lobo :nix_snowflake_logo:lobocode@hachyderm.io
2025-10-10

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst