#open_source

Verfassungklage@troet.cafeVerfassungklage@troet.cafe
2025-12-13

#Big_Tech statt #OpenSource -

Der falsche Weg

Konzerne nutzen Big Tech zum Datenaustausch und folgen der Lobby. 2 #Bundesländer machen es besser. #Schleswig_Holstein und #BadenWürttemberg setzen auf #Open_source.

Ich finde es schade, wie gedankenlos viele große Konzerne sich komplett an Microsoft dranhängen. Hauptsache, alles läuft „aus einem Guss“, egal was das für Folgen hat.

gnulinux.ch/big-tech-statt-ope

2025-12-13

Что почитать: «вредные советы» для open source-контрибьюторов, штрафы за пентест и вопросы информационной безопасности

Подобрали примечательные материалы из хабраблога

habr.com/ru/companies/beeline_

#beeline_cloud #облако #open_source #копирайт #кибербезопасность #фишинг #облачная_инфраструктура #гайды_для_начинающих #личный_опыт #опыт_экспертов

2025-12-12

Zum Wochenende: Big Tech statt Open Source - Der falsche Weg

Konzerne nutzen Big Tech zum Datenaustausch und folgen der Lobby. 2 Bundesländer machen es besser. Schleswig-Holstein und Baden Württemberg setzen auf Open source

#openDesk #f13 #Open_Source #Linux

gnulinux.ch/big-tech-statt-ope

2025-12-10
 GNU/Linux.ch schrieb den folgenden Beitrag Wed, 10 Dec 2025 15:02:02 +0100 Privates Hobby - Mein eigenes Wetterradar

Mein Hobby, ein Wetterradar. Eigentlich nicht notwendig, aber möchte ausprobieren was so geht mit Open Source. Ich denke da ist noch Luft nach oben.

#Wetter #Wetterradar #Open_Source #Linux

https://gnulinux.ch/privates-hobby-mein-eigenes-wetterradar
2025-12-10

Privates Hobby - Mein eigenes Wetterradar

Mein Hobby, ein Wetterradar. Eigentlich nicht notwendig, aber möchte ausprobieren was so geht mit Open Source. Ich denke da ist noch Luft nach oben.

#Wetter #Wetterradar #Open_Source #Linux

gnulinux.ch/privates-hobby-mei

2025-12-09

Внедряем Gemini во все поля ввода Windows: Бесплатно, без смс и с обходом ограничений

Полгода назад 1500 бесплатных запросов в Gemini казались вечностью. Сегодня Google закрутил гайки, и лимиты улетают за час Я доработал свою Open Source утилиту на Python. В этой статье расскажу, как реализовать систему ротации API-ключей, чтобы получить «бесконечный» доступ к нейронке, как переключаться между моделями Gemini и Gemma на лету и внедрить AI-помощника прямо в буфер обмена Windows. Исходники и готовый билд — внутри. Посмотреть код

habr.com/ru/articles/974706/

#python #pyqt5 #google_gemini #api #llm #open_source #автоматизация #буфер_обмена #gemma3 #petproject

2025-12-08

Requestum 1.2.5: теги, политики устойчивости и встроенное логирование

Привет, Хабр! Около месяца назад я рассказывал о Requestum — CQRS-библиотеке для .NET, созданной как бесплатная альтернатива MediatR. После той публикации в комментариях многие справедливо спрашивали: «Зачем нужна ещё одна CQRS-библиотека? Есть же Mediator, Wolverine, Brighter и другие проверенные решения. Чем твоя альтернатива лучше?» Честный ответ на тот момент был: «Пока, наверное, ничем особенным — разве что MIT лицензией и чуть лучшей производительностью» . Но за этот месяц я постарался это исправить. Этот пост — мой ответ на те вопросы и рассказ о фичах, которые делают Requestum достойным внимания, а не просто «ещё одной библиотекой в списке».

habr.com/ru/articles/974616/

#net #cqrs #open_source #mediatr #c# #requestum #архитектура_по

2025-12-07

Open source-стратегии: кейс OpenIDE и специализированного консорциума компаний Haulmont, Axiom JDK и Группы Астра

Продолжаю делиться примечательными кейсами открытых проектов и разборами корпоративных open source-стратегий. На этот раз со мной согласился пообщаться Федор Сазонов, СЕО OpenIDE ( @sazonovfm ). Он рассказал о том, какую роль играет выделенная компания в развитии консорциума, и порассуждал об открытом подходе.

habr.com/ru/articles/974208/

#open_sourceстратегии #открытые_стратегии #openide #федор_сазонов #open_source #ide

2025-12-05

joerl :: привычная акторная модель из эрланга в расте

Вскрытие показало, что я немного отстал от жизни, и язык программирования «Кровожадный краборжав» уже вполне себе пригоден для написания простеньких хелоуворлдов… Ладно. В кои-то веки обойдусь без ёрничанья. Официально заявляю: я написал свою первую библиотеку на расте и мне понравилось . Раст — несомненно местами красивый и приятный для работы язык. Написание кода укладывается в зелёный диапазон плотности wtf/sec , а инструментарий заслуживает всяческих похвал (кроме кросс-публикации документации на docs.rs/ , которая в 2025 году занимает час — хоть донаты шли, её-богу). Итак, я написал библиотеку, которая позволит эрлангистам проще вкатываться в раст. Акторная модель притворяется краденой из эрланга, с примитивами GenServer и GenStatem , с деревьями супервизоров , с боксированными сообщениями , мэйлбоксами , и привычной терминологией. Библиотека названа joerl , светлой памяти Джо Армстронга, с которым мне посчастливилось быть знакомым, и который сильнейшим образом повлиял на менталитет разработчика во мне. Хватит болтовни, покажи код!

habr.com/ru/articles/973798/

#actor_model #actors #open_source

2025-12-05

Публичные разборы ваших Open Source проектов

Мы запустили практику публичных разборов проектов чтобы наглядно продемонстрировать важность внешнего вида и удобной структуры вашего репозитория, подчеркивая эти факторы они облегчат вход в проект новым пользователям и контрибьюторам. Не стесняйтесь, и присылайте свой проект на конструктивный разбор!

habr.com/ru/articles/973468/

#open_source #опенсорсеры #опенсорс #github #пет_проект #петпроект #ревью #open_source_projects #фидбек

2025-12-04

Self-hosted AI-платформа: полный стек для локального ИИ на Docker

Self-hosted AI-платформа на Docker: N8N, Ollama, Open WebUI, Qdrant, Whisper. Автоустановка, 152-ФЗ. Разбор архитектуры, benchmark топовых моделей декабря 2025 (DeepSeek-R1, Llama 3.3, Qwen 2.5), метрики на CPU/GPU, расчёт TCO.

habr.com/ru/articles/973456/

#ollama #dockercompose #open_source #supabase #postgresql #n8n #openwebui #redis #whisper #python3

2025-12-04

Контроль качества переводов на основе ИИ

А вы задумываетесь иногда, что вот хочется что-то сделать такое, чтобы как-то выбиться из общей массы разработчиков? Сейчас придумаю идею, реализую, стану зарабатывать много денег? Все же так думают? Или только я один. Да вот поэтому я и делаю постоянно какие-то проекты. И да, все они простые и не выдающиеся, но, наверное, главное — не унывать. Утешаю я себя так.

habr.com/ru/articles/973100/

#python #nlp #llm #перевод #локализация #qa #open_source #cli #api

2025-12-03

Развернем n8n и postgres под проекты на серваке, подключим свой домен и настроим бекапы в s3

Статья в формате шпаргалки, для тех кто понимает о чем тут написано и зачем оно надо. Я вчерашний был бы рад, если бы такая статья существовала. Тут максимально кратко изложен мой опыт, без воды и отступлений. По итогу получим полностью готовую инфраструктуру под свои проекты на n8n. Погнали

habr.com/ru/articles/972752/

#n8n #postgresql #бекапы #open_source #автоматизация #ai #docker #dockercompose

2025-12-03

Укрощаем зоопарк API: универсальный Python-клиент для GigaChat, YandexGPT и локальных моделей (v0.5.0)

Привет, Хабр! 👋 Если вы пробовали внедрять российские LLM в свои проекты, то наверняка сталкивались с "зоопарком" API. У GigaChat — OAuth2 и свои эндпоинты, у YandexGPT — IAM-токены и gRPC/REST, у локальных моделей через Ollama — третий формат. В какой-то момент мне надоело писать бесконечные if provider == 'gigachat': ... elif provider == 'yandex': ... , и я решил создать универсальный слой абстракции . Так появился Multi-LLM Orchestrator — open-source библиотека, которая позволяет работать с разными LLM через единый интерфейс, поддерживает умный роутинг и автоматический fallback (переключение на другую модель при ошибке). Сегодня расскажу, как я её проектировал, с какими сложностями столкнулся при интеграции GigaChat и YandexGPT, и как за пару дней довел проект до релиза v0.2.0 на PyPI с 88% покрытия тестами.

habr.com/ru/articles/972740/

#python #open_source #llm #gigachat #yandexgpt #api #ollama #langchain

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst