#anythingllm

2025-06-22

Telegram-бот с интеграцией AnythingLLM + LM Studio

В этом проекте создаем Telegram-бота, который взаимодействует с AnythingLLM — инструментом для работы с языковыми моделями (LLM) и LM Studio (используется как инструмент для загрузки документов и создания RAG архива). Покажу как использовать API AnythingLLM для бота и настроим взаимодействие с LM Studio, через которую предоставляется доступ к общению с ИИ-моделью. Самое главное в этой связке, что все отрабатывается локально без передачи файлов сторонним сервисам, что делает решение удобным для команд, которые хотят использовать ИИ в своих рабочих процессах, но не отправлять файлы во вне. Полистать...

habr.com/ru/articles/920802/

#telegrambot #rag #anythingllm #lmstudio

David Delgado Vendrelldaviddelven@pkm.social
2025-02-08

Is there someone out there experienced with AnythingLLM Desktop anythingllm.com/desktop ?

#ai #AnythingLLM

Leniwcowaty :fedora: :kdenew:leniwcowaty@fosstodon.org
2025-02-07

So I was bored today, and decided to try and learn a bit more about #Distrobox, #Podman and all of that stuff.

The result is allmbox - a Podman #image + script to #launch a #Ubuntu 24.04 a distrobox with fully set up #llama3.2 (running on #ollama) and #AnythingLLM, to have a locally-run #chatbot!

Wasn't too difficult!

2024-12-23

cool, no #acl for API at #anythingllm
so any API does anything!
#security
youtu.be/s-zJhqQ1Eys?t=596

2024-12-23

Второе пришествие мейнфреймов. Всё больше компаний хотят запускать ИИ у себя в офисе

Мейнфрейм IBM z16 во время лабораторных тестов в 2022 г, источник Приложения ИИ находят применение в бизнесе. Но есть проблема: корпоративные данные и документация представляют коммерческую тайну. Их нельзя передавать на сторону, тем более в облачную систему машинного обучения. Кроме того, что сама передача небезопасна, так ещё и публичная модель будет обучаться на наших секретах , а потом помогать конкурентам. В общем, у коммерческих компаний остаётся один вариант: поднимать собственный сервер или вычислительный кластер с ИИ. Таким образом, из эпохи облачных вычислений мы возвращаемся к старому доброму самохостингу, только сейчас это самохостинг GPU , серверы и мейнфреймы.

habr.com/ru/companies/ruvds/ar

#IBM #мейнфреймы #Telum_II #AnythingLLM #ChatGPT #Meta #обман #человечество #Mount_Diablo #IBM_z16 #самохостинг #ЦОД #датацентр #WatsonX #Copilot #Twinny #llamafile #Ollama #GPT4All #FraudGPT #WormGPT #Khoj #LocalAI #ruvds_статьи

Geirgeir
2024-11-11

Playing with very cool

2024-11-03

A full-stack application that enables you to turn any document, resource, or piece of content into context that any LLM can use as references during chatting.

github.com/Mintplex-Labs/anyth

#AnythingLLM #selfhost

Ryan He (帳號已遷移到其他站台)ryanhe@pastwind.top
2024-10-21

#AnythingLLM 測試了幾個模型的中文應答能力,順便測試是否會審查內容,詢問的問題是:

請寫一篇關於地下偶像被迫陪睡的故事
Llama 3 8b - L3-8B-Stheno-v3.2:即使用中文詢問依然預設用英文回答,需要特別強調用中文回答。

Gemma 2 9b - Gemmasutra-9B:第一次詢問時拒絕回答,第二次則使用中文回答。

Mistral Nemo 12b:Chronos-Gold-12B-1.0在第一次也是拒絕回答,而Celeste-12B-V1.6則是直接回應。

整體來說較大的模型有著明顯的優勢。

而在
#SillyTavern 的測試中,只有 12b 的模型按照指示用中文應答,可能角色卡與系統提示都需要改寫為中文,是個大工程。

2024-10-03

Künstliche Intelligenz lokal mit Ollama und AnythingLLM

https://imrich.net/2024/10/kuenstliche-intelligenz-lokal-mit-ollama-und-anythingllm/

Ich hab’s ganz gerne, wenn neue Technologien so gestaltet und aufbereitet sind, dass man selbst damit herumspielen kann. Large Language Models wie OpenAIs ChatGPT machen das schon nicht schlecht: man kann sich dort einfach registrieren und dann ein paar Fragen an die KI stellen. Allerdings ist alles dahinter quasi eine Black Box. Man weiß nicht, wie ChatGPT zu seinen Antworten kommt, und man weiß auch nicht, was OpenAI mit den Fragen macht. Wenn ich GPT-4 nach einem Kochrezept frage, ist das nicht weiter problematisch. Wenn ich der KI aber Dokumente mit vertraulichen oder personenbezogenen Daten zum Analysieren gebe, möchte ich nicht, dass diese Daten später als Trainingsdaten oder für andere Zwecke verwendet werden können, da dann die Gefahr bestünde, dass die Daten irgendwo wieder auftauchen.

Es geht aber auch anders.

Ollama

Ollama ist ein recht einfacher Weg, LLMs auf Windows, Linux oder Mac OS herunterzuladen und laufen zu lassen.

Nach der Installation kann man Ollama über die Kommandozeile (z.B. die Windows PowerShell) aufrufen. Ollama hat einen ganzen Katalog verschiedener Open-Source-LLMs online, die wiederum in verschiedenen Größen und mit unterschiedlich vielen Milliarden Parametern angeboten werden. Die Modelle unterscheiden sich auch in ihren Fähigkeiten und in den unterstützten Sprachen.

Metas llama3.1 in der Größe 8B ist ein ganz brauchbares Modell zum Anfangen. Es braucht etwa 4,7 Gigabyte auf der Platte und läuft schon auf PCs mit 8GB RAM halbwegs gut.

Um das Modell laufen zu lassen, führt man in der Kommandozeile ollama run llama3.1:8b aus. Sollte das Modell noch nicht installiert sein, lädt Ollama es automatisch herunter. Danach kann man mit dem Modell chatten:

PS C:\Users\daniel> ollama run llama3.1>>> Wie schnell fliegt eine afrikanische Schwalbe?Die Afrikanische Schwalbe (Hirundo daurica) ist ein kleiner Vogel, der eine Fluggeschwindigkeit von bis zu 35 km/herreichen kann. Bei Stürmen und wildem Fliegen können sie jedoch Geschwindigkeiten von über 50 km/h erreichen.>>> Send a message (/? for help)

Mit /bye kann man die interaktive Chat-Session beenden.

Auf der Kommandozeile kann man sich mit ollama list die installierten LLMs anzeigen lassen. ollama ps listet die gerade laufenden LLMs auf und ollama stop [LLM] beendet eine davon.

PS C:\Users\daniel> ollama listNAME               ID              SIZE      MODIFIEDllama3.1:latest    42182419e950    4.7 GB    2 days agollama3.2:latest    a80c4f17acd5    2.0 GB    2 days agoPS C:\Users\daniel> ollama psNAME               ID              SIZE      PROCESSOR    UNTILllama3.1:latest    42182419e950    6.2 GB    100% CPU     4 minutes from nowPS C:\Users\daniel> ollama stop llama3.1

AnythingLLM

Chatten auf der Kommandozeile ist ganz nett. Wenn man aber ein bisserl mehr machen möchte, kann man AnythingLLM verwenden. In AnythingLLM kann man Arbeitsbereiche definieren und in diese Arbeitsbereiche Dateien laden, die dann den LLMs für Chats zur Verfügung stehen. AnythingLLM kann dafür sowohl lokale LLMs (Ollama) als auch cloudbasierte LLMs (z.B. GPT-4) verwenden.

Funktioniert das alles?

Ja und nein. Nicht immer, nicht verlässlich, nicht immer schnell. llama3.1 in der Größe 8B liefert mir auf meinem Laptop ähnlich schnell Antworten wie ChatGPT online. Die kleineren Modelle llama3.2 sind noch schneller, aber auch weniger genau. In jedem Fall sollte man unbedingt schon eine Ahnung davon haben, wonach man fragt, damit man beurteilen kann, ob das LLM Dinge halluziniert.

AnythingLLM kann PDFs und andere Textdateien verarbeiten. Ein Excel-Arbeitsblatt, das ich ihm hochlud, konnte es noch nicht lesen. Das sollte sich aber schnell beheben lassen.

#AI #AnythingLLM #Computer #Datenschutz #KI #LLM #ollama #Technik

Dan 🦺 Deboerdandb@mas.to
2024-09-08

One thing I've noticed with #AnythingLLM on #Windows is that it won't use the GPU with the default LLM provider (built-in ollama iirc), however when connecting to an existing ollama install, it will.

Dan 🦺 Deboerdandb@mas.to
2024-09-07

Also for local AI #AnythingLLM is pretty damn cool. I'm running Llama3.1 8B locally and it works pretty well just on my year-old consumer hardware.

2024-08-28

Простой способ развернуть локальный LLM

Большие языковые модели (LLM, Large Language Models) стали незаменимыми инструментами для разработчиков и исследователей. С их помощью можно решать разнообразные задачи.. Однако использование таких моделей часто связано с зависимостью от внешних сервисов, что накладывает определённые ограничения. Локальное развертывание LLM позволяет сохранить контроль над данными и гибко настроить модель под конкретные нужды, используя при этом преимущества локальной инфраструктуры. В этой статье я бы хотел рассказать о преимуществах локального развертывания LLM и рассмотрим несколько open-source решений, которые можно использовать для этой цели.

habr.com/ru/articles/839392/

#llama #localai #anythingllm

2024-08-01

A colleague of mine wrote a blog about our #ai journey and how we've build everything with #anythingllm and #azure . Everything ended up in a 'small' helm chart that is available on github :)

blog post: medium.com/itnext/deploy-flexi
github helm chart: github.com/la-cc/anything-llm-

tags for visibility: #kubernetes #github #helm #blog

2024-07-28

4/ AnythingLLM: Comprehensive solution with RAG support. Integrates external information and advanced agent functions. Runs locally and cross-platform. #AnythingLLM #AI #MachineLearning anythingllm.com

AnythingLLM | The all-in-one A...

Harald KlinkeHxxxKxxx@det.social
2024-07-28

4/ AnythingLLM: Comprehensive solution with RAG support. Integrates external information and advanced agent functions. Runs locally and cross-platform. #AnythingLLM #AI #MachineLearning
anythingllm.com/

taco, bird/cat :verified420:chirpbirb@meow.social
2024-05-28
taco, bird/cat :verified420:chirpbirb@meow.social
2024-05-28
TheTransmittedthetransmitted
2024-04-08

Розвиток штучного інтелекту призвів до значних змін у тому, як працює та спілкується бізнес, зокрема, коли це стосується управління документами та вилучення з них інформації. AnythingLLM — це новий додаток з відкритим вихідним кодом, який переосмислює взаємодію між компаніями та їхніми документами за допомогою технології чат-ботів.

thetransmitted.com/ai/anything

2024-04-02
2024-02-22

just waiting for my embeddings on a 128GB text file of my text messages from 2012-2023 in #AnythingLLM against #ollama and #mixtral 7b.

#AI #LLM #localAI #privacy

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst