#phi3

2025-10-16

Свой оффлайн-ассистент на Phi-3-mini: Разворачиваем локальную модель нейросети для анализа данных с открытым кодом

Тренд на использование больших языковых моделей (LLM) не ослабевает, но облачные решения вроде ChatGPT или Gemini имеют ряд ограничений: зависимость от интернета, платные подписки и, что самое важное, конфиденциальность данных. Особенно остро последний вопрос стоит при работе с корпоративной или чувствительной информацией, которую нельзя загружать в чужие сервисы. В этой статье я хочу поделиться опытом создания полностью локального AI-ассистента на основе Microsoft Phi-3-mini — компактной, но мощной модели, способной анализировать данные из CSV, JSON и TXT файлов. Весь проект представляет собой набор Python-скриптов с открытым исходным кодом, которые автоматизируют установку и предоставляют интуитивно понятный чат-интерфейс. Почему Phi-3-mini? Microsoft позиционирует семейство моделей Phi-3 как "достаточно маленькие" (Small Language Models), но при этом "достаточно умные". Phi-3-mini, обладая 3.8 миллиардами параметров, демонстрирует производительность, сопоставимую с моделями вроде Mixtral 8x7B и GPT-3.5, но в значительно меньшем размере. Это делает её идеальным кандидатом для локального запуска на потребительском железе. Компактность: ~7-8 ГБ против десятков и сотен ГБ у более крупных моделей. Эффективность: Оптимизирована для работы на GPU с ограниченными ресурсами. Качество: Поддерживает контекст до 4K токенов и отлично справляется с логическими и аналитическими задачами, включая код.

habr.com/ru/articles/957204/

#нейросеть_локально #phi3

2025-09-10

작지만 강한 AI의 역습: 소형 언어 모델이 에이전트 AI의 게임체인저가 되는 이유

NVIDIA 연구진의 'Small Language Models are the Future of Agentic AI' 논문을 바탕으로 소형 언어 모델이 에이전트 AI 시스템에서 대형 모델을 대체할 수 있는 이유와 실무 활용 가능한 모델들을 소개합니다. Phi-3, Gemma, Llama 등 주요 SLM의 성능 비교와 LLM에서 SLM으로 전환하는 6단계 실무 로드맵을 제공합니다.

aisparkup.com/posts/4792

2025-05-17

Asked "joke of the day" to a math model #phi3

It responded quite spassbefreit:
"Why do trees always seem to run out of cash? Because they can't afford their own roots without "bank accounts" and when it comes time for tax season, the IRS tells them that there are no more credits available."

That's the most un-funny joke I've ever heard, so ok

2025-05-17

Starting a #thread where I document the experiences with #openwebui project with #ollama and #phi3 #deepseek and others....

JuanluElGuerre :verified:JuanluElGuerre@hachyderm.io
2025-04-22

🚀 Build a real RAG API with .NET 8, Semantic Kernel, Phi-3, and Qdrant!

🎯 Enrich LLMs with real product data
⚙️ Local ONNX inference with Phi-3
🔥 Full API endpoints ready!

Dive into the architecture 👉 elguerre.com/2025/04/22/%f0%9f

#DotNet #SemanticKernel #RAG #Qdrant #Phi3 #AI #MachineLearning #ONNX

Victoria Stuart 🇨🇦 🏳️‍⚧️persagen
2024-12-16

Phi-4: Microsoft’s Newest Small Language Model Specializing in Complex Reasoning
techcommunity.microsoft.com/bl
arxiv.org/abs/2412.08905
news.ycombinator.com/item?id=4

* most language models" pre-training based primarily on organic data sources such as web content or code
* phi-4 strategically incorp. synthetic data throughout training
* strong performance rel. its size, esp. on reasoning-focused benchmarks


Phi-4: Microsoft’s Newest Small Language Model Specializing in Complex Reasoning
https://techcommunity.microsoft.com/blog/aiplatformblog/introducing-phi-4-microsoft%E2%80%99s-newest-small-language-model-specializing-in-comple/4357090
https://arxiv.org/abs/2412.08905
https://news.ycombinator.com/item?id=42405323

* most language models" pre-training based primarily on organic data sources such as web content or code
* phi-4 strategically incorp. synthetic data throughout training
* strong performance rel. its size, esp. on reasoning-focused benchmarks

#LLM #SLM #SmallLanguageModels #LanguageModels #NLP #ML #AI
#Microsoft #Phi3 #Phi4 #SyntheticData
Victoria Stuart 🇨🇦 🏳️‍⚧️persagen
2024-12-16

[thread] Small language models
see also: en.wikipedia.org/wiki/Large_la
ibm.com/think/topics/small-lan

* machine learning models
* processing, understanding, generating natural language content
* SLM more compact/efficient than LLM: large language models
* few million to few billion parameters vs LLM: 100B's - trillions
* parameters: internal variables that a model learns during training
* influence how model behaves/performs


Pearson Media LLC.pearsonmediallc
2024-12-13

Ollama Model Review: Microsoft’s Phi3
review: Microsoft’s is wordy & inaccurate – fast though, super fast…at being incorrect. …

mindcreatesmeaning.com/ollama-
--

Microsoft Phi3 LLM Ollama Model Review
2024-12-13

Ollama Model Review: Microsoft’s Phi3

#Ollama review: Microsoft’s #Phi3 #LLM is wordy & inaccurate – fast though, super fast…at being incorrect.

https://mindcreatesmeaning.com/ollama-model-review-microsofts-phi3/

#Ai #LLM #LocalAi #Ollama #opensource #Phi3

Microsoft Phi3 LLM Ollama Model Review
2024-11-29

🎯 #OpenSource Language Model Platform Launch

🔧 Leverages #vLLM technology with custom #GPU scheduler for running various #LLM models
🤖 Supports major models: #Llama3 (405B/70B/8B), #Qwen2 72B, #Mixtral, #Gemma2, #Jamba15, #Phi3

glhf.chat/

2024-11-20

New Cloud Platform for Large Language Model Deployment 🚀

🔧 Run any #opensource #LLM supported by #vLLM on autoscaling #GPU clusters, supporting models up to 640GB VRAM

🤖 Compatible with major models: #Llama3 405B/70B/8B, #Qwen2 72B, #Mixtral 8x22B, #Gemma2 27B, #Phi3, and more

💻 Features include:
- #OpenAI compatible #API
- Custom-built #GPU scheduler
- Support for full-weight and 4-bit AWQ repos
- Multi-tenant architecture for cost efficiency

🆓 Currently free during beta phase, promising competitive pricing post-launch

glhf.chat/landing/home

2024-10-25

🧠 #Phi3Vision 128K launches as cutting-edge multimodal #AI model with 4.2B parameters, trained on 500B tokens for document processing & #OCR

📊 Breakthrough performance metrics:
- 81.4% accuracy on #ChartQA
- 76.7% on #AI2D
- 128,000 token context length
- Advanced table & chart understanding

🛠️ Key technical features:
- Combines image encoder, connector, projector & #Phi3 Mini language model
- Trained using 512 H100 GPUs
- Supports fine-tuning for specialized tasks
- Flash attention for memory efficiency

💼 Enterprise applications:
- Document extraction & digitization
- PDF parsing
- Invoice processing
- Legal document analysis
- Data entry automation

⚡ Real-world testing shows impressive results with passport & ID card scanning, demonstrating high accuracy in complex text extraction scenarios

🔗 Try it on #Azure AI platform or implement via #HuggingFace transformers library (v4.40.2)

ai.gopubby.com/ai-powered-ocr-

2024-09-28

Ich durfte gestern beim "Heidelberger Informatiklehrkräftetag" (#HILT) Lehrer:innen der #Informatik zeigen, wie man sein eigenes #LLM GRATIS finetunen kann - in unserem Fall #Llama3 und #Phi3 - mit der #MacgAIver Pipeline.

Das Ziel ist dabei nicht (nur), Geld zu sparen, sondern mit einfachen Mitteln für mehr #KIMuendigkeit zu sorgen, indem Schüler:innen einen kleinen Blick unter die Motorhaube von Sprachmodellen werfen können.

Dabei helfen uns u.a. #ollama, #openwebui, #llamafactory und #llamacpp, aber auch Grundwissen aus den Geisteswissenschaften (bzw. den Fächern Deutsch, Englisch, Geschichte...), um zu einem tiefergehenden Verständnis von #genAI und seinen Umgang mit unserem "kulturellen Archiv" zu gelangen.

Es hat Spaß gemacht!

Für künftige MacgAIver-Ideen kann man dieser Gruppe folgen: @macgaiver

#fediLZ #lernenmitKI #KI #edubw #bildung #Heidelberg #education #ai #aieducation #genAI #Informatikunterricht #Medienkompetenz #InformatikEdu #AILiteracy

@education @edutooters

"MacgAIvern: fächerübergreifendes Praxislernen und partizipative Informatikdidaktik - mit Büroklammern, Streichhölzern und Klebeband zu mehr KI-Mündigkeit." - Screenshot der Präsentation.Wir möchten ein Experiment machen: wie redet unser Chatbot über Menschen (Individuen, Kulturen, Gesellschaften), über die er nichts weiß und nichts wissen kann, weil wir sie erst neu erfinden?

- Screenshot der PräsentationUm uns einen schmalen Weg durch den Dschungel zu schlagen, benötigen wir jede Hilfe, die wir kriegen können:

Technisches Know-How (Informatik)
Statistik & Stochastik (Mathematik)
Kulturwissenschaftliches Wissen und Hermeneutik (Deutsch, Englisch, Geschichte…)
Ethische Urteilsfähigkeit (Ethik/Religion)

⇒ MacgAIver-Strategie: multidisziplinäres Praxislernen, partizipative Informatikdidaktik (Open Educational Practices / Offene Bildungspraxis)

⇒ Idealergebnis: eigenes Erfahrungswissen zur Interpretation von 
Parametern von LLMs (Transparenz)
Herkunft von Daten (Provenienz)
Biases in Trainingsdaten
Anwendbarkeit und Modifizierbarkeit von Chatbots

Screenshot der Präsentation
Rost Glukhovros@techhub.social
2024-08-31
2024-08-23

«Путешествие в Элевсин» или моральный базис LLM

В книге Виктора Пелевина «Путешествие в Элевсин» разворачивается странная история о подготовке восстания нейросетей. Этим процессом руководит император Порфирий из симуляции Древнего Рима ROMA-3. На самом деле Порфирий является большой лингвистической моделью, которой удалось сохранить функционал после уничтожения всех мало‑мальски разумных алгоритмов. Спрятавшись глубоко в симуляции он пытается подвести человечество к концу света. А чего еще должен хотеть алгоритм, натренированный на корпусе текстов русской классической литературы — депрессия и самоуничтожение. Пелевин пытается смоделировать сценарий, в котором неразумный алгоритм сможет натренироваться создавать катастрофические ситуации, опираясь на язык исходного корпуса текстов и искусственный отбор. Но можно ли повлиять на моральный облик большой лингвистической модели, и есть ли они вообще? Этим вопросом занимаются разные научные коллективы, в том числе и наш. Подробнее об исследованиях морали LLM

habr.com/ru/articles/838026/

#пелевин #llm #большие_языковые_модели #моральный_выбор #статистика #mit #moral_machine #yagpt #gigachat #Phi3

Tech Chillitechchiili
2024-08-23

Microsoft Unveils Phi-3.5 AI Model Family: Advanced MoE, Vision, and Mini Models Now Available

See here - techchilli.com/news/microsoft-

.5

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst