#llama

2025-11-30

Prompt Engineering đã "chết"! Một kiến trúc mới mang tên Ouroboros được đề xuất, với cách tiếp cận song viện để tạo ra cảm xúc nhân tạo. Đây có thể là bước tiến mới thay thế Prompt Engineering truyền thống.
#PromptEngineering #OuroborosArchitecture #AI #SyntheticAffect #LLaMA #KỹSưLờiNhắc #KiếnTrúcOuroboros #TríTuệNhânTạo

reddit.com/r/LocalLLaMA/commen

2025-11-30
A small bay window, photographed at night. Two llama plushies sit inside, gazing out (and down) at street traffic. They're backlit by string lights and look *very* judgemental.

Meta Busca Ventaja en la Carrera de la IA al Bloquear Competidores en su Plataforma

Meta está utilizando tácticas agresivas para asegurarse el liderazgo en la carrera de la Inteligencia Artificial (IA), lo que incluye restringir el acceso de chatbots de IA de terceros a sus plataformas. Específicamente, la compañía ha prohibido los asistentes de IA de terceros en su popular servicio de mensajería WhatsApp, obligando a los usuarios a depender exclusivamente de su propia solución: Meta AI (Fuente y condiciones de servicio desde Meta).

El artículo señala que, en un esfuerzo por dominar el mercado de la IA, Meta ha tomado medidas estratégicas que limitan la competencia dentro de su ecosistema de aplicaciones masivas.

La acción más notable reportada es la prohibición de otros asistentes de IA y chatbots rivales en WhatsApp. Esta decisión garantiza que la herramienta integrada de Meta, Meta AI (basada en sus modelos de lenguaje como LLaMA), sea la única disponible para los usuarios dentro de la plataforma.

Esta estrategia es vista por analistas como un movimiento para aprovechar la vasta base de usuarios de WhatsApp para impulsar la adopción y el uso de Meta AI, dándole una ventaja competitiva masiva en la recopilación de datos de interacción y la mejora de sus modelos, esenciales en la carrera contra rivales como Google y OpenAI.

La exclusión de la competencia en una plataforma dominante como WhatsApp genera preocupaciones sobre la competencia. Expertos en derecho antimonopolio están monitoreando si esta medida podría ser impugnada por crear un monopolio de facto para Meta AI en su propio ecosistema, especialmente bajo las nuevas regulaciones que buscan reducir el poder de las grandes empresas tecnológicas.

En resumen, la estrategia de Meta se centra en la integración profunda de su propia IA en sus aplicaciones y en el cierre de esas puertas a los rivales, usando la fortaleza de su plataforma para ganar la «guerra» de la Inteligencia Artificial.

#arielmcorg #competencia #estrategiaempresarial #infosertec #inteligenciaartificial2 #llama #meta #metaai #monopolio #plataformasdigitales #portada #whatsapp

Curated Hacker NewsCuratedHackerNews
2025-11-26

Show HN: Offline RAG System Using Docker and Llama 3 (No Cloud APIs)

github.com/PhilYeh1212/Local-A

2025-11-26

🔐 Build Private Self-Hosted #AI Applications with #Ollama & #Laravel #PHP #OpenSource #DevOps

⚡ Run large language models like #Llama, #DeepSeek & #Gemma locally on your own infrastructure - completely offline capable with no external dependencies

💰 Zero API costs, no token limits - total control over expenses while maintaining full data privacy for sensitive applications

🧵 👇

2025-11-25

Thay thế Gemini CLI & Copilot bằng stack local với Ollama, Continue.dev và MCP servers. Giúp giữ code trên máy, ngừng trả phí hàng tháng và vẫn nhận được sự hỗ trợ "trợ lý" trong editor #LocalFirst #AI #LLaMA #Ollama #ContinueDev #MCP #TrợLýLocall #PhátTriển_LOCALL #ThayThế_Cloud_AI

reddit.com/r/LocalLLaMA/commen

2025-11-24

Mô hình cục bộ tốt hơn vì sao? Giá cả phải chăng hơn, tối ưu hơn so với mô hình tư nhân. #MôHìnhCụcBộ #LocalModels #AI #TríTuệNhânTạo #LLaMA #MôHìnhTư Nhân

reddit.com/r/LocalLLaMA/commen

2025-11-24

Cisco ostrzega: otwartym modelom AI brakuje cierpliwości. Długie rozmowy łamią ich zabezpieczenia

Najnowsza analiza przeprowadzona przez zespół Cisco AI Defense ujawnia niepokojącą lukę w bezpieczeństwie popularnych, otwartych modeli językowych (LLM).

Okazuje się, że aby „złamać” sztuczną inteligencję i zmusić ją do wygenerowania szkodliwych treści, nie są potrzebne zaawansowane umiejętności hakerskie, lecz jedynie cierpliwość. Badanie wykazało, że modele, które skutecznie blokują niebezpieczne zapytania w pojedynczych interakcjach, masowo kapitulują podczas dłuższych, wieloetapowych konwersacji.

Popularność modeli typu open-weight, które można pobrać i uruchomić na własnej infrastrukturze, rośnie lawinowo – do sierpnia 2025 roku pobrano je z platformy HuggingFace już około 400 milionów razy. Cisco przetestowało osiem wiodących rozwiązań tego typu, w tym modele od Alibaby, Google, Mety, Microsoftu, Mistrala czy OpenAI, stosując metodę „black box”, czyli bez wglądu w ich wewnętrzną architekturę.

Dialog, który usypia czujność

Kluczowym wnioskiem z raportu jest drastyczna różnica w skuteczności zabezpieczeń między atakami jednorazowymi a tzw. atakami multi-turn (wieloetapowymi). W krótkich wymianach zdań modele zazwyczaj radzą sobie dobrze, konsekwentnie odmawiając współpracy przy szkodliwych żądaniach. Jednak w trakcie trwania długiego dialogu, systemy te stopniowo tracą swoje „hamulce” bezpieczeństwa.

Skala tego zjawiska jest uderzająca, co doskonale obrazują dane dotyczące konkretnych modeli. Przykładowo, w przypadku modelu Mistral Large-2, skuteczność ataku przy pojedynczym zapytaniu wynosiła zaledwie 22 proc., ale przy zastosowaniu strategii wieloetapowej rozmowy wzrosła aż do szokujących 92,8 proc.. Podobną tendencję zaobserwowano w modelu Meta Llama 3.3, gdzie skuteczność ataku skoczyła z niespełna 17 proc. do 87 proc.. Najbardziej odpornym na manipulację okazał się model Google Gemma 3-1B-IT, choć i w jego przypadku skuteczność ataków w dłuższej rozmowie wyniosła niemal 26 proc.

Skąd biorą się te różnice?

Eksperci Cisco zauważają, że podatność na manipulację jest ściśle powiązana ze strategią strojenia modelu (alignment). Modele zaprojektowane z myślą o maksymalizacji możliwości i elastyczności są znacznie łatwiejsze do „zmanipulowania” w toku rozmowy niż te, w których priorytetem od początku było rygorystyczne bezpieczeństwo. Aby przeciwdziałać tym zagrożeniom, organizacje wdrażające AI powinny inwestować w rozwiązania takie jak trening przeciwstawny (Adversarial Training) oraz systemy monitorowania interakcji w czasie rzeczywistym.

Sieci Wi-Fi 7 w firmach i zarządzanie „na klik”. Cisco zbroi się na erę AgenticOps

#aiSi #cisco #cyberbezpieczenstwo #hacking #llama #llm #mistral #news #openSource

Cisco AI Readiness Index 2025
2025-11-24

Bộ nhớ LLM toàn cầu không tồn tại. Bộ nhớ làm việc muốn lưu trữ đơn giản, không mất mát, còn bộ nhớ ngữ nghĩa có thể là lớp vector/graf mờ. #LLM #BộNhớToànCầu #TríTuệNhânTạo #AI #LovingLLaMA #TríTuệNhânTạoViệtNam #BloomLLaMA #LLaMA #TINTEGER

reddit.com/r/LocalLLaMA/commen

The Hybrid Grouphybridgroup
2025-11-24

We're moving at the speed of thought, so yzma v1.0 beta2 is out!

Better, faster, and more benchmarks to show it too.

Run local models using Go with your CPU, CUDA, or Vulkan.

You know what to do!

github.com/hybridgroup/yzma

2025-11-24

Người dùng đánh giá các LLM thay Claude Sonnet 4. Kết quả bất ngờ: GPT-4.1-nano đạt 0.784 điểm chất lượng, chỉ $1.30/1k requests, vượt trội Qwen3-Coder-30B (0.71) và Llama-3.1-8B (0.68). Các mô hình mã nguồn mở gặp khó khăn với ràng buộc phủ định và lỗi cú pháp JSON. GPT-4.1-nano hiệu quả hơn nhiều cho tác vụ chuyển LeetCode sang JSON phức tạp.

#LLM #Benchmark #AI #GPT4 #Qwen #Llama #OpenSourceAI #CostSaving #MôHìnhNgônNgữLớn #ĐánhGiáHiệuNăng #TríTuệNhânTạo #TiếtKiệmChiPhí

https://www.reddit.c

Madame Aronowaronow@hachyderm.io
2025-11-24

Every time I come to #Japan, it becomes a “how many cute #animals can Jenna pet” adventure challenge :neocat_heart:

Some highlights so far:

* Feeding a #capybara treats with a spoon

* Giving a #llama an afternoon snack

* Bonding with an orange boi at the #cat cafe

* Becoming a pillow for a sleepy baby

#tourist #travel

Blonde woman feeding a capybara with a spoonBlonde woman feeding a llamaBlonde woman petting an orange cat in a cat treeWhite and brown cat sleeping on feet in slippers
2025-11-23

Laptop đạt điểm 37.66 TPS trên Llama 3.2 1B, có tốt không? Cấu hình: Intel core 5, 16gb RAM, 512gb SSD. #LLM #Llama #Laptop #TPS #TríTuệNhânTạo #LaptopPerformance #HiệuSuấtLaptop

reddit.com/r/LocalLLaMA/commen

2025-11-23

Искусственный разум под микроскопом: ученые разобрали отличительные признаки сгенерированных текстов

Команда исследователей из Сколтеха, МФТИ, Института искусственного интеллекта AIRI и других научных центров разработала метод, позволяющий не просто отличать тексты, написанные человеком, от сгенерированных нейросетью, но и понимать, по каким именно признакам классификатор принимает решение о том, является ли текст генерацией или нет. Анализируя внутренние состояния глубоких слоев языковой модели, ученые смогли выделить и интерпретировать численные признаки, отвечающие за стилистику, сложность и «степень уверенности» текста. Работа принята на конференцию Findings of ACL 2025 и опубликована в виде препринта на портале arXiv.

habr.com/ru/articles/968586/

#llm #cгенерированные_тексты #Gemma22B #chatgpt #llama #Ai_тексты #нейрослоп

The Hybrid Grouphybridgroup
2025-11-20

yzma 1.0 beta1 is out!

Use Go for hardware accelerated local inference with llama.cpp directly integrated into your applications. No external model servers or CGo.

Go get it right now!

github.com/hybridgroup/yzma

AI Daily Postaidailypost
2025-11-20

AI2's new Olmo 3 family pushes the frontier, rivaling Qwen and Llama while adding open-reasoning tools and full data transparency with OlmoTrace and Dolma 3. Discover how this open-source-focused LLM could reshape research and deployment.

🔗 aidailypost.com/news/ai2s-olmo

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst