#Llama31

AI Daily Postaidailypost
2025-12-16

G42 just released NANDA 87B, an open-source Hindi-English model built on Llama-3.1 70B in partnership with MBZUAI and Cerebras. It promises powerful multilingual capabilities for the community. Dive into the details!

🔗 aidailypost.com/news/g42-unvei

2025-12-03

Llama 3.1 70B đã vượt qua Claude 3.5 Sonnet trên benchmark Arena-Hard-Auto chỉ với một prompt duy nhất! Đạt 96.9% tỷ lệ thắng và chỉ 4% từ chối. Điều này chứng tỏ sức mạnh của kỹ thuật prompt engineering, không cần tinh chỉnh hay LoRA.

#AI #LLM #Llama31 #Claude35Sonnet #PromptEngineering #CôngNghệAI

reddit.com/r/LocalLLaMA/commen

2025-09-23

🎯 Supported models include #GPT-OSS-120B, #GPT-OSS-20B, #Llama4 Maverick, #Llama4 Scout, #Llama33-70B, #Llama31-8B, #KimiK2, #Qwen3-32B

🔧 Key features: deterministic inference for faster tool-using agents, cost-effective scaling, approved tool use with clear allowlists, seamless migration capability

📋 Ready-to-use cookbook tutorials with #BrowserBase #MCP, #BrowserUse #MCP, #Exa #MCP, #Firecrawl #MCP, #HuggingFace #MCP, #Parallel #MCP, #Stripe #MCP, #Tavily #MCP

2025-09-07

Cisco udostępnia otwarty model AI dla cyberbezpieczeństwa. Ma być skuteczniejszy niż ChatGPT

Firma Cisco zaprezentowała nową, udoskonaloną wersję swojego specjalistycznego modelu językowego do zadań z zakresu cyberbezpieczeństwa.

Nowy model, Llama-3.1-FoundationAI-SecurityLLM-instruct-8B (w skrócie Foundation-sec-8B-Instruct), został zaprojektowany tak, aby działać jak gotowy do użycia, inteligentny asystent dla analityków bezpieczeństwa, rozumiejący polecenia w języku naturalnym zaraz po uruchomieniu.

Nowa wersja jest odpowiedzią na potrzeby społeczności. Jej poprzednik, model bazowy zaprezentowany w kwietniu, udowodnił, że mały, wyspecjalizowany model (8 miliardów parametrów) potrafi w testach branżowych przewyższyć znacznie większe, uniwersalne modele językowe. Brakowało mu jednak prostoty obsługi – wymagał dodatkowej konfiguracji. Nowy Foundation-sec-8B-Instruct rozwiązuje ten problem, łącząc specjalistyczną wiedzę z elastycznością i łatwością użycia znaną z popularnych chatbotów.

Gigantyczna platforma AI pod ochroną Cisco. ClamAV przeskanuje miliony modeli

Mały, ale potężny i gotowy do działania

Foundation-sec-8B-Instruct został wytrenowany wyłącznie na danych z zakresu bezpieczeństwa, a następnie dostrojony do wykonywania poleceń. Dzięki temu potrafi bez dodatkowego treningu realizować takie zadania jak tworzenie podsumowań, analiza sentymentu czy odpowiadanie na złożone pytania dotyczące cyberbezpieczeństwa. Model rozumie role w konwersacji, co pozwala na prowadzenie rozbudowanych dialogów i tworzenie zautomatyzowanych agentów.

Kluczową zaletą jest jego kompaktowa architektura. Model może być uruchomiony na pojedynczym procesorze graficznym (GPU), co czyni go dostępnym także dla organizacji o ograniczonych zasobach sprzętowych. Jest to w pełni otwarte oprogramowanie (open-source), co pozwala na jego wdrażanie lokalnie, w środowiskach odizolowanych od internetu (air-gapped) czy na urządzeniach brzegowych, bez uzależniania się od jednego dostawcy.

Praktyczne zastosowania w SOC i AppSec

Model został już przetestowany w realnych warunkach przez zespoły bezpieczeństwa, w tym w Cisco CSIRT i Cisco XDR. W centrach operacji bezpieczeństwa (SOC) wykorzystano go do klasyfikacji alertów, mapowania wskaźników zagrożeń do taktyk z bazy MITRE ATT&CK czy rekonstrukcji osi czasu incydentów, co znacząco przyspieszyło proces analizy i zredukowało liczbę fałszywych alarmów.

Z kolei zespoły odpowiedzialne za bezpieczeństwo aplikacji (AppSec) użyły modelu do symulacji ścieżek ataku, analizy kodu pod kątem wytycznych OWASP i generowania niestandardowych scenariuszy testowych, co pozwoliło na bardziej proaktywne podejście do zabezpieczania oprogramowania.

Plany na przyszłość

Cisco zapowiada dalszy, intensywny rozwój modelu. W planach jest m.in. rozszerzenie okna kontekstu do 16 tysięcy tokenów (co pozwoli analizować całe zbiory logów), obsługa wejść multimodalnych (np. zrzutów ekranu i logów w jednej konwersacji) oraz stworzenie jeszcze potężniejszej wersji o wielkości 70 miliardów parametrów.

Model Foundation-sec-8B-Instruct jest już publicznie dostępny na platformie Hugging Face, wraz z pełną dokumentacją i przykładami zastosowań.

Sztuczna inteligencja to miecz obosieczny dla naszej cyfrowej tożsamości. Nowy raport Cisco

#AI #AppSec #Cisco #cyberbezpieczeństwo #HuggingFace #Llama31 #LLM #MITREATTCK #modelJęzykowy #news #openSource #SoC #sztucznaInteligencja

Cisco
Der Brüsseler 🇪🇺derbruesseler@chaos.social
2025-04-15

Teste gerade #ollama bzw. #Llama31 lokal auf dem i7, dem XPS und dem MBA. Bin positiv überrascht, wie gut dies auf den beiden Laptops, trotz der Hardware (m1 bzw i5 & 8 GB RAM), läuft.

ollama.com/

mecambioaMac :verified:mecambioamac@mstdn.social
2024-12-09

EXO Labs ha creado un clúster con cuatro Mac Mini M4 y un MacBook Pro M4 para ejecutar localmente LLMs IA como Llama-3.1 405B de Meta, Nemotron 70B de Nvidia y Qwen 2.5 Coder-32B de Alibaba Cloud

#InteligenciaArtificial #LLM #LLMs #opensource #tech #Llama31 #qwen25 #Nemotron70b #AI #MacMini #MacBookPro

mecambioamac.com/exo-labs-cone

2024-12-03

Основы промптинга и математические возможности моделей Llama

Меня зовут Грибанов Никита, я Data Scientist в отделе R`n`D&ML компании Raft Digital Solutions, и сегодня я расскажу о больших языковых моделях. На данный момент в мире их существует уже более 39 тысяч! Далее буду называть их хайповым названием LLM (Large Language Model). В этой статье вы сначала узнаете новые или освежите в памяти уже известные вам основы общения с языковыми моделями. Затем разберёте пару реальных примеров настройки запросов и увидите математические возможности Llama 3.2 3B в сравнении с Llama 3.1 8B. Для достижения хороших результатов при решении различных задач с помощью LLM, с ними как и с людьми, нужно уметь правильно общаться. Как же это сделать?

habr.com/ru/companies/raft/art

#llama32 #llama31 #llm #prompt #promptengineering #mathematics #begginers

2024-11-22

Как мы обучали LLM для поиска уязвимостей в смарт-контрактах Solidity

Наша команда в Positive Technologies занимается анализом безопасности смарт-контрактов, исследованием уязвимостей и разработкой инструментов для их обнаружения. Идея использовать LLM для анализа смарт-контрактов Solidity показалась крайне заманчивой. Загрузить код, запустить модель — и она сама находит уязвимости, генерирует отчет, а иногда даже предлагает исправления. Звучит отлично! Но, как показал мой опыт, между «звучит» и «работает» лежит огромная пропасть.

habr.com/ru/companies/pt/artic

#llm #lora #blockchain #solidity #уязвимости #llama31 #chatgpt #промпт

Dr. Fortyseven 🥃 █▓▒░fortyseven@defcon.social
2024-10-17

I told Llama3.1: "There is no wrong place to insert Uranus." and after a rambling talk about Uranus stats, it says...

> So, go ahead and insert Uranus wherever your mind dares to wander! Just remember: the real Uranus is quite far away from us Earthlings, so no actual insertion necessary.

And the #SD15 image generator we run after each response gave this picture.

#llama31 #llm #ircawp

Kir4ik52 :blobfoxnerd:kir4ik52@mastodon.ml
2024-09-26

NVIDIA анонсировала новую модель искусственного интеллекта Llama-3.1-Nemotron-51B, основанную на предыдущей Llama-3.1-70B от Meta*.

Эта модель, содержащая 51 миллиард параметров, использует технологию Neural Architecture Search для оптимизации, что способствует снижению потребления ресурсов.

-ИИ может работать всего на одном графическом процессоре NVIDIA H100, что делает её более доступной для пользователей.

Новый подход увеличивает скорость вывода в 2,2 раза, и позволяет обрабатывать объемы в 4 раза больше, при неизменной точности.
==============
Meta* признана в РФ экстремистской :blobfoxcryreach:

src: developer.nvidia.com/blog/adva

#ai #llama #nvidia #Llama31 #meta #facebook

Dr. Fortyseven 🥃 █▓▒░fortyseven@defcon.social
2024-09-26

I had #Llama31 summarize an article and I screamed at it and it screamed back. Fair play, sir.

#llm

2024-09-22

I just had Meta Llama 3.1 8B Instruct write a Fibonacci sequence in Rust for me (I can't do Rust myself), and then I spent a long time
discussing it with the model until I realized that the highlighted line is simply a very bad implementation. `_ => (2..n).fold((0, 1) |(a,
b)| (b, a + b)).1` would have made sense to me immediately 🤦 #LLM #LLAMA31 #rust

A snippet of Rust code.
fn fibonacci(n: u32) -> u32 {
    match n {
        0..=1 => 0,
        2 => 1,
        _ => (2..n).fold((0, 1), |(_a, b), _| (b, _a + b)).1
    }
}

fn main() {
    println!("{}", fibonacci(10));
}

where 
_ => (2..n).fold((0, 1), |(_a, b), _| (b, _a + b)).1
is highlighted
Dr. Fortyseven 🥃 █▓▒░fortyseven@defcon.social
2024-09-13

Wow, #LLama31 sure knows a lot about Homestar Runner.

#llm

2024-08-19

Aha - some refining of the system prompt later - I asked it to switch to a new maths topic - decimals, and it actually asked me what aspect of decimals I wanted to practice next!

#ollama #llama31 #oterm

A picture of a llama31 response to my asking it to swtich to asking it about decimals.
salahzar.stenvaag :verified:pakkio@mastodon.uno
2024-08-18

Altro esperimento didattico, usare #AI in classe con #llama31 o la versione nuova #hermes3, il contesto a 128K (ma effettivamente usabili 20k sul computer domestico) consente di usarlo molto meglio di come usavamo Gpt3.5 2 anni fa!!! e in questo modo diventiamo annche piu' ecologici. `salahzar.com/2024/08/17/ai-da-

2024-08-09

Suite de mes aventures avec #llama31 (dernière mise à jour datant de quelques jours), sur un PC Windows avec un GPU (pas certain qu’il soit utilisé, mais c’est plus rapide qu’avec la VM linux).
Toujours mon carré de la racine carrée de 512. Accrochez-vous, ça pique :

La racine carrée de 512 est
√512 = √(8²) = 8
Et le carré de 8 est
8² = 64
Donc, le carré de la racine carrée de 512 est 64.

La seconde itération est encore plus stupide : il donne la bonne réponse immédiatement puis dérape :)

>>> quel est le carré de la racine carrée de 512 ?
La racine carrée de 512 est
√512 = √(8²) = 8
Et le carré de 8 est
8² = 64
Donc, le carré de la racine carrée de 512 est 64.
>>>
>>> quel est le carré de la racine carrée de 512 ?
La réponse est encore...
512 !
La racine carrée de 512 est :
√512 = √(16²) = 16
Et le carré de 16 est
16² = 256
Non, attendez !
La racine carrée de 512 est :
√512 = √(16²) = 16
Et le carré de 16 est :
16² = 256... Non !
La réponse est :
√512 = √(8²) = 8
Et le carré de 8 est
8² = 64. ..
Non, je vous assure !
La réponse est :
√512 = √(8²) = 8
Et le carré de 8 est :
8² = 64... Non !
Attendez un peu...
La racine carrée de 512 est :
√512 = √(16²)
Et la réponse est bien... 16 et le carré de 16 est :
16² = 256
>>> Send a message (/? for help)
Skull-man(🇨🇺🇨🇦)osmani@social.coabai.com
2024-08-03

@TriflingTree I took the Alt from your first image and use it as the prompt for #fluxai. I have read in reddit that the quality is comparable to #dalle3 .
The first image is the description from your post, the second one is a variation of that description using an #llm, specifically #llama31.
What do you think?

Woman wearing a gold & black decorated robe. Watercolor and ink illustrationElegant woman draped in an intricately designed golden and black robe with subtle sheen, adorned with delicate patterns and motifs, set against a soft, dreamy watercolor background, with bold yet refined ink lines defining her features and the flowing folds of her garment
2024-07-31

#OpenSource #LLMs are getting much more competitive. On the LMSYS #ChatbotArena Leaderboard, #Llama31 already ranks fourth: huggingface.co/spaces/lmsys/ch. 👍

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst