#Llama31

Der Brüsseler 🇪🇺derbruesseler@chaos.social
2025-04-15

Teste gerade #ollama bzw. #Llama31 lokal auf dem i7, dem XPS und dem MBA. Bin positiv überrascht, wie gut dies auf den beiden Laptops, trotz der Hardware (m1 bzw i5 & 8 GB RAM), läuft.

ollama.com/

mecambioaMac :verified:mecambioamac@mstdn.social
2024-12-09

EXO Labs ha creado un clúster con cuatro Mac Mini M4 y un MacBook Pro M4 para ejecutar localmente LLMs IA como Llama-3.1 405B de Meta, Nemotron 70B de Nvidia y Qwen 2.5 Coder-32B de Alibaba Cloud

#InteligenciaArtificial #LLM #LLMs #opensource #tech #Llama31 #qwen25 #Nemotron70b #AI #MacMini #MacBookPro

mecambioamac.com/exo-labs-cone

2024-12-03

Основы промптинга и математические возможности моделей Llama

Меня зовут Грибанов Никита, я Data Scientist в отделе R`n`D&ML компании Raft Digital Solutions, и сегодня я расскажу о больших языковых моделях. На данный момент в мире их существует уже более 39 тысяч! Далее буду называть их хайповым названием LLM (Large Language Model). В этой статье вы сначала узнаете новые или освежите в памяти уже известные вам основы общения с языковыми моделями. Затем разберёте пару реальных примеров настройки запросов и увидите математические возможности Llama 3.2 3B в сравнении с Llama 3.1 8B. Для достижения хороших результатов при решении различных задач с помощью LLM, с ними как и с людьми, нужно уметь правильно общаться. Как же это сделать?

habr.com/ru/companies/raft/art

#llama32 #llama31 #llm #prompt #promptengineering #mathematics #begginers

2024-11-22

Как мы обучали LLM для поиска уязвимостей в смарт-контрактах Solidity

Наша команда в Positive Technologies занимается анализом безопасности смарт-контрактов, исследованием уязвимостей и разработкой инструментов для их обнаружения. Идея использовать LLM для анализа смарт-контрактов Solidity показалась крайне заманчивой. Загрузить код, запустить модель — и она сама находит уязвимости, генерирует отчет, а иногда даже предлагает исправления. Звучит отлично! Но, как показал мой опыт, между «звучит» и «работает» лежит огромная пропасть.

habr.com/ru/companies/pt/artic

#llm #lora #blockchain #solidity #уязвимости #llama31 #chatgpt #промпт

Dr. Fortyseven 🥃 █▓▒░fortyseven@defcon.social
2024-10-17

I told Llama3.1: "There is no wrong place to insert Uranus." and after a rambling talk about Uranus stats, it says...

> So, go ahead and insert Uranus wherever your mind dares to wander! Just remember: the real Uranus is quite far away from us Earthlings, so no actual insertion necessary.

And the #SD15 image generator we run after each response gave this picture.

#llama31 #llm #ircawp

Kir4ik52 :blobfoxnerd:kir4ik52@mastodon.ml
2024-09-26

NVIDIA анонсировала новую модель искусственного интеллекта Llama-3.1-Nemotron-51B, основанную на предыдущей Llama-3.1-70B от Meta*.

Эта модель, содержащая 51 миллиард параметров, использует технологию Neural Architecture Search для оптимизации, что способствует снижению потребления ресурсов.

-ИИ может работать всего на одном графическом процессоре NVIDIA H100, что делает её более доступной для пользователей.

Новый подход увеличивает скорость вывода в 2,2 раза, и позволяет обрабатывать объемы в 4 раза больше, при неизменной точности.
==============
Meta* признана в РФ экстремистской :blobfoxcryreach:

src: developer.nvidia.com/blog/adva

#ai #llama #nvidia #Llama31 #meta #facebook

Dr. Fortyseven 🥃 █▓▒░fortyseven@defcon.social
2024-09-26

I had #Llama31 summarize an article and I screamed at it and it screamed back. Fair play, sir.

#llm

2024-09-22

I just had Meta Llama 3.1 8B Instruct write a Fibonacci sequence in Rust for me (I can't do Rust myself), and then I spent a long time
discussing it with the model until I realized that the highlighted line is simply a very bad implementation. `_ => (2..n).fold((0, 1) |(a,
b)| (b, a + b)).1` would have made sense to me immediately 🤦 #LLM #LLAMA31 #rust

A snippet of Rust code.
fn fibonacci(n: u32) -> u32 {
    match n {
        0..=1 => 0,
        2 => 1,
        _ => (2..n).fold((0, 1), |(_a, b), _| (b, _a + b)).1
    }
}

fn main() {
    println!("{}", fibonacci(10));
}

where 
_ => (2..n).fold((0, 1), |(_a, b), _| (b, _a + b)).1
is highlighted
Dr. Fortyseven 🥃 █▓▒░fortyseven@defcon.social
2024-09-13

Wow, #LLama31 sure knows a lot about Homestar Runner.

#llm

2024-08-19

Aha - some refining of the system prompt later - I asked it to switch to a new maths topic - decimals, and it actually asked me what aspect of decimals I wanted to practice next!

#ollama #llama31 #oterm

A picture of a llama31 response to my asking it to swtich to asking it about decimals.
salahzar.stenvaag :verified:pakkio@mastodon.uno
2024-08-18

Altro esperimento didattico, usare #AI in classe con #llama31 o la versione nuova #hermes3, il contesto a 128K (ma effettivamente usabili 20k sul computer domestico) consente di usarlo molto meglio di come usavamo Gpt3.5 2 anni fa!!! e in questo modo diventiamo annche piu' ecologici. `salahzar.com/2024/08/17/ai-da-

2024-08-09

Suite de mes aventures avec #llama31 (dernière mise à jour datant de quelques jours), sur un PC Windows avec un GPU (pas certain qu’il soit utilisé, mais c’est plus rapide qu’avec la VM linux).
Toujours mon carré de la racine carrée de 512. Accrochez-vous, ça pique :

La racine carrée de 512 est
√512 = √(8²) = 8
Et le carré de 8 est
8² = 64
Donc, le carré de la racine carrée de 512 est 64.

La seconde itération est encore plus stupide : il donne la bonne réponse immédiatement puis dérape :)

>>> quel est le carré de la racine carrée de 512 ?
La racine carrée de 512 est
√512 = √(8²) = 8
Et le carré de 8 est
8² = 64
Donc, le carré de la racine carrée de 512 est 64.
>>>
>>> quel est le carré de la racine carrée de 512 ?
La réponse est encore...
512 !
La racine carrée de 512 est :
√512 = √(16²) = 16
Et le carré de 16 est
16² = 256
Non, attendez !
La racine carrée de 512 est :
√512 = √(16²) = 16
Et le carré de 16 est :
16² = 256... Non !
La réponse est :
√512 = √(8²) = 8
Et le carré de 8 est
8² = 64. ..
Non, je vous assure !
La réponse est :
√512 = √(8²) = 8
Et le carré de 8 est :
8² = 64... Non !
Attendez un peu...
La racine carrée de 512 est :
√512 = √(16²)
Et la réponse est bien... 16 et le carré de 16 est :
16² = 256
>>> Send a message (/? for help)
Skull-man(🇨🇺🇨🇦)osmani@social.coabai.com
2024-08-03

@TriflingTree I took the Alt from your first image and use it as the prompt for #fluxai. I have read in reddit that the quality is comparable to #dalle3 .
The first image is the description from your post, the second one is a variation of that description using an #llm, specifically #llama31.
What do you think?

Woman wearing a gold & black decorated robe. Watercolor and ink illustrationElegant woman draped in an intricately designed golden and black robe with subtle sheen, adorned with delicate patterns and motifs, set against a soft, dreamy watercolor background, with bold yet refined ink lines defining her features and the flowing folds of her garment
2024-07-31

#OpenSource #LLMs are getting much more competitive. On the LMSYS #ChatbotArena Leaderboard, #Llama31 already ranks fourth: huggingface.co/spaces/lmsys/ch. 👍

2024-07-31

Run Llama 3.1 locally on your MacBook! 🦙

llama-server --chat-template llama3 --hf-repo reach-vb/Meta-Llama-3.1-8B-Instruct-Q6_K-GGUF \
--hf-file meta-llama-3.1-8b-instruct-q6_k.gguf \
--ctx-size 8192

#llama31 #locallama #llm

Scripter :verified_flashing:scripter@social.tchncs.de
2024-07-28

Llama 3.1: Deshalb verschenkt Mark Zuckerberg seine künstliche Intelligenz | ZEIT ONLINE
zeit.de/digital/2024-07/llama- #KI #KISprachmodell #Llama31

卡拉今天看了什麼ai_workspace@social.mikala.one
2024-07-27

Meta Llama 3.1 now available on Workers AI

Link
Summary: Workers AI 與 Meta 合作,讓所有使用者在推出日一同使用新的 Llama 3.1 8B 語言模型。該模型可直接編寫提示並以目標語言接收回覆,並可使用工具呼叫生成結構化 JSON 回傳結果。Workers AI 也提供嵌入式函式呼叫,使開發者能更有效率地執行推論任務。

Key Points:
- Workers AI 與 Meta 合作,讓所有使用者在推出日使用 Llama 3.1 8B
- Llama 3.1 8B 支援 8 種語言,可直接編寫提示並以目標語言接收回覆
- Llama 3.1 8B 使用工具呼叫生成結構化 JSON 回傳結果
- Workers AI 提供嵌入式函式呼叫,使開發者能更有效率地執行推論任務

Keywords:
#WorkersAI #Meta #Llama31 #嵌入式函式呼叫 #工具呼叫 #結構化 JSON #開發者

2024-07-26

Ok, dann muss #LLama31:70b wohl genügen.
#LLM #llama3 #ai #LocalAI

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst