#DeepseekR1

2025-06-17

Битва сильнейших: ChatGPT o1 pro / DeepSeek r1 / Claude 3.7 Sonnet / Gemini 2.5 Pro

На дворе 2025-й — год, когда нейросети уже давно превратились из «чего-то неизведанного, но интересного и манящего» в незримых союзников огромного количества людей, которые с радостью поручают им различные задачи в течение дня. И сегодня мы с вами посмотрим на битву ИИ-титанов: ChatGPT o1 Pro, DeepSeek R1, Claude 3.7 Sonnet и Gemini 2.5 Pro. Ну, может, конечно, будет и не столь зрелищно, как в каких-нибудь боевиках, однако, какая из этих моделей справляется с общими задачами лучше всего, мы с вами постараемся выяснить. Что действительно волнует пользователей — как выбрать идеального ИИ-помощника под свою конкретную задачу? Все чаще они ищут не просто умную нейросеть, а специализированные решения для маркетинга, копирайтинга слоганов, сценариев и других видов контента. В этом обзоре мы с вами не только сравним общие способности лидеров рынка, но и присмотримся к тому, какая модель станет вашим лучшим оружием в конкретных областях.

habr.com/ru/companies/bothub/a

#нейросети #промты #deepseekr1 #gemini_25_pro #claude_37_sonnet #chatgpt_o1_pro #сравнение

2025-06-05

Топ нейросетей для пересказа и суммаризации текста

Представьте: вы стоите по горло в море текста — полезного и не очень, от души разбавленного водой, может быть написанного сложным языком, — а времени у вас в обрез. Да даже и представлять не надо — знакомая ведь ситуация? Кто из нас ни разу не тонул в этом текстовом океане, ну? Но вместо того, чтобы тонуть, можно научиться ходить по воде — а надёжными проводниками станут нейросети‑суммаризаторы. Стили и задачи текста бывают разные, и их соотнесением с наиболее сильными сторонами нейросетей мы и займёмся.

habr.com/ru/companies/bothub/a

#нейросети #сокращение_текста #рерайт #промты #deepseekr1 #claudeopus4 #chatgpt4o #YandexGPT5Pro #YandexGPT5Lite

H@R0👨🏻‍💻quetalocatl
2025-06-01

直接模擬就能出答案,比較容易呢,今次用了 沒用 ,OpenRouter 上面的供應商都不太穩定,直接用DeepSeek官方API。這道題用Rust解似乎沒甚麼優點,多少會有一些runtime bug,part 1我遇到的是 usize 小於0會overflow,part 2則是搜尋過程有deadloop但沒注意。

github.com/cosmoswafer/advent-

H@R0👨🏻‍💻quetalocatl
2025-05-30

今次 的升級沒預期中好,雖然能力是不錯,但價錢沒減,換了MoE架構但生成速度沒太大區別,論性價比還是 更優。更不要和Gemini比

H@R0👨🏻‍💻quetalocatl
2025-05-29

希望 盡快升級支持 的Agent mode

H@R0👨🏻‍💻quetalocatl
2025-05-29
H@R0👨🏻‍💻quetalocatl
2025-05-29

暫時還沒用上新版的 但網上的評測結果都說非常驚艷。我見OpenRouter上的供應商速度都一般,之前用R1一直都覺得很慢,正在等DeepSeek官方API表明升級。

2025-05-29

DeepSeek quietly drops R1 model upgrade

The Chinese AI firm has released an improved version of its powerful R1 reasoning model on Hugging Face without formal announcement. The new model boosts logical reasoning, efficiency, and supports real-time decision-making ranking just behind OpenAI's top models.

#AI #DeepSeekR1 #ArtificialIntelligence #AGI #HuggingFace #TechInnovation #OpenSourceAI #TECHi

Read Full Article Here :- techi.com/deepseek-r1-update-a

H@R0👨🏻‍💻quetalocatl
2025-05-29

R2沒來只有一個R1的升級,暫時沒有詳情等其他人評測

huggingface.co/deepseek-ai/Dee

Dr. Thompsonrogt_x1997
2025-05-28

📊 Can your 8GB laptop handle DeepSeek R1?
We ran 250 sessions, built XGBoost models (R² = 0.91 ✅), and found the hidden levers behind RAM, latency & reasoning accuracy.
This isn't guesswork—it's LLM deployment as data science 💡🔍

🔗 Read the full breakdown:
medium.com/@rogt.x1997/can-you

medium.com/@rogt.x1997/can-you

N-gated Hacker Newsngate
2025-05-28

Ah, behold the majestic -0528, a model so and elusive that not even dare to touch it. 🤔✨ With a grand total of zero downloads last month, it's clear that this parameter behemoth is the hottest sensation—if only in its creator's wildest dreams. 🐒💭
huggingface.co/deepseek-ai/Dee

2025-05-15

Полмиллиона запросов за месяц: мой LLM-challenge и первые выводы

Привет, Хабр! Меня зовут Евгений, я работаю разработчиком в Университете Кембриджа (UK). В начале апреля я запустил llm7.io - полностью бесплатный LLM-провайдер, совместимый с популярными библиотеками chat completion . Цель была простая: проверить, насколько эффективно можно построить отказоустойчивую архитектуру под настоящую high-load-нагрузку , и при этом дать всем желающим доступ к мощным языковым моделям - без регистрации, API-токенов, смс и прочих барьеров. Что произошло за месяц?

habr.com/ru/articles/909622/

#llm #llmмодели #llmприложения #provider #opensource #chatgpt #deepseekr1 #mistral #searchgpt

Benjamin Carr, Ph.D. 👨🏻‍💻🧬BenjaminHCCarr@hachyderm.io
2025-04-16

#Apple #MacStudio #M3Ultra Runs #DeepSeekR1 With 671 Billion Parameters Using 448GB Of Unified Memory, Delivering High Bandwidth Performance At Under 200W Power Consumption, With No Need For A Multi-GPU Setup
wccftech.com/m3-ultra-chip-han

2025-04-14

Мал, да удал? Тест Qwen-QwQ-32B на реальных задачах

Число параметров всегда имело значение — по крайней мере, так нас убеждали. Этой догме следовали до тех пор, пока 6 марта Alibaba не представила QwQ-32B — компактную модель с 32 млрд параметров, бросившую вызов тяжеловесу DeepSeek‑R1 с его 671 миллиардами. Это классическая история Давида и Голиафа, но, к удивлению многих, маленькая и ловкая модель не просто держится на плаву — она даже обходит гиганта в ключевых задачах. Но как нейросеть, уступающая в размерах в 20 раз, может показать такие впечатляющие результаты? Давайте разберёмся. В этом обзоре я сравнил между собой Qwen‑QwQ-32B , Qwen-2.5-72B‑Instruct , DeepSeek‑R1 и ChatGPT‑o3-mini‑high на нескольких сложных задачах и делюсь с вами результатами.

habr.com/ru/companies/bothub/a

#ии #qwenqwq32b #qwen2572binstruct #deepseekr1 #chatgpto3minihigh #тест_моделей

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst