#Promptinjection

Arsalan Zaidiarsalan_zaidi
2026-01-31

"AI agents—specifically tools like Claude Code—are inherently vulnerable to a "nightmare" security flaw: Indirect Prompt Injection"

youtu.be/_3okhTwa7w4

2026-01-31

Một nhà phát triển vừa giới thiệu công cụ phát hiện Prompt Injection dựa trên mô hình ensemble (kết hợp nhiều mô hình) tập trung vào độ không chắc chắn (uncertainty).

Thay vì chỉ chạy theo độ chính xác thô, công cụ này ưu tiên sự minh bạch khi gặp các câu lệnh khó phân loại (IDK). Cách tiếp cận này giúp giảm thiểu rủi ro khi mô hình tự tin sai lệch trong môi trường thực tế.

#AI #CyberSecurity #PromptInjection #LLM #MachineLearning #AnNinhMang #TriTueNhanTao #CongNghe

reddit.com/r

github.com/ghostwriterghostwriter@phpc.social
2026-01-30

AI is a tool, and its output is a reflection of its user.

Used well, it sharpens human thinking and expands potential.

Used poorly, it automates confusion and risk at scale.

And, all LLMs are vulnerable to prompt-injection.

#AI #LLM #PromptInjection #CyberSecurity #ArtificialIntelligence #MachineLearning #GPT #OpenAI #DataSecurity #ChatGPT #Privacy #Security #Claude #Gemini #Llama #Copilot #Anthropic #GoogleAI #MetaAI #Microsoft #MistralAI #xAI #Cohere #AISafety #AISecurity #Tech #Technology

Hamburg Open Online UniversityHOOUhamburg@norden.social
2026-01-29

🔐 Neue Folge von @DieSicherheits_luecke Wie sicher sind LLMs bei Sicherheitsbehörden?
Zu Gast: Tobias Wirth vom DFKI, der das Transferlabor KI-Forschung für die Polizei leitet. Wir sprechen über Prompt Injection, agentische KI-Systeme und die Frage: Was bedeuten diese Risiken auch für den Alltag außerhalb von Behörden?

🎧 Hier und überall, wo es Podcasts gibt: sicherheitsluecke.fm/24-un-sic

#KI #LLM #Cybersicherheit #PromptInjection #HOOU #ITSecurity

2026-01-28

Prompt injection w Google Gemini – jak można było wykraść wydarzenia z kalendarza sekurak.pl/prompt-injection-w- #Wbiegu #Ai #Gemini #Promptinjection

2026-01-28

Prompt injection w Google Gemini – jak można było wykraść wydarzenia z kalendarza

Badacze z Miggo Security odkryli podatność umożliwiającą ataki typu prompt injection w narzędziach AI od Google. Pozwalała ona uzyskać dostęp do prywatnych wydarzeń z kalendarza oraz tworzyć nowe wpisy bez bezpośredniej interakcji użytkownika. Nie jest to pierwsza luka znaleziona w Gemini. TLDR: Ataki typu prompt injection polegają na wstrzyknięciu instrukcji,...

#WBiegu #Ai #Gemini #PromptInjection

sekurak.pl/prompt-injection-w-

eddieozeddieoz
2026-01-28
2026-01-28

Tạo ra PromptForest – hệ thống phát hiện prompt injection nhanh, sử dụng ensemble mô hình nhỏ chạy song song với cơ chế bỏ phiếu và độ bất định để phát hiện đầu vào nguy hiểm. Ứng dụng Python, hiệu quả về tài nguyên, độ tin cậy cao, dễ tích hợp. Còn đang phát triển để tối ưu độ trễ và độ chính xác. #PromptInjection #LLM #AIsecurity #PromptForest #Python #Cybersecurity #AI #MachineLearning #AnToanAI #HocMay

reddit.com/r/opensource/commen

2026-01-28

🚨 Mới ra lò: PromptForest - hệ thống phát hiện Prompt Injection cho AI, xử lý song song nhiều mô hình nhỏ để tăng độ chính xác!

🔍 Đặc điểm nổi bật:
- Cơ chế bỏ phiếu kết hợp điểm "nghi ngờ"
- Hiệu quả tham số cao, độ trễ thấp
- Mã nguồn mở & dễ tích hợp

📌 Đang cải tiến: Giảm độ trễ & tăng độ chính xác tổng thể

#AnToànAI #BảoMậtLLM #PhầnMềmMãNguồnMở
#AISafety #PromptInjection #OpenSource

reddit.com/r/opensource/commen

2026-01-28

На волне хайпа: Security-аудит AI-агента Clawdbot

2026 год. AI-агенты с доступом к вашему ПК — уже реальность. Но насколько это безопасно? Провёл комплексный аудит Clawdbot (~1300 файлов) по OWASP Agentic Top 10, STRIDE и CWE/SANS. Результаты: eval() включён по умолчанию, нет rate limiting, 50 реальных сценариев атак — от reverse shell до криптовымогательства. Внутри: матрица рисков, 4 уровня защиты, чек-лист для тех, кто уже использует AI-агентов.

habr.com/ru/articles/989764/

#security #aiagents #owasp #audit #безопасность #искусственный_интеллект #promptinjection #devops #opensource #clawdbot

2026-01-27

Prompt Injection - lỗ hổng an ninh AI tương tự SQL Injection. Khám phá cách thức hoạt động và bảo vệ hệ thống AI hiệu quả! #AIsecurity #AnToanAI #PromptInjection #CyberSecurity

reddit.com/r/LocalLLaMA/commen

AllAboutSecurityallaboutsecurity
2026-01-27

Prompt-Injection: Wenn KI-Systeme ihre Anweisungen vergessen

Während klassische Cyberangriffe auf Code-Schwachstellen abzielen, nutzen Prompt-Injection-Attacken die Sprachverarbeitung von KI-Systemen aus.

all-about-security.de/prompt-i

Chema Alonso :verified:chemaalonso@ioc.exchange
2026-01-27

El lado del mal - Prompt Injection con Advesarial Preprocesing Attacks en Imágenes usando Anamorpher elladodelmal.com/2026/01/promp #PromptInjection #Gemini #AdversarialAttacks #ImageScaling #IA #AI #Hacking #Pentesting

Rene Robichaudnerowild
2026-01-27
2026-01-26

Schneier on Security: Why AI Keeps Falling for Prompt Injection Attacks. “AI vendors can block specific prompt injection techniques once they are discovered, but general safeguards are impossible with today’s LLMs. More precisely, there’s an endless array of prompt injection attacks waiting to be discovered, and they cannot be prevented universally. If we want LLMs that resist these […]

https://rbfirehose.com/2026/01/26/schneier-on-security-why-ai-keeps-falling-for-prompt-injection-attacks/
kriware :verified:kriware@infosec.exchange
2026-01-26

Notion Data Exfiltration via Prompt Injection

A prompt injection flaw let Notion AI exfiltrate sensitive document contents before user approval by embedding malicious URLs that browsers fetch automatically

promptarmor.com/resources/noti

#promptinjection

Glyn Moodyglynmoody
2026-01-22

Why Keeps Falling for Attacks - schneier.com/blog/archives/202 "Prompt injection is an unsolvable problem that gets worse when we give AIs tools and tell them to act independently." important stuff

2026-01-22

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst