Prompt injection w Google Gemini – jak można było wykraść wydarzenia z kalendarza https://sekurak.pl/prompt-injection-w-google-gemini-jak-mozna-bylo-wykrasc-wydarzenia-z-kalendarza/ #Wbiegu #Ai #Gemini #Promptinjection
Prompt injection w Google Gemini – jak można było wykraść wydarzenia z kalendarza https://sekurak.pl/prompt-injection-w-google-gemini-jak-mozna-bylo-wykrasc-wydarzenia-z-kalendarza/ #Wbiegu #Ai #Gemini #Promptinjection
Prompt injection w Google Gemini – jak można było wykraść wydarzenia z kalendarza
Badacze z Miggo Security odkryli podatność umożliwiającą ataki typu prompt injection w narzędziach AI od Google. Pozwalała ona uzyskać dostęp do prywatnych wydarzeń z kalendarza oraz tworzyć nowe wpisy bez bezpośredniej interakcji użytkownika. Nie jest to pierwsza luka znaleziona w Gemini. TLDR: Ataki typu prompt injection polegają na wstrzyknięciu instrukcji,...
#WBiegu #Ai #Gemini #PromptInjection
https://sekurak.pl/prompt-injection-w-google-gemini-jak-mozna-bylo-wykrasc-wydarzenia-z-kalendarza/
Tạo ra PromptForest – hệ thống phát hiện prompt injection nhanh, sử dụng ensemble mô hình nhỏ chạy song song với cơ chế bỏ phiếu và độ bất định để phát hiện đầu vào nguy hiểm. Ứng dụng Python, hiệu quả về tài nguyên, độ tin cậy cao, dễ tích hợp. Còn đang phát triển để tối ưu độ trễ và độ chính xác. #PromptInjection #LLM #AIsecurity #PromptForest #Python #Cybersecurity #AI #MachineLearning #AnToanAI #HocMay
https://www.reddit.com/r/opensource/comments/1qp4jp3/i_made_a_fast_ensemble_prompt_inject
🚨 Mới ra lò: PromptForest - hệ thống phát hiện Prompt Injection cho AI, xử lý song song nhiều mô hình nhỏ để tăng độ chính xác!
🔍 Đặc điểm nổi bật:
- Cơ chế bỏ phiếu kết hợp điểm "nghi ngờ"
- Hiệu quả tham số cao, độ trễ thấp
- Mã nguồn mở & dễ tích hợp
📌 Đang cải tiến: Giảm độ trễ & tăng độ chính xác tổng thể
#AnToànAI #BảoMậtLLM #PhầnMềmMãNguồnMở
#AISafety #PromptInjection #OpenSource
https://www.reddit.com/r/opensource/comments/1qp4jp3/i_made_a_fast_ensemble_prompt_inject
На волне хайпа: Security-аудит AI-агента Clawdbot
2026 год. AI-агенты с доступом к вашему ПК — уже реальность. Но насколько это безопасно? Провёл комплексный аудит Clawdbot (~1300 файлов) по OWASP Agentic Top 10, STRIDE и CWE/SANS. Результаты: eval() включён по умолчанию, нет rate limiting, 50 реальных сценариев атак — от reverse shell до криптовымогательства. Внутри: матрица рисков, 4 уровня защиты, чек-лист для тех, кто уже использует AI-агентов.
https://habr.com/ru/articles/989764/
#security #aiagents #owasp #audit #безопасность #искусственный_интеллект #promptinjection #devops #opensource #clawdbot
Prompt Injection - lỗ hổng an ninh AI tương tự SQL Injection. Khám phá cách thức hoạt động và bảo vệ hệ thống AI hiệu quả! #AIsecurity #AnToanAI #PromptInjection #CyberSecurity
Prompt-Injection: Wenn KI-Systeme ihre Anweisungen vergessen
Während klassische Cyberangriffe auf Code-Schwachstellen abzielen, nutzen Prompt-Injection-Attacken die Sprachverarbeitung von KI-Systemen aus.
https://www.all-about-security.de/prompt-injection-wenn-ki-systeme-ihre-anweisungen-vergessen/
El lado del mal - Prompt Injection con Advesarial Preprocesing Attacks en Imágenes usando Anamorpher https://elladodelmal.com/2026/01/prompt-injection-con-advesarial.html #PromptInjection #Gemini #AdversarialAttacks #ImageScaling #IA #AI #Hacking #Pentesting
Prompt Injection Is the New SQL Injection: How Hackers Are Breaking into AI Systems
https://dzone.com/articles/prompt-injection-ai-security
#Infosec #Security #Cybersecurity #CeptBiro #PromptInjection #SQLInjection #AISystems
Schneier on Security: Why AI Keeps Falling for Prompt Injection Attacks. “AI vendors can block specific prompt injection techniques once they are discovered, but general safeguards are impossible with today’s LLMs. More precisely, there’s an endless array of prompt injection attacks waiting to be discovered, and they cannot be prevented universally. If we want LLMs that resist these […]
https://rbfirehose.com/2026/01/26/schneier-on-security-why-ai-keeps-falling-for-prompt-injection-attacks/Notion Data Exfiltration via Prompt Injection
A prompt injection flaw let Notion AI exfiltrate sensitive document contents before user approval by embedding malicious URLs that browsers fetch automatically
https://www.promptarmor.com/resources/notion-ai-unpatched-data-exfiltration
Schneier on Security: Why AI Keeps Falling for Prompt Injection Attacks https://www.schneier.com/blog/archives/2026/01/why-ai-keeps-falling-for-prompt-injection-attacks.html #infosec #promptinjection #LLM
Why #AI Keeps Falling for #PromptInjection Attacks - https://www.schneier.com/blog/archives/2026/01/why-ai-keeps-falling-for-prompt-injection-attacks.html "Prompt injection is an unsolvable problem that gets worse when we give AIs tools and tell them to act independently." important stuff
Google Gemini: attacco hacker tramite Google Calendar
#AI #DataLeak #GeminiAI #Google #GoogleCalendar #GoogleGemini #Hacking #IntelligenzaArtificiale #MiggoSecurity #Privacy #PromptInjection #Sicurezza #TechNews #Tecnologia
https://www.ceotech.it/google-gemini-attacco-hacker-tramite-google-calendar/
TechRadar (@techradar)
새로운 프롬프트 인젝션(prompt injection) 변종이 발견되어 수정되었다는 내용입니다. 프롬프트 기반 공격의 지속적 변형과 이에 대한 대응(패치/완화)이 이루어졌음을 알려 AI 보안 및 모델 안정성 관리의 중요성을 시사합니다.