Hackers are turning to new malicious AI models to write malware and scams. Cisco Talos says uncensored and custom AI tools are driving a new wave of cybercrime.
More: https://hackread.com/malicious-ai-models-wave-of-cybercrime-cisco-talos/
Hackers are turning to new malicious AI models to write malware and scams. Cisco Talos says uncensored and custom AI tools are driving a new wave of cybercrime.
More: https://hackread.com/malicious-ai-models-wave-of-cybercrime-cisco-talos/
Totgesagte leben länger:
Nachdem der Pionier "#WormGPT", ein AI-Tool ohne die bekannten ethischen und rechtlichen Grenzen gängiger LLMs schon in 2023 wieder eingestellt wurde, folgten massenhaft Klone mit eingängigen Bezeichnungen wie #FraudGPT.
Doch nun haben Sicherheitsforscher festgestellt, dass WormGPT in zwei Varianten zurück ist - einmal technisch basierend auf der gejailbreakten Grok-API und das andere Mal auf Mistral AI - mit ausgezeichneter Leistungsfähigkeit:
https://www.catonetworks.com/blog/cato-ctrl-wormgpt-variants-powered-by-grok-and-mixtral/
Второе пришествие мейнфреймов. Всё больше компаний хотят запускать ИИ у себя в офисе
Мейнфрейм IBM z16 во время лабораторных тестов в 2022 г, источник Приложения ИИ находят применение в бизнесе. Но есть проблема: корпоративные данные и документация представляют коммерческую тайну. Их нельзя передавать на сторону, тем более в облачную систему машинного обучения. Кроме того, что сама передача небезопасна, так ещё и публичная модель будет обучаться на наших секретах , а потом помогать конкурентам. В общем, у коммерческих компаний остаётся один вариант: поднимать собственный сервер или вычислительный кластер с ИИ. Таким образом, из эпохи облачных вычислений мы возвращаемся к старому доброму самохостингу, только сейчас это самохостинг GPU , серверы и мейнфреймы.
https://habr.com/ru/companies/ruvds/articles/867316/
#IBM #мейнфреймы #Telum_II #AnythingLLM #ChatGPT #Meta #обман #человечество #Mount_Diablo #IBM_z16 #самохостинг #ЦОД #датацентр #WatsonX #Copilot #Twinny #llamafile #Ollama #GPT4All #FraudGPT #WormGPT #Khoj #LocalAI #ruvds_статьи
Was ist FraudGPT?
#FraudGPT ist ein unmoderierter #Chatbot, der auf #Cyberkriminalität und Betrug spezialisiert ist. Er basiert auf einem großen Sprachmodell, das für kriminelle Zwecke trainiert wurde.
From good cop, bad cop to good bot, bad bot. Spiderlabs compared the two best-known malicious LLMs and their evolutionary stages. The conclusion on WormGPT and FraudGPT - "The product may still be far from perfect, but one way or another, this is a clear sign that generative artificial intelligence can become a weapon in the hands of cybercriminals." #ai #tech #fraudgpt #wormgpt #cybersec #darknet
📬 KI für Cyberangriffe genutzt: Microsoft und OpenAI schlagen Alarm
#ITSicherheit #KünstlicheIntelligenz #Cyberangriffe #Cyberkriegsführung #FraudGPT #Hackerangriff #Microsoft #OpenAI #socialengineering #SpearPhishing #Spionage #TomBurt https://sc.tarnkappe.info/74495e
@tarnkappeinfo gibt's auch das Gegenteil von #FraudGPT? Welche GPTs wären das?
📬 FraudGPT: Neue Bedrohung im Cyberspace aus dem Darknet
#Cyberangriffe #ITSicherheit #Szene #darknet #FraudGPT #LLM #WormGPT https://sc.tarnkappe.info/2a04ac
#FraudGPT: Wie weit sind Kriminelle mit der Entwicklung generativer KI? - inside-it.ch https://www.inside-it.ch/fraudgpt-wie-weit-sind-kriminelle-mit-der-entwicklung-generativer-ki-20230808 #ArtificialIntelligence #Malware #phishing #CyberCrime
#Phishing Angriffe über #Salesforce und #Microsoft #Teams, böse KI #FraudGPT im Dark Web, #Cyber Angriff auf Heinrich-Heine-Universität, Administrator von „Deutschland im Deep Web 3“ angeklagt und Update zu neuem #Google Tool zur Selbstkontrolle.
https://www.lastbreach.de/blog/die-weekly-hacker-news-230807
KI kann gefährlich werden. Absichtlich, oder unbeabsichtigt. Hier ein Beispiel für absichtlich herbeigeführte Gefahren:
Fast alles, was geeignet ist, um Nutzen zu erzielen, lässt sich letztlich auch dazu verwenden, um Schaden zuzufügen. Von daher war es ja nur eine Frage der Zeit, bis #FraudGPT, #Darkbert und ihre Kollegen auf der Bildfläche erscheinen würden.
https://www.golem.de/news/im-darknet-trainiert-fraudgpt-darkbart-und-darkbert-unterstuetzen-cyberkriminelle-2308-176372.html
#FraudGPT schreibt #Phishing-Mails und entwickelt #Malware | heise online https://www.heise.de/news/FraudGPT-schreibt-Phishing-Mails-und-entwickelt-Malware-9231555.html #ArtificialIntelligence #CyberCrime
With this chatbot, any threat actor can create malicious code, phishing pages, or search for vulnerabilities and leaks, among other harmful content, as simply and easily as typing a few instructions. With this, they can customize phishing campaigns to trick their victims.
Neuer Spieler in der Welt der Cyberkriminalität aufgetaucht: FraudGPT. Es folgt in den Fußstapfen von WormGPT. Laut einem Sicherheitsforscher handelt es sich um eine KI, die ausschließlich für offensive Zwecke konzipiert wurde.
https://kinews24.de/neues-ki-werkzeug-fraudgpt-bringt-ausgekluegelte-angriffe-hervor
This is why we can’t have nice things:
#FraudGPT Is the Latest #AI Hacking Tool Promising to Automate Scams
"🚨 Cybersecurity Alert: AI-powered chatbot #FraudGPT is being exploited by cybercriminals for malicious activities. Available on Dark Web and Telegram, it crafts phishing messages, creates malware, and even impersonates banks. Stay vigilant and ensure robust defense strategies are in place.
The rise of generative AI models has led to the emergence of AI-powered chatbots like FraudGPT, which are being exploited by cybercriminals for malicious activities. FraudGPT, discovered by Netenrich researchers, is available on Dark Web markets and Telegram. It can craft SMS phishing messages, impersonate banks, and provide information on ideal fraud websites for easier credit card theft. The bot can also create enticing emails to lure recipients into clicking on malicious links, a common tactic in BEC phishing campaigns. FraudGPT is available on a subscription basis, with pricing ranging from $200 per month to $1,700 per year. The developer claims over 3,000 confirmed sales and reviews for FraudGPT. Key features include writing malicious code, creating undetectable malware, finding non-VBV bins, creating phishing pages and hacking tools, and finding cardable sites. The threat actor behind FraudGPT established a Telegram Channel, posing as a verified vendor on various Dark Web markets. Anticipating frequent exit scams in marketplaces, the threat actor opted for a Telegram Channel to offer services seamlessly. The emergence of malicious chatbots like FraudGPT is a concerning sign, indicating that cybercriminals are now using AI for their nefarious objectives. To mitigate such threats, a robust defense-in-depth strategy, coupled with comprehensive security telemetry, is essential.
Sources:
https://www.hackread.com/wormgpt-fraudgpt-ai-driven-cyber-crime/
https://cybersecuritynews.com/fraudgpt-new-black-hat-ai-tool/