KI-gestützte Vishing-Angriffe 🎣 : Eine neue Ära der digitalen Täuschung Menschen am Telefon sind äußerst anfällig für #KI-gestützte #Vishing-Angriffe, bei denen künstliche Intelligenz eingesetzt wird, um Menschen gezielt zu täuschen und vertrauliche Informationen zu erlangen. Die Bedrohung durch solche modernen Technologien wird besonders deutlich, wenn man sieht, wie effektiv Angreifer in der Lage sind, automatisierte Phishing-Bots einzusetzen. Eine aktuelle Studie, die im Rahmen des DEFCON Social Engineering Village Capture the Flag (CTF)-Wettbewerbs durchgeführt wurde, hat eindrucksvoll bewiesen, wie erfolgreich diese Bots agieren können. Dr. Martin J. Kraemer, Security Awareness Advocate bei KnowBe4, fasst erneut die großen problempunkte zusammen. https://lnkd.in/gnbKq7eV
Beitrag von Marktplatz IT-Sicherheit
Relevantere Beiträge
-
🛜Ypsomed Network Engineer Professional #hiring #CiscoChampion #CiscoWirelessLanGroup #WiFi 802.11e CEPT hb9fiz CCNA .ı|ı.ı|ı. A+ Network+ MCP CWTS ECSE SASE SAFe | Switzerland |
Der Artikel diskutiert die Risiken und Chancen der Verwendung von Künstlicher Intelligenz (KI) in der vernetzten Produktion. Während Hacker KI nutzen könnten, um effizientere und zielgerichtete Angriffe durchzuführen, kann die “gute Seite” KI ebenfalls nutzen, um ihre Verteidigungslinien zu stärken.
Chance oder Risiko für die vernetzte Produktion?
elektroniknet.de
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
CEO 💼 Experte für Cybersicherheit 💻 Wir schützen KMUs vor Cyberangriffen ☑️ Mit intelligenter IT-Sicherheit & planbarem Schutz zu noch mehr Erfolg.
⚡ Wie KI die Cybersecurity verändert hat Vor Technologien wie chatGPT, Google Bard, und ähnlichen habe ich als Penetrationstester durch eine Reihe an fortgeschrittenen und z.T. extrem zeitaufwändigen Techniken versucht, bekannte Tools (wie mimikatz, um alle Kennwort-Hashes zu dumpen) in irgendeiner Art und Weise zu obfuskieren, signieren, SysCalls zu implementieren, usw. usf. Das alles basierte jedoch dennoch u.a. auf den Einsatz von mehr oder weniger bekannten Tools, die wiederum ihre Signaturen hinterließen - ein Fakt, den sich Blue Teamer zu ihrem Vorteil zunutze machen im ewigen Katz-und-Maus-Spiel. Nun kann jeder mithilfe dieser KI-Technologien Schadsoftware eigenständig in beliebiger Sprache, sogar in Assembly (macht unfassbar Spaß), nachbilden. Das macht es um einiges schwerer bis quasi unmöglich für Antiviren/Endpoint Detection and Response-Systeme, diese zu erkennen und darauf zu reagieren. Die hohe Flexibilität von chatGPT ermöglicht es, bekannte Tools leicht in verschiedene Sprachen zu portieren, zu vereinfachen und Teile davon zu extrahieren, was die Erkennung erheblich erschwert. Die Entwicklung zukunftsweisender Abwehrmechanismen bleibt abzuwarten, da die KI-Technologie rasante Fortschritte verzeichnet. #Innovation #CybersecurityFuture #Abwehrmechanismen #ProaktiverAnsatz
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Die Möglichkeiten, die Künstliche Intelligenz bietet, werden sowohl von #Cyberkriminellen als auch ihren Gegenspielern genutzt – und bringen beiden Seiten massive Effizienz- und #Qualitätssteigerungen. Um die deutsche Wirtschaft darauf vorzubereiten und zu schützen, muss Deutschland zur „KI-Chancen-Republik“ werden, schreibt Claudia Nemat von der Deutsche Telekom. Was sie damit meint und woran die Deutsche Telekom an der Schnittstelle von #KI und #Cybersicherheit tüftelt. Hier gehts zum frei verfügbaren Artikel 👉 https://lnkd.in/gfjxrNN3 #Wissensvorsprung #CodeLeakage #Chatbots
Standpunkt: Wenn Hase und Igel auf KI setzen
background.tagesspiegel.de
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Unser kostenfreies Webinar zum Thema Künstliche Intelligenz & Deepfake 🤖 Der Hype um Künstliche Intelligenz #KI# nimmt kein Ende: Fast jeden Monat gibt es bahnbrechende Neuerungen. Ob immer leistungsfähigere KI-Hardware oder bedeutende Ankündigungen von Meta, OpenAI, Microsoft und anderen Tech-Giganten – niemand lässt lange auf den nächsten KI-Schachzug warten. Doch auch #Cyberkriminelle sind von KI begeistert. Mit gefälschten Anrufen, Video-Calls und schnell generierten Betrugs-E-Mails, oft mithilfe von Tools wie ChatGPT, erbeuten sie bereits Millionen. In unserem Webinar erfahren Sie von unseren Experten, welche Bedrohungen aktuell bestehen und wie Sie KI gezielt nutzen können, um sich gegen diese neuen Gefahren zu verteidigen. Nutzen Sie die Gelegenheit, um sich umfassend zu informieren und Ihre Sicherheitsstrategie auf den neuesten Stand zu bringen. JETZT ANMELDEN 👉 https://lnkd.in/dnDxAkJq 📅 28.08.24 ⏰ 10-11 Uhr 🌐 Online #Webinar #KünstlicheIntelligenz #ITSicherheit #Cybersicherheit #Deepfake #DigitalagenturBerlin #DigitaleTransformation #Berlin
Deepfake Duell – Angriff und Verteidigung mit KI
digitalagentur.berlin
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat die Landschaft der Cybersicherheit dramatisch verändert. Tools wie ChatGPT eröffnen nicht nur neue Effizienzpotenziale für Unternehmen, sondern auch unerwartete Angriffsflächen für Cyberkriminalität.
Wie KI Cyberangriffe verändert
security-insider.de
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Neue Perspektiven in der #Cybersicherheit: Wie #KI #Cyberangriffe verändert und welche Abwehrmechanismen effektiv eingesetzt werden können. Gregory Guglielmetti, CPO bei Nevis Security beleuchtet im aktuellsten Beitrag des Security-Insider, wie KI als Werkzeug für Cyberkriminelle eingesetzt wird und welche Rolle modernste #CIAM-Lösungen (Customer Identity and Access Management) schon heute spielen. Erfahren Sie mehr über innovative Verteidigungsstrategien. #Cybersecurity #KünstlicheIntelligenz #ChatGPT #Cyberbedrohungen
Die rasante Entwicklung der Künstlichen Intelligenz (KI) hat die Landschaft der Cybersicherheit dramatisch verändert. Tools wie ChatGPT eröffnen nicht nur neue Effizienzpotenziale für Unternehmen, sondern auch unerwartete Angriffsflächen für Cyberkriminalität.
Wie KI Cyberangriffe verändert
security-insider.de
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
Interessanter Artikel! Als KI-Berater finde ich die diskutierten Ansätze zur Implementierung künstlicher Intelligenz in traditionellen Branchen besonders aufschlussreich. Es zeigt, wie wichtig es ist, sowohl technische als auch ethische Überlegungen in den Mittelpunkt der KI-Integration zu stellen.
❓ Wie verändert KI die Cyberbedrohungslandschaft? Genau dieser Frage sind wir in einer aktuellen Untersuchung nachgegangen: Dabei haben wir KI-gestützte Anwendungen identifiziert, die bereits heute für den offensiven Einsatz zugänglich sind und bewertet, wie sich diese Bedrohungen in naher Zukunft entwickeln könnten. Generative KI, insbesondere große Sprachmodelle, senkt die Einstiegshürden für Cyberangriffe und erhöht Umfang, Geschwindigkeit und Schlagkraft schadhafter Handlungen im digitalen Raum. Neben allgemeinen Produktivitätsgewinnen für böswillige Akteure stellen wir derzeit eine maligne Nutzung vor allem im Bereich des #SocialEngineering und bei der Generierung von #Schadcode fest: 💡 KI ermöglicht es Angreifenden, qualitativ hochwertige Phishing-Nachrichten zu erstellen. 💡 Erste Proofs of Concept zeigen, dass KI für die automatische Generierung und Mutation von Malware eingesetzt werden kann. 💡 Aber: Bösartige KI-Agenten, die zur vollständigen Angriffsautomatisierung führen, sind aktuell nicht verfügbar und werden mit hoher Wahrscheinlichkeit auch in naher Zukunft nicht verfügbar sein. Dennoch ist KI bereits heute in der Lage, Teile eines Cyberangriffs zu automatisieren. ☝️ Die positive Seite: Auch Cyberverteidigende profitieren von Produktivitätssteigerungen durch den Einsatz von KI, z. B. bei der Codegenerierung, zur Analyse von Quellcode auf Schwachstellen, zur Detektion von Malware oder der Erstellung von Lagebildern. Mehr dazu auch in unserer Pressemitteilung: https://lnkd.in/dQyGfTQf Die ganze Untersuchung findet ihr ⬇️ und hier: https://lnkd.in/ezgFQimZ
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
🤖 In sogenannten großen Sprachmodellen (LLMs) gehen Dinge vor sich, die sich jeglicher Kontrolle entziehen. Oft werden LLMs als Blackbox bezeichnet. Bauen andere Programme und Systeme wie Chatbots darauf auf, so herrscht auch bei diesen eine gewisse Intransparenz. Das mache derartige Technologien anfällig für bestimmte Angriffe böswilliger Akteure, die versteckte Schwachstellen ausnutzten und somit Ergebnisse manipulieren könnten, schreibt das Magazin Security Insider, und es berichtet über ein neues Konzept dagegen: Fuzzy AI. Hinter dem Konzept stehe das Cybersicherheitsunternehmen CyberArk. Laut dem Artikel kombiniert Fuzzy AI dreierlei zu einer umfassenden Verteidigung, mit der sich Angriffe identifizieren und unterbinden lassen: erstens kontinuierliches Fuzzing (eine automatisierte Form von Software- oder Chatbottest), zweitens Echtzeiterkennung und drittens Model-Level-Awareness-Detection (Überwachung von LLM-Neuronen oder deren Pfaden auf schädliche Muster). Der wesentliche Vorzug dieser Herangehensweise sei dies, heißt es: Es falle kein zusätzlicher Laufzeitoverhead an und die ursprüngliche Eingabe werde nicht manipuliert. --- Cybersecurity ist mit Sicherheit eines der wichtigsten Themen bei KI und LLMs. Bist du ein Cyberspezialist oder interessierst dich einfach nur für LLMs? Wenn ja, wie klingt diese Herangehensweise für dich? Lass es uns gerne in den Kommentaren wissen ⬇️ #ki #aiinnovation #aiinsights #airesearch #innoverse
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
❓ Wie verändert KI die Cyberbedrohungslandschaft? Genau dieser Frage sind wir in einer aktuellen Untersuchung nachgegangen: Dabei haben wir KI-gestützte Anwendungen identifiziert, die bereits heute für den offensiven Einsatz zugänglich sind und bewertet, wie sich diese Bedrohungen in naher Zukunft entwickeln könnten. Generative KI, insbesondere große Sprachmodelle, senkt die Einstiegshürden für Cyberangriffe und erhöht Umfang, Geschwindigkeit und Schlagkraft schadhafter Handlungen im digitalen Raum. Neben allgemeinen Produktivitätsgewinnen für böswillige Akteure stellen wir derzeit eine maligne Nutzung vor allem im Bereich des #SocialEngineering und bei der Generierung von #Schadcode fest: 💡 KI ermöglicht es Angreifenden, qualitativ hochwertige Phishing-Nachrichten zu erstellen. 💡 Erste Proofs of Concept zeigen, dass KI für die automatische Generierung und Mutation von Malware eingesetzt werden kann. 💡 Aber: Bösartige KI-Agenten, die zur vollständigen Angriffsautomatisierung führen, sind aktuell nicht verfügbar und werden mit hoher Wahrscheinlichkeit auch in naher Zukunft nicht verfügbar sein. Dennoch ist KI bereits heute in der Lage, Teile eines Cyberangriffs zu automatisieren. ☝️ Die positive Seite: Auch Cyberverteidigende profitieren von Produktivitätssteigerungen durch den Einsatz von KI, z. B. bei der Codegenerierung, zur Analyse von Quellcode auf Schwachstellen, zur Detektion von Malware oder der Erstellung von Lagebildern. Mehr dazu auch in unserer Pressemitteilung: https://lnkd.in/dQyGfTQf Die ganze Untersuchung findet ihr ⬇️ und hier: https://lnkd.in/ezgFQimZ
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
-
KI, Wissenschaft und Handwerk // Stv. Geschäftsführer Handwerkskammer Münster // Lehrbeauftragter Universität Münster // KI-Dozent //„Leidenschaft ist das beste Werkzeug“
Künstliche Intelligenz (KI) bringt große Chancen und Möglichkeiten, birgt aber natürlich auch Risiken. Wie die digitale Angriffslandschaft durch KI verändert wird, hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) untersucht. Mehr im folgenden Ergebnisdokument und der Zusammenfassung vorweg im jüngsten Beitrag des BSI. #KI #AI #ITSicherheit #Cyberkriminalität #SocialEngineering #Schadcode #Phishing #Malware #Automatisierung #Cyberangriff #KünstlicheIntelligenz #KIAgenten
❓ Wie verändert KI die Cyberbedrohungslandschaft? Genau dieser Frage sind wir in einer aktuellen Untersuchung nachgegangen: Dabei haben wir KI-gestützte Anwendungen identifiziert, die bereits heute für den offensiven Einsatz zugänglich sind und bewertet, wie sich diese Bedrohungen in naher Zukunft entwickeln könnten. Generative KI, insbesondere große Sprachmodelle, senkt die Einstiegshürden für Cyberangriffe und erhöht Umfang, Geschwindigkeit und Schlagkraft schadhafter Handlungen im digitalen Raum. Neben allgemeinen Produktivitätsgewinnen für böswillige Akteure stellen wir derzeit eine maligne Nutzung vor allem im Bereich des #SocialEngineering und bei der Generierung von #Schadcode fest: 💡 KI ermöglicht es Angreifenden, qualitativ hochwertige Phishing-Nachrichten zu erstellen. 💡 Erste Proofs of Concept zeigen, dass KI für die automatische Generierung und Mutation von Malware eingesetzt werden kann. 💡 Aber: Bösartige KI-Agenten, die zur vollständigen Angriffsautomatisierung führen, sind aktuell nicht verfügbar und werden mit hoher Wahrscheinlichkeit auch in naher Zukunft nicht verfügbar sein. Dennoch ist KI bereits heute in der Lage, Teile eines Cyberangriffs zu automatisieren. ☝️ Die positive Seite: Auch Cyberverteidigende profitieren von Produktivitätssteigerungen durch den Einsatz von KI, z. B. bei der Codegenerierung, zur Analyse von Quellcode auf Schwachstellen, zur Detektion von Malware oder der Erstellung von Lagebildern. Mehr dazu auch in unserer Pressemitteilung: https://lnkd.in/dQyGfTQf Die ganze Untersuchung findet ihr ⬇️ und hier: https://lnkd.in/ezgFQimZ
Zum Anzeigen oder Hinzufügen von Kommentaren einloggen
583 Follower:innen