Schwerpunkt: Nutzen aus ChatGPT für Cyberkriminelle
Seit November 2022 sorgt der öffentlich zugängliche Chatbot ChatGPT von OpenAI für Furore. Das Tool bietet viele Vorteile im Unternehmensalltag, aber wie steht es um die Cybersicherheit? Experten warnen, dass Cyberkriminelle ChatGPT nutzen könnten, um Angriffe zu starten. Aber würden sie damit deutlich höhere Schäden anrichten, als sie es aktuell tun? Im Wesentlichen kann ChatGPT dabei helfen, Phishing-Texte und einfache Schadprogramme schneller und besser automatisiert zu erstellen. Wirklich ausgefeilte neue Malware wird man damit dagegen vorerst nicht erstellen können. Und auch die Bedrohungslandschaft wird sich nicht wesentlich verändern, abgesehen von der erhöhten Häufigkeit. KI-Lösungen wie ChatGPT werden manchmal auch als "stochastische Papageien" bezeichnet, weil sie als Sprachmodelle mit enormen Textmengen trainiert wurden und sie gut darin sind, schnell viele Texte zu generieren.
Revolutioniert FraudGPT die Bedrohung durch Phishing?
Mit dem Aufkommen von generativen KI-Modellen hat sich die Bedrohungslandschaft drastisch verändert. Seit dem 22. Juli 2023 kursiert beispielsweise das Darknet-Programm FraudGPT in Telegram-Kanälen. Es ist davon auszugehen, dass der Anbieter die Software über einen Telegram-Kanal vertreibt, um seine Dienste nahtlos und ohne die Probleme von Exit-Scams auf Dark-Web-Marktplätzen anbieten zu können.
GenAI als große Chance für das Identitäts- und Zugangsmanagement von morgen
In generativer künstlicher Intelligenz (GenAI) schlummert enormes Potential. Unternehmensprozesse lassen sich mit ihrer Hilfe erheblich optimieren. Laut der kürzlich vom McKinsey Global Institute veröffentlichten Studie The economic potential of generative AI könnten GenAI-Technologien, wie ChatGPT oder DALL-E, schon in nicht allzu ferner Zukunft für einen weltweiten jährlichen Produktivitätszuwachs von 2,36 bis 3,99 Billionen Euro sorgen.
Facebook wird mit Anzeigen und Seiten für gefälschte ChatGPT, Google Bard und andere KI-Dienste überflutet und verleitet Nutzer zum Herunterladen von Malware
Cyber-Kriminelle versuchen immer wieder, neue Wege zu finden, um private Informationen zu stehlen. Ein neuer, von Check Point Research (CPR) aufgedeckter Betrug nutzt Facebook, um ahnungslosen Menschen ihre Passwörter und privaten Daten zu entlocken.
Keine Sicherheitsbedenken: 75 Prozent der deutschen Unternehmen vertrauen ChatGPT
Wie bei vielen neuen Technologien stellt sich auch bei Generative AI und Large Language Model (LLM) wie ChatGPT die Frage: Sind sich Unternehmen ihrer potenziellen Risiken bewusst und wie gehen sie damit um? Gigamon wollte es genau wissen und hat im Rahmen einer aktuellen weltweiten Studie die CIO/CISOs aus 150 deutschen Unternehmen gefragt, wie sie die Sicherheit moderner Technologien einschätzen.
Angriffstechnik auf Basis von ChatGPT: Mit geringem Aufwand Zugriff auf Entwicklerumgebungen zu erlangen
Das Voyager18-Forschungsteam von Vulcan Cyber hat eine neue Angriffstechnik entdeckt, die auf ChatGPT basiert. Diese ermöglicht es Angreifern, mit geringem Aufwand Zugriff auf Entwicklerumgebungen zu erlangen. Voyager18 hat die neue Technik "AI-Paket-Halluzination" genannt.
Revolutioniert FraudGPT die Bedrohung durch Phishing?
Mit dem Aufkommen von generativen KI-Modellen hat sich die Bedrohungslandschaft drastisch verändert. Seit dem 22. Juli 2023 kursiert beispielsweise das Darknet-Programm FraudGPT in Telegram-Kanälen. Es ist davon auszugehen, dass der Anbieter die Software über einen Telegram-Kanal vertreibt, um seine Dienste nahtlos und ohne die Probleme von Exit-Scams auf Dark-Web-Marktplätzen anbieten zu können.
Der Hype um Schnelligkeit, produktives Arbeiten und Automatisierung wird auch von Cyberkriminellen aufgegriffen
Wer kennt ihn mittlerweile nicht, den kleinen KI-Helfer im Berufsalltag: ChatGPT. Das innovative System mit einer Kombination aus fortschrittlicher Künstlicher Intelligenz (KI) und menschenähnlicher Chat-Kommunikation ist eine Revolution im Business-Alltag.
Gefälschte ChatGPT-Domänen und Websites entdeckt
Schon im Dezember 2022 äußerten Sicherheitsforscher von Check Point Software Technologies ihre Bedenken über die Auswirkungen von ChatGPT auf die IT-Sicherheit. Im nächsten Schritt entdeckten sie, dass die Geo-Blockierung des Herstellers OpenAI bereits von russischen Hackern umgangen wird.
Report: Betrüger nutzen den ChatGPT-Hype und verdienen mit Fleeceware-Apps Tausende von Dollar
Sophos X-Ops hat verschiedene Apps in den offiziellen Stores von Apple und Google aufgedeckt, die sich als legitime, ChatGPT-basierte Chatbots ausgeben, Nutzer mit verschleierten, oftmals enorm hohen Gebühren abzocken und den Betrügern so monatlich Tausende von Dollar in die Tasche spülen.
Mitarbeiter müssen, sofern sie die KI-Tools nutzen dürfen, darauf achten, dass sie keine personenbezogenen Daten und keine Firmeninterna eingeben oder in ihre Abfragen einbauen
Generative KI-Systeme wie ChatGPT und Co. erhalten viel Aufmerksamkeit und werden täglich von Tausenden Nutzern mit Daten gefüttert. Immer mehr Unternehmen nutzen die Technologien und setzen sie für die unterschiedlichsten Projekte und Prozesse ein.
Content Creation Second-Most Popular Use of ChatGPT
The recent launch of ChatGPT has launched a serious discussion regarding the broader use of Artificial Intelligence. ChatGPT has become a useful tool in various lines of work in a short time since its release. According to the numbers presented by SafeBettingSites.com, ChatGPT has been most commonly used for coding, with 66 percent of users using it to write codes.
ChatGPT wird zum Schweizer Taschenmesser der Hacker
Die Sicherheitsforscher von Check Point Research (CPR), Forschungsabteilung von Check Point Software Technologies, melden, dass Cyber-Kriminelle für wenig Geld nun Tools verkaufen, die es anderen Hackern ermöglichen, die Sicherheitsbeschränkungen von ChatGPT zu umgehen.
ChatGPT: 81 Prozent sind besorgt über mögliche Sicherheitsrisiken
ChatGPT hat ein Vertrauensproblem – das hat eine Umfrage von Malwarebytes ergeben. Im Rahmen einer "Consumer Pulse"-Umfrage, die Malwarebytes zwischen dem 29. und 31. Mai 2023 über die Plattform Alchemer Survey durchführte, zeigten die Befragten tiefe Vorbehalte gegenüber dem dialogbasierten Chatbot von OpenAI.
Rechtlicher Rahmen für KI: Anhörungen zum Thema KI vor dem US-Kongress
Weltweit erkennt man aktuell Bestrebungen, einen rechtlichen Rahmen für Künstliche Intelligenz (KI) abzustecken. Es gab Anhörungen zum Thema vor dem US-Kongress, bei denen sich unter anderem der ChatGPT-Chef Sam Altman für eine Regulierung für KI aussprach.
Während ChatGPT zwar Phishing-E-Mails erstellen und Malware schreiben könnte, zeigte sich das Tool bei der Erkennung schädlicher Links nur eingeschränkt effizient
Diskussionen rund um KI und ob sie eine Chance oder doch Jobkiller sein wird, gab es in den vergangenen Jahren immer wieder. Mit der Vorstellung von ChatGPT wurde die Debatte erneut entfacht. Laut aktueller Studien erhoffen sich Arbeitgeber und Arbeitnehmer durch den Chatbot eine Steigerung der Produktivität.
Umfrage: Fast die Hälfte fühlt sich von KI-Programmen wie ChatGPT bedroht
Aktuell lässt sich die rasante Entwicklung bei KI mit eigenen Augen beobachten. So wurde erst im März 2023 die neue Version GPT-4 von OpenAI veröffentlicht, deren Chancen und vor allem Risiken in der breiten Öffentlichkeit sehr lebhaft diskutiert werden.
"Darktrace/Email": Großes Upgrade verteidigt Unternehmen gegen neuartige Cyber-Bedrohungen wie generative KI-Business-E-Mails und noch nie dagewesene Social-Engineering-Angriffe
Darktrace-Forscher haben bei Tausenden von aktiven Darktrace/E-Mail-Kunden von Januar bis Februar 2023 einen Anstieg neuartiger Social-Engineering-Angriffe um 135 Prozent beobachtet. Das fällt mit der weit verbreiteten Nutzung von ChatGPT zusammen.
Studie: Anstieg der Phishing-Angriffe um fast 50 Prozent mit Bildungswesen, Finanzen und Behörden am stärksten im Visier
Das Aufkommen neuer KI-Technologien wie ChatGPT hat es Cyberkriminellen erleichtert, bösartigen Code zu generieren, BEC-Angriffe (Business Email Compromise) durchzuführen und polymorphe Malware zu entwickeln, die es den Opfern erschwert, Phishing zu erkennen. Böswillige Akteure hosten ihre Phishing-Seiten auch zunehmend auf dem InterPlanetary File System (IPFS).
Sicherheitsrisiken von ChatGPT: Wie Unternehmen ihre Daten schützen können
ChatGPT, entwickelt vom US-amerikanischen Unternehmen OpenAI, ist ein Chatbot, der weltweit für Aufsehen sorgt. Bisher ist ChatGPD die am schnellsten wachsende App der Geschichte und hat in nur zwei Monaten 100 Millionen aktive Nutzer erreicht – der bisherige Rekordhalter TikTok benötigte dafür neun Monate. konnte das Tool bestehen.
Marktplatz für gestohlene Premium-Konten von ChatGPT im Dark Net entdeckt
Sicherheitsforscher von Check Point entdeckten im Dark Net einen wachsenden Marktplatz für dergleichen Benutzerkonten. Das befeuert die Debatte um die Sicherheit von ChatGPT an sich und den Einfluss des KI-Programms auf die IT-Sicherheit allgemein.
Sicherheitsrisiken von ChatGPT: Wie Unternehmen ihre Daten schützen können
ChatGPT bietet zwar viele Vorteile für Unternehmen, wirft aber auch dringende Sicherheitsfragen auf. Eines der größten Risiken im Zusammenhang mit dieser Technologie besteht darin, dass auch Cyberkriminelle ohne Programmierkenntnisse die Möglichkeit haben, bösartige Software zu erstellen und einzusetzen.
Der Narzisst auf meinem Smartphone: Fluch und Segen des neuen ChatGPT 4
Es wurde mit großer Spannung erwartet: Das Update für ChatGPT. Die neue Version ChatGPT 4, die laut Hersteller Open AI die "fortschrittlichste" KI-Technologie darstelle, soll im Rahmen eines Tests sogar eine Anwaltsprüfung mit Bestnote bestanden haben soll.
Für und Wider des ChatGPT-Einsatzes bei der High-Tech-Entwicklung
ChatGPT, der KI-Chatbot der amerikanischen Firma OpenAI, hat für vielfältige Diskussionen gesorgt. Künstler und Texter machen sich Sorgen, von Künstlicher Intelligenz (KI) ersetzt zu werden.
ChatGPT und Cybercrime: Eine Katastrophe für die IT-Sicherheit?
Die Vergangenheit hat gezeigt, dass eine technologische Neuigkeit immer auch von Cyberkriminellen missbraucht wurde. Das gilt sicher auch für ChatGPT. Für diese konversationelle KI werden alle möglichen neuen Verwendungszwecke erdacht.
ChatGPT4: Sicherheitsanalyse zeigt Szenarien für beschleunigte Cyber-Kriminalität
Check Point Research (CPR) veröffentlicht eine erste Analyse von ChatGPT4. Die Sicherheitsforscher zeigen verschiedene Szenarien, die es Hackern ermöglichen, ihre bösartigen Bemühungen und Vorbereitungen zu verbessern, was zu schnelleren und präziseren Ergebnissen führt.
Wie schon bei dem Hype-Phänomen Pokémon Go nutzen Cyberkriminelle nun auch Fake-Versionen von ChatGPT, um Malware für Android und Windows zu verbreiten
Aufgrund der enormen Popularität von ChatGPT hat OpenAI ein kostenpflichtiges Angebot (ChatGPT Plus) eingeführt, das es Nutzern ermöglicht, den Chatbot ohne Verfügbarkeitsbeschränkungen zu verwenden.
Es gibt viele Möglichkeiten, wie ChatGPT von Cyberkriminellen eingesetzt werden könnte
Im Wesentlichen kann ChatGPT dabei helfen, Phishing-Texte und einfache Schadprogramme schneller und besser automatisiert zu erstellen.
ChatGPT bietet tatsächlich Potenzial für Cyberkriminelle – etwa, wenn das Tool eine Malware schreibt
Seit November 2022 sorgt der öffentlich zugängliche Chatbot ChatGPT von OpenAI für Furore. Das Tool bietet viele Vorteile im Unternehmensalltag, aber wie steht es um die Cybersicherheit?
Die Auswirkungen von ChatGPT auf die IT-Security
Die Einsatzgebiete von ChatGPT sind äußerst vielfältig. Begeisterte Nutzer lassen sich etwa Märchen schreiben oder lösen juristische Probleme aus Examen.
ChatGPT: Im richtigen Kontext verwendet, sorgen KI-gestützte Cybersecurity-Tools dafür, dass Sicherheitsteams in vielfacher Hinsicht profitieren
Die Veröffentlichung von GPT-4 und seine Integration in Tools wie Bing zeigt abermals neue Möglichkeiten auf, wie generative KI im Bereich Sicherheit und IT genutzt werden kann. Und diese Entwicklung ist erst der Anfang.
Gefälschte Webseite, die fast genauso aussieht wie die offizielle ChatGPT-Webseite
Kaspersky-Experten haben eine laufende Malware-Kampagne entdeckt, die sich den Hype rund um den KI-Chatbot ChatGPT zunutze macht.
ChatGPT: Das KI-Modell kann bösartige Aktivitäten in XDR-Telemetriedaten leichter filtern, Spam-Filter verbessern und Analyse von "LOLBins" vereinfachen
Sophos hat einen neuen Report veröffentlicht. Thema ist das GPT-3-Sprachmodell, das hinter dem bekannten ChatGPT-Framework steht, und wie die Cybersecurity-Branche das Modell für die Abwehr von Angreifern nutzen kann.
Bundestag gibt Studie zu Auswirkungen von ChatGPT auf Bildung und Forschung in Auftrag
Um die Risiken der immer größer und komplexer werdenden Computermodelle auf einer wissenschaftlichen Grundlage bewerten zu können, greifen die Abgeordneten auf die Expertise des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag zurück.
Russische Hacker versuchen OpenAI´s Beschränkungen für die böswillige Nutzung von ChatGPT zu umgehen
In Untergrundforen diskutieren Hacker darüber, wie sie die Kontrollen von IP-Adressen, Zahlungskarten und Telefonnummern überbrücken können – all das ist notwendig, um von Russland aus Zugang zu ChatGPT zu erhalten.
Was kann ChatGPT im Kontext von Cybersecurity leisten und was nicht?
ChatGPT beeindruckt derzeit Nutzer auf der ganzen Welt mit seiner Fähigkeit, Fragen zu beantworten und Texte aller Art zu generieren. Für eine Vielzahl von Berufen wird das Werkzeug zu einem wertvollen Assistenten bei ihren täglichen Aufgaben werden.
Cyberkriminelle nutzen Telegram-Bots zur Umgehung von ChatGPT-Beschränkungen
Erneut sind die Sicherheitsexperten von Check Point Research (CPR) auf Cyberkriminelle gestoßen, die Nutzen aus ChatGPT schlagen wollen. Die Hacker nutzen Telegram-Bots, welche mit ChatGPT verbunden sind, um Malware zu erstellen.
Fünf Disziplinen, in denen ChatGPT Cyberkriminelle unterstützen kann
Der OpenAI ChatGPT Chatbot belegt, wie Künstliche Intelligenz und Machine Learning Leben und Alltag unmittelbar bestimmen können. Fortgeschrittene IT-Anwender werden solche Tools für ihre Zwecke nutzen. Und damit leider auch Cyberkriminelle.
ChatGPT hat nicht die Rolle der legendären "Büchse der Pandora" inne
Die Software ChatGPT mit ihren bislang unerreichten KI-Fähigkeiten weckt Ängste in der IT-Security. Welche neuen Bedrohungen Kriminelle mit KI erzeugen können, hat eine gemeinsame Studie von Europol, Unicri und Trend Micro untersucht.
Die ChatGPT kann auch Software/Code entwickeln und debuggen
Die Software ChatGPT von Open AI schlägt hohe Wellen und wird von manchen mit dem Erscheinen der Suchmaschine Google verglichen. Der Chatbot beantwortet mit Hilfe von KI sehr eloquent unterschiedlichste Fragen, schreibt Vorträge, Gedichte und vieles mehr.
Logpoint stellt ChatGPT SOAR-Integration für Experimente zur Verfügung
Logpoint veröffentlicht eine ChatGPT-Integration für Logpoint SOAR in einer Laborumgebung. Sie ermöglicht es den Nutzern, mit dem Potenzial des KI-gesteuerten Chatbots zu experimentieren.
Mit Künstlicher Intelligenz und dem ChatGPT-Algorithmus auf der Jagd nach Cyberkriminellen
Die Verwendung von mehrschichtigen, neuronalen Netzen hat die Leistung des maschinellen Lernens in vielen Bereichen, etwa Bilderkennung, maschinelle Übersetzung und Malware-Klassifizierung, erheblich verbessert.