- Anzeigen -


Sie sind hier: Home » Markt » Tipps & Hinweise

Die fünf größten Gefahren für das Netzwerk


Netzwerkausfall: Ein großer Risikofaktor für Netzwerke sind die eigenen IT-Mitarbeiter, durch deren manuelles Eingreifen Fehler auftreten können
Netzwerkinfrastrukturen sind die Blut- und Nervenbahnen für Geschäftsprozesse, mehr und mehr kritische Daten laufen über sie




Von der IT wird ständige Verfügbarkeit erwartet, Netzwerkausfälle haben da keinen Platz. Weil die Systeme jedoch immer komplexer werden, das Equipment teilweise immer älter ist und die IT-Teams immer mehr gefordert sind, kommt es vermehrt zu Downtime. Opengear hat die fünf häufigsten Ursachen für Netzwerkausfälle zusammengestellt.

Netzwerkinfrastrukturen sind die Blut- und Nervenbahnen für Geschäftsprozesse, mehr und mehr kritische Daten – insbesondere durch den zunehmenden Einsatz von Cloud-Services oder IoT-Geräten – laufen über sie. Können aufgrund eines Netzwerkausfalls Mitarbeiter nicht mehr auf Server und Storage zugreifen oder werden ganze Produktionsabläufe oder Auslieferungsprozesse gestört, kann es allerdings richtig teuer werden. Da kommen schnell Summen von bis zu mehreren Tausend Euro pro Minute zusammen.

Was sind die wichtigsten Ursachen für einen Netzwerkausfall? Die Risiken können laut Opengear in folgende fünf Kategorien unterteilt werden:

>> Stromausfälle: Viele Downtime-Zeiten lassen sich auf Stromausfälle durch Umwelteinflüsse wie Blitzeinschläge, unvorsichtige Baggerfahrer bei Baumaßnahmen sowie Störungen in Lüftern, Kondensatoren, Steuerungs- und Versorgungseinheiten zurückführen.

>> Menschliches Versagen: Ein großer Risikofaktor für Netzwerke sind die eigenen IT-Mitarbeiter, durch deren manuelles Eingreifen Fehler auftreten können. Ein Beispiel sind Konfigurationsfehler, etwa bei der routinemäßigen Wartung.

>> Cyber-Kriminalität: Auch wenn in der Realität die meisten Ausfälle innerhalb des unternehmenseigenen Netzwerks verursacht werden, stellen Cyber-Kriminelle eine große Gefahr dar. Sie hacken sich in Systeme ein, stören diese oder fahren ganze Netzwerke herunter.

>> Komplexität des Netzwerks: Die meisten Netzwerkkomponenten werden immer komplexer, führen hochentwickelte Software-Stacks aus und sind anfällig für Bugs, Exploits, Umgebungseinflüsse wie Temperatur oder Feuchtigkeit und damit für Ausfälle.

>> Vernetzung bis an den Rand (Edge): Der Zugriff auf Anwendungen und Daten aus der Cloud ist in vielen Unternehmen mittlerweile Standard. Gleichzeitig wird in der IoT-Vernetzung Edge Computing zur Schlüsseltechnologie. Je mehr Unternehmen allerdings Daten auf einem einzelnen Gerät oder an entfernten Standorten haben, desto mehr schaffen sie einen Single Point of Failure.

Angesichts dieser zahlreichen Fehlerquellen ist eine zuverlässige Überwachung und Verwaltung von Rechenzentren, Serverräumen und Remote-Standorten für Unternehmen geschäftsrelevant. Diese Maßnahme erfordert eine robust designte Infrastruktur. Die IT-Abteilung muss daher sicherstellen, dass die komplette IT, einschließlich der Netzwerkgeräte wie Router, Switches, WAN-Optimierungslösungen, Firewalls sowie alle verteilten Anwendungen und Server, korrekt installiert und gewartet ist. Nimmt ein Administrator zum Beispiel bei den Netzwerk-Switchen falsche Einstellungen vor oder konfiguriert sie fehlerhaft, kann das dahinterliegende Netzwerk ausgebremst werden oder es fällt ganz aus. Zudem ist besonders für Unternehmen mit Filialnetzen, verteilten Rechenzentren, Produktions- oder Office-Standorten ein verlässlicher Fernzugriff für ihre kritische IT-Infrastrukturen entscheidend, um Downtime zu minimieren. Denn ein verteiltes Netzwerk hat von Natur aus mehr Schwachstellen und ist anfälliger für Serviceunterbrechungen.

"Mit der fortschreitenden Digitalisierung wird die Vermeidung von Ausfallzeiten zu einer Kernaufgabe für Unternehmen. Die betriebswirtschaftlichen Folgen eines Netzwerkausfalls infolge von Umsatzverlust, Schadensersatzforderungen durch Kunden sowie erhöhte Personalkosten können schnell existenzgefährdend sein – ganz abgesehen von einem möglichen Imageschaden für das betroffene Unternehmen", erklärt Dirk Schuma, Sales Manager Europe bei Opengear. Deshalb sei es wichtig, die Kontrolle über das komplette Netzwerk zu behalten.

"Im Unterschied zu herkömmlicher In-Band-Fernwartung, etwa über Tools wie Telnet, kann mit einem Out-of-Band-Management auch bei Ausfall der üblichen Kommunikationsverbindungen von LAN und DSL weiterhin auf die Geräte zugegriffen und zeitnah eine Ferndiagnose erstellt werden", bemerkt Schuma. "IT-Teams können per Out-of-Band eine alternative Verbindung aufbauen, wenn das primäre Netzwerk ausfällt." (Opengear: ra)

eingetragen: 15.12.19
Newsletterlauf: 21.01.20

Opengear: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps & Hinweise

  • Sicherheitsmaßnahmen gegenüber Bedrohungen

    Steigende Compliance-Anforderungen und europäische Richtlinien wie die DSGVO oder die NIS-Richtlinie für kritische Infrastrukturen haben die Umsetzung von Cybersecurity-Maßnahmen in Unternehmen bereits wesentlich vorangetrieben. Jedoch erfüllen Unternehmen häufig lediglich die Mindestanforderungen - während Angreifer über umfassende und ausgefeilte Möglichkeiten verfügen, sich Zugang zu Unternehmensnetzwerken zu verschaffen. Mittelständische Unternehmen, beispielsweise in der produzierenden Industrie oder im Gesundheitswesen, stehen im Fokus von Hackern: Mittels Ransomware-Angriffen können Cyber-Akteure ganze Produktionsstraßen lahm legen oder Krankenhäuser vom Netz nehmen. Insbesondere in diesen Branchen ist der Schaden nach einer Attacke besonders groß, da sie enorme wirtschaftliche Auswirkungen zur Folge haben und eine Vielzahl von Menschen betreffen. Für Hacker sind zudem vor allem mittelständische Unternehmen interessant, die wirtschaftlich erfolgreich sind, aber gleichzeitig nicht über die gleichen umfassenden Sicherheitsmaßnahmen verfügen wie große, börsennotierte Konzerne.

  • Nahezu kein Expertenwissen mehr benötigt

    Cyberkriminelle greifen mit gefälschten Rechnungen vermehrt Unternehmen des produzierenden Gewerbes in Deutschland an. Das hat Proofpoint herausgefunden. Die Angreifer versenden dabei gefälschte Rechnungen, die als Köder verwendet werden oder aber die E-Mail beinhaltet einen Link zu einer Website, auf der das gefälschte Dokument zum Download zur Verfügung steht. Die Dokumente sind mit dem Remote Access Trojaner NanoCore infiziert. Laut Proofpoint enthalten Anhänge eine komprimierte ausführbare Datei (mit der Erweiterung ".Z"), während bösartige Links den Empfänger veranlassen, die auf onedrive.live.com gehostete Malware herunterzuladen.

  • Fünf Sofortmaßnahmen zur Systemhärtung

    Guardicore gibt Sicherheitsempfehlungen für das Support-Ende von Windows Server R2, Windows Server 2008 und Windows 7. Ab 14. Januar 2020 werden Nutzer dieser Microsoft-Betriebssysteme keine kostenlosen Sicherheitsupdates und Online-Aktualisierungen mehr erhalten. Ohne sicherheitsrelevante Updates sind die betroffenen IT-Systeme gegen neu entdeckte Schwachstellen nicht mehr geschützt. Zwar sind die genannten Betriebssysteme teilweise bereits über ein Jahrzehnt alt, aber Schätzungen zufolge ist allein Windows Server 2008/2008 R2 immer noch auf fast jedem dritten Server weltweit im Betrieb. Viele Organisationen können nicht auf aktuelle Betriebssystemversionen wechseln, weil sie komplizierten Gesetzes- und Zertifizierungsanforderungen unterliegen, oder einfach nicht das erforderliche Budget zur Verfügung haben. Gefragt sind deshalb Überbrückungslösungen - auch um zeitaufwendige Migrationsprozesse begleiten zu können.

  • Abfangen und Manipulieren von E-Mails

    Die E-Mail ist das Kommunikationsmittel Nummer eins. Unternehmen sind in der Pflicht, sich mit der E-Mail-Sicherheit zu beschäftigen, kommunizieren sie doch sowohl intern als auch extern. Nahezu täglich ist von Datenpannen und Datendiebstählen zu hören: Fremde verschaffen sich - zum Teil leider kinderleicht - Zugang zum internen Unternehmenssystem und greifen Daten ab oder manipulieren diese. Einfache, unverschlüsselte E-Mails stellen deshalb grundsätzlich eine Gefahr dar: Sie ähneln einer Postkarte, deren Inhalt jeder lesen kann. "Denn gehen E-Mails weder digital signiert noch verschlüsselt auf die Reise, können die Inhalte nicht nur ausspioniert, sondern auch manipuliert werden. Da Angriffe dieser Art in aller Regel nicht sicht- und nachweisbar sind, wird die E-Mail-Sicherheit leider nach wie vor oft stiefmütterlich behandelt. Wie oft und von wem E-Mails gelesen werden, kann ihnen niemand ansehen", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group.

  • Neuer Standort und neue BC/DR-Strategie?

    Die Entfernung zwischen georedundanten Rechenzentren soll mindestens 200km betragen. So empfiehlt es das BSI seit diesem Jahr. Dies stellt viele Unternehmen vor Probleme, betrug die bisher empfohlene Distanz in der Vergangenheit doch gerade einmal fünf Kilometer. Diese geringe Distanz erlaubte es den Betreibern bisher, ihre Rechenzentren über HA-Systeme synchron zu spiegeln. Dies ist bei einem Abstand von 200km jedoch nicht mehr möglich: Die Latenz zwischen den Standorten ist einfach zu hoch, um Organisationen mit traditionellen Hochverfügbarkeits- und Backup-Lösungen gegen Systemausfälle zu schützen. Was können Unternehmen nun tun, um ihre IT etwa gegen logische Fehler oder Ransomware-Attacken abzusichern, um minimalen Datenverlust und kurze Ausfallzeiten zu garantieren? Der neue Mindestabstand, den das BSI (Bundesamt für Sicherheit in der Informationstechnik) seit Dezember 2018 zwischen sich Georedundanz gebenden Rechenzentren empfiehlt, stellt in vieler Hinsicht eine Zäsur dar. Er stellt die Nutzung synchroner Spiegelung grundsätzlich infrage und hat damit einen direkten Einfluss darauf, wie Rechenzentren hierzulande betrieben werden. Wer eine "kritische Infrastruktur" betreibt, wird vom Gesetzgeber sogar dazu gezwungen der Empfehlung zu folgen. Und wer das Pech hat Teil eines Branchenverbandes zu sein, der den Empfehlungen des BSI folgt, wie etwa Mitglieder der Bankenbranche Bafin, haben ebenfalls keine Wahl. All diese Organisationen müssen auf die Entscheidung reagieren und den Abstand ihrer Rechenzentren auf mindestens 200km bringen.