- Anzeigen -


Sie sind hier: Home » Markt » Studien

Mangelnde Tests sind Risiko für IT-Infrastrukturen


Profile von Anwendungs-Workloads vor dem Kauf einer Speicherlösung zu verstehen und zu bewerten, liefert wichtige Informationen über die tatsächlichen Anforderungen der Endnutzer
Studie bringt zunehmende Notwendigkeit der Zusammenarbeit von Anwendungs- und Infrastrukturteams ans Licht: Nur 41 Prozent der IT-Experten legen Workload-Profile an und testen Speicher vor dem Kauf

- Anzeigen -





Die Enterprise Strategy Group (ESG) hat mit Virtual Instruments, Anbieterin von anwendungsbasiertem Infrastructure Performance Management, und zahlreichen weiteren Technologieunternehmen eine Studie durchgeführt. Daraus geht hervor, dass IT-Teams in ganz Europa ihre IT-Infrastrukturen – und damit ihre Unternehmen – gefährden, indem sie weder Profile von Anwendungs-Workloads erstellen noch Datenspeichersysteme vor dem Kauf und der Bereitstellung testen.

Die Profile von Anwendungs-Workloads vor dem Kauf einer Speicherlösung zu verstehen und zu bewerten, liefert wichtige Informationen über die tatsächlichen Anforderungen der Endnutzer. Ohne die Profile von Produktionsanwendungen und die Analyse ihres I/O-Verhaltens kann es sehr schwer werden, Speichersysteme richtig zu bewerten und zu skalieren, da genaue Informationen über die Speicherleistung fehlen. Genau diese Informationen sind aber notwendig, um optimale Performance zu gewährleisten und Verlangsamungen und Ausfälle zu verhindern.

Dennoch gaben von den 412 IT-Experten, die an der Befragung teilnahmen, gerade einmal 41 Prozent an, dass sie ein Profil ihrer Workloads erstellen werden, bevor sie ihr nächstes Speichersystem kaufen. 56 Prozent der Befragten verlassen sich darauf, dass entweder ihr Speicheranbieter oder VAR Ihnen eine geeignete Lösung empfehlen wird. Wenn man sich aber ausschließlich auf die Empfehlungen von Verkäufern oder Partnern verlässt, die mit bestimmten Anbietern zusammenarbeiten, übersieht man aber mitunter wichtige Schwachstellen. Im besten Fall kommt es zur Überdimensionierung und Verschwendung von finanziellen Mitteln, im schlechtesten Fall hält eine ungeeignete Speicherlösung nicht mit den Geschäftsanforderungen einer Organisation mit und führt zu Umsatzeinbußen.

Die Folgen von fehlenden Informationen über das Verhalten von Anwendungs-Workloads werden durch das fehlende Verständnis der Leistung einer Speicherlösung vor dem eigentlichen Einsatz noch weiter verschärft. Gerade einmal 29 Prozent der Befragten gaben an, dass sie vor dem Kauf des nächsten Speichersystems selbst einen Lasttest vor Ort ausführen werden, während weitere 11 Prozent angaben, dass sie mit Anbietern oder Partnern gemeinsam Lasttests durchführen werden, um sich gemeinsam für ein neues System zu entscheiden. Ohne das Wissen, wie eine Lösung sich voraussichtlich unter normalen, dynamischen und Höchstbelastungssituationen verhalten wird, ist es viel schwieriger, einzuschätzen, ob eine Lösung korrekt konfiguriert ist, um die einzigartigen Anforderungen eines Unternehmens zu erfüllen. Und das wird sich sehr wahrscheinlich auf die Gesamtleistung eines Systems auswirken.

"Es ist ein Mythos, dass das Upgrade auf einen Flash-Speicher alle datenbasierten Anwendungsleistungsprobleme lösen wird", so Mark Peters, Practice Director & Senior Analyst bei der Enterprise Strategy Group. "Die Anwendungsleistung wird erheblich von den I/O-Eigenschaften und -Mustern der entsprechenden Anwendung sowie der Interaktion mit anderen Anwendungen in derselben – selbstverständlich virtualisierten – Infrastruktur beeinflusst. Jeder Anbieter hat eine andere Lösung gefunden, um mit den zahlreichen unterschiedlichen Workloads in ihren All-Flash-Arrays umzugehen. Es kommt daher nicht selten vor, dass die Leistung für ein und dieselbe Workload um den Faktor fünf schwankt."

Dennoch geht aus der Studie hervor, dass Speicherleistung und -verfügbarkeit die höchste Priorität haben. 70 Prozent der Teilnehmer planen, mit den Anwendungseigentümern Service Level Agreements (SLAs) für die Leistung und/oder Verfügbarkeit abzuschließen. Im Hinblick auf die Leistung werden 43 Prozent der Teilnehmer spezifische SLAs abschließen. Ohne Lasttests und Überwachung ist es aber praktisch unmöglich, die SLAs zu erfüllen.

94 Prozent der Teilnehmer gaben an, dass ihr Unternehmen die Leistung und Verfügbarkeit durch Überwachungs-Tools gewährleistet. Davon ziehen 54 Prozent anbieterunabhängige Überwachungs-Tools vor. Diese Lösungen analysieren die Leistung in der gesamten Infrastruktur, was es erheblich erleichtert, Leistungsprobleme und deren Ursachen zu erkennen. Eine Verlangsamung im Speicher kann beispielsweise durch eine überlastete Anwendung an einer anderen Stelle in der Infrastruktur ausgelöst werden.

Da die Leistungen von Anwendungen und Speichern so eng miteinander verbunden sind, sollte es niemanden überraschen, dass die Mehrzahl (74 Prozent) der Teilnehmer angab, dass den Anwendungseigentümern ihrer Organisation die Wahl des Speichers wichtig ist. Gleichzeitig gaben jedoch gerade einmal 16 Prozent an, dass die Anwendungseigentümer ein Mitspracherecht bei der Entscheidung für eine Speicherlösung haben. Das ist leider eine vergebene Chance: Die Zusammenarbeit zwischen den Speicher- und Anwendungsteams sorgt für ein viel besseres Verständnis der gesamten Infrastruktur und der Auswirkung aller Komponenten auf ihre Leistung.

Chris James, EMEA Marketing Director, Virtual Instruments, erklärt: "Die Ergebnisse dieser Studie sollten sowohl die CIOs von Unternehmen als auch die Anbieter zum Nachdenken anregen. Die CIOs sollten sich über die Wissenslücken Gedanken machen, die ein Risiko für ihr Unternehmen darstellen. Sie sind jedoch auch Gelegenheiten, das Wissen über die Infrastruktur zu vertiefen und herauszufinden, wie sie weniger Finanzmittel verschwenden und eine Überdimensionierung vermeiden können. Solch ein Wissen führt zu mehr und gleichmäßigerer Leistung, was wiederum Vorteile für die gesamte IT-Infrastruktur und das gesamte Unternehmen bietet.

"Für die Anbieter stellen die Ergebnisse einen klaren Hinweis dafür dar, worauf sie sich konzentrieren sollten. Die Verfügbarkeit muss eine Grundvoraussetzung sein – die Leistung ist es, worauf es den Kunden ankommt. Die Anbieter, die ihren Kunden leistungsbasierte SLAs bieten können, die sowohl auf Test- als auch Überwachungs-Tools beruhen, werden die Maßstäbe für den Rest des Marktes setzen."
(Virtual Instruments: ra)

eingetragen: 04.10.17
Home & Newsletterlauf: 26.10.17


Virtual Instruments: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser IT SecCity-Newsletter
Ihr IT SecCity-Newsletter hier >>>>>>

- Anzeigen -


Meldungen: Studien

  • Gesamtschaden von knapp 2,2 Milliarden Euro

    Norton by Symantec veröffentlichte die neueste Auflage ihres jährlichen "Norton Cyber Security Insights Reports" (NCSIR). Der Bericht zeigt, dass sich noch immer viele Verbraucher im Netz zu sicher fühlen. Cyberkriminelle widerlegen dieses falsche Sicherheitsgefühl und haben im vergangenen Jahr mit ihren Aktivitäten in den 20 untersuchten Ländern insgesamt 172 Milliarden US-Dollar von 978 Millionen Verbrauchern gestohlen. Allein in Europa waren im untersuchten Zeitraum mehr als 98 Millionen Menschen von Cyberkriminalität betroffen, wobei ein Schaden von 27,4 Milliarden US-Dollar entstanden ist. Das ist mehr als das Bruttoinlandsprodukt manches europäischen Landes. Auch für Deutschland sind die Zahlen besorgniserregend. So wurden im Untersuchungszeitraum über 23 Millionen Deutsche Opfer von Cyberkriminalität. Das entspricht mehr als einem Drittel der Erwachsenen, die online gehen (38 Prozent). Dabei entstand ein Gesamtschaden von knapp 2,2 Milliarden Euro. Jedes einzelne Opfer war zudem durchschnittlich 14,6 Stunden - also fast zwei volle Arbeitstage - damit beschäftigt, die Folgen der Cyberattacke zu beheben.

  • Hoffnung: Steigende Budgets für Sicherheit

    IT-Abteilungen stehen angesichts der immer ausgefeilteren Cyber-Attacken vor großen Herausforderungen. Der zweite Teil des Application Intelligence Report (AIR), eine Studie von A10 Networks, zeigt ein weiteres drängendes Problem: Die mangelnde Bereitschaft der Mitarbeiter, Vorsichtsmaßnahmen umzusetzen, beeinträchtigt die Abwehr von Bedrohungen maßgeblich und bietet so einen weiteren Grund zur Sorge. Der AIR-Report untersucht den Umgang mit Apps und die steigenden Sicherheitsauswirkungen für das private Umfeld, aber auch für Unternehmen und die IT-Abteilungen. Der erste Teil der Studie, der im Sommer 2017 vorgestellt wurde, hatte ergeben, dass sich die Grenzen zwischen beruflichen und privaten Leben durch die Nutzung von Apps zu Hause, im Büro und unterwegs immer weiter verschieben.

  • Komplexere Angriffsformen liegen im Trend

    Die Analysen von ThreatMetrix haben nachgewiesen, dass 2017 ein Rekordjahr im Kampf gegen die Online-Kriminalität war. Wie der "ThreatMetrix Cybercrime Report 2017" rückblickend feststellt, hat sich die Zahl der digitalen Attacken in den letzten zwei Jahren um 100 Prozent erhöht. Dieses Ergebnis basiert auf der Auswertung von Cybercrime-Aktivitäten weltweit - hierfür wurden über das globale Netzwerk des Unternehmens rund 100 Millionen Transaktionen täglich analysiert. Die gute Nachricht: Unternehmen, die zum Schutz der Verbraucher in innovative, digitale Strategien investieren, konnten ebenfalls einen Rekord aufstellen, und zwar bei der Abwehr von den aus den großen Datendiebstählen resultierenden Downstream-Angriffen auf ihre Kunden.

  • Studien: Ransom-Attacken weiter auf dem Vormarsch

    Radware hat ihren "Global Application and Network Security Report 2017-2018" veröffentlicht. Nach diesem Bericht hat sich der Anteil der Unternehmen, die finanziell motivierte Cyber-Angriffe melden, in den letzten zwei Jahren verdoppelt. Die Hälfte aller befragten Unternehmen erlebte im vergangenen Jahr einen Cyber-Angriff, der mit Lösegeldforderungen verbunden war. Da der Wert von Bitcoin und anderen Krypto-Währungen - oft die bevorzugte Zahlungsform unter Hackern - stetig steigt, bieten Ransom-Angriffe Hackern die Möglichkeit, Lösegelder gewinnbringend anzulegen und so zusätzliche Gewinne zu erzielen.

  • Das persönliche Passwort-Management ist schwierig

    Mit jedem neuen Account, den Anwender zur Nutzung von Online-Diensten einrichten, stellt sich erneut die Frage nach einem einzigartigen und starken Passwort. Doch wer kann sich so viele Passwörter merken? Jeder zweite Anwender in Deutschland greift laut einer Kaspersky-Studie zu unsicheren Methoden. Ein Viertel der in Deutschland befragten Nutzer gibt beispielsweise zu, sich Passwörter auf Papierzetteln zu notieren. Den meisten Anwendern in Deutschland ist die Bedeutung von sicheren, starken und damit komplexen Passwörtern für die Sicherheit ihrer Online-Konten durchaus bewusst. Die sichersten Passwörter werden vor allem dann genutzt, wenn es ums Geld geht: Online-Banking-Accounts stehen hier mit 66,5 Prozent an der Spitze, gefolgt von Accounts für Bezahlsysteme und E-Wallets (58,2 Prozent) sowie für Online-Einkäufe (44,2 Prozent).