Das richtige Tool für jede Datenmigration

Auf diese Faktoren sollte man bei der Wahl eines geeigneten Migrations-Tools achten

Neben grundsätzlichen Bedingungen gibt es bei der Wahl eines geeigneten Migrations-Tool noch zahlreiche weitere Faktoren zu bedenken



Von Ralf Draeger, Mitgründer und Technischer Leiter, dynaMigs.net

Jede IT-Organisation steht regelmäßig vor der Herausforderung, Daten migrieren zu müssen. Ob vom alten Speicher auf einen neuen, oder gleich in die Cloud: Wer migrieren will, benötigt dafür ein passendes Tool, sprich, eine Migrationssoftware. Bei der Auswahl des passenden Tools stehen Nutzer vor der Qual der Wahl: Neben einer Vielzahl kommerzieller Tools stehen auch einige kostenfreie Tools zur Verfügung. Darüber hinaus bieten manche Hersteller ihre eigenen Tools für ihre Lösungen an: NetApp bietet XCP für CIFS und NFS; Dell bietet Emcopy für CIFS. Diese Tools von Hardware-Herstellern haben für Nutzer den Vorteil, dass sie meist im Paket inbegriffen sind und Fehler und Probleme im Rahmen des Support-Vertrages behandelt werden. Komplett kostenfrei sind beispielsweise die Freewares Robocopy und Rsync.

Beide Tools haben jedoch jeweils prinzipielle Handicaps: Robocopy hat ein schwer Parse-bares Log-File und Rsync ist nicht multi-threaded. Bei der Berechnung der Kosten müssen unterschiedliche Lizenzierungsmodelle bereits in der Planungsphase miteinbezogen werden. So berechnen viele Anbieter kommerzieller Kopier-Tools die Lizenzkosten etwa nach Volumen der zu kopierenden Daten oder der Projektlaufzeit. Auch die Kosten für etwaige Schulungen von Mitarbeitern und die Dauer der Migration an sich sollten vorab berücksichtigt werden. Neben diesen grundsätzlichen Bedingungen gibt es bei der Wahl eines geeigneten Migrations-Tool noch zahlreiche weitere Faktoren zu bedenken.

Funktionsvielfalt bei Migrations-Tools

Eine der wichtigsten Funktionen, die ein Migrations-Tool mitbringen sollte, ist die Möglichkeit der Automatisierung. Wenn sich möglichst viele Migrationsprozesse mit dem gewählten Tool automatisieren lassen, bedeutet dies eine schnellere Migration mit hoher Qualität, da durch weniger manuelle Einflüsse weniger Fehler passieren.

Darüber hinaus sollte man darauf achten, dass ein Tool die folgenden Funktionen mitbringt:

• >> Multi-threaded sollte ein Tool sein, da sich hohe Netzwerklatenzzeiten am besten parallelisiert umgehen lassen.

• >> Ein Tool muss "Purgen" können. Das heißt, dass Dateien, die auf der Quelle gelöscht wurden auch auf dem Ziel entfernt werden.

• >> Ein gutes Tool sollte zwecks Automatisierung durch eine CLI (Command Line Interface) steuerbar sein. Das hilft bei größeren Projekten durch gut Parse-bare Log Files mit der Möglichkeit die Codepage für die Übersetzung der Dateinamen zu wählen.

• >> Es sollte die Bandbreite des Kopiervorgangs begrenzen können, um die Quelle nicht zu überlasten.

• >> Es sollte einen Filter für unerwünschte File-Typen haben.

• >> Sollte DIRs ausschließen können, wie etwa Snapshots.

• >> Einige Tools bieten einen vollen md5-Check der Daten auf Quelle und Ziel an. Das ist jedoch für die Kopierläufe eher hinderlich, da dann bei jedem Kopierlauf alle Daten gelesen werden müssen, was die Ausfallzeit extrem verlängert.

Verifizierung der Migration

Neben der Auswahl eines passenden Kopier-Tools ist die Verifizierung der Daten nach der Migration durch ein unabhängiges Tool mit eigenem Algorithmus unerlässlich. In vielen Branchen ist sie sogar vorgeschrieben. Generell zählt die Verifizierung der Migration längst zum festen Bestandteil jeder korrekten Migration. Dabei gilt für die ordnungsgemäße Verifizierung, dass der Algorithmus, der die Richtigkeit der Migration bestätigen soll, nicht der gleiche ist, wie der des eigentlichen Migrationstools. Darüber hinaus sollte das Verifikationstool auch den Datenstand auf Quelle und Ziel zum Zeitpunkt der Umschaltung inklusive der Rechte dokumentieren, damit im Nachhinein die vollständige Migration nachgewiesen werden kann.

Besonderheiten bei CIFS-Migrationen

Sowohl unter CIFS als NFS gibt es zahlreiche Besonderheiten, die Einfluss auf die Wahl eines Migrationstools haben können. Unter CIFS kann man etwa einen nicht mehr existenten Nutzer nicht als Besitzer einer Datei eintragen. Wird eine Datei eines nicht mehr existierenden Nutzers migriert, so wird dann meist der Name des Admins genutzt unter dem das Kopier-Tool läuft. Deshalb sollte man diesen Account nach der Migration nicht löschen. Da er aber sehr mächtig ist, ist eine Deaktivierung des Accounts zu empfehlen. Wird bei der Migration nach Viren gescannt, so sollte bei der Initialkopie Virus-Checking auf dem Ziel und Scan-On-Read auf der Quelle ausgeschaltet werden, weil sonst die Virus-Checker überlastet werden. Der Virus-Checker sollte auf den Kopier-Hosts generell ausgeschaltet werden. Auch können Virus-Checker bei Kopieraktionen Warnungen für Ransomware hervorrufen. Um dies zu verhindern, müssen Exclude-Listen auf dem Checker angelegt werden. Ein guter Tipp bei Fehlermeldungen (zum Beispiel Error 5): Die Kommandozeile "net helpmsg <Nummer>" zeigt eine ausführlichere Fehlerbeschreibung an.

Ein gutes Kopier-Tool für die Migration von Daten unter CIFS benötigt folgende Funktionen und sollte:

• >> mit den Rechten für den Backup-Admin arbeiten können, da sonst nicht alle Dateien migriert werden können.

• >> Auditing-Informationen mit übertragen können.

• >> Sid-History übertragen können.

• >>Reparse Points entdecken können (Links oder andere Absprungpunkte im Filesystem).

• >> Alternate Data Streams kopieren können.

• >> lokale Gruppen der Quelle auf das Ziel übertragen können.

• >> Shares der Quelle auslesen können, um sie gegebenenfalls mit anderem Pfad auf das Ziel zu übertragen.

• >> einen MMC-Check durchführen können, um zu überprüfen, ob alle Verbindungen der Quelle abgebaut wurden.

Spezielle Hinweise für Migrationen unter NFS

Auch für die Migration unter CIFS gibt es einige, wenn auch weniger Besonderheiten zu beachten. Ein gutes Tool sollte:

• >> Code-Pages übersetzen können (wenn mit NFSv3 gearbeitet wird).

• >> Hardlinks erkennen und korrekt behandeln.

• >> Sparse Files erkennen und korrekt behandeln.

• >> Posix ACLs behandeln können (Wichtig für NFSv4).

Fazit: Eine detaillierte Checkliste für die Auswahl eines Tools ist notwendig

Migration sind komplexe Projekte, die die Kronjuwelen eines Unternehmens betreffen: Die Daten und damit das Wissen der Organisation. Diese Projekte erfordern professionelle Analyse, Planung und Umsetzung und sollten keinesfalls "nebenbei" erledigt werden. Neben einer guten Schulung der Mitarbeiter ist die Auswahl der richtigen Tools wichtig. Dazu gehören das Migrations-Tool selbst, Tools zur Verifizierung der migrierten Daten und bei größeren Migrationen Tools zur Automatisierung. Prinzipiell sollte ein Tool möglichst weit verbreitet sein und regelmäßig aktualisiert werden. Denn je mehr es verbreitet und genutzt wird, desto mehr Fehler im Code wurden repariert. Organisationen und IT-Abteilungen sind gut beraten, zu Beginn eines Migrationsprojektes eine detaillierte Checkliste für die Auswahl eines Migrations-Tools aufzustellen. Anhand dieser kann dann eine entsprechende Software ausgewählt werden. Insbesondere bei komplexen Migrationen kann es sich auch lohnen, Rat bei erfahrenen Daten- und Migrationsexperten einzuholen oder diese für die Migration zu engagieren. (dynaMigs: ra)

eingetragen: 27.10.21
Newsletterlauf: 20.01.22

dynaMigs.net: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Unternehmen

Ransomware trifft auf seine Nemesis: Blockchain

Während es noch eine Zeit dauern kann, bis die Blockchain auf den Finanzmärkten oder in anderen Anwendungen Fuß fasst, wird sie bei der Verhinderung von Ransomware-Angriffen ganz schnell und konkret an Bedeutung gewinnen. StorageCraft beispielsweise hat bereits heute schon ein Blockchain-Dateisystem implementiert und ist damit dem Rest der Branche einen Schritt voraus. Es handelt sich um ein unveränderliches Dateisystem, bei dem Daten nicht durch Ransomware überschrieben oder gelöscht werden können. Als "at rest" bezeichnet man die vollständig prüfbare, unveränderliche Sicht auf historische Daten, so dass Unternehmen auch in verteilten Umgebungen wissen, ob, wann und wo eine Ransomware-Infektion aufgetreten ist. Die Fähigkeit, auch unveränderliche Snapshots von Daten bereitzustellen, bedeutet zudem, dass Daten in den Zustand vor einer Ransomware-Attacke zurückgebracht werden können.

Säule der deutschen Cybersicherheitsstrategie

Die Digitalisierung ist in vollem Gange. Grundvoraussetzung für ihr Gelingen und damit eine zentrale Bedingung, um auch in Zukunft eine führende Position im internationalen Wettbewerb einzunehmen, ist die Cybersicherheit. Um Lösungen für die Herausforderungen der Zukunft zu entwickeln, hat das neue "Nationale Forschungszentrum für angewandte Cybersicherheit 'Athene'" als Einrichtung der Fraunhofer-Gesellschaft mit Beteiligung der Technischen Universität Darmstadt und der Hochschule Darmstadt die Arbeit aufgenommen. Athene ist das europaweit größte Forschungszentrum für angewandte Cybersi-cherheitsforschung und ein wesentlicher Bestandteil der Cybersicherheitsstrategie des Bundes und des Landes Hessen. Anlässlich der Eröffnung besuchten Bundesforschungsministerin Anja Karliczek und die hessische Wissenschaftsministerin Angela Dorn das neue Forschungszentrum.

Operationsbasis für weitere Innovationen

EfficientIP hat von Jolt Capital eine Investitionseinlage in Höhe von 11 Millionen Dollar erhalten, um das weitere Unternehmenswachstum zu unterstützen. Die Investition dient dazu, die internationale Expansion voranzutreiben und das Serviceangebot als Reaktion auf die gestiegene globale Nachfrage nach DDI (DNS, DHCP und IP-Adressmanagement)-Anwendungen strategisch auszubauen. Die Experten von EfficientIP unterstützen Unternehmen, online zu bleiben und sich vor Datenverlust zu schützen, indem sie die Grundlage der IP-Infrastruktur zuverlässig, flexibel und sicher gestalten. Eine wachsende Anzahl angeschlossener Geräte und die Kombination von Cloud- und Inhouse-Computing macht die IT immer komplexer. Vor diesem Hintergrund hilft EfficientIP Unternehmen, Prozesse zu vereinfachen und wettbewerbsfähiger zu werden. "Die Investition macht es möglich, unsere Expansion auf globaler Ebene zu beschleunigen", kommentiert David Williamson, CEO von EfficientIP. "Die Marktchancen für DDI-Lösungen wachsen, und wir möchten diesen Schwung nutzen, indem wir unsere Vertriebsmannschaft verstärken. Das schafft eine Basis, die aktuelle Nachfrage zu befriedigen und weitere Innovationen voranzutreiben, die wirklich wichtig sind, um die Kundenbedürfnisse von morgen weiterhin zu erfüllen. Angesichts der Erfolgsbilanz bei der Skalierung von Technologieunternehmen weltweit ist Jolt Capital ein idealer Partner, um uns in dieser Wachstumsphase zu unterstützen."

Fortinet übernimmt SOAR-Anbieter CyberSponse

Fortinet gab die Übernahme von CyberSponse, einem führenden Anbieter von Security Orchestration, Automation and Response (SOAR)-Plattformen mit Sitz in Arlington, Virginia, bekannt. CyberSponse, bereits Fortinet Security Fabric-Partner, wird die Automatisierungs- und Reaktionsfähigkeiten von "FortiAnalyzer", "FortiSIEM" und "FortiGate" weiter ausbauen und Security-Vorgänge noch stärker vereinfachen. Die heutige Cyber-Bedrohungslandschaft entwickelt sich ständig weiter. Darüber hinaus trägt die zunehmende Anzahl von Produkten für die Absicherung von Endpunkten zu einer sinkenden Alarmbereitschaft bei. Hinzu kommt oftmals ein Mangel an Cyber-Security-Kenntnissen. Dadurch verschärft sich die ohnehin schon komplexe Security-Umgebung. Um dieser Komplexität entgegenzuwirken, versuchen Unternehmen und Service Provider, ihre Abläufe zu vereinfachen und die Effizienz der heutigen Security Operations Center (SOCs) zu maximieren. Dazu werden Warnmeldungen aus einer Vielzahl von Sicherheitsprodukten konsolidiert und getestet sowie Analysen und sich wiederholende Aufgaben automatisiert. Zudem kommen klar definierte Playbooks zum Einsatz, um eine Reaktion auf Vorfälle in Echtzeit zu ermöglichen.

Dokumentenprüfung & Identitätsfeststellung

secunet ist langjähriger Partner der Bundespolizei bei der Entwicklung einer modernen Informationsarchitektur für die digitale Polizeiarbeit. Ein Ergebnis der Zusammenarbeit ist die Entwicklung einer "Smart Police App" auf Basis der Software Plattform "secunet biomiddle". Die Applikation ermöglicht einen orts- und endgeräteunabhängigen Zugriff sowie die Verarbeitung polizeilicher Informationen. Ab sofort ist die App auch für iOS verfügbar und steht den Polizeien der Länder zur Verfügung. Bereits seit 2018 setzt die Bundespolizei bei Personenkontrollen in mobilen Einsätzen erfolgreich Apps zur Dokumentenprüfung und Identitätsfeststellung ein. Mit der App "BPOL-Dokumentenprüfung" können Bundespolizisten elektronische Identitätsdokumente (eID) unterwegs flexibel und sicher mit dem Smartphone auslesen und prüfen. Darüber hinaus ist die Verifikation biometrischer Daten, wie z.B. der Vergleich des im Chip gespeicherten Gesichtsbildes mit dem Livebild der Person, möglich.

Besuchen Sie SaaS-Magazin.de

SaaS, On demand, ASP, Cloud Computing, Outsourcing >>>


Kostenloser Newsletter

Werktäglich informiert mit IT SecCity.de, Compliance-Magazin.de und SaaS-Magazin.de. Mit einem Newsletter Zugriff auf drei Online-Magazine. Bestellen Sie hier

Fachartikel

Grundlagen

Big Data bringt neue Herausforderungen mit sich

Die Digitale Transformation zwingt Unternehmen sich mit Big Data auseinanderzusetzen. Diese oft neue Aufgabe stellt viele IT-Teams hinsichtlich Datenverwaltung, -schutz und -verarbeitung vor große Herausforderungen. Die Nutzung eines Data Vaults mit automatisiertem Datenmanagement kann Unternehmen helfen, diese Herausforderungen auch mit kleinen IT-Teams zu bewältigen. Big Data war bisher eine Teildisziplin der IT, mit der sich tendenziell eher nur Großunternehmen beschäftigen mussten. Für kleinere Unternehmen war die Datenverwaltung trotz wachsender Datenmenge meist noch überschaubar. Doch die Digitale Transformation macht auch vor Unternehmen nicht halt, die das komplizierte Feld Big Data bisher anderen überlassen haben. IoT-Anwendungen lassen die Datenmengen schnell exponentiell anschwellen. Und während IT-Teams die Herausforderung der Speicherung großer Datenmengen meist noch irgendwie in den Griff bekommen, hakt es vielerorts, wenn es darum geht, aus all den Daten Wert zu schöpfen. Auch das Know-how für die Anforderungen neuer Gesetzgebung, wie der DSGVO, ist bei kleineren Unternehmen oft nicht auf dem neuesten Stand. Was viele IT-Teams zu Beginn ihrer Reise in die Welt von Big Data unterschätzen, ist zum einen die schiere Größe und zum anderen die Komplexität der Datensätze. Auch der benötigte Aufwand, um berechtigten Zugriff auf Daten sicherzustellen, wird oft unterschätzt.

Bösartige E-Mail- und Social-Engineering-Angriffe

Ineffiziente Reaktionen auf E-Mail-Angriffe sorgen bei Unternehmen jedes Jahr für Milliardenverluste. Für viele Unternehmen ist das Auffinden, Identifizieren und Entfernen von E-Mail-Bedrohungen ein langsamer, manueller und ressourcenaufwendiger Prozess. Infolgedessen haben Angriffe oft Zeit, sich im Unternehmen zu verbreiten und weitere Schäden zu verursachen. Laut Verizon dauert es bei den meisten Phishing-Kampagnen nur 16 Minuten, bis jemand auf einen bösartigen Link klickt. Bei einer manuellen Reaktion auf einen Vorfall benötigen Unternehmen jedoch circa dreieinhalb Stunden, bis sie reagieren. In vielen Fällen hat sich zu diesem Zeitpunkt der Angriff bereits weiter ausgebreitet, was zusätzliche Untersuchungen und Gegenmaßnahmen erfordert.

Zertifikat ist allerdings nicht gleich Zertifikat

Für Hunderte von Jahren war die Originalunterschrift so etwas wie der De-facto-Standard um unterschiedlichste Vertragsdokumente und Vereinbarungen aller Art rechtskräftig zu unterzeichnen. Vor inzwischen mehr als einem Jahrzehnt verlagerten sich immer mehr Geschäftstätigkeiten und mit ihnen die zugehörigen Prozesse ins Internet. Es hat zwar eine Weile gedauert, aber mit dem Zeitalter der digitalen Transformation beginnen handgeschriebene Unterschriften auf papierbasierten Dokumenten zunehmend zu verschwinden und digitale Signaturen werden weltweit mehr und mehr akzeptiert.

Datensicherheit und -kontrolle mit CASBs

Egal ob Start-up oder Konzern: Collaboration Tools sind auch in deutschen Unternehmen überaus beliebt. Sie lassen sich besonders leicht in individuelle Workflows integrieren und sind auf verschiedenen Endgeräten nutzbar. Zu den weltweit meistgenutzten Collaboration Tools gehört derzeit Slack. Die Cloudanwendung stellt allerdings eine Herausforderung für die Datensicherheit dar, die nur mit speziellen Cloud Security-Lösungen zuverlässig bewältigt werden kann. In wenigen Jahren hat sich Slack von einer relativ unbekannten Cloud-Anwendung zu einer der beliebtesten Team Collaboration-Lösungen der Welt entwickelt. Ihr Siegeszug in den meisten Unternehmen beginnt häufig mit einem Dasein als Schatten-Anwendung, die zunächst nur von einzelnen unternehmensinternen Arbeitsgruppen genutzt wird. Von dort aus entwickelt sie sich in der Regel schnell zum beliebtesten Collaboration-Tool in der gesamten Organisation.

KI: Neue Spielregeln für IT-Sicherheit

Gerade in jüngster Zeit haben automatisierte Phishing-Angriffe relativ plötzlich stark zugenommen. Dank künstlicher Intelligenz (KI), maschinellem Lernen und Big Data sind die Inhalte deutlich überzeugender und die Angriffsmethodik überaus präzise. Mit traditionellen Phishing-Angriffen haben die Attacken nicht mehr viel gemein. Während IT-Verantwortliche KI einsetzen, um Sicherheit auf die nächste Stufe zu bringen, darf man sich getrost fragen, was passiert, wenn diese Technologie in die falschen Hände, die der Bad Guys, gerät? Die Weiterentwicklung des Internets und die Fortschritte beim Computing haben uns in die Lage versetzt auch für komplexe Probleme exakte Lösungen zu finden. Von der Astrophysik über biologische Systeme bis hin zu Automatisierung und Präzision. Allerdings sind alle diese Systeme inhärent anfällig für Cyber-Bedrohungen. Gerade in unserer schnelllebigen Welt, in der Innovationen im kommen und gehen muss Cybersicherheit weiterhin im Vordergrund stehen. Insbesondere was die durch das Internet der Dinge (IoT) erzeugte Datenflut anbelangt. Beim Identifizieren von Malware hat man sich in hohem Maße darauf verlassen, bestimmte Dateisignaturen zu erkennen. Oder auf regelbasierte Systeme die Netzwerkanomalitäten aufdecken.

DDoS-Angriffe nehmen weiter Fahrt auf

DDoS-Attacken nehmen in Anzahl und Dauer deutlich zu, sie werden komplexer und raffinierter. Darauf machen die IT-Sicherheitsexperten der PSW Group unter Berufung auf den Lagebericht zur IT-Sicherheit 2018 des Bundesamtes für Sicherheit in der Informationstechnik (BSI) aufmerksam. Demnach gehörten DDoS-Attacken 2017 und 2018 zu den häufigsten beobachteten Sicherheitsvorfällen. Im dritten Quartal 2018 hat sich das durchschnittliche DDoS-Angriffsvolumen im Vergleich zum ersten Quartal mehr als verdoppelt. Durchschnittlich 175 Angriffen pro Tag wurden zwischen Juli und September 2018 gestartet. Die Opfer waren vor allem Service-Provider in Deutschland, in Österreich und in der Schweiz: 87 Prozent aller Provider wurden 2018 angegriffen. Und bereits für das 1. Quartal dieses Jahres registrierte Link11 schon 11.177 DDoS-Angriffe.

Fluch und Segen des Darkwebs

Strengere Gesetzesnormen für Betreiber von Internet-Plattformen, die Straftaten ermöglichen und zugangsbeschränkt sind - das forderte das BMI in einem in Q1 2019 eingebrachten Gesetzesantrag. Was zunächst durchweg positiv klingt, wird vor allem von Seiten der Bundesdatenschützer scharf kritisiert. Denn hinter dieser Forderung verbirgt sich mehr als nur das Verbot von Webseiten, die ein Tummelplatz für illegale Aktivitäten sind. Auch Darkweb-Plattformen, die lediglich unzugänglichen und anonymen Speicherplatz zur Verfügung stellen, unterlägen der Verordnung. Da diese nicht nur von kriminellen Akteuren genutzt werden, sehen Kritiker in dem Gesetzesentwurf einen starken Eingriff in die bürgerlichen Rechte. Aber welche Rolle spielt das Darkweb grundsätzlich? Und wie wird sich das "verborgene Netz" in Zukunft weiterentwickeln? Sivan Nir, Threat Analysis Team Leader bei Skybox Security, äußert sich zu den zwei Gesichtern des Darkwebs und seiner Zukunft.

Diese Webseite verwendet Cookies - Wir verwenden Cookies, um Inhalte und Anzeigen zu personalisieren, Funktionen für soziale Medien anbieten zu können und die Zugriffe auf unsere Website zu analysieren. Außerdem geben wir Informationen zu Ihrer Verwendung unserer Website an unsere Partner für soziale Medien, Werbung und Analysen weiter. Unsere Partner führen diese Informationen möglicherweise mit weiteren Daten zusammen, die Sie ihnen bereitgestellt haben oder die sie im Rahmen Ihrer Nutzung der Dienste gesammelt haben. Mit dem Klick auf „Erlauben“erklären Sie sich damit einverstanden. Weiterführende Informationen erhalten Sie in unserer Datenschutzerklärung.