be social

Social [ Business :: Networks :: Learning ]
IT-Analyst [ Social Collaboration :: Talent Management ]

Schlagwort: Symantec

Smart Home – Paradies für Cyber-Kriminelle?

Wenn unsere Häuser und Wohnungen immer mehr mit digitaler Technik ausgestattet werden und über diesen neuen Weg auch immer mehr zum potentiellen Angriffsziel für Kriminelle, welche Rolle spielt dann in Zukunft noch mein Schäferhund-Mix für die Sicherheit meiner vier Wände?

Komische Frage? Auf den ersten Blick sicherlich. Aber wie in fast allen Lebensbereichen im Privaten oder im Beruf müssen wir uns mit einer sich immer stärker verändernden Umwelt auseinandersetzen. Haben wir uns in der Vergangenheit vor allem mit besser zu schließenden Fenstern und Türen beschäftigt, kommen nun neue Gefahren auf Hausbesitzer und Mieter zu. Die digitale Transformation hat sich unser privates Reich als Ziel für eine umfängliche Erneuerung unserer Einrichtung ausgesucht. Vor nichts wird sie halt machen: Thermostate im Wohnraum und die Heizung im Keller, Kühlschrank, Fernseher, die Helligkeitsregler, das Auto und die Garage, die Musikverteilung u.v.m. Außerdem setzt sich der Trend von sogenannter Sicherheitstechnologie immer weiter fort. Beim Discounter um die Ecke erhält man nachtsichtfähige, um 360 Grad drehbare und von der Ferne aus steuerbare Kameras für wenig Geld.

Ein Paradies für Kriminelle entsteht da gerade. Untersuchungen haben ergeben, dass viele dieser Geräte nur wenig oder gar nicht gesichert sind. Das beginnt oftmals bei nicht vorhanden Zugangssperren bzw. nur einer schlecht implementierten Sperre zum System: Der Benutzername ist sehr einfach gewählt, das Passwort besteht nur aus einer simplen Zeichenkette und die Übertragung der Informationen über das Netz verläuft unverschlüsselt. Oftmals haben die eingesetzten Systeme nur einen einfachen PIN-Code, um den Zugang zu schützen. Aus Gründen der Bequemlichkeit wird dieser Code häufig nicht geändert und der Werkszustand beibehalten. Es werden Erinnerungen an die Zeit wach, als immer mehr Haushalte WLAN Router gekauft haben. Auch hier haben die Hersteller lange gebraucht, um auch den unerfahrenen Anwendern das Thema Sicherheit näher zu bringen. Mit einem Notebook auf dem Schoß konnte man sich in dieser Zeit bei einer Fahrt durch die Innenstadt bequem bei vielen WLAN-Netzen anmelden.

Die im Haushalt eingesetzten Geräte haben oftmals viele Schwachstellen bei den von ihnen bereitgestellten Web-Services. Mit einfachen Mitteln können Hacker in die Geräte eindringen und die Kontrolle der Systeme übernehmen. Das reicht von der Steuerung des Geräts über den Upload- und Download von Bildern und Filmen (bei Kamerasystemen) bis hin zur Manipulation der Parameter und der gespeicherten Daten.

Hacker sind in der Lage die Geräte im Haushalt zu kontrollieren, zu überwachen und zu steuern. Das fängt damit an, dass Geräte an- und ausgeschaltet werden können – sowohl das Anschalten beim Herd als auch das Ausschalten beim Kühlschrank kann teuer werden. Das Abgreifen der Bilder von der Überwachungskamera kann unangenehme Folgen haben, wenn die Bilder ausgewertet oder veröffentlicht werden. Dass die Herstellerfirmen auf die Daten zugreifen und diese unter dem Vorwand der Produktoptimierung und der Serviceverbesserung für Marketingzwecke benutzen oder verkaufen, ist bekannt. Aber die gleichen Daten können natürlich auch von unbefugten Dritten entwendet und verwertet werden. Man erhält dann plötzlich Werbung und wundert sich irgendwann, warum bestimmte Produkte angeboten werden.

Die größte Gefahr im Moment ist noch, dass Kriminelle das eigene Wohnverhalten beobachten können. Sie wissen dann genau, wann man gerade zu Hause ist oder nicht. Dieses Wissen wird dann für einen unerlaubten Besuch benutzt.

Aber dafür habe ich ja noch meinen Wachhund.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

 

Eine moderne und agile RZ-Strategie in der digitalen Welt ist für Unternehmen unerlässlich!

Schauen Sie sich um. Zählen Sie die Geräte, die um Sie herumstehen – und was sie tun. Im Moment ist es so, dass vor allem Computer und Handys mit dem Internet verbunden sind, der Rest der Geräte ist noch autark und „dumm“. Das wird anders werden: Ihre Arbeitsumgebung, die Produktion Ihres Unternehmens, aber auch Ihr Zuhause wird sich massiv verändern. Ein Blick in das Büro des Autors reicht, um die Veränderungen aufzuzeigen: Heizkörper, Lichtschalter, der kleine Kühlschrank in der Ecke, das Whiteboard, der ehemals Papierwandkalender, das Fenster, die Steckdosen usw. werden eine eigene Internetadresse erhalten und mit ihrer Umgebung und entfernten Rechnersystemen kommunizieren und die ihnen zugewiesenen Aufgaben autonom erledigen. Alles bereits bekannte und auf vielen Messen gezeigte Technologien, die nur darauf warten, in der Breite endlich in unser Leben zu treten.

In den Produktionshallen wird die „intelligente“ Steuerung jeglicher Produktionsschritte viele Aufgaben übernehmen, die bisher von Menschen durchgeführt bzw. gesteuert wurden. Das wird sich massiv ändern. Von der Entwicklung, der Bestellung und der anschließenden Produktion (oder umgekehrt, je nach Produkt) über die Auslieferung und den späteren Service werden alle Daten und Steuerungen von Computern gesteuert. Der Mensch tritt in vielen Bereichen in den Hintergrund zurück und greift nur noch dort ein, wo die vernetzten Systeme die Aufgabe nicht lösen können.

30-35 Milliarden Geräte werden in den kommenden 5 Jahren mit dem Internet verbunden sein. Das bedeutet einen signifikanten Anstieg bei dem dann entstehenden und zu bearbeitenden Datenvolumen und den benötigten Services und Anwendungen. Bisher eher statisch geführte und organisierte Rechenzentren müssen sich zu agilen Datencentern wandeln. Ein weiter so wie bisher kann und darf es nicht mehr geben. Die Aussage der Entscheider über Bits und Bytes, dass ein Service, den eine Fachabteilung benötigt, nicht betrieben werden kann, weil es nicht genügend Ressourcen gibt, darf und kann es dann nicht mehr geben. Vergleichbar mit einem Labor müssen die IT-Abteilungen ihre Datencenter permanent prüfen, analysieren und auswerten, wann und wie welche Belastungen und Entlastungen auftreten und wie die Anforderungen aus dem Business zeitnah und umfänglich realisiert werden können.

Der Druck auf die IT Abteilungen der Unternehmen wird zunehmen. Da immer mehr Geschäftsprozesse davon abhängen, können Ausfälle katastrophale Auswirkungen haben. Hinzu kommt, dass viele Hersteller von Geräten für Haushalt und Industrie auch entsprechende „intelligente“ Komponenten einbauen, die dann beim Kunden die Daten produzieren. Diese für den Hersteller wichtigen Informationen werden dann zurück in die heimische Cloud geschickt, ausgewertet und weiterverwendet. Ein Ausfall dieser Systeme bedeutet sofort und unmittelbar einen großen Verlust an Geld und Vertrauen!

Die Folgen für die Rechenzentren sind, dass sie sich umstellen müssen. Sie werden sich vom Betreiber einer Computerfarm mit festen Aufgaben für Mensch und Maschine hin zu einem Servicedienstleister wandeln müssen, die die Geschäftsprozesse optimal, variabel und agil auf allen Ebenen unterstützen.

  • Die eigenen Rechenzentren der Unternehmen müssen sich von monolithischen Kostenverursachern hin zu modernen Serviceeinrichtungen und zum internen Dienstleister
  • Agilität und Innovationswillen müssen ein elementarer Teil der DNA einer IT Abteilung werden, um das Business bei seinen Aufgaben zeitnah zu unterstützen.
  • Die möglichen Risiken verändern sich und werden vielfältiger: Galt es bisher nur „ein Rechenzentrum“ zu managen, kommen nun verteilte, hybride Systeme im eigenen Haus, bei Partnern und in der Cloud zum Einsatz.
  • Die interne IT muss den Spruch „not invented here“ aus ihrem Sprachschatz streichen. Keine IT kann mehr das ganze Spektrum an Aufgaben und Kompetenzen abbilden. Abschottung gegenüber Einflüssen und Entwicklungen von außen bringt das gesamte Unternehmen umgehend in Rückstand gegenüber der Konkurrenz.

Wir leben aktuell in einer Zeit, die erneut stark von technologischen Umbrüchen geprägt ist. Das digitale Zeitalter steht bereits in der Tür, oftmals schon einen Schritt weiter. Bisherige Erfolgsrezepte für den Betrieb eines stabilen und sicheren, dafür aber häufig nicht kundennahen und veralteten Rechenzentrums schaden dem Gesamtunternehmen. Ein Umdenken ist zwingend und schnell erforderlich!
Dieser Artikel entstand in Zusammenarbeit mit Symantec.

 

Welche Bedeutung hat IT Agilität für Unternehmen?

Lange Zeit waren die IT-Rechenzentren die Trutzburgen im Unternehmen: Meist Abgelegen, immer hoch gesichert und nur schwer zugänglich verrichteten hintern den Mauern der Rechenzentren hochkomplizierte und für Außenstehende mysteriöse Rechenmaschinen ihren Dienst. Nur Eingeweihte durften diese Räume betreten. Wer aus den Fachabteilungen Ansprüche angemeldet hat, wurde mit für Laien unverständlicher Wortwahl auf die Schwierigkeiten, die Unmöglichkeiten und die hohe Komplexität hingewiesen und beindruckt oder verscheucht. Geschäftsführer hörten die Schritte ihrer IT Leiter nur ungern, da ihr Besuch meist mit hohen Investitionskosten und Lizenzkosten verbunden war.

Diese Zeiten sind vorbei. Cloud-Lösungen, moderne Server, Betriebssysteme und Datenbanken sowie Anwendungen, die verteilt ihren Dienst erledigen, ermöglichen heute eine viel flexiblere Gestaltung der Rechenzentren. Die Rechenzentren können im Vergleich zu den vergangenen Jahren viel flexibler auf die Anforderungen des Unternehmens reagieren. Es muss nicht mehr abgewartet werden, bis der neue Server oder die Updates eingespielt werden. Hardware wird heute im laufenden Betrieb ergänzt und Updates sind aufgrund moderner Softwarearchitekturen (häufig) im laufenden Betrieb einzuspielen.

Agile Rechenzentren basieren auf dem Dreiklang von der optimierten Bereitstellung

  • der relevanten Ressourcen,
  • in der passenden Qualität und Quantität
  • für den gerade zu bedienenden Kunden.

IT-Rechenzentren – gleich ob interne oder extern – sind Dienstleister, die kosten- und ressourcen- optimiert auf die Wünsche ihrer Kunden reagieren müssen. Eine abwartende, verzögernde oder gar ablehnende Haltung durch den Dienstleister wird von den Kunden nicht mehr akzeptiert. Der Grund ist einfach: die Alternativen in der Cloud stehen parat.

Agile Rechenzentren basieren auf der Bereitstellung und Nutzung von Cloud-Services, Virtualisierung und dem Einsatz eines Software-definierten Rechenzentrums. Hybride  Rechenzentren, die die Vorteile der jeweiligen Services für sich nutzen, stehen bei der Entwicklung im Mittelpunkt.

Bei der Transformation ihrer Rechenzentren achten Unternehmen laut einer Studie von Symantec in Zusammenarbeit mit dem CIO Magazin vor allem auf die Sicherheit der Daten und Anwendung sowie auf die zur Verfügung stehenden Budgets. Auch die Mitarbeiter, die sich bei der Umstellung zu einem agilen Rechenzentrum weiterentwickeln müssen, liegen im Fokus des Managements. Die Aufgaben werden sich massiv wandeln: War in der Vergangenheit vor allem technisches Knowhow am Server und den Anwendungen gefragt, verschieben sich die Tätigkeiten hin zur Gestaltung von optimalen Settings für die anstehenden Aufgaben. Welche Aufgaben werden im eigenen Haus, welche beim Dienstleister und welche in der Cloud durchgeführt?

Der Wandel ist im vollen Gange. Unternehmen erhalten viel mehr Freiheiten bei der Nutzung ihrer IT sowie in einer deutlich geringeren Kapitalbindung. Services werden bezahlt, wenn sie benötigt werden. Gleichzeitig bedeutet dieser Wandel, dass viel mehr Systeme zur Verfügung stehen, die Anforderungen steigen und somit Aufgaben und Entscheidungen schneller durchgeführt bzw. getroffen werden müssen – und komplexer werden.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

 

Die Datenflut im Unternehmen beherrschbar machen

Der Mensch hat eine seiner über Jahrtausende antrainierten Verhaltensweisen erfolgreich in das digitale Zeitalter retten können: Das Sammeln und das Jagen. Waren es in den vorchristlichen Jahrtausenden fast ausschließlich Dinge zum Essen oder Anziehen, sprich die damals lebensnotwendigen Sachen, sind es heute Daten und Informationen, die wir in unendlich großen Mengen sammeln und jagen.

Da wir im digitalen Zeitalter leben, sind das für uns die lebensnotwendigen „Dinge“, die wir für unsere heutige Existenz benötigen. Kein Unternehmen kommt heute mehr ohne Daten aus. Der Computer ist in allen Bereichen der Verwaltung und der Produktion fester Bestandteil der Arbeitsprozesse. Dadurch werden natürlich auch Unmengen von Daten produziert. Im Gegensatz zur Steinzeit sind Informationen heute keine Mangelware mehr. Waren unsere Vorfahren froh, überhaupt etwas in die Höhle zu bekommen, kämpfen wir heute damit, die richtigen und die wichtigen Informationen für unsere Arbeit zu erhalten.

Viele Unternehmen – so scheint es – haben sich dem Zustand des absoluten Informationsüberflusses ergeben. Sie bauen ihre Speicherkapazitäten kontinuierlich aus und speichern, was durch die Leitungen der Netzwerke geht. Dabei stecken in diesen Daten häufig große Schätze oder – auf der anderen Seite – es handelt sich um Datenmüll. Und um beides müssen sich Unternehmen kümmern.

Gutes Datenmanagement ist für viele Entscheider vor allem aufwendig und teuer, aber der Aufwand lohnt sich!

Erfolgreiche Unternehmen gehen offensiv mit der Bewältigung ihrer Informationen um und sehen das als eigenständigen Unternehmenswert an. Dabei geht es nicht nur um Kundendaten und deren Adressen, da ist der Wert vergleichsweise leicht zu ermitteln. In allen Bereichen des Unternehmens entstehen Daten, die für das Unternehmen wertvolle Informationen beinhalten können.

Um sich in dem Wust an Daten orientieren zu können, basiert das Datenmanagement auf vier Säulen: Lebenszyklus, Qualität, einer Gesamtsicht auf die Daten und einer konkreten Darstellung von Aufgaben, Kompetenzen und Verantwortlichkeiten. Gerade beim letzten Punkt sieht man sehr häufig, dass sich nach dem Speichern der Daten niemand mehr dafür interessiert. So häufen sich die Dateien in den Laufwerken oder dem Dokumenten Management System oder in den unendlich vielen Communities der Social Collaboration Plattformen, die in immer mehr Unternehmen Einzug halten.

Ein erfolgreich eingeführtes und auf heutige Anforderungen ausgerichtetes modernes Datenmanagement – eine Daueraufgabe für Unternehmen – sorgt dafür, dass die Mitarbeiter ihre Daten sicher abgelegt, gepflegt und wiederverwendet, bei Bedarf ausgewertet und gelöscht werden können.

Werden Informationen in ihrer Gesamtheit als eine wertvolle Ressource betrachtet, steigern sie die Leistungsfähigkeit des Unternehmens.  Dazu werden die zu verarbeitenden Daten wie folgt klassifiziert:

  • Kritische Daten
    sind für die Prozesse des Unternehmens lebensnotwendig und führen bei einem Schaden zu einer Katastrophe – kurzfristig oder aber auch erst zu einem späteren Zeitpunkt. Dazu gehören auch Daten, die vom Unternehmen aufbewahrt werden müssen, z.B. Steuerunterlagen, Verträge, Produktdaten.
  • Performance Daten
    sind Daten, die für die Steuerung und die Planung benötigt werden. Der Verlust führt meist zu einem Stopp des betrieblichen Ablaufs des betroffenen Bereichs, z.B. der aktuellen Produktion und der nachfolgenden Prozesse.
  • Wichtige Daten
    sind meist für die aktuellen Aufgaben notwendig und werden anschließend archiviert oder gelöscht.
  • Sensible Daten
    sind Daten, die besonders geschützt werden müssen, da es sich z.B. um Verträge oder Personaldaten handelt.
  • Nicht-kritische Daten
    Sind Daten, die bei der Arbeit entstehen und deren Verlust oder nicht Verfügbarkeit keinen Schaden für das Unternehmen bedeuten.

Der Lebenszyklus von Informationen

Der Unterschied zwischen Daten und Informationen liegt darin, dass Informationen in einem für den Anwender relevanten Kontext bereitstehen. Eine Adresse besteht aus Name, Straße und Ort und sind einfache Daten. Erst wenn der Anwender die Adresse benötigt, wird daraus eine Information. Dieser Unterschied ist bei der Bewertung der Daten wichtig. Nur wenn diese in einem wie auch immer gearteten Kontext stehen oder einen bekommen, erhalten sie einen Wert für das Unternehmen.

Die zu verarbeitenden Daten haben einen Lebenszyklus. Betrachtet man die vielen Datensilos, ist dieser beim Großteil der Daten nicht vollständig abgebildet. Die dadurch entstehenden Herausforderungen sind enorm:  Die Mengen werden größer und größer, die Suchen bringen eine immer schlechter werdende Qualität und das Risiko, wichtige Daten zu vernachlässigen, nimmt ebenso zu.

Um dies zu vermeiden, haben sich für Daten vier Lebenszyklen etabliert: „verwendet“, „analysiert“, „archiviert“ und „entfernt“.  Der Übergang von einem Zustand zum nächsten muss dabei durch klare und nachvollziehbare Regeln erfolgen. Diese Regeln sehen vor, wie lange ein Informationsobjekt bzw. Datensatz aufgehoben werden muss, wann die Archivierung und wann die Löschung erfolgt.

Hat man sich einen Überblick über die vorhandenen und die künftig aufkommenden Daten verschafft, können die Systeme zur Verwaltung von eher „harten“ und „strukturierten“ Daten angepasst und darauf eingestellt werden. Bei den eher „weichen“ Daten, die meist von Mitarbeitern in Form von Dateien oder Textbeiträgen in Blogs und ähnlichen Anwendungen erstellt werden, ist es notwendig, klare Spielregeln aufzustellen und diese dann auch zu vermitteln.

Die Relevanz der Datenqualität

Nicht immer ist es im Arbeitsprozess notwendig, dass alle Daten in gleicher Menge und Zeit vorliegen. Anwender und Systeme legen an die benötigten Daten im Prozess unterschiedliche Qualitätsanforderungen. Jeder Anwender, der auf der Suche nach einer Information ist, kennt das Problem: Man weiß, dass sie gespeichert vorliegt, irgendjemand hat die Information, sie wird jetzt benötigt und muss bearbeitet werden können. Bei den automatisch verarbeiteten Prozessdaten liegen meist Konzepte und Realisierungen dahinter, um dies weitestgehend zu gewährleisten. Bei manuell verarbeiteten Informationen fehlen diese Vorgaben häufig. Meist liegt nur eine Ordnerstruktur für das Ablegen der Dateien vor. Es gibt aber keine Beschreibung, welche Dateien das sein können, welche Informationen sie enthalten sollten und wie sie weiter zu verarbeiten sind.

Auf Basis von Quality Gates werden für die einzelnen Informationsobjekte verschiedene Qualitätsattribute vergeben. Diese beinhalten Werte, wann eine Information vollständig ist. Welche Dokumente werden für Produkte benötigt?  Welche Relevanz hat eine bestimmte Information? Wie genau muss der Inhalt sein – wie auch immer dies im speziellen Fall bewertet wird.

Wie sind die Informationsflüsse geregelt?

Es ist häufig sehr schwer, einen Überblick zu behalten, wo sich welche Daten aktuell befinden. Bei der Erstellung einer Übersicht müssen die Prozesse, die zu verarbeitenden Daten und Anwendungen aufgelistet werden. Das Ergebnis ist eine Darstellung der Architektur, welcher Prozess welche Daten mit welcher Anwendung verarbeitet.

Werden in dieser Übersicht noch die Werte der Datenqualität mit eingetragen, sieht man sehr schnell, wo kritische Daten verarbeitet werden und Prozesse bei nicht Verfügbarkeit empfindlich gestört werden.

Technik ist regelbar, wichtig sind die Menschen, die damit Arbeiten

Das ganze Konstrukt und die Erstellung vielfältiger Architekturen hilft nichts, wenn sich die Menschen, die damit arbeiten, nicht an die „Spielregeln“ und Vorgaben halten. Die Manager im Unternehmen bzw. einer Abteilung müssen dafür Sorge tragen, dass das Regelwerk auch gelebt wird.

Das bedeutet im ersten Schritt, dass keine Regelungen gegen die Anforderungen der Mitarbeiter eingeführt werden. Auch ist es notwendig, dass Regelungen – je nach Anforderung – immer wieder überarbeitet und angepasst werden. Dies muss mit der dafür notwendigen Ernsthaftigkeit erfolgen. Man darf den Bogen dabei nicht überspannen, aber auf der anderen Seite auch nicht einfach die Änderungen im Schnellverfahren durchführen.

Schlechtes Datenmanagement ist teuer!

Schlechtes Datenmanagement  gehört zu den großen Frustrationsfaktoren für Mitarbeiter in der täglichen Arbeit. Auch bei den automatisierten Prozessen sind schlechte Daten teuer. Leider wird der Wert von Daten in den meisten Fällen nicht gemessen. Erfolgreich kann Datenmanagement nur sein, wenn man sich von Anfang an Gedanken über die Qualität der Daten macht, die Kosten für die Erstellung und Umsetzung im Unternehmen nicht scheut und es als ein Teil der Organisation bzw. des täglichen Arbeitens betrachtet.  Ansonsten wird sehr viel Geld in den Ausbau der Systeme gesteckt, viel Zeit mit Suchen oder dem Neuerstellen von Informationen verbracht oder die Arbeitsprozesse massiv behindert. Kein noch so intelligentes Computersystem kann aus schlechten Daten wertvolle Informationen produzieren.

Wenn es ein Unternehmen geschafft hat, ein aktives Datenmanagement zu etablieren und zu leben, dann können auch zukünftige Anforderungen wie Big Data erfolgreich gemeistert werden.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Und es gibt sie immer noch: Die 10 größten Cloud-Mythen

Es funktioniert immer wieder. Man geht in eine Runde von ITlern, die für ein Anwenderunternehmen arbeiten. Ein kurzer Kommentar, dass die Cloud die Zukunft ist und schon geht die Diskussion los. Es ist aktuell das Reizthema Nummer 1 in den Rechenzentren. Bereits nach ein paar Sätzen bilden sich klare Fronten. Pauschalisierte Argumente werden ausgetauscht, als wahr und als unantastbar definiert. Die darauf folgenden Gegenargumente haben auf diese Weise sofort an Aussagekraft verloren.

Die am häufigsten genannten Pro- und Kontra-Argumente – vereint in einer Top 10 Liste:

Top 1: Die Daten sind in der Cloud per se (un)sicher!

Notebooks, die Hersteller-eigene Trojaner vom Werk aus mitbringen – Firewalls, die durch Geheimdienste „erweitert“ wurden – Festplatten, die sehr sendefreudig sind und Kontakt mit „zu Hause“ aufnehmen – USB-Sticks, die Daten von Rechnern absaugen und bei nächster Gelegenheit auch nach „Hause“ senden.

Sicherheit lässt sich nicht mehr so eindimensional definieren. Das Thema ist sehr viel komplexer und kann nicht durch den Weg in Cloud mit ist „besser oder schlechter“ beantwortet werden.

Top 2: Mit der Cloud lassen sich keine/alle Anwendungen und damit Probleme lösen!

Es werden für jegliche Aufgabenstellungen und Industrien Cloud-Lösungen angeboten. Die schnelle Bereitstellung und Umsetzung, niedrigere Kosten u.v.m. sprechen für die Cloud. Trotzdem gibt es nicht nur einen Weg. Unternehmen sollten die Chance nutzen und aus der Vielfalt der Angebote der Public/Private Cloud sowie dem klassischen Hosting ihre optimale Lösung entwickeln.

Top 3: Die Anwender können das nicht entscheiden (tun es aber)!

Immer öfter kommt es vor, dass Fachabteilungen sich ihre Lösungen in der Cloud selber suchen. Ist die IT eines Unternehmens für ihre Blockadehaltung bekannt, wird diese nicht eingebunden. Es ist nicht mehr notwendig. Möchte die IT nicht auf das Abstellgleis geschoben werden, muss sie sich wandeln und ihre Rolle als Dienstleister neu definieren. Die Fachabteilungen brauchen auch in Zukunft qualifizierte Beratung, damit sie nicht nur den Aussagen der Cloud-Anbieter vertrauen müssen.

Top 4: Der Weg in die Cloud ist eine Sackgasse/der Weg in die Freiheit!

Die Geschichte der IT ist voll von Sackgassen. Kaum ein Hersteller hat in der Vergangenheit oder aktuell einen Weg raus aus der eigenen Software angeboten. Einige wenige Anbieter nutzen in der jeweiligen Lösungswelt die Ausstiegsoption aus ihrer Anwendung als Positionierung gegenüber anderen Marktbegleitern.

Nur wenn sich die Hersteller gemeinsam einen Mehrwert von Standards, Open Source und offenen Strukturen versprechen, gibt es diese Option.

Daher: Die Gefahr der Abhängigkeit ist vorhanden, aber sie war schon immer da. Der Anwender muss immer wieder für sich selbst entscheiden, wie groß die Vor- bzw. Nachteile einer möglichen Abhängigkeit sind.

Top 5: Die Verfügbarkeit ist viel schlechter/besser!

Das ist eigentlich kein großer Diskussionspunkt, denn die Verfügbarkeit kann man messen! Da muss sich die eigene IT der Herausforderung stellen. Die Cloud-Anbieter sind auch nicht frei von Ausfällen und Fehlern. Immer wieder entstehen Ausfälle durch falsch gesetzte Parameter oder die Systeme sind durch Fehler auf dem Weg von der Cloud zum Anwender nicht erreichbar.

Die geforderten Werte für die Verfügbarkeit kann man festlegen und messen. Diesen Vorgaben müssen sich sowohl die eigene IT wie auch die Cloud-Dienstleister stellen.

Top 6: Unsere Prozesse sind zu komplex, um in einer Software, die „alle“ nutzen, abgebildet zu werden!

Vielleicht fängt man als Anwenderunternehmen erst einmal bei sich selbst an und überdenkt die eigenen Prozesse. Denn auch die Abbildung in selbstbetriebenen Anwendungen kann sehr komplex und damit sehr teuer werden. Die Cloud-Lösungen bieten häufig ausgefeilte Konfigurationsmöglichkeiten, um die Wünsche aller Kunden, die ja per Definition mit der gleichen Software arbeiten, zu ermöglichen.

Top 7: Die Cloud ist immer billiger!

Wenn alles passt, dann ist die Cloud sehr wahrscheinlich preiswerter. Aber dieser Preis setzt sich aus vielen Komponenten zusammen. Steht zum Beispiel keine optimale Lösung für das eigene Geschäftsmodell zur Verfügung, sind die Folgekosten enorm (werden aber wahrscheinlich erst sehr spät sichtbar). Unternehmen sollten die Option, in die Cloud zu gehen, als Anlass nehmen, objektiv die Kosten für die aktuelle IT und für die Cloud-Lösung aufzuschlüsseln. Nicht immer ist billiger auch seinen Preis wert!

Top 8: Dank der Cloud geht alles schneller!

Knappe Antwort: Nein. Sind die Anforderungen unklar, die Prozesse schlecht definiert oder passt die Lösung nicht zum Problem, kann die Cloud-Lösung auch keine Wunder vollbringen. Im eigenen Haus läuft das System dann aber auch nicht optimal.

Top 9: Wir brauchen keine eigene IT mehr!

Durch die Einführung von Cloud Services im Unternehmen wird es Veränderungen geben. Und wenn es Veränderungen gibt, heißt das auch, dass man sich als Betroffener bewegen bzw. verändern und weiterentwickeln muss.

Die bisherigen Erfahrungsberichte gerade von mittelständischen IT-Abteilungen zeigen jedoch, dass die gewonnenen Freiheiten bzw. Ressourcen endlich für lange liegengebliebene Projekte und Aufgaben eingesetzt werden können. Kaum eine IT-Abteilung hat nicht unter einer großen Arbeitsbelastung geklagt. Nun entstehen Freiheiten, die es zu nutzen gilt.

Top 10: Alle gehen in die Cloud! Wir auch bzw. Wir nicht! Basta!

Das wird so sicherlich nie jemand sagen. Die Punkte 1-9 zeigen ja, wie differenziert man den Weg in die Cloud betrachten muss. Aber trotz aller Statistiken, unendlich langer Entscheidungsmeetings, herumgereichter Papiere entscheiden sehr häufig das Bauchgefühl bzw. persönliche Interessen.

Den gesunden Mittelweg für die Entscheidung muss jedes Unternehmen für sich selbst finden.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Die sich wandelnde Rolle des CIO: So klappt es auch mit dem Business

Im vergangenen Jahr auf einer großen Konferenz müssen sich die wenigen anwesenden CIOs kräftig geschüttelt haben. Wenn sie sich nicht sogar die Ohren zugehalten haben, um die dort präsentierten Erfolgsgeschichten nicht hören zu müssen. Auf der großen Bühne erzählte die Rednerin, wie sie und ihr Team die neue Software für das weltweite HR ausgewählt und eingeführt haben. Der Vorgang, vor kurzem noch absolut unvorstellbar, fand fast gänzlich ohne die IT statt. Denn die ausgewählte Software stammt von einem reinen Cloud-Anbieter. Nur bei der Anbindung an das Benutzerverzeichnis sowie in Sachen Performance wurden die IT-Experten hinzugezogen.

Die Schatten-IT hat eine neue Qualität

So weit, so ungut. Das Ansehen vieler IT-Abteilungen sinkt. In der Vergangenheit war das Business auf die IT angewiesen. Verstand man früher unter Schatten-IT kleine Abteilungsserver, die bei einem versierten Kollegen in der Fachabteilung unter dem Schreibtisch standen, kommt sie heute aus der großen Cloud-Welt. War die Abteilung von der Anwesenheit, dem Willen und dem Gesundheitszustand des Mitarbeiters abhängig, stehen heute die Profis eines Dienstleisters hinter der Anwendung. Konnte die IT früher abwarten, bis die Fachabteilung irgendwann um Aufnahme in den heiligen Rechnerhallen bat, bleibt sie heute dauerhaft außen vor.

CIOs, die in der alten Denkwelt stehen bleiben, machen sich selbst überflüssig. Für CIOs hingegen, die diesen Wandel als Chance sehen, gibt es neue Aufgaben und Chancen – und die Befreiung von Altlasten. Zwei Drittel der CEOs sehen die neuen Entwicklungen als eine Chance für ihre IT-Verantwortlichen. Erkennbar wird das vor allem bei der Verschiebung der Bewertungsskalen für die Leistungen eines CIOs: Von dem erfolgreichen Betrieb der IT-Technik geht es hin zu Business-KPIs und der stärkere Ausrichtung auf die Unternehmensziele.

Trugen die CIOs in der Vergangenheit vor allem die Last, dass die eingesetzten Hard- und Software-Lösungen reibungslos funktionieren, können sie diese Verantwortung nun an die Private-/Public-Cloud-Dienstleister übertragen. Sie können sich dadurch stärker auf die Auswahl und den Einsatz von Lösungen konzentrieren.

Der Wandel vom Herrscher auf dem IT-Thron hin zum Unterstützer der Fachabteilung

Die CIOs müssen sich vom Dienstleister hin zu einem Berater für die Fachabteilungen entwickeln. Im oben geschilderten Beispiel wäre die Projektleiterin froh über eine fachliche Unterstützung – anstatt Mauern und Abblocken – gewesen. Denn die Entwicklung und der Einsatz der neuen Services bedeutet nicht unbedingt geringere Komplexität bei der Auswahl und bei der Umsetzung im Unternehmen.

Die neuen Freiheiten sollten die CIOs nutzen, um in ihrem Unternehmen als Change Agent die Fachabteilungen immer und immer wieder bei der Bewältigung ihre Aufgaben für das Unternehmen zu unterstützen.

 

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

 

SDDC – Status Quo in Sachen Standardisierung

Software Defined Datacenter (SDDC) kommen so langsam raus aus ihrem Schattendasein. Immer mehr Unternehmen setzen auf entsprechende Lösungen und Produkte, um ihre Rechenzentren zu modernisieren, um diese fit für die zukünftigen Anforderungen zu machen. Jedoch steht diesem Ansinnen noch eine große Hürde entgegen: Es fehlen allgemein verbindliche Standards. Ob es bei diesem komplexen und sich immer wieder wandelndem Thema je einen einheitlichen und von einem der bekannten Standardisierungsgremien entwickelten Standard geben wird, ist jedoch fraglich. Trotzdem ist es notwendig, dass Hersteller und Anwender zumindest ein gemeinsames Verständnis und Best Practices entwickeln. Zudem sollte der Einsatz über die eingesetzten Technologien abgestimtm und eine Definition einheitlicher Schnittstellen erfolgen.

Noch kochen die Hersteller in vielen Bereichen ihr eigenes Süppchen. So ist es bei jeder Einführung neuer Technologien, bei denen mehrere Anbieter vergleichbare Produkte im Angebot haben. Aber die Einsicht wächst, dass sich der Erfolg dieser sehr heterogenen Systemwelten nur dann einstellt, wenn die Anwender sich sicher sein können, dass sie auf eine verlässliche Zukunftstechnologie bauen und sich nicht abhängig machen von den proprietären Entwicklungen eines einzelnen Herstellers.

Im vergangenen Jahr hat sich nun unter dem Dach der Non-Profit-Organisation DMTF (Distributed Management Task Force) die Arbeitsgruppe mit der Bezeichnung „Open Software Defined Data Center Incubator“ gebildet. Über ein Dutzend Hersteller arbeiten zusammen, um eine Definition für SDDC zu verfassen und bestehende Standards und Entwicklungen darin einfließen zu lassen.

Dabei gehen die Vertreter schrittweise vor und entwickeln nach und nach die notwendigen Dokumente und Vereinbarungen. Am Anfang stehen Definition und Klärung des eigentlichen Umfangs eines SDDC.

„An SDDC is a data center or cloud computing infrastructure in which all elements of the infrastructure  including networking, storage, compute, and security, are virtualized and delivered as a service to the consumer. An SDDC infrastructure is abstracted from the entire underlying physical infrastructure (and even the virtual infrastructure in some cases). This abstraction enables programmatic and automated provisioning, deployment, configuration, and management of the SDDC.“ Quelle: dmtf.org

Die Arbeitsgruppe hat bereits erste Ergebnisse veröffentlicht. Aktuell entstehen viele neue Technologien, die bei diesem Thema eine Rolle spielen. Vor allem die Abgrenzung zur bzw. die Einbindung von Cloud-Technologien werden einen wichtigen Einfluss haben. Daher wird es spannend sein zu sehen, ob und in welcher Form sich die Hersteller auf gemeinsame Standards einigen können. Aber nur damit werden SDDC erfolgreich in Unternehmen zum Einsatz kommen.

 

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Das SDDC und die künftige Rolle der IT

Den IT-Abteilungen in den Unternehmen steht ein großer Wandel bevor. Die Einführung eines Software-Defined Data Centers (SDDC) verändert alle bisherigen Regeln, Aufgaben und Herausforderungen in den Rechenzentren. Das SDDC greift demnach in die bisherigen Kernaufgaben und damit das Herz der IT ein.

Das SDDC ist der nächste große Schritt bei der Weiterentwicklung der Unternehmens-IT. Die Möglichkeiten der Server-Virtualisierung, die es bereits seit einigen Jahren gibt, werden im SDDC auf alle anderen Infrastrukturebenen im Rechenzentrum ausgeweitet. Auch das Netzwerk, der Speicher sowie alle eingesetzten Security-Maßnahmen werden als reine Services definiert und unabhängig von der darunterliegenden, real vorhandenen Hardware eingesetzt. Das Ganze wird gepaart mit den Services, die Unternehmen heute in der Cloud abrufen können. Durch diese Aufteilung ist es möglich, ein Rechenzentrum vollkommen zu abstrahieren sowie vollständig Software-basiert zu steuern und weitestgehend zu automatisieren. Eine Business-Anwendung kann in diesem Szenario benötigte Hardware-Ressourcen selbständig anfordern, diese nutzen und nach Beendigung der Aufgabe auch wieder abbestellen.

Die Vorteile liegen auf der Hand: Ausfallzeiten können reduziert werden. Die Steuerung der Ressourcen und deren Bereitstellung erfolgt durch Regeln und Ereignisse. Ein manueller Eingriff ist dann nur noch in nicht definierten Einzelfällen erforderlich. Im normalen Ablauf sind keine tiefen Systemkenntnisse und Spezial-Know-how mehr notwendig.

Die Umsetzung erfolgt natürlich nicht von heute auf morgen. Die verantwortlichen Manager müssen die Realisierung planen und schrittweise angehen. Sie werden sich dabei nicht nur um die Technik kümmern müssen, sondern sich vor allem auch um ihre RZ-Mitarbeiter, deren Aufgabengebiet sich dadurch massiv verändern wird.

In einem ersten Schritt müssen die Mitarbeiter aus ihrem bisherigen Silodenken herausgeholt werden. Ein Mitarbeiter kümmert sich dann nicht mehr ausschließlich um Netzwerkkomponenten, die Kollegen von der Datenspeicherung müssen diese nun nicht mehr rund um die Uhr beobachten und bei auftretenden Fehlern reagieren. Dies übernimmt die eingesetzte Hardware und vor allem die Software, die das SDDC steuert.

Die Arbeit der Mitarbeiter im SDDC wird sich in Zukunft stärker an den betrieblichen Serviceprozessen und den Bedürfnissen des Business orientieren. Waren in der Vergangenheit oftmals mehrere Personen und Abteilungen bei der Bereitstellung zusätzlicher Ressourcen notwendig, lässt sich das nun von einer Person via Software erledigen. Für die Mitarbeiter heißt das, dass sie sich weiterentwickeln müssen: weg vom Spezialisten hin zum Generalisten mit Rundum-Überblick.

Für die IT als Einheit bedeutet dieser Wandel eine massive Veränderung in ihrem Rollenverständnis: Mussten in der Vergangenheit bei Anforderungen aus dem Unternehmen zuerst aufwendige, oft langwierige Entscheidungsprozesse durchlaufen werden, entfällt dieser Schritt nun weitestgehend. Die verfügbaren Services haben einen definierten Umfang und Preis und stehen – Dank der Cloud-Technologie – in nahezu beliebiger Größe und Umfang jederzeit zur Verfügung. Das Klein-Klein bisheriger Diskussionen entfällt.

Die IT erhält dadurch einen neuen Stellenwert im Unternehmen: Vom technikgetriebenen Verwalter knappen Ressourcen hin zu einem das Business unterstützenden Lösungsanbieter.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Wo steht Software Defined Data Center (SDDC)?

SDDC könnte man kurz beschreiben mit: „Nie wieder in den Keller!“. Natürlich gibt es immer wieder Gründe ab und an in den Maschinensaal zu gehen, es muss ja immer noch ab und an nach dem Rechten gesehen werden. In Zukunft wird es jedoch anders, da die verfügbaren Ressourcen nicht mehr nur an einem Ort liegen, sondern verteilt im eigenen Unternehmen und in der Cloud.

In einem Software Defined Data Center werden alle für den Betrieb von IT-Anwendungen benötigten Komponenten gekapselt. Die Bereitstellung von Kapazitäten ist einfacher und vor allem schneller verfügbar. SDDC umfasst grundsätzlich die Bereiche des Kapazitäts- und Konfigurationsmanagements sowie die Steuerung von Multi-Cloud-Plattformen. Die gesamte interne und externe Infrastruktur wird bei diesem noch vergleichsweise neuen Ansatz virtualisiert und steht den Anwendern als Service zur Verfügung. Die eingesetzten Komponenten bestehen aus dem Netzwerk, den Servern, Speicher, Sicherheit und der Rechenleistung. Die Bedienung erfolgt voll automatisiert durch die dazugehörige Management Software. Basierend auf analytischen Verfahren, die die Systeme permanent überwachen und aus den Erfahrungswerten ihr Schlussfolgerungen ziehen, werden die Ressourcen optimal in immer ausreichender Kapazität und Qualität zur Verfügung gestellt.

In der Realität sieht es bis dato noch nicht nach einer vollständigen und vollautomatisierten Lösung aus. Noch sind die Ansätze zu vage, die Hersteller rennen vielfach noch ihren eigenen Zielen bei der Entwicklung hinterher. Einige Hersteller sind – basierend auf ihren eigenen Lösungen – schon sehr weit vorne in der Entwicklung, andere Big Player ziehen aktuell nach. Der Markt ist noch von einem starken Konkurrenzkampf geprägt, jedoch wird aktuell versucht gemeinsame Standards und Ansätze zu entwickeln.

SDDC wird kommen!

Dieser Standard ist die wichtigste Voraussetzung, um SDDC zum Erfolg zu führen. Anwender wollen sich nicht abhängig machen von einem Anbieter, dafür ist die Realität im Rechenzentrum schon seit jeher viel zu heterogen. Zudem sind die Anwender nicht mehr bereit tage- oder sogar wochenlang auf die Bereitstellung von Ressourcen zu warten. Diese haben oftmals das Gefühl, dass das Rad jedes Mal neu erfunden wird oder für ihren Auftrag eine Person oder ein Gerät gerade nicht zur Verfügung steht und daher der Wunsch erst später realisiert werden kann.
Zu Ende gedacht bedeutet SDDC die komplette Virtualisierung von eigenen und nicht selbstbetriebenen Ressourcen in der Cloud. Noch stehen einige Vorausetzung für einen reibungslosen Betrieb aus, aber SDDC wird in den nächsten 3 Jahren Realität.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Best Practices für Business Continuity

Ende der 80iger Jahre wurde bei der Ausbildung von Datenverarbeitungskaufleuten den Auszubildenden folgende Frage gestellt: Wie lange dauert es, bis ein großer bayrischer Automobilhersteller für eine D-Mark aufgekauft werden kann, wenn mit einem Schlag die komplette IT auf einmal versagt? Das ist natürlich nur eine rein hypothetische Frage. Aber sie machte bereits damals deutlich, wie abhängig die Unternehmen von ihrer IT sind. Damals war die Welt noch von Großrechnern und Terminals geprägt. Die PCs fingen erst langsam an die Schreibtische in den Büros zu erobern und erste kleine PC Netzwerk nahmen ihren Betrieb auf. Das Internet bereitete sich noch in der akademischen und militärischen Welt auf seinen Einsatz in Unternehmen vor.

Heute sieht die Welt ganz anders aus: Es geht in keinem Unternehmen mehr ohne Computer und Vernetzung. Fast ausnahmslos alle Prozesse werden in und mit Hilfe der IT abgebildet. Unsere Kommunikation läuft komplett über Netzwerke jeglicher Art. Gleich wohin man im beruflichen oder privaten Umfeld sieht: Ohne IT geht es nicht!

Daher hat das Thema „Business Continuity“ (BC) heute eine noch viel größere Bedeutung und sie wird entsprechend der immer weiter vorangetriebenen Durchdringung in all unsere Lebensbereiche noch wichtiger werden. Die rechtlichen und betriebswirtschaftlichen Folgen eines Ausfalls können ein Unternehmen in die Knie zwingen, vom Imageschaden ganz zu schweigen.

BC beobachtet zwei Zustände:

· Wie kann verhindert werden, dass Geschäftsprozesse durch eine Störung zum Erliegen kommen?

· Wie kann der Prozesse weitergeführt werden, sollte es trotz alle Vorkehrungsmaßnahmen zu Störungen gekommen sein.

clip_image002Daher ist es notwendig, dass Unternehmen entsprechende Vorsorgemaßnahmen treffen, um einen sicheren Betrieb zu gewährleisten. Vor allem die Unternehmensleitung muss entsprechende Ressourcen für den Fall der Fälle bereithalten, auch wenn sie – sollten sie erfolgreich einen kontinuierlichen Betrieb ermöglichen – nie zum Einsatz kommen.

Folgende Anregungen gehören zu einer erfolgreiche BC:

· Bei Fehler muss das Beheben sowie die Wiederherstellung automatisch durchgeführt werden. Ein manueller Eingriff ist zu fehleranfällig und langwierig.

· Die Virtualisierung hilft den Betrieb kontinuierlich zu betreiben, aber es ist kein Garant!

· Erst planen, dann umsetzen und auf jeden Fall umfangreich testen. In der Theorie ist jedes System perfekt. Im Ernstfall versagen ungetestete Systeme.

· Achten sie darauf wo sie ihre Daten speichern. Sind die Rechenzentren im Unglücksfall wirklich weit genug auseinander und sind sie jederzeit erreichbar?

· Gewichten sie ihre Anforderungen immer wieder neu. Nehmen sie die Veränderung als feste Konstante in ihre Planung mit auf. Eine Anwendung, die heute sehr wichtig für sie ist, spielt evtl. in der nächsten Periode eine andere Rolle, ein Ausfall wäre dann zu verkraften. Sie haben nur beschränkte Ressourcen, daher ist es eine regelmäßige Neubetrachtung und Bewertung Pflicht.

· Mobility ist ein fester Bestandteil in den Unternehmen. Daher ist es notwendig, dass sie von Anfang die Geräte, Services und Anwendungen mit in ihre Strategie aufnehmen.

· BC ist ein Dauerthema, es ist für Unbedarfte und Betroffene belastend und nervend, bis es zu spät ist. Daher stellen sie es immer wieder auf ihre Agenda.

Das oben genannte Unternehmen hätte man – hypothetisch und in der grauen Theorie – laut der Beispielkalkulation nach einer Woche für eine D-Mark übernehmen können. Heute würde es noch schneller an Wert verlieren.


Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Vom Record Management zur Information Governance

Seit Jahrzehnten geht es in den Rechenzentren vor allem darum, große Datenmengen zu verwalten. Waren es am Anfang noch sehr ausgewählten Datenbestände, die aufgrund teurer Speicherkapazitäten digitalisiert wurden, wird mittlerweile jegliche Information mehrfach abgespeichert und verwaltet. Über viele Jahre kam man beim sogenannten Records Management (Archivverwaltung) mit dem Erfassen, Speichern, Sortieren und wieder Bereitstellen der Daten aus. Die Anforderung zur Speicherung der Daten kam durch die eingesetzten Anwendungen. Die immer größer werdenden Datenmengen wurden von entsprechenden Systemen verwaltet und „gehütet“.

Das reicht heutzutage aber nicht mehr aus. Die Mengen an zu speichernden Daten sind schier unendlich geworden. Alle Systeme im Unternehmen, die mehr nur die dedizierten Anwendungen für den kaufmännischen oder den produktiven Betrieb, erzeugen mittlerweile unüberschaubare Menge an Daten. Daraus ergibt sich, dass die Anforderungen immer größer werden und das Thema Records Management nicht mehr nur eine Frage der IT ist, sondern alle Bereiche des Unternehmens betreffen. Es geht nicht mehr nur um Speichern und Abrufen, sondern auch um das analytische Auswerten, rechtliche Frage sowie um den gesamten Lebenszyklus. Es müssen neue Systeme und Frameworks entwickelt werden, um den Anforderungen gerecht zu werden.

Bereits vor 10 Jahren haben sich in England die ersten Unternehmen mit der Information Governance beschäftigt und erste Konzeptentwürfe entwickelt. Nun nimmt das Thema aber auch bei uns immer mehr an Fahrt auf. Daher wird es auch immer wichtiger sich um neue Rahmenbedingungen Gedanken zu machen. Über das einfache Speichern und Verwalten von Daten gehört beim Information Governance folgenden Punkte dazu:

  • Wer darf wann wie zugreifen? à Zugriffsrechte
  • Wann passiert was mit welchen Daten? à Darstellung der Entscheidungswege
  • Wie wertvoll und relevant sind die Daten für das Unternehmen? à Bewertung der Daten
  • Wie lange werden sie in welcher Form bereitgestellt? à Speicherung, Archivierung und Löschung
  • Wer darf Daten erstellen und woher dürfen sie stammen? à Erstellung und Quellen
  • Wem gehören die Daten? à rechtliche Bewertung
  • Wie werden die Daten verarbeitet? à Prozesse, Workflows, Richtlinien und Standards
  • Wie werden die Zugriffe auf die Daten geregelt? à Datensicherheit

Bei all diesen Fragen geht es immer darum, dass die Daten die Ziele des Unternehmens direkt oder indirekt unterstützen. Daten, die nicht zum Erreichen dieses Ziels benötigt werden, sollten, trotz immer weiter sinkender Kosten bei der Datenhaltung, entfernt werden.

Gerade weil immer mehr Daten gespeichert und verarbeitet werden können – eine Folge der immer besseren Speichertechnologien und sinkender Kosten, ist es zwingend notwendig, dass Unternehmen für sich ein Rahmenwerk für den Umgang mit den Daten entwickeln.

Ein Einfaches wir speichern einfach alles reicht bei weitem nicht aus. Die Kosten dafür können bei falscher Speicherung, bei schlechter Qualität oder auch bei rechtlich Fragwürdigen Inhalten schnell in die Höhe gehen.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.