be social

Social [ Business :: Networks :: Learning ]
IT-Analyst [ Social Collaboration :: Talent Management ]

Schlagwort: idg

Akzeptanz für neue Softwarelösungen schaffen!

Wir bringen doch dauernd neue Software ins Unternehmen, aber niemand nutzt sie!

Vor ein paar Tagen stellte ein IT Leiter in einem Forum die Frage, wie denn andere Unternehmen damit umgehen, dass niemand sich mehr die Zeit nimmt und die neuen Software-Services und Tools nutzt!

In dem Unternehmen werden mit einer hohen Frequenz Softwarepakete ausgerollt und den Anwendern zur Verfügung gestellt. Parallel dazu werden mit Newslettern und E-Mails die Anwender über die neuen Möglichkeiten informiert.

Trotzdem – so die Erkenntnis – erfolgt keine ausreichende Nutzung durch die viel umworbenen Anwender.

Erste Einsicht im Kommentar: Natürlich kommt nur wenig von unseren Informationen bei den Anwendern an, da es diesen nicht an Arbeit fehlt  und sie täglich ihren Freischwimmer bei der Bewältigung der Informationsflut bewältigen müssen.

Gut gemeint ist nicht unbedingt …

Die Intention des Unternehmens ist nachvollziehbar. Jahrelang hat man der IT vorgeworfen, dass sie nur alte Software zum Einsatz bringt, Neuerungen Jahre auf den Einsatz warten mussten und auf die Anwender und ihren Bedürfnissen keine Rücksicht genommen wurde.

Im privaten Bereich sind die meisten Anwender heute besser ausgestattet: Ein Smartphone mit allen Apps, die das Herz begehrt, PCs bzw. Notebooks die bereits mit dem neuen Betriebssystem arbeiten und auch die Anwendungen sind immer sofort aktuell und „State-of-the-Art“. All das bieten Unternehmen in der Regel nicht.

Die IT Abteilungen haben es sich – teils aus strategischen Gründen sich unersetzbar zu machen, teils weil es die Software-Anbieter und die verfügbare Technologie nicht hergab – zu eigen gemacht, erst einmal die große Welle zu schlagen, bevor irgendetwas zum Anwender geht: Es wird geprüft, verhandelt, angepasst, getestet, verbogen, gefixed, gepatched, gecoded, terminiert und am Ende in vielen Einzelschritten ausgerollt – und dann dem Anwender kommentarlos zur Verfügung gestellt.

mann skizziert

Wandel gibt es an allen Ecken, warum nicht auch bei der Einführung neuer Software?

Die Idee, den Nutzern schnell die Anwendungen zur Verfügung zu stellen, ist erstmal nicht schlecht. Aber sie darf nicht zur Belastung werden. Und das tut es. Denn die Art und Weise, wie Anwender eingebunden und vorbereitet werden, stammt aus einer vergangenen Zeit. Waren früher sehr viele manuelle Schritte notwendig, teilweise sogar beim Anwender am Arbeitsplatz (und der Möglichkeit für den ITler dem Anwender mal einen kurzen Einblick zu geben), erfolgen Updates heute im Hintergrund: Apps werden aktualisiert, in der Cloud sollte man von der Erneuerung nichts bemerken und auch Microsoft hat mit Windows 10 beim Thema Update vieles unsichtbar gemacht.

Es kostet Zeit und Geld, Basta!

In manchen Filmen und Geschichten kommen Kinder superreicher Eltern vor, die ein Kinderzimmer voller Spielsachen haben. Trotzdem spielen sie nicht. Wie auch. Es sind zu viele Außenreize, um Eigeninitiative und Kreativität zu entwickeln und keiner zeigt ihnen, wie man damit spielt bzw. spielt mit ihnen.

Ähnlich ist es auch in Unternehmen. Es reicht nicht, einfach nur die Sache bereitzustellen und einen langen Text dazu mitzuschicken.

Es geht um den Anwender

Warum betreibt die IT diesen ganzen Aufwand? Aus folgenden Gründen: Professionalisierung, Effizienzsteigerungen, Optimierung, Prozesse noch besser gestalten und um das Business voranzutreiben.

Darum geht es sicherlich auch, aber letztendlich geht es um den Anwender. Dieser sitzt am Arbeitsplatz und muss meist zu viele Aufgaben bewältigen. Das heißt, der Anwender steht im Mittelpunkt und muss dort abgeholt werden, wo er/sie sich bei ihrer täglichen Arbeit befindet.

„Das ist viel zu teuer!“ wird sofort gerufen! Wir haben x-tausend Anwender, die können wir nicht alle einzeln abholen. Mag alles stimmen. Dafür leistet sie, die sofort losbrüllen, sich den Luxus, teuer eingekaufte und betriebene Software brach liegen zu lassen.

Den Anwender gilt es in den Mittelpunkt zu stellen – nicht die Software!

An zusätzlichen Materialen wie Newsletter, How-To-Handbüchern und Videos ist erstmal nichts auszusetzen, außer dass sie auf den Berg der Informationsüberflutung noch oben drauf kommen und meist nicht in die aktuelle Lebenswelt passen.

Warum nicht einmal neue Wege gehen und den Anwender fragen!

Beispiele dazu gibt es zuhauf:

  • Erzählen Sie Geschichten,
    wie andere Anwender eine Aufgabe gelöst haben und dabei – so nebenbei erwähnt – die Anwendung XY eingesetzt wurde!
  • Nicht schulen, coachen.
    In den seltensten Fällen muss man heute noch Software schulen, außer die Software ist so komplex und nur für Spezialisten.
  • Nutzen Sie die Kunst des Schauspiels oder ähnliche Formate
    und entwickeln sie kleine Stücke, die präsentiert werden – aus dem Alltag von Herrn Meier/Frau Schulze! Humor hat noch nie geschadet.
  • Bauen Sie Online-Communities
    für und von Anwender auf! Anwender sind diejenigen, die täglich damit arbeiten, die kennen sich meist besser aus wie jeder Trainer oder ITler. Vertrauen Sie Ihren Anwendern, schließlich verkaufen die nebenbei auch noch ihre Produkte, stellen sie her oder versuchen anderweitig dafür zu sorgen, dass der Laden läuft (tun die Kollegen das nicht, haben sie ganz andere Probleme in ihrem Unternehmen).
  • Organisieren Sie Barcamps
    oder andere partizipative Formate zum Thema „Wie kann ich …?“ Laden sie ihre Anwender in einen großen Raum ein, geben ihnen Flipcharts, Stifte usw.
    Es gibt im betrieblichen Alltag kein singuläres Problem – dann wären wir in den Untiefen der abstrakten Physik. Irgendjemand hat sich mit den genannten Herausforderungen schon beschäftigt, hat sich Gedanken gemacht und eine Lösung entwickelt. Die Anwender tauschen sich aus, die ITler begleiten das und zeigen dezent auf was geht.
    Viele haben nun Angst, dass zu viele Beiträge von Anwendern kommen, die das Problem falsch lösen. Nutzen Sie die Chance als IT und klären sie auf. Alternativ lassen Sie die Anwender alleine mit ihrem falschen und aufwendigen Weg und schicken Sie weiterhin Newsletter.

Die Liste kann man vielfältig verlängern, es gibt tolle Möglichkeiten Anwender abzuholen. Es ist alles billiger als ungenutzte Tools.

Die Vorschläge sind kein Selbstläufer. Es geht nicht von heute auf morgen. Wer nie gefragt wurde, sprudelt nicht plötzlich los mit Ideen, Fragen und Lösungen. Schritt für Schritt und viel Aufklärung und Kommunikation helfen dabei, diese neuen Wege einzuschlagen.

Sichtbares Geld für unsichtbare Kosten!

Argumentieren Sie mal gegenüber ihrem Geldgeber, dass sie X-tausend Euros haben wollen und stellen Sie demgegenüber, was es kostet, dass die Anwender nicht, unzureichend oder falsch mit der teuren Software arbeiten. Es handelt sich um unsichtbare Kosten und um die zu vermeiden, wollen sie viel sichtbares Geld – kein einfaches Unterfangen. Aber der Aufwand wird sich lohnen, in allen Belangen.

Fazit: Keine alten Antworten auf neue Herausforderungen!

Die Anforderungen haben sich geändert! Die Angebote und Lösungen haben sich geändert! Die Informationsbelastung hat sich geändert! Die Veränderungsintervalle haben sich geändert!

Antworten sie daher nicht mit den Lösungen aus der Zeit, bevor sich alles geändert hat, sondern trauen sie sich neue Wege zu gehen. Sie werden überrascht sein, was möglich ist.

 

Dieser Post entstand in Zusammenarbeit mit dem HP Business Value Exchange Blog.

Arbeit 4.0 – Die digitale Transformation der Arbeitswelt

Von vielen Unternehmen mit ihren Entscheidern und Mitarbeitern erstaunlicherweise noch immer ungesehen oder ignoriert vollzieht sich gerade ein elementarer Wandel in unserer Arbeitswelt. Häufig hört man als Berater in Unternehmen die Aussagen, dass „wir“ noch gar nicht so weit sind, „uns“ das nicht betrifft und schon was Massives passieren muss, bevor „die“ da oben sich bewegen.

Warum ist das so, wo man doch überall Veränderungen sehen kann? Erfolgt die Entwicklung dieser neuen vernetzten Welt zu schleichend? Braucht es einen Big Bang in Form einer Katastrophe. Muss durch eine Zufall generierter (und abgesicherter) Markt auftauchen? Fehlt der disruptive Faktor, wie es häufig „plötzlich“ neue Gesetzte oder nicht vorhersehbare (oder bemerkte) Veränderungen bei den Kunden mit sich bringt! Oder geht es gar zu schnell und die althergebrachten Strukturen – wie z.B. die lang eingespielten Entscheidungswege der IT und deren in der Vergangenheit zelebrierten Investitionsarien und Roll-Out Ungetüme – sind noch nicht darauf ausgerichtet und verteidigen so lange es noch geht ihre alten Besitztümer? Nicht nur die IT, auch andere Abteilungen haben ihre Verteidungsbollwerke aufgebaut, um sich nicht bewegen zu müssen.

Vielleicht ist es auch die scheinbare, trügerische Sicherheit, dass Google, Apple und all die anderen Giganten oder die neuen „Hippen“ das eigene Marktsegment mit großer Wahrscheinlichkeit auch in Zukunft ignorieren werden. So wie es die Verlage, der Handel, die Hausgerätehersteller, die Automobilbranche, die Banken und Versicherungen usw. lange auch dachten.

Die technischen Voraussetzungen sind da und haben sich vergleichsweise langsam entwickelt!

Die Grundlagen für die erfolgreiche Gestaltung einer modernen Arbeitswelt sind eigentlich gelegt. Rechnet man in 10 Jahresschritten, so erfolgte in den 1990iger Jahren der Schritt hin zum persönlichen Arbeitsplatzcomputer und der Anbindung an das Internet. Die schriftliche Kommunikation erfolgte nicht mehr auf dem Postweg, sondern wurde nach und nach auf die E-Mail verlagert. Der erste Wandel erfolgte: Sekretariate mussten sich neue Aufgaben suchen, da ihre Klientel Schriftstücke nun selber verfasste und kontroll-orientierte Vorgesetzte mussten sich bald eingestehen, dass sie nun nicht mehr jede Kommunikation innerhalb und außerhalb der eigenen Abteilung kontrollieren konnten.

Nach dem Jahrhundertwechsel wurden die Geräte mobiler und kleiner. Neue Webtechnologien ermöglichten schicke Anwendungen, die häufig dafür eingesetzt wurden, damit sich Anwender vernetzten konnten. Erst im privaten Umfeld und dann immer mehr auch in den Unternehmen wurden neue Kommunikationsplattformen eingeführt. Anwender konnten nun selber entscheiden, mit wem sie sich austauschten und wen sie in ihr persönliche Netzwerk aufnahmen.

Und heute? Heute stehen uns Uhren zur Verfügung, die mit uns kommunizieren, Haushaltsgeräte die vernetzt sind, Cloud-Services mit beliebig großer Rechenleistung und Speicherkapazitäten sowie immer und überall verfügbare Informationen. Ein Ende der Entwicklung ist nicht abzusehen – unsere heutige Vorstellungskraft reicht nicht aus, um Vorauszusagen, was uns in 5-10 Jahren an Technik zur Verfügung stehen wird. Schon bald werden alle Produkte und Geräte in irgendeiner Form einen „Rechner“ integriert haben, um mit der Umwelt zu interagieren.

Trotzdem hakt es!

Wie so oft, bewegt sich nicht alles im gleichen Tempo. Organisationen entwickeln sich im Gegensatz zu den verfügbaren Technologien sehr langsam. Auch der Mensch in seiner im Unternehmen vorkommenden Vielfalt braucht seine Zeit, um sich an die neuen Möglichkeiten anzupassen.

Das eigene Handeln zu verändern fällt schwer. Enttäuschungen und falsche Entwicklungen bisheriger Veränderungsprozesse, die oftmals mit einem riesigen Tamtam angekündigt und dann schleichend versandet sind, sorgen für Misstrauen und eine große Behäbigkeit. Die jahrelang von den BWLern dieser Welt gepredigten, gnadenlosen Prozessoptimierungen, die nur Gewinnmaximierung im Fokus hatten, aber nicht die menschlichen Bedürfnissen, taten ihr Übriges dazu.

Vernetzte Strukturen statt starrer Organisationen

Natürlich wird es nicht alle Branchen gleich hart treffen. Aber es ist sehr wahrscheinlich, dass nur wenige Bereiche von Veränderungen ausgeschlossen bleiben. Und wenn der Druck durch neue Konkurrenten und veränderten Marktsituationen von außen fehlt, so werden neue Mitarbeiter die Veränderungen ins Unternehmen tragen.

Wer in den vergangenen Jahren als Unternehmen seine Hausaufgaben gemacht hat, kann den Entwicklungen entspannt folgen und diese wieder in die eigene DNA der Organisation integrieren:

  • Variable, vernetzten Strukturen statt starrer Organisationen
  • Vertrauen statt Misstrauen
  • Automatisierung wo möglich, Individualisierung wo nötig!
  • Permanente Wandlung statt zyklischer Anpassungen
  • Immer fortwährendes Lernen auf allen und über alle Hierarchieebenen hinweg
  • Neue Wege bei der Entscheidungsfindung (Rahmen und Ziel statt konkreter Vorgaben)
  • Mitdenken ermöglichen und einfordern
  • Neues ausprobieren, testen und dann nutzen oder verwerfen
  • eine gesunde Fehlerkultur entwickeln
  • Prozesse transparent gestalten, verständlich und nachvollziehbar kommunizieren (ansonsten suchen sich die Akteure eigenen Wege)
  • Kultur des Helfens und Unterstützens etablieren – in einer sich immer schneller drehenden Welt ein elementarer Faktor
  • Prioritäten bei der Erfüllung der Unternehmensziele neu definieren

Viele der genannten Punkte haben nichts mit der verfügbaren Technologie zu tun. Sie waren auch schon vor 10-20-30 und mehr Jahren wichtig. Nur mussten sie oft nicht gelebt werden. In einem bekannten Umfeld mit eher gleichbleibenden Faktoren konnte man trotzdem als Unternehmen am Markt und als Mitarbeiter darin überleben.

Arbeit 4.0 steht erst am Anfang!

Ein neuer Begriff und eine neue Zahl schwirren durch den Raum. Die immer fortwährende und immer tiefgreifendere Digitalisierung bei sich gleichzeitig immer mehr veränderten Marktgeschehnissen macht es notwendig, dass sich Unternehmen und Menschen weiterentwickeln und diese Veränderungen gestalten.

Abwarten, verharren und aussitzen ist der falsche Weg.

 

Dieser Post entstand in Zusammenarbeit mit dem HP Business Value Exchange Blog.

 

 

Welche Bedeutung hat IT Agilität für Unternehmen?

Lange Zeit waren die IT-Rechenzentren die Trutzburgen im Unternehmen: Meist Abgelegen, immer hoch gesichert und nur schwer zugänglich verrichteten hintern den Mauern der Rechenzentren hochkomplizierte und für Außenstehende mysteriöse Rechenmaschinen ihren Dienst. Nur Eingeweihte durften diese Räume betreten. Wer aus den Fachabteilungen Ansprüche angemeldet hat, wurde mit für Laien unverständlicher Wortwahl auf die Schwierigkeiten, die Unmöglichkeiten und die hohe Komplexität hingewiesen und beindruckt oder verscheucht. Geschäftsführer hörten die Schritte ihrer IT Leiter nur ungern, da ihr Besuch meist mit hohen Investitionskosten und Lizenzkosten verbunden war.

Diese Zeiten sind vorbei. Cloud-Lösungen, moderne Server, Betriebssysteme und Datenbanken sowie Anwendungen, die verteilt ihren Dienst erledigen, ermöglichen heute eine viel flexiblere Gestaltung der Rechenzentren. Die Rechenzentren können im Vergleich zu den vergangenen Jahren viel flexibler auf die Anforderungen des Unternehmens reagieren. Es muss nicht mehr abgewartet werden, bis der neue Server oder die Updates eingespielt werden. Hardware wird heute im laufenden Betrieb ergänzt und Updates sind aufgrund moderner Softwarearchitekturen (häufig) im laufenden Betrieb einzuspielen.

Agile Rechenzentren basieren auf dem Dreiklang von der optimierten Bereitstellung

  • der relevanten Ressourcen,
  • in der passenden Qualität und Quantität
  • für den gerade zu bedienenden Kunden.

IT-Rechenzentren – gleich ob interne oder extern – sind Dienstleister, die kosten- und ressourcen- optimiert auf die Wünsche ihrer Kunden reagieren müssen. Eine abwartende, verzögernde oder gar ablehnende Haltung durch den Dienstleister wird von den Kunden nicht mehr akzeptiert. Der Grund ist einfach: die Alternativen in der Cloud stehen parat.

Agile Rechenzentren basieren auf der Bereitstellung und Nutzung von Cloud-Services, Virtualisierung und dem Einsatz eines Software-definierten Rechenzentrums. Hybride  Rechenzentren, die die Vorteile der jeweiligen Services für sich nutzen, stehen bei der Entwicklung im Mittelpunkt.

Bei der Transformation ihrer Rechenzentren achten Unternehmen laut einer Studie von Symantec in Zusammenarbeit mit dem CIO Magazin vor allem auf die Sicherheit der Daten und Anwendung sowie auf die zur Verfügung stehenden Budgets. Auch die Mitarbeiter, die sich bei der Umstellung zu einem agilen Rechenzentrum weiterentwickeln müssen, liegen im Fokus des Managements. Die Aufgaben werden sich massiv wandeln: War in der Vergangenheit vor allem technisches Knowhow am Server und den Anwendungen gefragt, verschieben sich die Tätigkeiten hin zur Gestaltung von optimalen Settings für die anstehenden Aufgaben. Welche Aufgaben werden im eigenen Haus, welche beim Dienstleister und welche in der Cloud durchgeführt?

Der Wandel ist im vollen Gange. Unternehmen erhalten viel mehr Freiheiten bei der Nutzung ihrer IT sowie in einer deutlich geringeren Kapitalbindung. Services werden bezahlt, wenn sie benötigt werden. Gleichzeitig bedeutet dieser Wandel, dass viel mehr Systeme zur Verfügung stehen, die Anforderungen steigen und somit Aufgaben und Entscheidungen schneller durchgeführt bzw. getroffen werden müssen – und komplexer werden.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

 

Nur ein wenig mehr Bewegung bei der Arbeitsplatzwahl

Verteiltes Arbeiten und globalisiertes Handeln vs. klein, klein im eigenen Haus

Voller Verwunderung komme ich immer wieder in Unternehmen, bei denen die Anwesenheit vor Ort Pflicht ist, um die Arbeitsleistung in einem bestimmten Zeitraum des Tages zu erbringen. Bei anderen Unternehmen, vergleichbar aufgestellt, spielt das gar keine Rolle mehr. Die Mitarbeiter entscheiden selbst, wann und wo sie arbeiten wollen. Unterhalte ich mich darüber mit Bekannten, Freunden oder Partnern, dann sieht es sehr ähnlich aus: Die einen haben nach alter Tradition enge Vorgaben, andere kennen das überhaupt nicht mehr.

Viele Unternehmen haben diesen Schritt in den vergangenen Jahren gewagt und haben die Anwesenheitspflicht abgeschafft. Sie schaffen ihren Mitarbeitern neue Freiräume, um ihre Arbeit und ihr Privatleben besser zu organisieren und unter einen Hut zu bekommen. Letztendlich läuft es – gut vorbereitet und organisiert – auf eine Win-Win-Situation für beide hinaus.

Warum geht es bei den einen und warum wird es bei den anderen so vehement verhindert?

Die Liste der Verweigerungsargumente ist lang. Sehr schnell kommen Aussagen wie „Das machen wir hier nicht!“ oder „Wer soll denn dann kontrollieren, was gearbeitet wird?“. Von Seiten der Arbeitnehmer besteht die Angst, dass man dann auch rund um die Uhr erreichbar sein muss.

Dabei ist diese Verhalten in der heutigen Zeit doch sehr verwunderlich. Warum vertraut man Menschen, die meist mit erwachsenen sind, von denen sicherlich einige zu Hause Kinder groß ziehen, vielleicht einen großen Kredit für ihr Haus verantworten, in irgendeiner verantwortlichen Position in einem Verein sind, so wenig?

Die Voraussetzungen sind gegeben, aber der nächste Schritt folgt nicht!

Viele Unternehmen agieren in einem über viele Standorte verteilten Umfeld. Sei es weil es mehrere Niederlassungen gibt, man weltweit vertreten ist oder die Geschäftspartner nicht vor Ort sind. Die IT-Systeme (E-Mail, File-Server, Social Collaboration-Plattform, Videokonferenzsysteme usw.) verbinden die Mitarbeiter und unterstützen sie bei ihrer Arbeit.

Obwohl die Voraussetzungen geschaffen sind und in vielen Bereichen auch schon gelebt werden, tun sich viele Unternehmen trotzdem weiterhin sehr schwer, den eigenen Mitarbeitern die freie Arbeitsplatzwahl zu ermöglichen. Natürlich gibt es viele Gründe und Bereiche, wo Mitarbeiter jeden Tag vor Ort im Büro sein müssen. Es geht auch nicht darum, das Orts- und  Zeit-unabhängige Arbeit als einzige wirkliche Alternative zu sehen und alle nach Hause zu schicken.

Aus technologischer gibt es bei Büro- und Wissensarbeitern keinen Grund mehr, das verteilte Arbeiten an einem beliebigen kategorisch abzulehnen. Aber letztendlich bedeutet diese Einengung, dass Arbeitsleistung nur dann zählt und vor allem erbracht werden kann, wenn der Arbeitnehmer im Büro anwesend ist. Das ist bei den heute verfügbaren technischen Möglichkeiten und den Chancen, die sich durch mehr Freiheit und Flexibilität ergeben, eine vergebene Chance.

 

Dieser Post entstand in Zusammenarbeit mit dem HP Business Value Exchange Blog.

Best Practices für Business Continuity

Ende der 80iger Jahre wurde bei der Ausbildung von Datenverarbeitungskaufleuten den Auszubildenden folgende Frage gestellt: Wie lange dauert es, bis ein großer bayrischer Automobilhersteller für eine D-Mark aufgekauft werden kann, wenn mit einem Schlag die komplette IT auf einmal versagt? Das ist natürlich nur eine rein hypothetische Frage. Aber sie machte bereits damals deutlich, wie abhängig die Unternehmen von ihrer IT sind. Damals war die Welt noch von Großrechnern und Terminals geprägt. Die PCs fingen erst langsam an die Schreibtische in den Büros zu erobern und erste kleine PC Netzwerk nahmen ihren Betrieb auf. Das Internet bereitete sich noch in der akademischen und militärischen Welt auf seinen Einsatz in Unternehmen vor.

Heute sieht die Welt ganz anders aus: Es geht in keinem Unternehmen mehr ohne Computer und Vernetzung. Fast ausnahmslos alle Prozesse werden in und mit Hilfe der IT abgebildet. Unsere Kommunikation läuft komplett über Netzwerke jeglicher Art. Gleich wohin man im beruflichen oder privaten Umfeld sieht: Ohne IT geht es nicht!

Daher hat das Thema „Business Continuity“ (BC) heute eine noch viel größere Bedeutung und sie wird entsprechend der immer weiter vorangetriebenen Durchdringung in all unsere Lebensbereiche noch wichtiger werden. Die rechtlichen und betriebswirtschaftlichen Folgen eines Ausfalls können ein Unternehmen in die Knie zwingen, vom Imageschaden ganz zu schweigen.

BC beobachtet zwei Zustände:

· Wie kann verhindert werden, dass Geschäftsprozesse durch eine Störung zum Erliegen kommen?

· Wie kann der Prozesse weitergeführt werden, sollte es trotz alle Vorkehrungsmaßnahmen zu Störungen gekommen sein.

clip_image002Daher ist es notwendig, dass Unternehmen entsprechende Vorsorgemaßnahmen treffen, um einen sicheren Betrieb zu gewährleisten. Vor allem die Unternehmensleitung muss entsprechende Ressourcen für den Fall der Fälle bereithalten, auch wenn sie – sollten sie erfolgreich einen kontinuierlichen Betrieb ermöglichen – nie zum Einsatz kommen.

Folgende Anregungen gehören zu einer erfolgreiche BC:

· Bei Fehler muss das Beheben sowie die Wiederherstellung automatisch durchgeführt werden. Ein manueller Eingriff ist zu fehleranfällig und langwierig.

· Die Virtualisierung hilft den Betrieb kontinuierlich zu betreiben, aber es ist kein Garant!

· Erst planen, dann umsetzen und auf jeden Fall umfangreich testen. In der Theorie ist jedes System perfekt. Im Ernstfall versagen ungetestete Systeme.

· Achten sie darauf wo sie ihre Daten speichern. Sind die Rechenzentren im Unglücksfall wirklich weit genug auseinander und sind sie jederzeit erreichbar?

· Gewichten sie ihre Anforderungen immer wieder neu. Nehmen sie die Veränderung als feste Konstante in ihre Planung mit auf. Eine Anwendung, die heute sehr wichtig für sie ist, spielt evtl. in der nächsten Periode eine andere Rolle, ein Ausfall wäre dann zu verkraften. Sie haben nur beschränkte Ressourcen, daher ist es eine regelmäßige Neubetrachtung und Bewertung Pflicht.

· Mobility ist ein fester Bestandteil in den Unternehmen. Daher ist es notwendig, dass sie von Anfang die Geräte, Services und Anwendungen mit in ihre Strategie aufnehmen.

· BC ist ein Dauerthema, es ist für Unbedarfte und Betroffene belastend und nervend, bis es zu spät ist. Daher stellen sie es immer wieder auf ihre Agenda.

Das oben genannte Unternehmen hätte man – hypothetisch und in der grauen Theorie – laut der Beispielkalkulation nach einer Woche für eine D-Mark übernehmen können. Heute würde es noch schneller an Wert verlieren.


Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Technology Trend für 2015: Sicherheit durch Vielfalt!

 

image

Das Jahr neigt sich dem Ende zu und die Auguren blicken in die Zukunft. Welche Trends spielen im kommenden Jahr eine Rolle? Welche verabschieden sich auf Nimmerwiedersehen und welche starten endlich durch? Ein Thema, welches unabhängig aktueller Entwicklungen und Top-Ten Listen für Unternehmen immer eine große Relevanz haben wird, ist die Sicherheit.

Der immerwährende Wandel der IT

War das letzte Jahrzehnt stark davon geprägt, dass man die IT komplett verschließt, kann das heute nicht mehr die Maxime einer modernen IT Strategie sein. Zuviel hat sich geändert und wird sich weiterhin ändern. Aktuelle Beispiele dafür gibt es zuhauf, die wichtigsten sind Mobile und Cloud. Die Nutzung mobiler Devices wird noch weiter zunehmen. Im Moment sehen wir nur Smartphones und Tabletts, aber es werden auch andere Geräte auf den Markt für Unternehmensanwendungen kommen. Das Thema „Internet of Things“ nimmt erst noch richtig Fahrt auf. Auch beim Thema Cloud Computing stehen viele Angebote noch in den Startlöchern. Gerade die großen IT Hersteller wie IBM, Microsoft und HP schwenken massiv ihre Entwicklungen in Richtung Cloud.

Zentralismus ist out

Viele IT Services in Unternehmen haben noch nicht erkannt, dass sie mit ihrer bisherigen Strategie „alles im eigenen Rechenzentrum“, „alles durchkontrolliert“ und „nur zentral vorgegebene Anwendungen und Devices kommen zum Einsatz“ nicht mehr den Anforderungen der Anwender und des Business gerecht werden. Wenn die IT jedoch auch in Zukunft eine Rolle spielen will im eigenen Unternehmen, werden sie Konzepte und Angebote entwickeln müssen, die die veränderte Welt berücksichtigt.

Nicht wieder in die Enge treiben lassen

Ein wichtiger Trend des kommenden Jahres werden Multi-Cloud Deployments sein. Ein großes Risiko beim Thema Cloud ist, dass man beim Wechsel einer monolithischen, selbstbetriebenen IT sich wieder nur einem Cloud Provider verschreibt. Um die Abhängigkeit zu verringern ist ein Multi-Cloud Ansatz zwingend notwendig. Auch wenn dieser im ersten Schritt sicherlich aufwendiger erscheint und sicherlich nicht im Interesse der Service Provider und Herstellern ist. Sie werden gezwungen, sich an Standards zu halten, Integrationsschnittstellen weiter auszubauen und ihren Kunden flexible und veränderbare IT Services anzubieten.

Das bedeutet jedoch für die IT, dass sie sich mit ihren Sicherheitsfragen und Herausforderungen komplett neu aufstellen müssen. Sie müssen die Zugänge nicht nur zu einem Provider definieren, einrichten, betreiben und überwachen, sondern zu mehreren. Diese haben jedoch häufig nicht die gleichen Standards oder unterstütze Services. Ebenso gilt es nicht nur mit einem Anbieter, sondern mit mehreren Verträge zu schließen. Ein Firewall, die bisher das ganze Unternehmen schützte reicht nicht mehr aus. Der Schutz muss nun bis hinunter zu den einzelnen Anwendungen reichen.

Für viele IT Abteilungen in den Unternehmen gilt es da noch viel Neuland zu erobern, sich zu qualifizieren und auf die Anforderungen vorbereiten. Sie müssen ihre bisherigen Verfahren für die Bereitstellung einer sicheren IT und dem Testen entsprechender Anwendungen und Services an die heutigen Anforderungen anpassen.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.