be social

Social [ Business :: Networks :: Learning ]
IT-Analyst [ Social Collaboration :: Talent Management ]

Wo steht Software Defined Data Center (SDDC)?

SDDC könnte man kurz beschreiben mit: „Nie wieder in den Keller!“. Natürlich gibt es immer wieder Gründe ab und an in den Maschinensaal zu gehen, es muss ja immer noch ab und an nach dem Rechten gesehen werden. In Zukunft wird es jedoch anders, da die verfügbaren Ressourcen nicht mehr nur an einem Ort liegen, sondern verteilt im eigenen Unternehmen und in der Cloud.

In einem Software Defined Data Center werden alle für den Betrieb von IT-Anwendungen benötigten Komponenten gekapselt. Die Bereitstellung von Kapazitäten ist einfacher und vor allem schneller verfügbar. SDDC umfasst grundsätzlich die Bereiche des Kapazitäts- und Konfigurationsmanagements sowie die Steuerung von Multi-Cloud-Plattformen. Die gesamte interne und externe Infrastruktur wird bei diesem noch vergleichsweise neuen Ansatz virtualisiert und steht den Anwendern als Service zur Verfügung. Die eingesetzten Komponenten bestehen aus dem Netzwerk, den Servern, Speicher, Sicherheit und der Rechenleistung. Die Bedienung erfolgt voll automatisiert durch die dazugehörige Management Software. Basierend auf analytischen Verfahren, die die Systeme permanent überwachen und aus den Erfahrungswerten ihr Schlussfolgerungen ziehen, werden die Ressourcen optimal in immer ausreichender Kapazität und Qualität zur Verfügung gestellt.

In der Realität sieht es bis dato noch nicht nach einer vollständigen und vollautomatisierten Lösung aus. Noch sind die Ansätze zu vage, die Hersteller rennen vielfach noch ihren eigenen Zielen bei der Entwicklung hinterher. Einige Hersteller sind – basierend auf ihren eigenen Lösungen – schon sehr weit vorne in der Entwicklung, andere Big Player ziehen aktuell nach. Der Markt ist noch von einem starken Konkurrenzkampf geprägt, jedoch wird aktuell versucht gemeinsame Standards und Ansätze zu entwickeln.

SDDC wird kommen!

Dieser Standard ist die wichtigste Voraussetzung, um SDDC zum Erfolg zu führen. Anwender wollen sich nicht abhängig machen von einem Anbieter, dafür ist die Realität im Rechenzentrum schon seit jeher viel zu heterogen. Zudem sind die Anwender nicht mehr bereit tage- oder sogar wochenlang auf die Bereitstellung von Ressourcen zu warten. Diese haben oftmals das Gefühl, dass das Rad jedes Mal neu erfunden wird oder für ihren Auftrag eine Person oder ein Gerät gerade nicht zur Verfügung steht und daher der Wunsch erst später realisiert werden kann.
Zu Ende gedacht bedeutet SDDC die komplette Virtualisierung von eigenen und nicht selbstbetriebenen Ressourcen in der Cloud. Noch stehen einige Vorausetzung für einen reibungslosen Betrieb aus, aber SDDC wird in den nächsten 3 Jahren Realität.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Die Datenflut steigt schneller und schneller

clip_image002Datenspeicher ist teuer, teuer, teuer? Oder lohnt es sich nicht mehr darüber zu sprechen bei den billigen Speicherpreisen? In Zeiten von beliebig vielen Cloud Angeboten und Speichermedien, die nur noch wenige Cent pro gespeicherten Gigabyte kosten, könnte man meinen, Plattenplatz ist eine beliebig vermehrbare Größe.

Betrachtet man nur die eine Seite, wäre alles kein Problem und wir könnten unsere Anwender weiterhin beliebig viel Speicher zur Verfügung stellen. Aber es gibt auch die andere Seite. Die Wachstumsrate beim Speicherverbrauch liegt bei über 20% jährlich. Gleichzeitig erhalten die CIOs aber nicht mehr Geld für neue Speichermedien. Dazu kommen noch die Kosten für die Archivierung, für die Verwaltung und die Sicherheit. Je mehr Daten gespeichert werden, umso größer wird der damit verbundene Aufwand. Außerdem wird die Abhängigkeit der Unternehmen von den gespeicherten Daten immer größer und das Handling komplexer.

Datensparsamkeit bleibt weiterhin ein wichtiges Thema

Aber wie kann man dagegen angehen? Zuerst muss man sehen, dass das Problem – wie so oft – kein rein technisches Problem ist. Auch die Administratoren, die Anwendungsentwickler, die Entscheider, die IT-Hersteller und natürlich die Anwender müssen immer wieder das Thema in den Vordergrund rücken und aktiv an der Vermeidung unnötiger Datenberge arbeiten.

  • Die Mailbox bleibt der Datenmüllberg des kleinen Mannes.
    Sie dient der persönlichen Archivierung, wird für Projektmanagementaufgaben eingesetzt, enthält die wichtigsten Präsentationen der vergangenen Jahre usw. Schnell erhöhen Admins die Quota, schließlich führt jeder Anwender wichtige Argumente dafür in beliebiger Vielfalt auf. Das gleiche gilt auch für Fileserver und alle anderen Speicherorte für Anwender.
  • Weiterhin müssen Unternehmen in Technologien zur Komprimierung, Datendeduplizierung und Vermeidung von Redundanzen bei der Speicherung und bei der Anwendungsentwicklung investieren.
  • Noch trauen sich viele Unternehmen nicht den Schritt in die Cloud zu gehen. Aber gerade beim Thema Archivierung können hier große Einsparungen bei den Aufwänden erzielt werden.
  • Neben der Menge werden auch die Orte für die Speicherung immer vielfältiger und zahlreicher. Würde es dabei nicht oftmals um Informationen mit einem hohen Wert für das Unternehmen gehen, könnte man sie außer Acht lassen. Deswegen gehören mobile Geräte jeglicher Art in die neuen Speicherkonzepte

Vor 25 Jahren war der Kauf einer 600 MB Platte eine große Investition und jeweiligen Leiter der Datenverarbeitungsabteilung mussten sich dafür rechtfertigen. Woher sollten die Unmengen an Daten kommen, um diese Investition zu rechtfertigen. Das war das letzte Mal der Fall. Danach waren immer genügend Daten da.

Dieser Artikel entstand in Zusammenarbeit mit Symantec.

Denken mit dem Stift

Abends im Hotel auf dem Bett sitzend ein wenig kritzeln. Habe mir vor ein paar Tagen das Buch Uzmo von Martin Hausmann bestellt. Tolle Ideen, super erklärt, verständlich aufgebaut.

Erstellt habe ich die Grafiken mit meinem Stift-Notebook und der App Bamboo. Ach ja, wichtig ist, dass im Hintergrund Star Trek läuft.

image

image

image

image

Schickes neues Smartboard, aber . . .

SMART Kapp

SMART Kapp

Bevor ich auf das Aber komme, erstmal das Gute. Ich mag digitale Whiteboards, habe schon von Anfang damit arbeiten dürfen und es auch immer gern gemacht.Allerdings gab es immer irgendwelche Einschränkungen, vor allem bei der Empfindlichkeit der Stifte. Die gezeichneten Linien waren häufig so ganz knapp daneben. Meist kein Problem, aber immer wieder mal störend. Ein weiterer Punkt war bzw. ist, die meisten Geräte sind riesig, nicht mobil und eher weniger schick. Und die Bedienung war gewöhnungsbedürftig. Oftmals ist man als Dozent/Trainer mehr mit den Knöpfen und wenig mit den Teilnehmern oder den Inhalten beschäftigt.

Das SMART kapp Gerät sieht da schon ganz anders aus. Es hat die Größe eines Flipcharts. Damit steht es nicht so mächtig im Raum und kann bewegt werden. Es sieht richtig gut aus und hat ein sehr modernes, leicht unterkühltes Design. Außerdem eine Liveschnittstelle in die weite Welt der mobilen Geräte oder dem Internet. Die Teilnehmer erhalten nicht nur das fertige Ergebnis als Grafikdatei, sondern können jeden Strich bei seiner Entstehung verfolgen.

Jetzt das Aber: Wenn ich das richtig sehe, dann liegt da nur ein schwarzer Stift der auch, so seine Bestimmung, nur schwarz malen kann. Das ist definitiv zu wenig. Gut, ändert sich vielleicht noch, bis es in Deutschland auf den Markt kommt.

 

Das Jahr 2015 im Ausblick  – mein eigener Trend und einige andere

2015Am Ende des Jahres ist es soweit. Ein jeder holt die Glaskugel hervor und schaut hinein.  Vieles von dem, was da kommen wird, kann man auch ohne Glaskugel sehen,  anderes wiederum ist nur bei einem ganz, ganz tiefen Blick in der Glaskugel zusehen.

Sicherheit der eigenen Daten

Ein Dauerthema war, ist und wird bleiben die Sicherheit. Unternehmen, aber auch private Personen, wollen ihre Daten schützen. Das Jahr 2014 war jedoch bei diesem Thema die finale Offenbarung. Was ist überhaupt noch sicher? Hacker und zwielichtige Typen, Konkurrenz und uns fernstehende Staaten waren schon immer auf unsere Daten aus. Das ausgerechnet die eigenen Volksvertreter und ihre angeschlossenen Dienste (Heise Timeline zur NSA Affäre) im ganz großen Stil unsere Daten absaugen, ist immer noch sehr schwer verdaulich. Das Ende ist nicht abzusehen, weder beim Wunsch die eigenen Daten unter eigener Kontrolle zu halten, noch auf der anderen Seite an die Daten zu kommen. Malware wird uns weiterhin begleiten, genauso wie staatliche und nicht-staatliche Spionageprogramme.

Kleine Verbrecher rauben die Bank aus, die großen gründen eine. So ist das auch bei Facebook & Co.

Machen sich die eben genannten mit eigenen Programmen die Mühe an unser Verhalten und unsere Daten zu kommen, gehen Google, Facebook und die unendlich vielen anderen Datenkraken den sauberen und modernen Weg. Sie machen sich so schick und attraktiv, dass wir uns gerne strippen. Im kommenden Jahr werden sie die nächste Phase zünden und uns endgültig mit allen möglichen Gadgets, Reglern für den Hausgebrauch, Apps, Armbädern, Ansteckern, Zubehörerweiterungen usw. überschwemmen.

Noch mehr Cloud

Es wird nicht ewig so weitergehen – ist die Hoffnung derer, die die Cloud für ein hoffentlich bald vorbeiziehendes Unwetter halten – oder ist das Ende doch noch nicht abzusehen. Immer noch investieren alle Anbieter in die Cloud: Die einen bauen noch mehr große Hallen mit Strom, Kühlung und Netzwerkanschluss und  die Kistenbauer rüsten ihre Hardware noch ausgefeilter auf, damit sie in den Hallen aufgestellt werden können. Die Softies investieren ihre Entwicklungsgelder weiterhin vor allem in die Cloud-fähigkeit ihrer Software. Diejenigen, die noch ihre alten Klötze am Bein haben, müssen etwas mehr Aufwand betreiben und zimmern und kleistern an ihren  bestehenden Angeboten herum. Die, die bei null anfangen, geben sich erst gar keine Mühe ihre Software für einen späteren OnPremise Einsatz fit zu machen. Oftmals werden die letzteren dann von den erstgenannten aufgekauft – schließlich ist bei vielen in der Kriegskasse aus alten Zeiten noch etwas Geld übrig. Da es nicht einfacher wird – wird es außerhalb der Marketing Hochglanzbroschüren  noch nie – werden sich die Unternehmen jeglicher Größe nun auf den Weg machen und sich nicht nur mit einer Cloud oder einem Anbieter auseinandersetzen, sondern setzen von Anfang an auf Multicloud-Konzepte.

Neue Jobprofile sind im kommen

Um das alles beherrschen zu können müssen sich die CIOs auf den Weg machen und ihre Mitarbeiter weiter entwickeln und neue Aufgaben definieren sowie entsprechend qualifizieren oder einstellen. Chief Digital Officer kümmern sich um die Transformation des Unternehmens in die digitale Welt. Viele Unternehmen stehen bei der Digitalisierung erst noch am Anfang. Das Internet of Things steht in den Startlöchern und wird uns in allen Phasen, Prozessen, Aufgaben und Bereichen des täglichen Arbeitsalltags mit neuen vernetzten Gadgets überschwemmen.

In der IT werden die DevOps an Bedeutung gewinnen. Bisher oftmals streng getrennt vollzogen die Administratoren tief im Keller und die Entwickler fern der Anwender ihre oftmals undurchsichtigen und schwer verständlichen Hexenkünste. Wandern die Server und die Anwendungen in die Cloud müssen diese beiden Berufsgruppen umdenken und sich dieser Herausforderung stellen. Vielleicht kombinieren sie das auch mit einer größeren Nähe zu ihren Anwendern oder wie man auch sagt „ihren internen Kunden“.

Ein anderer Job, der immer mehr an Bedeutung gewinnt, ist der Community Manager. Social Collaboration Plattformen versuchen nun seit vielen Jahren den Einzug in die Unternehmen zu bekommen. Aber so richtig zum Fliegen – und das auch noch dauerhaft – kommen sie nur selten. Ein erfolgreicher Hebel sind Community Manager, die auf vielen Ebenen, mit einem breiten Wissen über Technik und Unternehmenseigenheiten und noch mehr Geduld ihre Anwender bei der täglichen Arbeit und dem nahen Ertrinken in der Informationsflut unterstützen.

Revival der E-Mail

Wer hätte das bis vor ein paar Wochen noch gedacht, dass ein bereits von den Marketingstrategen Tod gesagtes Werkzeug nun wieder auftaucht und eine seit langem nicht mehr genossene Aufmerksamkeit der drei großen E-Mail Hersteller erfährt.

Google hat seine neue Inbox auf die Anwender losgelassen, IBM lässt hoffentlich nun bald sein „Verse“ von der Leine und Microsoft hat die Portokasse aufgemacht und sich ein bestehendes Unternehmen samt Produkt einverleibt. Viel Geld für ein Tool, dem die Anwender in einer innigen Hassliebe verbunden sind.

Das und noch viel mehr

Mobil fehlt noch, Big Data ist hier gar nicht erwähnt, Analytics somit auch nicht, neue Führungsmodelle gehören auch in das Jahr 2015 für den erfolgreichen CIO, Security war erwähnt – aber nicht in seiner ganzen Vielfalt, Start-Up Strukturen in Unternehmen für eine neue Innovationskraft gehört auch zwingend in die IT, der Digitale Workplace ist dauernd in der Presse und auf Powerpointfolien – hat es aber noch nicht zu einer einheitlichen Vorstellung gebracht, Industrie 4.0 kommt trotz Unterstützung der Bundesregierung, der Anwender und seine User Experience  gehört noch mehr in den Fokus der Entscheider und Entwickler, der Dauerbrenner Service und seine Orientierung muss neu betrachtet werden und jegliche Form der Virtualität wird uns noch mehr beschäftigen. Und alles wird in irgendeiner Form intelligenter, vernetzter, kleiner, auskunftsfreudiger und unauffällig aufdringlicher.

Mein persönlicher Trend

Trotz immer weiterer Durchdringung von IT jeglicher Form auch in meinem Leben werde ich weiterhin Stifte jeglicher Art, Form und Farbe in die Hand nehmen und versuchen meine Ideen auf Papier für mich, meine Kollegen, in Projekten und bei Vorträgen oder Workshops  zu bringen.

Das persönliche Miteinander, der direkte Austausch sowie die Wiederentdeckung althergebrachter Kommunikationsformen werden wieder stärker als Gegentrend zur all durchdringenden Digitalisierung in den Mittelpunkt rücken. Je mehr wir uns digitalisieren, desto wichtiger wird das reale Erleben und persönliche Miteinander.

 

Dieser Post entstand in Zusammenarbeit mit dem HP Business Value Exchange Blog.

Malware auf WordPress Seiten

sitecheckHabe gerade meine Seiten getestet:

“Hat diese Website als Überträger zur Weiterverbreitung von Malware fungiert?
haydecker.de hat in den letzten 90 Tagen scheinbar nicht als Überträger für die Infizierung von Websites fungiert.”

Mehr über die Soaksoak Malware bei t3n.

Es geht was böses um in der WordPress Welt. Daher schnellstens prüfen:

Dazu noch ein ein Plugin installiert, um meine Seite dauerhaft auf Malware zu prüfen und davor zu schützen.

Best Practices für Business Continuity

Ende der 80iger Jahre wurde bei der Ausbildung von Datenverarbeitungskaufleuten den Auszubildenden folgende Frage gestellt: Wie lange dauert es, bis ein großer bayrischer Automobilhersteller für eine D-Mark aufgekauft werden kann, wenn mit einem Schlag die komplette IT auf einmal versagt? Das ist natürlich nur eine rein hypothetische Frage. Aber sie machte bereits damals deutlich, wie abhängig die Unternehmen von ihrer IT sind. Damals war die Welt noch von Großrechnern und Terminals geprägt. Die PCs fingen erst langsam an die Schreibtische in den Büros zu erobern und erste kleine PC Netzwerk nahmen ihren Betrieb auf. Das Internet bereitete sich noch in der akademischen und militärischen Welt auf seinen Einsatz in Unternehmen vor.

Heute sieht die Welt ganz anders aus: Es geht in keinem Unternehmen mehr ohne Computer und Vernetzung. Fast ausnahmslos alle Prozesse werden in und mit Hilfe der IT abgebildet. Unsere Kommunikation läuft komplett über Netzwerke jeglicher Art. Gleich wohin man im beruflichen oder privaten Umfeld sieht: Ohne IT geht es nicht!

Daher hat das Thema „Business Continuity“ (BC) heute eine noch viel größere Bedeutung und sie wird entsprechend der immer weiter vorangetriebenen Durchdringung in all unsere Lebensbereiche noch wichtiger werden. Die rechtlichen und betriebswirtschaftlichen Folgen eines Ausfalls können ein Unternehmen in die Knie zwingen, vom Imageschaden ganz zu schweigen.

BC beobachtet zwei Zustände:

· Wie kann verhindert werden, dass Geschäftsprozesse durch eine Störung zum Erliegen kommen?

· Wie kann der Prozesse weitergeführt werden, sollte es trotz alle Vorkehrungsmaßnahmen zu Störungen gekommen sein.

clip_image002Daher ist es notwendig, dass Unternehmen entsprechende Vorsorgemaßnahmen treffen, um einen sicheren Betrieb zu gewährleisten. Vor allem die Unternehmensleitung muss entsprechende Ressourcen für den Fall der Fälle bereithalten, auch wenn sie – sollten sie erfolgreich einen kontinuierlichen Betrieb ermöglichen – nie zum Einsatz kommen.

Folgende Anregungen gehören zu einer erfolgreiche BC:

· Bei Fehler muss das Beheben sowie die Wiederherstellung automatisch durchgeführt werden. Ein manueller Eingriff ist zu fehleranfällig und langwierig.

· Die Virtualisierung hilft den Betrieb kontinuierlich zu betreiben, aber es ist kein Garant!

· Erst planen, dann umsetzen und auf jeden Fall umfangreich testen. In der Theorie ist jedes System perfekt. Im Ernstfall versagen ungetestete Systeme.

· Achten sie darauf wo sie ihre Daten speichern. Sind die Rechenzentren im Unglücksfall wirklich weit genug auseinander und sind sie jederzeit erreichbar?

· Gewichten sie ihre Anforderungen immer wieder neu. Nehmen sie die Veränderung als feste Konstante in ihre Planung mit auf. Eine Anwendung, die heute sehr wichtig für sie ist, spielt evtl. in der nächsten Periode eine andere Rolle, ein Ausfall wäre dann zu verkraften. Sie haben nur beschränkte Ressourcen, daher ist es eine regelmäßige Neubetrachtung und Bewertung Pflicht.

· Mobility ist ein fester Bestandteil in den Unternehmen. Daher ist es notwendig, dass sie von Anfang die Geräte, Services und Anwendungen mit in ihre Strategie aufnehmen.

· BC ist ein Dauerthema, es ist für Unbedarfte und Betroffene belastend und nervend, bis es zu spät ist. Daher stellen sie es immer wieder auf ihre Agenda.

Das oben genannte Unternehmen hätte man – hypothetisch und in der grauen Theorie – laut der Beispielkalkulation nach einer Woche für eine D-Mark übernehmen können. Heute würde es noch schneller an Wert verlieren.


Dieser Artikel entstand in Zusammenarbeit mit Symantec.