Ausgabe 3 | 26. März 2009
Das monatliche Praxismagazin für CIOs und IT-Manager
Daten in Gefahr Die Security-Industrie feiert Data Loss Prevention als Wunderwaffe gegen den Informationsabfluss. Das ist übertrieben, aber der Ansatz ist der richtige. Denn eine aktuelle Studie zur mobilen Sicherheit bestätigt: Die größte Gefahr geht vom Anwender selbst aus. Mehr auf Seite 12 und 30
ISSN 1436-082 | Euro 6,00 | informationweek.de | CMP-WEKA-Verlag GmbH & Co. KG
SEIN JOB MACHT IHREN PRODUKTIVER. IBM System x3650 Express 1.693,00 1.535,00 €
MIT EINEM SERvER, DER SICH NAHEzU vON SELBST vERWALTET.
(inkl. MwSt.)*
Monatliche IBM Leasingrate: 48,42 € (inkl. MwSt.)1 Stellen Sie sich vor, Sie könnten zeitaufwendige Routineaufgaben mit gutem Gewissen abgeben. Zum Beispiel an den IBM System x3650 Express: Da er Ihre Infrastruktur von einem zentralen Punkt aus überwacht und steuert, kann er Probleme im Ansatz erkennen und Ihnen dabei helfen, schnell die richtige Antwort zu finden. Überlassen Sie die Routine den System x Servern von IBM und übernehmen Sie stattdessen anspruchsvolle Aufgaben.
Best.-Nr. 7979 KPG Enthält bis zu 2 leistungsstarke Intel® Xeon® Quadcore Prozessoren E5405 (2.00 GHz) Bis zu 48 GB Hochleistungsspeicher der neuen Generation mit 667 MHz und 12 DIMM-Slots Bis zu sechs 3,5"-SAS- oder SATA-Festplatten oder bis zu acht 2,5"-SAS-Festplatten und interne Bandsicherungsoption für den Schutz Ihrer Daten 1 Jahr Gewährleistung, 3 Jahre freiwilliger Herstellerservice2
von IBM und Business Partnern.
Electronic ServicePac® für Gewährleistungsupgrade – 3 Jahre Vor-Ort-Instandsetzung, 7 Tage/24 Stunden, 24 Stunden vereinbarte Wiederherstellung, Best.-Nr. 41W9370, 429,59 ¤ (inkl. MwSt.)*
IBM BLADECENTER S CHASSIS EXPRESS 8.651,00 € (inkl. MwSt.)*
IBM SySTEM STORAgE DS3200 EXPRESS 5.224,00 € (inkl. MwSt.)*
Innovation leicht gemacht:
Monatliche IBM Leasingrate: 247,42 € (inkl. MwSt.)1 Best.-Nr. 8886 K1G
Monatliche IBM Leasingrate: 149,41 € (inkl. MwSt.)1
Integration von Servern, Speicher, Netzwerkfunktionen, I/O (Input/Output) und Anwendungen in einem einzigen Gehäuse 1 Jahr Gewährleistung, 3 Jahre freiwilliger Herstellerservice 2 Electronic ServicePac® für Gewährleistungsupgrade – 3 Jahre Vor-Ort-Instandsetzung, 7 Tage/24 Stunden, 4 Stunden angestrebte Antrittszeit, Best.-Nr. 46D4062, 1.749,30 € (inkl. MwSt.)*
IBM BLADECENTER HS21 EXPRESS 1.285,00 € (inkl. MwSt.)* Monatliche IBM Leasingrate: 36,75 € (inkl. MwSt.)1, Best.-Nr. 8853 K2G
Best.-Nr. 1726 22X Drei Gigabit pro Sekunde (Gbit/s) Serial Attached SCSI-(SAS-)Host-Schnittstellentechnologie Skalierbar auf 3,6 Terabyte (TB) Speicherkapazität mit 300 GB Hot-Swap-fähigen SAS-Platten oder 9,0 TB mit SATA-Festplatten im ersten Gehäuse 1 Jahr Gewährleistung, 3 Jahre freiwilliger Herstellerservice2 Electronic ServicePac® für Gewährleistungsupgrade – 3 Jahre Vor-Ort-Instandsetzung, 7 Tage/24 Stunden, 24 Stunden vereinbarte Wiederherstellung, Best.-Nr. 51J8654, 1.112,65 € (inkl. MwSt.)*
SIE WOLLEN MEHR ÜBER DIE IBM EXPRESS PRODUKTE ERFAHREN? Oder gleich direkt mit einem IBM Business Partner in Ihrer Nähe sprechen? Mehr Informationen hierzu finden Sie auf unserer Webseite.
ibm.com/systems/de/express1
*Alle Preise sind Einzelhandelsverkaufspreise von IBM, gültig ab 1. 3. 2009. Die Preise können je nach Konfiguration schwanken. Die Einzelhändler legen ihre eigenen Preise fest, daher können die Wiederverkaufspreise an die Endverbraucher schwanken. Produkte unterliegen der Verfügbarkeit. Dieses Dokument wurde für Angebote in den Vereinigten Staaten entwickelt. Es kann sein, dass IBM die in diesem Dokument erwähnten Produkte, Elemente oder Dienstleistungen in anderen Ländern nicht anbieten kann. Die Preise können ohne vorherige Mitteilung geändert werden. Es kann sein, dass im Einstiegspreis Festplatte, Betriebssystem oder andere Elemente nicht enthalten sind. Wenn Sie am aktuellsten Preis in Ihrem geographischen Gebiet interessiert sind, setzen Sie sich bitte mit Ihrem IBM Ansprechpartner oder Ihrem IBM Business Partner in Verbindung. 1 Monatliche IBM Leasingrate, Laufzeit 36 Monate. Die Finanzierungsangebote sind freibleibend, vorbehaltlich einer positiven Bonitätsprüfung durch IBM, und richten sich ausschließlich an Geschäftskunden. Die Vermittlung erfolgt über den Business Partner auf Basis der IBM Rapid Financing Ratecard, Stand: Januar 2009. Es können weitere Einschränkungen anfallen. Raten und Angebote können ohne weitere Mitteilung geändert, verlängert oder aufgehoben werden. 2 Freiwilliger Herstellerservice: Service von 8.00 bis 17.00 Uhr am nächsten Arbeitstag ohne Zusatzkosten. Vor-Ort-Service für bestimmte Komponenten, Kunden-Selbstreparaturservice (Customer Replaceable Units – CRUs) für alle anderen Einheiten (je nach Land verschieden). Die Bedingungen dieses freiwilligen Herstellerservice liegen der Lieferung bei bzw. sind unter ibm.com/servers/support/machine_warranties abrufbar. Die Gewährleistung gemäß den Geschäftsbedingungen der IBM bleibt davon unberührt. Insbesondere bleibt die in den Geschäftsbedingungen der IBM grundsätzlich geregelte Gewährleistungsfrist von zwölf Monaten unberührt. Für ausgewählte Produkte sind zusätzlich „Erweiterte Wartungsservices“ erhältlich, die über den freiwilligen Herstellerservice hinausgehen. IBM, das IBM Logo, IBM Express Advantage, System x, System Storage und Predictive Failure Analysis sind Marken oder eingetragene Marken der International Business Machines Corporation in den Vereinigten Staaten von Amerika und/oder anderen Ländern. Für eine komplette Liste der IBM Marken: www.ibm.com/legal/copytrade.shtml. Intel, das Intel Logo, Intel Core, Core Inside, Intel Inside, das Intel Inside Logo, Xeon und Xeon Inside sind Marken oder eingetragene Marken der Intel Corporation oder ihrer Tochtergesellschaften in den Vereinigten Staaten und/oder anderen Ländern. Andere Namen von Firmen, Produkten und Dienstleistungen können Marken oder eingetragene Marken ihrer jeweiligen Inhaber sein. © 2009 IBM Corporation. Alle Rechte vorbehalten. O&M IBM ES 05/09a
EDITORIAL 3
Die Firewall-Illusion Die meisten Unternehmen gehen bei ihrer Sicherheitsphilosophie immer noch von der Prämisse aus, dass sie sozusagen eine feste Burg darstellen. Das ist schon heute kaum noch wahr und morgen noch viel weniger. Die Unternehmensgrenzen verschwimmen nicht nur IT-technisch durch die zunehmende Mobilisierung der Mitarbeiter, sondern vor allem auch organisatorisch durch unzählige externe Berater und sonstige freie Mitarbeiter, unternehmensübergreifende Kunden-LieferantenVerzahnung, Joint-Ventures und staatliche Regulierungs- und Rettungsmaßnahmen mit entsprechenden Kontrollgremien. Viele Unternehmen haben überhaupt noch nicht begriffen, wie sehr diese Entwicklung ihre Sicherheitsphilosophie verändern muss. Denn die wichtigsten Geschäftsprozesse mit ihren brisanten Daten und Dokumenten gehen mittlerweile über die gute alte Firewall hinweg. Diese Firewall schützt sozusagen nur noch die weniger wichtigen Daten einer vermeintlich festen Burg, bei der schon längst alle Zugbrücken herunter gelassen sind. Der Schutzfaktor Firewall ist längst zur Illusion geworden, weil die Unternehmen immer mehr zu Unternehmungen werden. Sicherheitsmaßnahmen dürfen deshalb nicht in erster Linie an dem sich ständig verändernden Gebilde Unternehmen festgemacht werden, sondern an den Daten und Dokumenten selbst. Wie man das genau tut, ist eine Geschmacks- und nicht zuletzt eine Budgetfrage. Eine große Lösung, die aber entsprechend kostet, ist ein digitaler Datenraum, bei dem ein NichtIT-Administrator Dokumente und Daten mit genau definierten Rechten, die überdies nur für einen genau definierten Zeitraum gelten, freigibt. In besonders heiklen Fällen muss natürlich dabei ein Mehraugen-Prinzip gelten. Einfachere Lösungen sind Frameworks zur Daten-Kategorisierung und Datenkontrolle, die seit etwa zwei Jahren unter dem Marketing-Schlagwort »Data Leakage Prevention« (DLP) auf den Markt drängen. Dahinter verbergen sich teilweise völlig unterschiedliche Ansätze (siehe auch den Artikel auf Seite 12ff). Alle diese Systeme sind noch weniger als bisherige Sicherheitsangebote als Rundum-Sorglos-Pakete zu gebrauchen. Sie weisen lediglich in die Richtung, in die (IT-) Sicherheit für die Unternehmungen der Zukunft entwickelt werden muss. Jürgen Höfling
[email protected]
Zertifizierung von IT-Prozessen – nach Unternehmensgrößen Frage: Haben Sie bereits Zertifizierungen Ihrer IT-Prozesse vorgenommen? Gesamt Bis 49 Mitarbeiter 50 bis 199 Mitarbeiter 200 bis 499 Mitarbeiter 500 bis 1999 Mitarbeiter
19,6
80,4
6,2
93,8
14,0
86,0
19,1
80,9
22,0
78,0
2000 Mitarbeiter und mehr
53,8
Ja
46,2
Nein Basis: 286 Antworten, alle Angaben in Prozent Quelle: InformationWeek, IT-Budget 2009
Ausgabe 3 | 26. März 2009 | informationweek.de
4 INHALT
12 Die Securi-
ty-Industrie feiert Data Loss Prevention als Wunderwaffe gegen den Informationsabfluss. Das ist übertrieben, aber der Ansatz ist der richtige. Denn eine aktuelle Studie zur mobilen Sicherheit bestätigt: Die größte Gefahr geht vom Anwender selbst aus.
KURZ NOTIERT 6 Aktuelle Meldungen
SERVICES & LÖSUNGEN 10 Problemlöser Virtualisierung 12 Titel: Prävention gegen Datenlecks
16 »Biometrie bleibt in der
halten kreative Teams auch visuellen Kontakt – unabhängig vom Standort.
SCHWERPUNKT HEALTHCARE 32 Telecare im Mittelpunkt 34 Sichere IT in der Kardiologischen Praxis
36 Krankenhaus-Holding setzt Kosten unter Druck
38 »Arztgeführt und
patientenbestimmt«
Nische«
RECHT & MANAGEMENT
17 Verwirrende
42 Büffeln nach Feierabend
Modell-Vielfalt
20 Mit mobilen Videokonferenz-Systemen
28 IT-Systeme mit einem Universalpasswort
(Single-Sign-On) verwenden immer öfter biometrische Merkmale wie den Fingerabdruck als zweites (oder drittes) Authentisierungsmerkmal.
MEINUNG TRENDS & TECHNOLOGIEN 20 Auge in Auge mit dem Geschäftspartner
44 Unified Communications: nicht nur für die Großen
22 Data Mining wird
LETZTE SEITEN
24 Kostendruck beeinflusst
50 Fragen an...,
anwenderfreundlicher
Speichertechnik
26 Prozesse bedarfsgerecht erstellen
49 Hey Joe/Branchengeflüster Thomas Denecke, Leiter IT/IS bei Toyota Material Handlung Deutschland GmbH
27 Nehalem ante portas 28 Zutritt mit Körpereinsatz
RUBRIKEN
MÄRKTE & UNTERNEHMEN
3 Editorial 45 Solution Market 48 Anzeigenindex/
30 Krasse Sicherheitslücken bei Handhelds
Ausgabe 3 | 26. März 2009 | informationweek.de
Herstellerindex 48 Impressum
32 In der Arztpraxis der Zukunft spielen Infor-
mationstechnik und besonders das Kartenlesegerät eine große Rolle.
6 KURZ NOTIERT
8-Gigabit-RAID-Speichersystem
Storage im Würfel
Transtec bringt mit dem Provigo 630 FC/SAS Performance RAID erstmals ein externes RAID-System mit 8-Gigabit-Technologie auf den Markt. Das Speichersystem ist für den MidrangeBereich konzipiert, unterstützt bis zu 112 SAS-/SATA-Festplatten und ist besonders energieeffizient. Basis ist die neueste ASIC667-Generation des Infotrend G6 RAID-Controllers, der gegenüber dem Vorgänger bis zu 50 Prozent mehr Leistung bringt. Mit einer sequenziellen Leserate von bis zu 2800 Megabyte und einer Schreibgeschwindigkeit von bis zu 870 Megabyte pro Sekunde gehört das Transtec Provigo 630 Performance RAID zu den schnellsten seiner Klasse. Das System verfügt über vier 8-Gigabit-Fibre Channel Hostanschlüsse. Es ist individuell konfigurierbar und ab 8990 Euro plus Mehrwertsteuer erhältlich.
Unter dem Label Silent Cubes bietet Fast LTA hochsichere Festplatten-Speichersysteme für Permanentdaten an. Ein System besteht aus einem NAS-Head, an das bis zu 128 würfelförmige, geschlossene Speichereinheiten mit je zwölf Festplatten angeschlossen werden können. Gespeichert wird änderungssicher mit WORM (Write once, read many)-Technologie. Gegen Datenverluste schützt ein RAID-6-ähnliches proprietäres Format, bei dem Files jeweils über alle zwölf Platten eines Cubes verteilt werden. Die Platten selbst stammen in jedem Cube von drei verschiedenen Herstellern. Die Kapazität von vier der zwölf Festplatten wird deswegen für Redundanzzwecke verbraucht. Die geschriebenen Daten werden vom System selbsttätig überprüft. Die Cubes verbrauchen bei acht TByte Nettokapazität nur zwei Watt, da die Festplatten nur laufen, wenn Daten auf sie geschrieben oder von ihnen abgefragt werden. Eine Konfiguration mit 4 TByte Nettokapazität (ein Cube) und NASHead kostet knapp 6500 Euro, die Kosten pro Terabyte sinken aber, je größer ein System wird.
Webkonferenzen trotz verschiedener Betriebssysteme
Umweltfreundliche DesktopKommunikation
Netviewer, ein führender europäischer Hersteller von Lösungen für Web-Collaboration, ermöglicht Webkonferenzen auf verschiedenen Betriebssystemen. Mit der ab sofort erhältlichen Programmversion 5.1 für SaaS-Kunden können Nutzer von Macintosh, Linux und Unix an WebMeetings und Online-Kundengesprächen teilnehmen. Zahlreiche Neuerungen wie eine verbesserte VoiP-Qualität und die Einbindung in bestehende Infrastrukturen erleichtern die Bedienung und machen WebMeetings zur komfortablen Alternative zu Präsenzveranstaltungen.
Polycom stellt mit dem Business Media Phone VVX 1500 eine Kommunikationslösung vor, die aus einem persönlichen Videokonferenzsystem und einem voll ausgestattetem VoIP-Telefon besteht. VVX 1500 verfügt über eine offene Anwender-Programmierschnittstelle sowie einen Microbrowser, der die Echtzeitbereitstellung personalisierter Webinhalte und Integration wichtiger Geschäftsapplikationen ermöglicht. Neben den von Natur aus umweltfreundlichen Eigenschaften von Videokonferenztechnologien, zeichnet sich das VVX 1500 auch durch eine Reduzierung des Stromverbrauchs aus. Durch die Nutzung des PoE-Verfahrens (Power over Ethernet) benötigt das Gerät weniger als die Hälfte des Stroms vergleichbarer Produkte. Das Polycom VVX 1500 wird zum Listenpreis von 849 Euro (plus Mehrwertsteuer) erhältlich sein.
Deutsche Unternehmen geben regelmäßig einen großen Teil ihrer ITBudgets für Release-Wechsel bei ihren Softwaresystemen aus. Vor allem bei den Kernanwendungen folgen sie zur Hälfte ihren SoftwareLieferanten und führen die empfohlenen Migrationen durch. Laut einer Studie des internationalen Systemhauses C&P, nimmt jedes achte Unternehmen über 50 Millionen Euro Umsatz bei allen Softwaresystemen die von den Softwarehäusern vorgesehenen Release-Wechsel vor. Allerdings gibt es nach Erkenntnissen der Studie zumindest in einem Teil der Unternehmen Überlegungen, beim ständigen Wechsel auf neuere Softwareversionen künftig einen Gang zurückzuschalten, weil die Budget-Möglichkeiten für solche Investitionen weniger Spielraum als in der Vergangenheit bieten. Anzeige
Kluft zwischen Interesse und Berufsplanung in der IT Viele Jugendliche und junge Erwachsene haben großes Interesse an IT und an IT-Berufen, setzen dieses aber noch zu selten in ein technisches Studium oder eine Ausbildung um. Das hat eine repräsentative Umfrage des Marktforschungsinstituts Forsa im Auftrag des Hightech-Verbands BITKOM ergeben. Jugendliche, so die Umfrage, zeigen ein höheres Interesse an IT-Berufen, wenn sie in der Schule am Informatikunterricht teilgenommen haben. »Die Einführung eines Pflichtfaches Informatik ist dringend erforderlich, um mehr junge Menschen für technische Studiengänge und Ausbildungwege zu begeistern«, so BITKOM-Präsident Professor August-Wilhelm Scheer. Das Image der IT-Branche ist bei Jugendlichen generell gut. »Und nur, wenn es gelingt, die Kluft zwischen grundsätzlichem Interesse und konkreter Berufsplanung zu überbrücken, kann dem Fachkräftemangel dauerhaft begegnet werden«, so Scheer.
Ausgabe 3 | 26. März 2009 | informationweek.de
Fotos: Polycom, Fast LTA, Transtec
IT-Budgets für Release-Wechsel
KURZ NOTIERT
Mobiler Datentresor
7
Urteil des Monats
RFID-Security-Festplatten von Digittrade bieten umfassenden Schutz. Zwei im Lieferumfang enthaltene RFID-Schlüssel, sogenannte Transponder, sperren oder entsperren die Festplatte durch simples Führen über ein im Gehäuse integriertes RFID-Lesegerät. Bei Trennung des mobilen Datentresors vom Computer erfolgt sofort eine automatische Sperrung. Zusätzlich ist der RFIDZugriff durch einen 128-Bit-Schlüssel nach Advanced Encryption Standard (AES) geschützt. Um eine Entschlüsselung der Daten zu verhindern, fügte Digittrade der Security-Festplatte ein zusätzliches Sicherheitsmerkmal hinzu. Dabei nutzt das Gehäuse die S.M.A.R.T-Funktion der Festplatte und vergibt selbstständig ein ATAPasswort. Dieser ATA-Kennwortschutz wird automatisch aktiv, sobald die Festplatte aus dem Gehäuse entfernt, ausgeschaltet oder mittels RFID-Schlüssel gesperrt wurde. Die Deaktivierung des Passwortschutzes erfolgt gleichzeitig mit der Entsperrung der Festplatte durch den RFID-Schlüssel. Somit wird ein Auslesen der Festplatte außerhalb des Gehäuses verhindert.
Schadensersatz bei Datenverlust Dass die versehentliche Vernichtung von fremden Daten zu erheblichen Schäden führen kann, musste der Mitarbeiter eines Unternehmens schmerzvoll erfahren. Als der Dr. Antje Zimmerlich Sohn des Beklagten aus Versehen die Daten auf der Fest- Rechtsanwältin von platte des betrieblichen PCs seines Vaters gelöscht hatte, DLA Piper forderte der Arbeitgeber die Kosten von 1,2 Millionen DM (erste Verhandlung vor Euro-Einführung) für die Wiederherstellung des Datenbestandes. Der Bundesgerichtshof (Az. VI ZR 173/07) hat der Klage des Arbeitgebers in weiten Teilen stattgegeben und den Beklagten zur Zahlung von 70 Prozent des geforderten Betrages und nicht lediglich den Anschaffungskosten für eine neue Festplatte verurteilt. 30 Prozent der Kosten muss der Arbeitgeber selbst tragen, da er es unterlassen hatte, Sicherungskopien zu erstellen und ihn so ein Mitverschulden hinsichtlich der Schadenshöhe trifft. Da nicht nur durch die Wiederherstellung der Daten erhebliche Kosten verursacht werden können, sondern die fehlenden Daten – hier Planungsdaten eines Ingenieurbüros – zu Störungen im Betriebsablauf führen können, ist eine regelmäßige Datensicherung dringend zu empfehlen. Tritt dennoch ein Datenverlust auf, bleibt für den Schadensverursacher nur zur hoffen, dass er eine wirksame vertragliche Haftungsbegrenzung vereinbart hat.
Null-Prozent-Leasing HP bietet kleinen und mittleren Unternehmen ab sofort ein Null-Prozent-Leasing für alle seine Server- und Speicherlösungen an. Mit dem Angebot hilft HP seinen Mittelstandskunden, wichtige Projekte auch bei Budgetproblemen zu realisieren. Die zinsfreien Raten verteilen sich quartalsweise über einen Zeitraum von insgesamt 30 Monaten. Am Ende der Laufzeit können die Kunden sich entscheiden, ob sie das Produkt zurückgeben, es mit neuen Technologien modernisieren, oder den Restbetrag mit einer Einmalzahlung begleichen wollen. Die Aktion läuft zunächst bis 30. Mai 2009. Ein ähnliches Angebot macht Dell für ausgewählte Server- und Storage-Systeme. Das Finanzierungsangebot gilt für alle Bestellungen mit einem Bestellwert von mindestens 10 000 Euro bei gleichzeitigem Abschluss eines 3-jährigen ProSupport-Servicevertrags. Am Ende der Vertragslaufzeit gehen die Produkte mit Zahlung der letzten Mietkaufrate in das Eigentum der Kunden über. Das Angebot ist bis zum 30. April 2009 gültig. Auch der amerikanische Netzwerkausrüster Extreme Networks hat ein Null-Prozent-Leasingangebot für Deutschland, Österreich und die Schweiz auf den Markt gebracht.
Anzeige
Fotos: Palm, DLR Piper
Palm Pre lässt hoffen Von seinem neuen Smartphone Palm Pre, dem ersten mobilen Gerät auf der webOS-Plattform, erhofft der Hersteller einen durchschlagenden Erfolg. Nicht ganz zu Unrecht, denn der Neuentwicklung wird in Fachkreisen durchaus das Potenzial zugetraut, iPhone und Blackberry einen Teil des Wassers abzugraben. Tatsächlich benötigt das Unternehmen nach langer Durststrecke dringend wieder einen Erfolg. Palm hat im dritten Quartal des Fiskaljahres 2009 einen Umsatz von lediglich 90,6 Millionen Dollar erzielt (Vorjahr: 312,1 Millionen Dollar). Der Nettoverlust übertrifft den Umsatz und liegt bei 98 Millionen Dollar (Vorjahr minus 54,6 Millionen Dollar).
Ausgabe 3 | 26. März 2009 | informationweek.de
Radiologische Befundung in Farbe Für die Wiedergabe medizinischer Diagnosebilder in Farbe bringt NEC Display Solutions den NEC MD21M auf den Markt. Der neue 2-Megapixel Bildschirm verfügt über ein SA-SFT (IPS)Panel. Er wurde speziell für die Befundung im Bereich der Computertomographie, Magnetresonanztomographie und Kardiologie entwickelt. Der MD21M erfüllt alle verbindlichen Standards wie CE-MDD und DIN V6868-57, Kategorie B. Er bietet eine native Auflösung von 1600 x 1200 Bildpunkten sowie einen Kontrastwert von 500:1. Das Panel unterstützt zudem auch die Wiedergabe von Graustufenbildern aus der Röntgendiagnostik. Der Bildschirm ist ab sofort über NEC Display Solutions sowie über den zertifizierten medizinischen Fachhandel verfügbar.
Anwender mit Business Intelligence Tools unzufrieden BI Survey 8, eine Umfrage unter 2622 Anwendern, Beratern und Anbietern, hat gezeigt, dass es offenbar enorme Wahrnehmungsunterschiede innerhalb der BI-Community gibt. So beklagen Anwender vor allem die Abfrage-Performanz und die Support-Qualität. Anbieter selbst sehen sich deutlich positiver und beklagen dagegen die Unternehmenspolitik und die schlechte Datenqualität in den Anwenderunternehmen. Sie glauben auch, dass in Projekten viel mehr Anwender mit BI-Software arbeiten, als dies real der Fall ist. Soll BI zum Erfolg geführt werden, müssen diese Kommunikationslücken geschlossen werden.
Storage Competence
Partner schützen Ihre Storage Investitionen! NUTZEN SIE EIN KOSTENLOSES BERATUNGSGESPRÄCH!
Storage Competence
Partner
Storage Competence Partner ist eine Kooperation des VAD TIM AG mit führenden Storage Herstellern und Systemhäusern in Deutschland. Sie zeichnen sich aus durch: · herstellerübergreifende Lösungskompetenz · hochqualifizierten Support und Professional Service · methodische, technologische und kaufmännische Storage Beratungskompetenz 01277 DRESDEN www.interface-systems.de
[email protected]
51063 KÖLN www.nextevolution.de
[email protected]
10587 BERLIN www.dcs.de
[email protected]
51647 GUMMERSBACH www.opitz-consulting.de
[email protected]
22303 HAMBURG www.traffix.de
[email protected]
53111 BONN www.hug.de
[email protected]
28357 BREMEN www.basys-bremen.de
[email protected]
61352 BAD HOMBURG www.pc-ware.de
[email protected]
30559 HANNOVER www.grass-merkur.de
[email protected]
63303 DREIEICH www.pandacom.de
[email protected]
41066 MÖNCHENGLADBACH www.ada.de
[email protected]
64625 BENSHEIM www.concat.de
[email protected]
51063 KÖLN www.tdmi.com
[email protected]
65205 WIESBADEN www.semico.de
[email protected]
70563 STUTTGART www.condor-computer.de
[email protected] 72186 EMPFINGEN www.stemmer.de
[email protected] 73479 ELLWANGEN www.inneo.de
[email protected] 74172 NECKARSULM www.bechtle.de
[email protected] 82178 PUCHHEIM www.tproneth.de
[email protected] 94315 STRAUBING www.henrichsen.de
[email protected]
KONTAKTIEREN SIE UNS:
0611 2709-222 oder unter
[email protected]
TIM AG Schoßbergstraße 21 65201 Wiesbaden www.tim.de www.storagecompetencepartner.de
10
Problemlöser Virtualisierung In der Krise wird gern an IT-Kosten gespart. Virtualisierung kann helfen, die technischen und wirtschaftlichen Ziele des DV-Bereichs unter einen Hut zu bringen. von manfred gnirss, jürgen simon* |
[email protected]
Die derzeitige Wirtschaftskrise lässt viele Unternehmen ihre IT kritisch prüfen. Denn hier rechnet das Controlling bei der Umsetzung üblicher Sparprogramme mit schnellen Resultaten. Doch eine Anpassung der IT-Architektur- und Betriebsmodelle liefert oft bessere und nachhaltigere Ergebnisse. Eine sehr wirksame Methode ist hier die Virtualisierung. Sie ist mittlerweile ein etabliertes Konzept und kann auf unterschiedliche Systemkomponenten (Server, Netzwerke, Speichersysteme) angewandt werden. Populär ist derzeit vor allem die Servervirtualisierung: Eine Virtualisierungsschicht stellt mehreren Konsumenten von Systemleistungen dieselbe Ressource (also einen oder mehrere Server) losgelöst von der physischen Basis als einheitliche logische Ressource zur Verfügung. Das bedeutet unter anderem, dass die Programme nicht explizit auf vorhandene Systemressourcen abgestimmt werden müssen. Folglich muss man Serverhardware nicht mehr Programmen und Betriebssystemen fest zuweisen. In der Praxis sind unterschiedliche
Die IT entwickelt sich hin zu gemeinsam genutzten, konsolidierten, virtualisierten und automatisierten Infrastrukturen. Quelle: IBM
Ausgabe 3 | 26. März 2009 | informationweek.de
Virtualisierungstechniken bekannt: Virtualisierung innerhalb der Hardware, reine Softwarelösungen oder auch kombinierte Lösungen aus Soft- und Hardware. Alle Ansätze lasten bei professioneller Anwendung Ressourcen deutlich besser aus. So eignet sich eine virtuelle Plattform, die viele Systeme logisch zur Verfügung stellt, hervorragend für die Konsolidierung individueller, schlecht ausgelasteter Systeme. Verringerter Hardwarebedarf senkt die Betriebskosten Hieraus ergeben sich diverse Vorteile, die direkt oder indirekt die IT-Betriebskosten dauerhaft senken. So verringert zum Beispiel eine auf virtuellen Servern konsolidierte Rechnerumgebung in der Regel den Investitionsbedarf: Man braucht weniger physische Server sowie Netzwerkkomponenten wie Verkabelungssysteme, Switche oder Netzwerkkarten. Die nötige RZFläche wird kleiner, die Infrastruktur schlanker, meist sinkt der Energieverbrauch. Typischerweise verringert sich auch die installierte Gesamtprozessorkapazität bei
SERVICES & LÖSUNGEN
Funktionsweise von Cloud Computing im Überblick
Für den Anwender kommt der Service einfach »aus der Cloud«. Dort verbergen sich komplett virtualisierte, skalierbare, automatisierte Ressourcen und Datenzentren. Quelle: IBM
gleichem Leistungsbedarf. Daraus ergeben sich wiederum Einsparungen bei Software-Lizenzkosten, sofern diese sich, wie das oft der Fall ist, an der Zahl der verwendeten CPUs orientieren. Eine auf wenige Hardwarekomponenten konsolidierte Umgebung erlaubt ein zentrales und effektives Systemmanagement. In Verbindung mit entsprechenden Werkzeugen vereinfacht sich die Administration der Umgebung. Zentrale Monitoring-Funktionen stellen umfangreiche Systeminformationen zur Verfügung, die als Basis für die Automation der gesamten virtuellen Serverlandschaft genutzt werden können. Außerdem wird die gesamte Umgebung in der Regel flexibler. Maßgeschneiderte Services und virtuelle Server lassen sich bei Bedarf schnell zur Verfügung stellen. Verändert sich der Leistungsbedarf, kann man die Kapazitäten eines vorhandenen Servers wie CPU-Leistung, Arbeits- oder Festplattenspeicher schnell der neuen Situation anpassen und damit den aktuellen Geschäftsanforderungen unmittelbar und automatisiert entsprechen. In einer nicht virtualisierten Umgebung stellt je ein Server pro Anwendung die erforderlichen Kapazitäten für die Nutzer bereit. Dieser Server ist die Basis für die Abrechnung der verbrauchten Leistung, sei er nun ausgelastet oder nicht. Abrechnung nach Gebrauch Virtualisierte Serverumgebungen stellen jedem einzelnen virtuellen Server die benötigten Kapazitäten unabhängig von den Anforderungen der anderen Serverinstanzen zur Verfügung. Ausgewogene Virtualisierungslösungen erlauben es, für alle Server garantierte Mindest- und/oder Maximal-Kapazitäten zu bestimmen. Dabei erfolgt die Steuerung und Festlegung der Kapazitätsgrenzen typischerweise abhängig von den Berechnungsmodellen für die Kostenweiterbelastung. Die gewünschte Dienstgüte der Services wird dabei be-
Ausgabe 3 | 26. März 2009 | informationweek.de
rücksichtigt. In einer virtualisierten Welt kann man also von einer Server-basierten Abrechnung zu einem rein verbrauchsorientierten Abrechnungsmodell übergehen. Hier zählen nur die tatsächlich verbrauchten Ressourcen. Häufig taucht die Frage nach Zusatzrisiken in virtualisierten Umgebungen auf. Bei vielen Diskussionen steht im Mittelpunkt, ob es gelingt, die virtuellen Server wirksam gegeneinander und vom Trägersystem abzuschotten. Tatsächlich erfüllen nicht alle Virtualisierungslösungen gleich hohe Sicherheitsstandards. Betreiber mit hohem Sicherheitsbedarf sollten daher auf herstellerunabhängige Zertifizierungen für die ausgewählten Software- und Hardwarelösungen achten, zum Beispiel die des Bundesamtes für Sicherheit in der Informationstechnik (BSI). Virtualisierung ebnet Weg zum Cloud Computing In letzter Konsequenz legt Virtualisierung die Basis für Cloud Computing. Dieses technologische Konzept erlaubt es, für neue Geschäftsanforderungen in kürzester Zeit die dazu passenden IT-Services zur Verfügung zu stellen. Ein IT-Service kann dabei unterschiedliche Ressourcen – von der Hardware bis zur Applikation – umfassen. Sie werden, basierend auf den jeweiligen SLAs (Service Level Agreements), automatisch ausgewählt, zugewiesen und initialisiert. Hierdurch ergibt sich für Unternehmen idealerweise neben einem komplett auf Nutzung basierenden Bezahlmodell maximale Flexibilität. Sie können deutlich schneller am Markt agieren. Allerdings stehen Cloud-Modelle für die Unternehmens-DV noch am Anfang – es gibt zwar erste Projekte, doch verbindliche Standards sind noch in I Arbeit. * Manfred Gnirss ist Experte für die Entwicklung von Systemsoftware, Jürgen Simon Executive IT-Architect für Financial Services bei IBM Deutschland.
11
12 SERVICES & LÖSUNGEN
Prävention gegen Datenlecks Mit Data Loss Prevention (DLP) hat die Security-Industrie nach eigener Aussage das Wundermittel gegen den Informationsabfluss entwickelt. Wer es einsetzen möchte, wird unter anderem Interessenskonflikte zwischen dem IT-Team und den Mitarbeitern lösen müssen. von stefan bächer* |
[email protected]
Ausgabe 3 | 26. März 2009 | informationweek.de
Wer das Schlagwort inhaltlich fassen möchte, sollte es daher über seine konzeptionelle Rolle versuchen. Das Systemhaus Integralis hat hierfür eine kluge Definition gefunden: »DLP ist eine Technologie, die vertrauliche Daten erkennt und den autorisierten Benutzer an deren unzulässiger Nutzung und Weiterverbreitung hindert. Die Betonung liegt auf „autorisierter Benutzer”.« Wer Frameworks konzipiert, muss sie erklären, deuten, entwickeln und füllen. Die Unternehmen müssen ein eigenes Konzept für ihre Welt entwickeln. Keine geringe Hürde für DLP, denn es müssen zahlreiche organisatorische Fragen beantwortet sein, insbesondere auch auf Prozessebene. DLP ist schließlich kein Boxprodukt nach dem Motto »installieren und vergessen«. Ziele kantig formulieren Bei einem DLP-Projekt ergibt sich eine Vielzahl von allgemeingültigen Fragen. Wer bestimmt und klassifiziert die Daten in der Hinsicht, was sensible Inhalte sind? Wie wird verhindert, dass die Mitarbeiter, die ja mit den Daten arbeiten müssen, diese nicht aus dem Unternehmen tragen? Die internen User dürfen dabei nicht unter Generalverdacht stehen. Oft handeln sie falsch, weil sie die Gefahren unterschätzen oder schlicht nicht kennen. Oft wird ihnen das Ausmaß erst bewusst, wenn sie den USB-Stick oder das Notebook im Taxi liegen ließen. Dies geschieht dutzendfach jeden Tag, wie die Statistiken des Fundbüros der Londoner Verkehrsbetriebe protokollieren. So wurden im vergangenen Jahr 170 000 Gegenstände vergessen, darunter
Foto: InformationWeek USA
Vielen Dank, Deutsche Telekom, Dank auch an die Landesbank Berlin für ihre gelungene Aufklärungskampagne. Diese Organisationen haben ihren Ruf auf Spiel gesetzt, um allen anderen die Gefahren eines Datenschutzskandals vor Augen zu führen. Dabei gehören die in Deutschland formulierten Regeln für Datenschutz nach allgemeiner Auffassung zu den strengsten weltweit. Zwischen Gesetzestext und Umsetzung klafft allerdings eine Lücke, durch die Millionen von Kunden-, Konten- und Adressdaten fließen. Wie hoch der Schaden eines solchen Unfalls tatsächlich ist, lässt sich seriös kaum beziffern. In Großbritannien, wo die britische Steuerbehörde rund 25 Millionen Bürgerdaten verlor, kommt die Opposition in ihrer durchaus politisch motivierten Rechnung auf ein Volumen von knapp 2,1 Milliarden Euro, die Folgen für das Image außen vorgelassen. Nun heißt es, aus dem Schaden anderer klug zu werden. Die Security-Industrie hat diese Vorfälle natürlich reflexartig aufgegriffen und ihr Gegenmittel »Data Loss Prevention«, kurz DLP, präsentiert. Wer die jeweiligen Füllungen des Begriffs untersucht, wird je nach Hersteller andere Ausprägungen vorfinden. Ein DLP-Produkt existiert als solches nicht, denn bei DLP handelt es sich um ein Framework. Eine Architektur, in die sich unterschiedliche Produktkategorien eingliedern. Das beginnt bei der Festplattenverschlüsselung und E-Mail-Encryption-Systemen und endet bei Appliances und Fileserver- und Datenbank-Tools, die Daten im Archiv oder auf ihrem Weg durch das Netz automatisch klassifizieren.
Kaspersky
Open Space Security
Optimaler Schutz für dynamische Unternehmens-Netzwerke Kaspersky Open Space Security schützt FirmenNetzwerke jeder Größe inklusive externer Mitarbeiter und mobiler User zuverlässig – und wächst mit allen zukünftigen Anforderungen an die Unternehmens-IT.
Überzeugen Sie sich von der optimalen Skalierbarkeit und dem flexiblen Lizenzmodell unserer Produkte.
Ihre Vorteile: • Optimaler Schutz vor Viren, Spyware und Hackern auf allen Netzwerk-Ebenen
Kaspersky Open Space Security hat als erste Antiviren-Software weltweit das Zertifikat „Citrix Ready“ erhalten.
• Proaktiver Schutz der Workstations vor bisher unbekannten Viren • Echtzeit-Scan von Mails und Internet-Traffic • Automatische Isolierung infizierter Rechner • Zentrale Administration mit umfangreichem Berichts-System
w w w . k a s p e r s k y . d e
14 SERVICES & LÖSUNGEN
eine »große Menge von Handies und Laptops«. Das Unternehmen muss daher auch verhindern, dass Daten aus Unwissenheit fälschlich behandelt oder unerlaubterweise kopiert werden. Und wenn es doch passiert, müssen die IT-Verantwortlichen nachvollziehen können, wer zuletzt mit den Daten gearbeitet hat. Daraus ergeben sich einige Pflichten: – Dokumentation über Datenbewegungen – Sammeln der Anwenderinformation, wer zuletzt die Daten bearbeitet hat – Sensibilisierung des Anwenders im Umgang mit vertraulichen Daten, beispielsweise mit Hilfe von Pop-ups – Bestätigung des Anwenders; also die Prüfung, ob er berechtigt ist, mit einem Datensatz zu hantieren – Blockieren von Datenbewegungen, welche eine unautorisierte Aktion verhindert – und eine Alarmierung bei Verstößen, möglichst in Echtzeit. Eine genaue Analyse der bestehenden Workflows und Prozesse ist hierfür unabdingbar. Ohne diese unternehmensspezifische Auswertung begibt man sich unter Umständen auf gefährliches Terrain, weil das Projekt in unüberschaubaren Aktionismus ausartet. Das gilt es zu verhindern. Grundlegende Interessenkonflikte lösen Die IT-Abteilungen müssen der Wirtschaftsspionage und dem Verlust von Daten vorbeugen. Dazu wollen sie die Daten schützen, vor allem vor dem unwissenden internen User. Auf der anderen Seite darf der User natürlich darauf pochen, dass seine Persönlichkeitsrechte und seine Privatsphäre bewahrt bleiben. Daraus entsteht ein Interessenskonflikt, den es zu moderieren gilt. In jedem Fall müssen gesetzliche und unternehmensrechtliche Richtlinien eingehalten werden. Dazu sollten folgende Maßnahmen umgesetzt werden: – eine Aufklärung der Mitarbeiter, beispielsweise durch eine Informationskampagne, – die Einwilligung der Mitarbeiter, beispielsweise über Betriebsvereinbarungen, – die Einbeziehung des Betriebsrats, beispielsweise durch die Beteiligung bei der Aufklärung eines Vorkommnisses. Eine technische DLP-Lösung muss einen weiteren Konflikt umgehen. Einerseits wollen die Mitarbeiter mit Unternehmenslaptops von Zeit zu Zeit oder über längere Zeit von ihrem Homeoffice oder von unterwegs aus arbei-
Ausgabe 3 | 26. März 2009 | informationweek.de
ten. Dieser Benutzerkreis muss bei der Betrachtung in das Gefährdungspotenzial mit aufgenommen werden. Simpler Einstieg Ein DLP-Framework hat verschiedene Mittel vorgesehen, um den Datenklau zu unterbinden. Das beginnt bei der Verschlüsselung sensibler Daten, sei es auf der lokalen Festplatte, auf den Servern selbst oder externen Datenträgern wie USB-Sticks. Die Industrie hat inzwischen sämtliche Medien und Plattformen im Visier, inklusive Sharepoint-Servern. Einige Hersteller wie EMC/RSA oder Symantec haben bereits Netzwerk-Appliances konzipiert, die die Daten auf ihrem Weg durch das interne Netz oder in den Datenarchiven selbstständig untersuchen und autonom klassifizieren. Die Grenze ist der Himmel und das Budget. Die einfachste und praktikabelste Art ist der Schutz der Daten in einem gesicherten Bereich, in dem das Kopieren generell verhindert wird. Es wäre beispielsweise denkbar, eine Gruppenrichtlinie zu definieren, die den Teamleiter darüber informiert, bevor Informationen nach außen gehen. Der Gruppenleiter sorgt dafür, dass sensible Daten wie etwa Geschäftsberichte, entsprechend klassifiziert werden. Mails, welche nach außen gehen und sensible Inhalte beinhalten, werden vom Teamleiter freigegeben. Für die Umsetzung sind zwei Ansätze denkbar. Einmal die Definition von Gruppenrichtlinien auf Desktopebene oder die Umsetzung der Policy auf Serverebene. Grenzen erkennen Ein DLP-Projekt wird den Mitarbeiter vor seinen eigenen Fehlern schützen. Nicht mehr, aber auch nicht weniger. Datendiebstahl generell verhindern wird es aber nicht. Dazu müsste jemand den Mitarbeiter permanent beobachten, um zu verhindern, dass er den Bildschirm abfilmt und fotografiert. Demnach muss die IT-Abteilung klar kommunizieren, welche Ziele überhaupt mit vertretbarem Aufwand zu erreichen sind. Hierzu eine Empfehlung für eine methodische Herangehensweise. Zuerst müssen alle Unternehmenszugänge auf den Prüfstand. Im zweiten Schritt ist zu empfehlen, Datensicherheitsmaßnahmen nur dann einzufordern und durchzusetzen, wenn es sich wirklich um ein vertrauliches Dokument handelt. Die IT-Verantwortlichen müssen dabei der Mobilität und Flexibilität der Mitarbeiter und Arbeitsplätze Rechnung tragen. Sinnvollerweise sollte über die Schutzlösung noch eine Alarmierung gelegt werden, welche eine schnelle Reaktion der Verantwortlichen sicherstellt. Die Erfahrung gezeigt, dass sich mit der vorgeschlagenen Vorgehensweise ein Projekt zügig umsetzen lässt. Ohne dass sich die Verantwortlichen in Details verlieren, beispielsweise in Diskussionen darüber, welche Fingerprinting-Methode für die automatische Klassifizierung zum Einsatz kommen soll. Wichtig ist, dass die Lösung auch in ökonomischer Hinsicht realisierbar ist und im Sinne der ! Administration praktikabel handhabbar bleibt. * Stefan Bächer, Security Consultant bei Defense
Foto: Transport for London 2005
Risiko vergessliche User: 2008 haben Passagiere in den Londoner U-Bahnen, Zügen und Bussen insgesamt 170 000 Gegenstände vergessen, darunter eine große Menge von Handies und Laptops.
6. Mai 2009 | München 9.00 bis 18.00 Uhr
Sofitel Munich Bayerpost Bayerstraße 12 80335 München
Fachveranstaltung
Senken Sie Ihre IT-Kosten
mit IT-Life-Cycle-Management
Frühbucherrabatt bis 3. 4. 2009
199,- Euro netto danach 249,- Euro netto
Auszug der Themen und Referenten Volle Garantie für Datenund Rechenzentren
Peter Bauer PC-Garant GmbH
Hochverfügbarkeit aus einer Hand garantieren und gleichzeitig Kosten senken – geht das? Gerade jetzt denken viele Unternehmen darüber nach, wie sie die Nutzungsdauer hochwertiger Systeme verlängern können. Anhand von Anwenderbeispielen aus über 15 Jahren Praxis zeigt der Workshop Lösungswege.
IT Outsourcing – der Schlüssel zur Reduzierung der TCO Als Betreiber von über 200.000 Geräten im Outsourcing stellt Michael C. Reiserer anhand von Praxisbeispielen Fallstricke und Michael C. Reiserer, Erfolgsrezepte dar: Geschäftsführer Prometheus GmbH • SLAs richtig verhandeln und messen • wie wirkt sich Hardwarebeschaffung auf Outtasking aus? • Anwenderzufriedenheit (gefühlte Qualität) versus technische Qualität
Rechtliche und kaufmännische Grundlagen für das IT-Assetund Lizenzmanagement
Jörg Berberich Senior Manager Advisory Services Ernst & Young AG
Atania Breyton Dipl. Leasing- und Finanzfachwirt (VWA), Breyton Leasing Agentur
Lizenzen aus juristischer Sicht: • allgemeine Voraussetzungen nach dem Urheberrecht • Unterschiede der Lizenzmodelle • die Rechtslage zum Einsatz von Gebraucht-Software • ist Lizenz- und Asset-Management rechtlich erforderlich? • Softwareaudits
unterstützt von:
Integrierte Rollout & Rollback Prozesse im IT-Remarketing
Sascha Tobergte TC Tobergte Consulting
Der Austausch von IT-Hardware ist eine wiederkehrende Herausforderung für alle Unternehmen. Optimierungsmöglichkeiten für den Hardwareaustausch • Datensicherheit und Hardwareverkauf im Austauschprozess • Konzepte für die Vermarktung von Alt-Hardware • vermeidbare »Stolperfallen«: Darauf sollten Sie achten!
IT Leasing, IFRS /US GAAP Konformität, IFRIC 4
Gebrauchte Software – was kommt nach SAM
Viele Leasingverträge halten einer Praxisprüfung nicht stand: • wie IFRS /US GAAP konforme Verträge implementiert werden • wie IFRIC 4 das IT-Outtasking von berührt • wozu kaufmännisches AssetManagement erforderlich ist.
Bis zu 30 Prozent des SoftwareAnschaffungspreises lassen sich durch den Verkauf ungenutzter Software refinanzieren. Was beim Verkauf und Kauf gebrauchter Software zu beachten ist und wie Software Lizenzen transparent übertragen werden erfahren Sie in diesem Workshop an unterschiedlichen Praxisbeispielen.
Boris Vöge Dipl. Kaufmann, Vorstand preo Software AG
Veranstalter:
Online-Anmeldung unter: go.informationweek.de/155
16 SERVICES & LÖSUNGEN
»Biometrie bleibt in der Nische« Biometrische Verfahren profitierten nur wenig von der steigenden Nachfrage nach starker Authentifizierung in den Unternehmen, meint der Analyst Martin Kuppinger. Mehr Chancen für biometrische Verfahren sieht er im öffentlichen Bereich. von jürgen höfling |
[email protected]
Schutzglas
Linse Lichtquelle
Lichtquelle CMOS-Chip
Im öffentlichen Bereich sind die Akzeptanzprobleme für biometrische Authentisierungssysteme geringer als bei Unternehmen: hier ein berührungslos arbeitender Fingerabdrucksensor.
Ausgabe 3 | 26. März 2009 | informationweek.de
Authentifizierung. In vielen Fällen sind diese durch die aus den GRC-Anforderungen abgeleiteten internen Sicherheitsrichtlinien zwingend, um beispielsweise SSO-Konzepte umsetzen oder Systeme für neue, externe Benutzergruppen öffnen zu können. Von diesen Investitionsvorhaben werden laut Studie in erster Linie Smartcards und USB-Tokens für digitale Zertifikate und, zu einem kleineren Anteil, Einmal-Passwort-Lösungen profitieren. Dagegen hat das Interesse an biometrischen Verfahren sogar abgenommen. Nach Kuppinger Cole haben 2006 noch rund zehn Prozent der Unternehmen Biometrie als strategisch relevant angesehen, im Vergleich dazu sind es mittlerweile nur noch gut fünf Prozent – ein doch beachtlicher Rückgang. Akzeptanzprobleme Martin Kuppinger, einer der Gründer von Kuppinger Cole, sieht mehrere Ursachen für diese Entwicklung. Mit den auf digitalen Zertifikaten und Smartcards beziehungsweise USB-Tokens beruhenden Ansätzen ließe sich die Integration von physischem Zugang zum Unternehmen und der logischen Zugangskontrolle zu IT-Systemen besser adressieren, meint der Analyst. Das gelte vor allem für Smartcards, auf denen sich zusätzliche Funktionen wie RFID-Chips unterbringen ließen. Bei den biometrischen Verfahren seien dagegen für einen Einsatz im Massenmarkt nur Fingerabdruckleser relevant. Und diese litten immer noch an Akzeptanz-Problemen, vor allem auch wegen der immer wieder geäußerten Kritik in Bezug auf ihre Sicherheit. Darüber hinaus weist der Analyst auch auf Datenschutzbedenken hin, die sich insbesondere in Bezug auf eine – allerdings nicht zwingend erforderliche – zentrale Speicherung von biometrischen Merkmalen ergäben (siehe auch den Artikel »Zutritt mit Körpereinsatz« in diesem Heft, Seite 28). Kuppinger weist indes daraufhin, dass biometrische Verfahren nicht in allen Bereichen der IT bedeutungslos sind. Innerhalb der Unternehmen dürfte sich aber ihr Einsatz in den meisten Fällen in den kommenden Jahren auf besonders sensible Bereiche beschränken, wo ein sehr hohes Sicherheitsniveau erforderlich sei.
Fotos: TST Biometrics, Kuppinger Cole
Die konstant hohen Sicherheitsrisiken für Unternehmen und ein insgesamt deutlich gestiegenes Bewusstsein für das Thema GRC (Governance, Risk Management, Compliance) und die daraus (unter anderem) resultierenden Anforderungen an eine zuverlässige Authentifizierung haben ebenso wie das deutliche Wachstum bei Single-Sign-On-Ansätzen (SSO) dazu geführt, dass Unternehmen auch in der aktuellen schwierigen Situation über das Thema der starken Authentifizierung nachdenken. Laut einer Marktstudie des Analystenunternehmens Kuppinger Cole zum Thema Identitätsmanagement planen immerhin rund 28 Prozent der Unternehmen im Jahr 2009 erhebliche Investitionen in die starke
SERVICES & LÖSUNGEN
Biometrische Merkmale seien als zweiter oder, gerade in Hochsicherheitsbereichen, auch als dritter Faktor grundsätzlich interessant, weil sie trotz aller Kritik ein hohes Maß an Sicherheit böten. Eine flächendeckende Nutzung werde es aber eher selten geben. Größere Rolle im öffentlichen Bereich Eine viel größere Rolle spielen biometrische Verfahren nach Einschätzung von Kuppinger im Bereich der staatlichen Nutzung, so beim elektronischen Personalausweis (ePA) oder auch bei der Flughafensicherheit. Hier gebe es deutlich mehr Potenzial für biometrische Ansätze, weil sie dort einfacher durchzusetzen seien und weil das Verhältnis von Sicherheitsanforderungen zum Investitionsaufwand häufig anders bewertet werde. Eine weitere biometrische Nische sieht der Analyst für die Sprachidentifikation. Diese sei inzwischen durchaus etabliert, habe aber – wie übrigens jedes biometrische Verfahren – damit zu kämpfen, dass es immer einen gewissen Unschärfebereich in der Erkennung gebe. Unberechtigte Ablehnungen auf der einen Seite und fehlerhafte Akzeptanzfälle auf der anderen Seite machten immer wieder Alternativprozesse für biome-
»Biometrische Systeme werden in näherer Zukunft in den Unternehmen nur ein Nischendasein führen.« Martin Kuppinger, Analyst bei Kuppinger Cole
trische Erkennungsverfahren notwendig. Dennoch sei die Identifikation aufgrund des Sprach- und Sprecherverhaltens beispielsweise für das Zurücksetzen von Kennwörtern bei vielen Unternehmen erfolgreich umgesetzt worden, in der Regel aber als Ergänzung und nicht als primäre Lösung. Die Biometrie bleibt laut Kuppinger dennoch ein interessantes Feld, weil sie spätestens beim Schritt zu einem dritten Faktor unverzichtbar werde und weil sie auch bezüglich möglicher Angriffsflächen insgesamt gut zu bewerten sei. Trotz dieses insgesamt positiven Resümees sieht er in näherer Zukunft wenig flächenI deckende Einsätze dieser Verfahren.
Verwirrende Modell-Vielfalt Prozessmodelle, mit deren Hilfe IT-Organisationen ihre Leistungen und Entwicklungsprozesse optimieren, gibt es viele. Eine Kombination der Frameworks ist angesagt, doch nicht alle machen Sinn. von matthias kneissl* |
[email protected]
Die Auswahl an Prozessmodellen und die Häufigkeit, in der neue Modelle entstehen, kann Anwender sowie Change- und Releasemanager schnell verunsichern. Die Forderung nach Verbesserung der Prozessqualität geht meist einher mit technischen oder organisatorischen Änderungen. Viele IT-Organisationen setzen auf Prozessframeworks, um damit ihre ITAbläufe abzubilden. Das Ziel ist, Kundenprojekte effizient zu managen und die eigene Abteilung professionell zu führen. Wichtig ist dabei jedoch, dass eine Einführung stets durch Metriken und Zielvorgaben begleitet wird. Denn nur so werden die Leistungen der IT-Organisation messbar und Veränderungen nachvollziehbar. Am Anfang steht der Prozessverantwortliche vor der Wahl, welchen Aspekt innerhalb seines Entwicklungsund Service-Angebotes er optimieren möchte. Ganz grob ist eine Klassifizierung der Angebote in Vorge-
Ausgabe 3 | 26. März 2009 | informationweek.de
hensmodelle, Reifegradmodelle, Prozessmodelle und Qualitätsmanagementmodelle möglich. Vorgehensmodelle geben die Art und Weise vor, nach der ein Projekt abzuwickeln ist. Klassische Vertreter dieser Kategorie sind das V-Modell XT oder der Rational Unified Process (RUP). Reifegradmodelle wie CMMI und SPICE bewerten die Prozessreife einer Organisation und stellen Werkzeuge für eine schrittweise Verbesserung bereit. ITIL oder ISO 20000 sind als Managementmodelle bekannt, die Vorgehensweisen für den Betrieb einer IT-Infrastruktur darlegen. Agile Entwicklung ist keine Basisdemokratie Modelle wie Total Quality Management (TQM) oder Lean Six Sigma lassen sich in die Kategorie der Qualitätsmanagementmodelle einordnen. Diese beschreiben Maßnahmen, mit deren Hilfe Unternehmen eine konstant hohe Qualität ihrer Produkte oder Dienst- Y
17
18 SERVICES & LÖSUNGEN
Kunde
Organisation und Prozesse
Technik
Reorganisation Prozessstandards und Veränderungen in der Organisationsstruktur der IT-Bereiche Kundenausrichtung
Standardisierung und Technologiewechsel
Neue Anforderungen an IT-Services oder an Kunden- und Anwenderschnittstellen
Triebkräfte für IT-Prozesse
Konsolidierung und Technologiewechsel Auslagerung von IT-Leistungen an Dienstleister
Technologische Veränderungen in der IT-Landschaft
Quelle: Realtech
leistungen erzielen. Gleichzeitig definieren diese Modelle, wie die Maßnahmen innerhalb einer Organisation einzubetten sind. Über diese formalen Prozessframeworks und Vorgehensmodelle hinaus gibt es Vorgehensweisen für die Software-Entwicklung. Die Notwendigkeit, auf Veränderungen am Markt schnell reagieren zu können, macht agile Entwicklungsmethoden wie Scrum oder Feature Driven Development für Unternehmen besonders interessant. Hier ist der Kunde bereits in frühen Phasen der Software-Entwicklung eng in den Entwicklungsprozess integriert. Programmfunktionen werden iterativ und nach Nutzen priorisiert umgesetzt. Der Vorteil liegt insbesondere darin, dass zu jedem Zeitpunkt eine lauffähige Version der Software vorliegt und eine Umpriorisierung von Features kaum Zeit- und Geldverlust bedeutet. Für eine Einführung der agilen Methodik gilt jedoch, dass agile Entwicklung nichts mit Basisdemokratie zu tun hat – Entwicklungsrichtlinien sind notwendig und müssen auch verpflichtend für alle Mitarbeiter gelten. Ideale Ergänzung: CMMI und ITIL Die Entwicklungsmethodik alleine reicht jedoch nicht aus – sie muss ergänzt werden durch eine Definition von verschiedenen Reifegraden und die Verbesserungen müssen messbar sein. Das bekannteste Reifegradmodell ist CMMI (Capability Maturity Model Integration): In Abhängigkeit des Reifegrades werden für verschiedene Prozessgebiete spezifische und generische Ziele definiert, die es innerhalb der Organisation umzusetzen gilt. Es wird beschrieben, welche Prozesse zu optimieren sind, jedoch keine Vorgaben gemacht, wie diese Anforderungen im Detail umzusetzen sind. Die CMMI-Anforderungen sind in vier Prozessgebiete aufgeteilt: Prozessmanagement, Projektmanagement, Ingenieursdisziplinen und Unterstützung (Support). Darüber hinaus definiert CMMI fünf Reifegrade: Jeder Reifegrad ist ein Entwicklungsplateau in der Prozess-
Ausgabe 3 | 26. März 2009 | informationweek.de
verbesserung der Organisation. Beispielsweise kann ein Reifegrad von der Stufe drei nur dann erreicht werden, wenn alle einzelnen Projekte diesen Reifegrad erlangen. In der Software-Entwicklung lassen sich zwar einzelne Wartungsprojekte auch über CMMI abbilden, hier ist jedoch für den Aufbau und die Abbildung der einzelnen Prozesse ITIL deutlich besser geeignet. Aufgrund ihrer gegensätzlichen Struktur ergänzen sich CMMI und ITIL ideal, da sie unterschiedliche Teile des ITLebenszyklus abdecken. Kombination mit Vorgehensmodellen Wie eine Organisation ihre Prozesse im Detail optimieren soll, wird von CMMI nicht definiert. Dies erfolgt über ein Vorgehensmodell: Das V-Modell XT sowie der Rational Unified Process ermöglichen „Tailoring“ und dadurch die Anpassung an die Organisation. Aufgrund des Aufbaus von RUP ist es für eine Entwicklungsabteilung wesentlich einfacher, die einzelnen Praktiken mit einer agilen Methodik umzusetzen. Die Überschneidung der V-Modell XT-Aktivitäten mit gängigen agilen Methoden wie etwa Scrum sind eher gering, sodass in diesem Fall eine Kombination kaum sinnvoll erscheint. Während sich ITIL in den vergangenen Jahren in den Bereichen Wartung und Dienstleistung durchgesetzt hat, wird bei vielen Unternehmen in der Anwendungsentwicklung noch experimentiert. Besonders bei neuen Projekten ist häufig festzustellen, dass diese ohne ein umgebendes Prozessframework aufgesetzt werden. Verspätete Liefertermine und ein überzogenes Budget sind die Folgen. Hier empfiehlt es sich, CMMI einzuführen und somit zu einer höheren Prozessreife zu gelangen. Eine Voraussetzung dafür ist ein professionelles Projektmanagement. Solange dies nicht gegeben ist, macht es noch keinen Sinn, sich um Entwicklungsprozesse zu kümmern. Gerade jetzt ist es aufgrund des Kostendrucks und der Anforderungen der Fachabteilungen an die IT wichtig, eine agile Entwicklungsmethodik zu etablieren. Diese ist mit CMMI sehr gut kombinierbar. Die Entscheidung für ein Vorgehensmodell ist nur ein Schritt auf dem Weg zu einer erfolgreichen, serviceorientierten Organisation. Die Trends zeigen, dass ein Modell alleine meist nicht mehr ausreicht. In der Praxis sind verschiedene Frameworks zu kombinieren, um maximalen Nutzen zu erzielen und möglichst alle wesentlichen Teilgebiete abdecken zu können. Ein übergreifender Erfolgsfaktor ist die Disziplin innerhalb der Organisation: Das Management hat die Aufgabe, dafür zu sorgen, dass die Mitarbeiter die neuen I Prozesse akzeptieren und aktiv umsetzen. * Matthias Kneissl ist Product Manager für ChangePilot bei Realtech
24. Juni 2009 | Berlin 9.30 bis 17.30 Uhr
Veranstaltungsort: Messe Berlin (Marschall Haus)
Auf dem Weg in die Cloud Wie Virtualisierung effiziente IT-Infrastrukturen schafft
ung veranstalt d n e b A e inklusiv ihung des le r e V d n u s-Awards g n u r ie s li Virtua
Themen und Referenten
Anmeldecoupon Virtualisierung als Einstieg in Green IT Wolfgang Schwab, Experton Group
Mehr Effizienz bei Hostern durch Virtualisierung Michael Emmer, Spacenet
Wie beeinflusst die Virtualisierung Netzwerke im Datenzentrum?
Von DCoE bis Cloud Computing Gerhard Kafka, Fachjournalist
Das Virtual Private Datacenter – das Rechenzentrum aus der Cloud Thomas Uhl, Topalis AG
Fax: +49 (0)81 21-95 15 98
Konzepte, Herausforderungen, Lösungsansätze bei der Virtualisierung von IT-Infrastrukturen
Hiermit bestelle ich
Rolf Kaumanns, Consulting & Technology Solutions
ein Ticket für Kongressbesuch, Messeeintritt und Abendveranstaltung zu Euro 149,00 zzgl. MwSt. ein Ticket für Kongressbesuch, Messeeintritt zu Euro 99,00 zzgl. MwSt. für den Fachkongress Virtualisierung am 24. Juni 2009 in Berlin
(Desktop)-Virtualisierung und Sicherheit Vollständige Firmenbezeichnung
Stefan Gora, Secorvo Security Consulting
Abteilung Ansprechpartner Konzepte und Varianten der Storage- und Datenvirtualisierung Dr. Wolfgang von Königslöw, TIM AG
Straße PLZ, Ort Telefon, Fax
Management Virtueller Umgebungen
E-Mail (Ich bin damit einverstanden, von Ihnen per E-Mail Informationen zu erhalten.)
Bertram Wöhrmann, Ligarion
Homepage Abweichende Rechnungsanschrift
Ort / Datum
Simone Strohmeier Telefon +49 8121 95-1590 E-Mail
[email protected]
✃
Kontakt
rechtsverbindliche Unterschrift Organisation
Online-Anmeldung unter: www.informationweek.de/veranstaltungen/virtualisierung/
Illustration: istockphoto.com | da-kuk
FACHKONGRESS Virtualisierung
20
Auge in Auge mit dem Geschäftspartner Die veränderten Strukturen in der globalisierten Geschäftswelt wirken sich auch auf das Kommunikationsverhalten in einem Unternehmen aus. Wenn es schwierig wird, die richtigen Leute zur richtigen Zeit an einen Tisch zu bekommen, können Videokonferenzen helfen. von petra adamik |
[email protected]
Mit mobilen Videokonferenz-Systemen halten kreative Teams auch visuellen Kontakt – unabhängig vom Standort.
Videokonferenz-Systeme setzen sich als Kommunikationsmittel im professionellen Umfeld immer stärker durch. Sei es als Auge-in-Auge-Gespräch zwischen Partnern oder Kollegen, das über die einfache Webcam des PCs oder Notebooks geführt wird. Oder über die hochprofessionelle Option mit Telepresence, der momentanen Königsklasse der Videokonferenz-Lösungen. Ein Motor für die zunehmende Verbreitung von Videokonferenz-Lösungen in Unternehmen ist der Siegeszug von Unified Communications. In diesem Kommunikationsmix, der eine bessere Erreichbarkeit über verschiedene Plattformen hinweg ermöglicht, spielen Videokonferenzen eine immer wichtigere Rolle. Der Grund dafür liegt auf der Hand: In Zeiten, wo durch verteilte Unternehmensstandorte oder eine Vielzahl von Niederlassungen spontane persönliche Treffen
Ausgabe 3 | 26. März 2009 | informationweek.de
Hohe Qualität in Bild und Ton Schon die klassischen Systeme der mittleren Preisklasse bieten heute erstklassige Qualität in Bild und Ton. Eine Steigerung sind die sogenannten TelepresenceSysteme. Sie ermöglichen die lebensgroße Darstellung der Gesprächspartner und erzeugen eine natürliche Raumerfahrung, obwohl die Konferenzteilnehmer sich an unterschiedlichen Standorten befinden und vielleicht über Tausende von Kilometern hinweg mittels Videotechnik miteinander kommunizieren. Ein Vorreiter bei Telepresence ist Cisco mit seinen CTS-Systemen. Das Spektrum reicht hier von der Einstiegslösung mit einem Bildschirm, die für ein bis zwei Personen geeignet ist, bis hin zur großen Raumlösung mit drei Bildschirmen, die eine lebensechte Konferenz mit mehreren Personen ermöglicht. Bei Cisco selbst sind 372 Videokonferenz-Systeme in 142 Städten im Einsatz. »Innerhalb von 24 Monaten haben wir rund 245 000 Meetings weltweit auf diesem Wege abgehalten und rund 46000 Reisen vermieden«, berichtet Hans-Joachim Adolphi, bei Cisco verantwortlich für Unified Communications. Die Einsparungen bei den Reisekosten beziffert er mit etwa 285 Millionen Dollar. »Genauso wichtig wie die Kosteneinsparung ist aber die Produktivitätssteigerung, die wir durch den Einsatz der Telepresence-Lösung erzielt haben«, bringt es Adolphi auf den Punkt. Sie liegt nach seinen Angaben bei 70 Prozent. Wegen der hohen Einstiegskosten sind TelepresenceLösungen eher für größere Unternehmen mit global verteilten Niederlassungen geeignet. Diese Systeme werden nach Einschätzung des Cisco-Spezialisten derzeit überwiegend dort eingesetzt, wo Firmen zunächst ihre Inhouse-Kommunikation optimieren wollen. Dazu müssen dann aber auch interne Prozesse sowie bisherige Gepflogenheiten überdacht und möglicherweise verändert werden, damit die erhoffte Effizienzsteigerung greift. Ein schneller Return on Investment
Foto: Tandberg
schwieriger zu organisieren sind, stellen Videokonferenzen eine adäquate Alternative dar.
TRENDS & TECHNOLOGIEN
Telepresence-Lösungen schaffen ein nahezu natürliches Raumgefühl. Sie sind die Königsklasse der Videokommunikation.
sowie eine Reduzierung der Reisekosten kann nur erreicht werden, wenn die Akzeptanz für die Systeme hoch ist und sie regelmäßig genutzt werden.
Foto: Cisco
Finanzkrise treibt Videokonferenz-Lösungen an Eine erhöhte Nachfrage nach Produkten rund um die Videokommunikation hat man bei Talk & Vision ausgemacht. Ein Grund dafür sei die aktuelle Finanzkrise, die immer mehr Unternehmen dazu zwinge, ihre Kostenstrukturen auf den Prüfstand zu stellen und mögliche Einsparspotenziale aufzudecken. Hier stehen die Reisekosten meist auf einem Spitzenplatz. »Vor einigen Jahren war es noch so, dass Videokonferenz-Lösungen eher als Luxusprodukt und große Investition betrachtet wurden«, erinnert sich Martijn Blokland, Sales Director bei Talk & Vision. »Inzwischen erkennen Unternehmen zunehmend, dass sie ihnen bei der Einsparung von Kosten helfen können.« Bei Talk & Vision hat man errechnet, dass sich die Anschaffung eines Systems für Firmen bereits dann rechnet, wenn nur eine Person mindestens einmal monatlich geschäftlich ins Ausland reisen muss. Darüber hinaus lässt sich durch weniger Reisen der CO2-Ausstoß senken. Attraktiv sind darüber hinaus Leasing-Angebote für Videokonferenz-Systeme, so Blokland. Sie ermöglichen es einem Unternehmen, die Kosten für eine solche Lösung über einen bestimmten Zeitraum zu verteilen und dabei stets die modernste Technik zu verwenden. Mobilität ist Trumpf Für Mitarbeiter, die geschäftlich viel unterwegs sein müssen, aber dennoch visuellen Kontakt brauchen, hat Tandberg die mobile Video-Lösung Movi konzipiert. Movi biete PC-Video-Kompatibilität und erlau-
Ausgabe 3 | 26. März 2009 | informationweek.de
be High-Definition-Kommunikation per Video vom PC zu jeder anderen standardbasierten Video- oder Telepresence-Lösung, so der Hersteller. »Die mobile Video-Lösung bietet eine Auflösung von bis zu HD 720p und 30 fps, wenn eine hochauflösende Webkamera, zum Einsatz kommt«, erklärt Thomas Nicolaus, Geschäftsführer von Tandberg in Zentraleuropa. Darüber hinaus verfügt die Lösung über eine Reihe von Netzwerk-Funktionen von Tandberg, wie Firewall Traversal, Multipoint-Konferenzen, Aufnahmen und Archivierung sowie die Möglichkeit einer Verbindung zu älteren ISDN-Systemen. Voraussetzung für den Einsatz von Movi ist ein PC oder Notebook mit Zugang zum Internet sowie eine USB-Kamera, ein Mikrophon und ein Lautsprecher. Durch Echounterdrückung und Audioqualität entsteht dem Hersteller zufolge eine hohe Klangqualität. Movi lässt sich in die Tandberg Management Suite integrieren, die Telefon- und Adressverzeichnisse enthält. Diese lassen sich individuell nach den Anforderungen einzelner Anwender einrichten. Der integrierte Anwesenheitsstatus zeigt, welcher Teilnehmer verfügbar ist und bei Bedarf per Mausklick mit der mobilen Videokonferenz-Lösung angesprochen werden kann. »Die weltweite Verteilung der Arbeitskräfte schreitet weiter voran. Gewinner dieser Entwicklung werden diejenigen Unternehmen sein, deren verstreute Teams eng und effektiv zusammenarbeiten und sich gegenseitig schnell kontaktieren können«, so Roopam Jain, Chef Analyst bei Frost & Sullivan. »Die intuitive Bedienung, Interoperabilität und hohe Qualität einer Videokonferenz-Lösung ist die Voraussetzung dafür, innovative und kreative Teams zielgerichtet zu steuern I – egal wo auf der Welt sie sich befinden.«
21
22
Data Mining wird anwenderfreundlicher Beim Data Mining schreitet die Automatisierung voran und die Bedienung vereinfacht sich, sodass mehr und mehr Anwender differenzierte Analysemöglichkeiten nutzen können. von peter neckel * |
[email protected]
Bei den Anbietern im Bereich Data Mining (DM) hat sich in den letzten Jahren einiges getan. Neben den klassischen DM-Suiten mit sehr vielen Funktionen und einer wachsenden Anzahl von Open-Source-Paketen ähnlichen Umfangs gibt es inzwischen zahlreiche spezialisierte DM-Werkzeuge für bestimmte Analyseaufgaben. Außerdem integrieren Hersteller von herkömmlicher Business-Intelligence-Software zunehmend DMFunktionalität in ihre Produkte. Insgesamt sind hierzulande derzeit rund 150 DM-Angebote verfügbar.
Systematik des Data Mining Verhaltensprognose
Klassifizierungs-/ Prognoseregeln
Verhaltensbeschreibung
Assoziationen: Verknüpfungen Abhängigkeiten Sequenzen
Änderungen Abweichungen
Segmente
Mustertypen im Data Mining
Lineare/Logistische Regression
Entscheidungsbaum
Neuronales Netz
SOM/ Kohonen
Support Vector Machines (SVM)
Verfahrensklassen im Data Mining
CART
CHAID
C 4.5
C 5.0
MLP
GLIM
ORBFEQ ORBFUN NRBFUN Verfahren im Data Mining
Parametrisierung des gewählten Verfahrens
Im klassischen Data Mining gibt es Hunderte unterschiedlicher Verfahren, die einzeln parametrisiert werden müssen. Bei SelfActing Data Mining entfällt dieser Aufwand. Quelle: mayato
Die Datensammlungen der Anwenderunternehmen erreichen, nicht zuletzt wegen sinkender Speicherpreise, immer öfter Terabyte-Dimensionen. Um möglichst viel nützliche Information aus dem unüberschaubaren Datenvolumen abzuleiten, werden explorative Analyseansätze wichtiger. Sie sind im Gegensatz zu konfirmativen Analysen, bei denen von konkreten Annahmen ausgegangen wird, durch offene Fragestellungen gekennzeichnet. Die Tools sollen dabei möglichst
Ausgabe 3 | 26. März 2009 | informationweek.de
autonom Regelmäßigkeiten und bis dato unbekannte Zusammenhänge in den Daten zutage fördern. Zunehmende Automatisierung Für die Studie »Data-Mining-Software 2009« hat das Beratungshaus mayato zwölf Angebote einem Funktionsvergleich unterzogen. Vier der Pakete durchliefen außerdem einen detaillierten Praxistest: die kommerzielle Suite SAS Enterprise Miner, die Open-SourceSoftware Rapid Miner, das Werkzeug für Self-Acting Data Mining KXEN Analytic Framework sowie die Software SAP NetWeaver 7.0 Data Mining Workbench. Der Praxistest und die Funktionsbewertung orientierten sich am Ablauf des klassischen DM-Prozesses: Am Anfang steht die Selektion der Daten, die von der Software durch unterschiedliche Eingabeformate oder Funktionen zur Auswahl von Datensätzen unterstützt wird. Die Exploration der Daten ermöglicht dann die Berechnung von statistischen Kennzahlen oder die grafische Aufbereitung und Präsentation. Noch vor der eigentlichen Analyse liegt die umfangreichste Aufgabe in einem DM-Projekt: Die Modifikation der Daten. Dafür bieten viele Tools eine Reihe von Funktionen zur Zusammenführung, Anreicherung und Kodierung der Daten bis hin zur komplexen Berechnung zusätzlicher Kennzahlen. Spezialisierte DMWerkzeuge decken meist nicht alle Mustertypen (siehe Kasten auf Seite 23) ab, sodass damit nur bestimmte Fragestellungen angegangen werden können. Zu den Auswahlkriterien für DM-Software gehören hohe Stabilität, der unkomplizierte Umgang mit großen Datenmengen, die Automatisierung von Standardaufgaben, die Qualität und Interpretierbarkeit der Ergebnisse sowie nicht zuletzt einfache Bedienbarkeit ohne lange Einarbeitungszeiten. Auch auf die Effizienz des Analyseprozesses, die Anwendbarkeit der Programme sowie die daraus resultierenden Gesamtkosten kommt es an. Klar erkennbar: Der Stellenwert der Automatisierung nimmt zu. Denn mit anschwellenden Datenmengen und wachsendem Analysebedarf steigt der Anteil an Standardaufgaben wie Datenvorverarbeitung und Parametrisierung. Und durch deren Automatisierung können mehr Analyseergebnisse in kürzerer Zeit erzielt
TRENDS & TECHNOLOGIEN
Muster des Data Mining Mit DM-Methoden lassen sich vier unterschiedliche Typen von Mustern aufspüren. 1. Klassifizierungs- und Prognoseregeln dienen zum Beispiel der Vorhersage des Abwanderungsverhaltens oder der Kampagnenplanung, der Zielgruppenselektion oder der Kundenwertberechnung. 2. Assoziationen sind die Grundlage für Warenkorbanalysen sowie die Ermittlung von Cross- und Up-Selling-Potenzialen. 3. Segmente helfen bei der Markt- und Kundensegmentierung sowie der Analyse der Kundenentwicklung. 4. Mit Verfahren zur Bestimmung von Änderungen und Abweichungen lassen sich Datensätze ermitteln, die im Vergleich zu Referenzwerten stark abweichen. Ausreißer können zum Beispiel auf Betrugsversuche hinweisen.
werden. Dadurch verbessert sich die Effizienz des gesamten Analyseprozesses erheblich, da mehr Zeit für anspruchsvollere Aufgaben wie die Ergebnisinterpretation verbleibt – Tätigkeiten, in denen der menschliche Analyst den automatisierten Verfahren auf absehbare Zeit noch überlegen sein wird. Die genannten Produkte wurden anhand von Testdatensätzen detailliert auf ihre Praxistauglichkeit geprüft, zunächst mittels einer überschaubaren Testdatei mit 30 000 Datensätzen und 15 Variablen. Insbesondere das Systemverhalten bei großen Datenmengen wurde anschließend durch Einlesen eines umfangreichen Volumens mit 100 000 Datensätzen und 450 Variablen gemessen. Die Palette der Benchmarkdaten enthielt eine Reihe typischer Datenqualitätsprobleme, mit denen DM-Tools umgehen müssen: beispielsweise korrelierende Variablen, fehlende Werte oder Ausreißer. Große Performance-Unterschiede Schon im ersten Durchgang ergaben sich erhebliche Unterschiede in den Laufzeiten, die sich bei der Verarbeitung größerer Datenmengen noch verstärkten. Dem SAS Enterprise Miner gelang insgesamt die beste Modellqualität. Die Bedienung der Suite geht trotz des großen Funktionsumfangs nach einer kurzen Eingewöhnungsphase relativ rasch von der Hand. Allerdings erfordert das Erstellen qualitativ hochwertiger Modelle Fingerspitzengefühl bei der Parametrisierung und ein gewisses Maß an Erfahrung. Die Ergebnisqualität bei Rapid Miner fiel im Vergleich ab, insbesondere die Übertragbarkeit der Modelle erwies sich als gering. Ein erheblicher Nachteil besteht darin, dass Rapid Miner keine Möglichkeit bietet, die mit unterschiedlichen Verfahren erstellten Modelle automatisch zu vergleichen. KXEN lieferte eine gute Modellqualität und zeigte sich zudem bei der Berechnung als sehr schnell. Mit dem Ansatz des Self-Acting Data Mining weist KXEN das modernste Gesamtkonzept auf, bei dem die Datenvorbereitung nahezu automatisch abläuft. Beim Test mit großen Datenvolumina veränderte sich die Performance von KXEN Analytic Framework kaum. Bei anderen Produkten gestaltete sich hingegen bereits das Einlesen der Daten problematisch und erforderte
Ausgabe 3 | 26. März 2009 | informationweek.de
teilweise langwierige manuelle Eingriffe. In SAP NetWeaver etwa musste für jedes Attribut ein separates Infoobjekt angelegt werden – bei 450 Variablen ein erheblicher Aufwand. Die Resultate und die Laufzeit waren hier guter Durchschnitt. Allerdings bietet SAP nur sehr rudimentäre Unterstützung beim Vergleich verschiedener Modelle. Vorteilhaft allerdings ist die Integration der DM-Funktionalität in die BI-Umgebung von SAP: Der Analyseprozessdesigner APD hat vollen Zugriff auf die mächtigen Funktionen der Datentransformation. Die Berechnung deskriptiver Statistiken und der Aufbau grafischer Darstellungen nahm bei einigen Produkten sehr viel Zeit in Anspruch. Die Laufzeiten der eigentlichen DM-Analyse schließlich stiegen je nach Verfahren häufig überproportional an. Insbesondere Rapid Miner fiel auf: mit sehr langen Laufzeiten von mehr als drei Stunden bis zu Abbrüchen wegen Hauptspeicherüberlaufs. Mit KXEN nahm die Analyse des kompletten Datensatzes hingegen weniger als zehn Minuten in Anspruch. Grafische Oberflächen Im Anwendungstest zeigte sich, dass die Bedienung dank grafischer Benutzeroberflächen leichter von der Hand geht als noch vor wenigen Jahren. Data Mining kann dadurch von einem breiteren Anwenderkreis genutzt werden als früher. Damit weicht auch die Sonderstellung als Spezialistendisziplin allmählich auf. Diese Entwicklung wird zusätzlich dadurch getrieben, dass die explorative Datenanalyse für viele Unternehmen immer wichtiger wird. Dennoch erfordern insbesondere die DM-Suiten weiterhin einen erhöhten Einarbeitungsaufwand und fundiertes Hintergrundwissen, um vollen Nutzen aus dem großen Funktionsangebot ziehen zu können. Billig ist DM nach wie vor im Allgemeinen nicht, aber eine gewisse Flexibilisierung zeichnet sich ab, sodass auch Mittelständler nicht I mehr darauf verzichten müssen. * Peter Neckel ist Analyst bei dem auf Business Intelligence und Business Analytics spezialisierten Beratungshaus mayato in Berlin.
23
24
Kostendruck beeinflusst Speichertechnik Die meisten Anbieter von Speicherlösungen versuchen dem widrigen wirtschaftlichen Umfeld durch Lösungen entgegenzutreten, die einen klar definierbaren Kostenvorteil bieten. Das könnte auch Storage-as-a-Service einen Aufschwung bescheren. von ariane rüdiger |
[email protected]
Kopieren der Boot-Disk vom physikalischen auf einen virtuellen Server Virtualisierter Server (Ziel) VM
Snap Copy
Boot Disk
Physischer Server (Quelle)
VD1
VD1
Transporter VM VD1
Boot Disk
VD Storage
Transporter Agent
VD1
VD2 VD3 VD4
LAN
Datacores Transporter-Mechanismus lässt sich auch auf die Boot-Disk von physikalischen Servern anwenden. Quelle: Datacore
»Die Storage-Trends 2009 sind dieselben wie in den letzten Jahren: Konsolidierung, Virtualisierung, Effizienzsteigerung. Die Unternehmen sind gezwungen, über ihre Infrastrukturen nachzudenken, statt weiterzumachen wie bisher«, sagt Bijan Taleghani, Leiter Produktmarketing und Business Development beim Storage-Distributor TIM. Die auf CeBit und VMworld gezeigten Novitäten belegen, dass der Manager mit seiner Einschätzung richtig liegt. Gleich zwei Hersteller, Netapp und HDS, setzen momentan besonders auf Effizienzversprechen: Netapp garantiert seinen Kunden, dass sie bei Einsatz der NAS-Heads aus der Netapp-V-Serie zusammen mit Deduplizierung und Hardware von EMC, IBM, HP oder HDS im Backend mindestens 35 Prozent Spei-
Ausgabe 3 | 26. März 2009 | informationweek.de
cherkapazität einsparen. »Wird das nicht eingehalten, dann kaufen wir für den Kunden auf unsere Rechnung die entsprechende Hardwarekapazität zu«, verspricht Richard Clifton, General Manager Technology Enablement bei Netapp. HDS will mithilfe der selbst entwickelten Methode, »Storage Economics«, die Speicherumgebung seiner Kunden analysieren und dann – durchaus auch mit fremder Hard- und Software, wie das Management beteuert – optimieren. Die Methode legt besonderes Augenmerk auf die Senkung der Betriebskosten. Storage-Lösungen passen sich an virtualisierte Server an Großen Einfluss auf die Speicherlandschaften entfaltet die Servervirtualisierung. Immer mehr Anbieter stellen auf die führenden Hypervisoren von VMware oder Microsoft zugeschnittene Lösungen vor. Einige Beispiele: Backup and Recovery for VMware von EMC soll die Auswirkungen von Sicherungsläufen auf Netzwerke und Geschäftsprozesse in VMwareUmgebungen minimieren – die Netze werden, so EMCs eigene Angaben, beim Backup um mindestens neunzig Prozent entlastet. Komponenten der Lösung sind eine Clariion CX4, Replication Manager und Snap View sowie optional Deduplizierung von Avamar. Double-Takes Replikationssoftware GeoCluster gibt es jetzt auch für verteiltes Clustering mit virtuellen Hyper-V-Rechnern unter Windows 2008 und geclusterte Anwendungen. Die aktualisierten Versionen der Speicher-Virtualisierungsplattformen SAN Symphony (für Großunternehmen) Version 7.0 und SAN Melody (für kleinere Umgebungen) Version 3.0 von Datacore wurden erweitert. Sie nutzen jetzt 64-Bit-Caching, sind für VMware-Umgebungen zertifiziert und können bei Speichersektoren mit Thin Provisioning durch Migration von Servern verfügbare Kapazität automatisch freigeben. Optional ist ein Transporter-Mechanismus erhältlich, der Windows-Images auch vom Boot-Laufwerk schneller als üblich zwischen unterschiedlichen physikalischen und virtuellen Servern verschiebt.
TRENDS & TECHNOLOGIEN
Foto: artec
Mit der im Rahmen eines Services von artec beim Kunden installierten EMA-Appliance können Anwender ihre E-Mail und angehängte Dateien rechtskonform archivieren.
Kostendruck begünstigt innovative Services Trotz aller Virtualisierungs-Euphorie gibt es auch Neues bei konventionellen Speicherboxen. So zeigte Tandberg mit DiskStorT D-Serie eine FestplattenBackuplösung für Laptops und Außenstellen. Sie integriert deren Daten in das allgemeine Datensicherungskonzept. Bis zu 100 Maschinen einer herkömmlichen Bandbibliothek lassen sich damit emulieren. Das System ist ab dem zweiten Quartal erhältlich. Neue NAS-Software präsentierte der taiwanische Anbieter Synology. Disk Station Manager 2.1 kann nunmehr bis zu zehn Festplatten verwalten. Das Programm ermöglicht es außerdem, per Mausklick einen Mailserver zu installieren.
'(2+1#703+
Kostendruck könnte neuartige Services auch im Speicherbereich fördern. Artec beispielsweise stellt seine E-Mail Archive Appliance (EMA) dem Kunden in dessen Räumen zur Verfügung (Appliance-as-aService). »Die Anwender wollen und müssen viele Daten ganz einfach im Haus behalten, und darauf reagieren wir«, erklärt Jerry J. Artishdad, Geschäftsführer des Unternehmens. Die gespeicherten Daten können signiert und verschlüsselt werden, um Compliance-Anforderungen gerecht zu werden. Eine auf Verweisen statt auf Datenbankabfragen beruhende Recherchetechnik beschleunigt die Suche nach einzelnen Dokumenten. Das Ganze kostet ab unter 200 I Euro monatlich.
%*- $,4./&!"56"+)&2
&?8*;*99*F DUU* IM&A 7?+ ?>G% 6#*U* S*%; K7) 555L98*UU*?K?P*#(*?L+*L UU98T?+#(*; IM&A 9>5#* &%;*; @MVK#UMD+;*99* K? 04J4J 9*?+*? RC*#9=#*U, !>I H430/.- ?KS*ES798*;K+;*99*L+*QL O@9 )KUU*? U*+#(U#G% +#* ">98*? )1; *#?*