Analytics

Workshop für OpenText Analytics: Ein Tag, der Sie weiterbringt

OpenText Analytics

Die Geschäftswelt ist geteilt, wenn es um den Umgang mit Daten geht: Auf der einen Seite die „Business User“, die mühelos mit Daten arbeiten und ihren Nutzen daraus ziehen, und auf der anderen Seite… nun ja, alle anderen (diejenigen, die jedes Mal die IT oder den „Datenguru“ in der Abteilung um Hilfe bitten müssen, wenn es darum geht, Zahlen zusammenzuführen oder einen Bericht zu erstellen). Aber diese Teilung löst sich auf – dank OpenText™ Analytics. Mit wenigen Stunden Training können Sie auch als blutiger Anfänger anspruchsvolle Datenvisualisierungen und interaktive Berichte erstellen und damit völlig neue Einsichten in Ihre Daten gewinnen. Überzeugen Sie sich selbst in unserem Trainingszentrum in München/Grasbrunn! Am 18. Mai 2017 bietet OpenText Analytics dort einen eintägigen, kostenfreien, interaktiven Workshop an. Anhand von  Demos und Trainingseinheiten geben unsere technischen Experten einen Einblick in unsere Tools zur Erstellung und Verteilung von ansprechenden Informationsanwendungen. Sie werden lernen, wie man Daten aus verschiedensten Quellen zusammenführt, Dashboards und Berichte erstellt und in eigenen Anwendungen verfügbar macht. Erfahren Sie, warum viele Unternehmen OpenText™ iHub für Embedded Analytics nutzen – sowohl für eigene Kunden (zum Beispiel in einem Banking-Portal) oder auch als OEM-Software-Anbieter, der den Entwicklungsprozess für Anwendungen durch die nahtlose Integration von Analytics beschleunigt. Sie kennen bereits BIRT, das Business Intelligence and Reporting Tool der Eclipse-Foundation? Im Workshop zeigen wir Ihnen, wie Sie Ihre BIRT-Anwendungen mit den Features von OpenText iHub erweitern können. Das alles erwartet Sie: Einführung in OpenText Analytics Anhand von Präsentationen und Demos lernen Sie die Grundlagen von OpenText Information Hub und Big Data Analytics kennen. Sie werden sehen, wie man interaktive Berichte erstellt und welche Tools für Ihre Geschäftsanforderungen geeignet wären. Den Kunden analysieren Erfahren Sie mehr über die Möglichkeiten für Advanced und Predictive Analytics in der OpenText Analytics Suite anhand eines Beispiel-Szenarios zur Kundenanalyse. Sie werden Kunden segmentieren, Cross-Sell-Möglichkeiten entdecken und Kundenverhalten voraussehen – alles in wenigen Minuten und ohne Grundlagen in Data Science oder Statistik. Ansprechende Dashboards erstellen Hier geht es um Self-Service: Erstellen Sie Dashboards von Grund auf und lernen Sie so die Reporting- und Visualisierungsmöglichkeiten von OpenText Analytics kennen. Sie werden sehen, wie einfach es ist, interaktive Datenvisualisierungen zusammenzustellen, mit denen man Informationen darstellen, filtern und erkunden kann. Mit iHub Analysen sicher integrieren Nach der Mittagspause tauchen wir tiefer ein in die Möglichkeiten von OpenText Information Hub und Sie werden lernen, wie man sichere Analysen in Anwendungen integriert – ob nun in firmeninterne Applikationen oder als Software-as-a-Service. Sie wollen Ihr Business mit Big Data modernisieren und dafür sorgen, dass Ihr gesamtes Unternehmen von ansprechenden Datenvisualisierungen, interaktiven Berichten und Dashboards profitiert? Dann sollten Sie sich unseren kostenfreien, „hands-on“ Workshop nicht entgehen lassen. Die genaue Agenda und die Anmeldung finden Sie hier.

Weiterlesen

Erschließen Sie unstrukturierte Daten für den maximalen Erfolg Ihrer Supply Chain

Digitalisierung

Die Digitalisierung und das Aufkommen der damit verbundenen strukturierten und unstrukturierten Daten bergen zweifellos ein enormes Potenzial für Unternehmen. Wer mehr über Kunden, Lieferanten, Märkte und Konkurrenz weiß, kann flexibler und schneller reagieren und so Marktchancen optimal nutzen. Dennoch sind vor allem mittelständische Unternehmen mit Innovationen und dem Vorantreiben der digitalen Transformation eher zurückhaltend, wie sich aus den Ergebnissen einer Studie des Bundesverbands Materialwirtschaft, Einkauf und Logistik (BME) erkennen lässt. Die Vorreiter-Unternehmen dagegen dürften ihren Entwicklungsvorsprung noch weiter ausbauen und damit auch künftig höchst erfolgreich agieren. Die Digitalisierung setzt neue Maßstäbe für den Erfolg. Ein Unternehmen gilt in jeder Hinsicht als erfolgreich, wenn es neue Kunden gewinnen, neue Märkte erobern und neue Umsatzquellen erschließen kann. Organisationen, die heutzutage erfolgreich sein wollen, müssen jedoch die digitalen Kanäle beherrschen, ein ausgezeichnetes Kundenerlebnis bieten und die digitale Transformation bereitwillig annehmen. Die Digitalisierung Ihres Unternehmens steigert Ihre Agilität, und mit Hilfe moderner Analytics schaffen Sie den notwendigen Wissensstand, um bessere Entscheidungen zu treffen. Die Weiterentwicklung von Analytics und Content-Management-Software gibt Unternehmen mehr Möglichkeiten, unstrukturierte Daten auf Zusammenhänge zu untersuchen, anstatt sich auf Intuition und Bauchgefühl zu verlassen. Heute sind Sie in der Lage, Muster sehr schnell zu erkennen und damit für eine ganz neue Transparenz Ihrer Geschäftsprozesse zu sorgen. Entdecken Sie den Wert von bereits im Unternehmen vorhandenen Informationen. Die tagtäglich innerhalb und außerhalb Ihrer Firma generierten unstrukturierten Daten enthalten gezieltes, spezifisches und innerhalb Ihrer Organisation einmaliges Wissen. Dieses Wissen können Sie nutzen, um wichtige aktuelle und künftige Geschäftstrends zu identifizieren. Unstrukturierte Daten wie Emails, Sprachnachrichten, Schriftstücke, Präsentationen, Social Media-Newsfeeds, Umfragen, juristische Bescheide, Webseiten, Videos und viele weitere bieten eine reichhaltige Informationsquelle, die Ihnen verrät, wie Sie geschäftlich operieren. Unstrukturierte Daten, allein oder in Kombination mit strukturierten Daten, können zur Feinabstimmung Ihrer Strategie herangezogen werden. In der digitalen Welt bieten Predictive und Prescriptive Analytics bislang ungekannte Vorteile. Denken Sie beispielsweise an die im Web-Chat einer Bank gesammelten Daten. Die Manager im Kundenservice können unmöglich mehrere Millionen Zeilen Freitext lesen. Diese Fülle an Informationen zu ignorieren, ist aber auch keine Lösung. Hochentwickelte Data Analytics ermöglicht es Banken, Trends zu entdecken und zu verstehen – etwa häufige Beschwerden über Produkte oder häufig gestellte Fragen. Indem die Banken erkennen, was ihre Kunden fordern, können sie neue Produktkategorien oder Geschäftschancen identifizieren. Jeder Austausch, jede Interaktion, jede Art von Content bietet Chancen, die Sie gezielt wahrnehmen können. Es gehört zu den Kernprinzipien eines modernen Enterprise Information Managements den größten Nutzen aus relevanter Information zu ziehen. Das beinhaltet auch die Analyse unstrukturierter Daten von außerhalb der Organisation, oder von Informationen, die zwischen dem Unternehmen und seinen Handelspartner in einer Supply Chain oder einem Business-Netzwerk ausgetauscht werden. Der verstärkte Einsatz von Business-Netzwerken in Unternehmen erhöht das Aufkommen an unterschiedlichen Informationen, die durch diese hindurch fließen. Dazu gehören unter anderem Bestellungen, Rechnungen, Lieferinformationen oder Kennzahlen zur Performance von Partnern. Stellen Sie sich vor, wie nützlich es wäre, sämtliche Details, die sich hinter diesen Informationen verbergen, zu verstehen und die Erkenntnisse für Ihre zukünftige Planung heranzuziehen. Und noch besser: Sie könnten Daten so schnell analysieren, dass Sie auch bei tagesaktuellen Anlässen informiertere Entscheidungen treffen können. Betrachten wir zwei übliche, aber herausfordernde, Szenarien und wie sich diese lösen lassen. Herausforderungen im Unternehmen bewältigen Probleme innerhalb des Business-Netzwerks – Ein Business-Netzwerk geriet mit den Dienstleistungen für seine Kunden ins Hintertreffen. Tempo und Effizienz innerhalb der Supply Chain sollten gesteigert werden, um den Kunden tiefgreifendere Unterstützung für Geschäftsprozesse und detailreichere Analysen über das gesamte Handelspartner-Ökosystem zu liefern. Durch die Integration von Data Analytics erfährt das Unternehmen mehr aus seinen unstrukturierten Daten (Emails und Dokumente). So gewinnt die Firma bessere Erkenntnisse über die im Netzwerk stattfindenden Transaktionen. Mit dem neuen System können Schwierigkeiten und Ausnahmen schneller erkannt, Korrekturmaßnahmen ergriffen und so Probleme vermieden werden, bevor sie überhaupt entstehen. Mangelnder Durchblick im Unternehmen – Ein Einzelhandelsunternehmen hatte Schwierigkeiten mit dem Support der automatischen Machine-to-Machine-Datenströme aus den zahlreichen, untereinander vernetzten Endgeräten innerhalb des Business-Netzwerks. Um sich einen umfassenden Einblick in die Daten zu verschaffen, die innerhalb ihrer Supply Chain ausgetauscht wurden, setzte das Unternehmen zusätzlich Data Analytics für alle unstrukturierten Datenquellen ein. Die Implementierung von Advanced Analytics stellt sicher, dass die Daten aller vernetzten Endgeräte analysiert werden, was wesentlich tiefere Einblicke in die Informationstrends erlaubt. Mit diesem Wissen konnte der Einzelhändler die Prozesse in seiner Supply Chain noch stärker rationalisieren. Das interessiert Sie? Erfahren Sie, wie Sie Ihre digitale Transformation gezielt vorantreiben. Informieren Sie sich, wie Betriebe mit OpenText Release 16 (Englisch) den Informationsfluss im digitalen Unternehmen managen können – vom Erstkontakt bis zur Erkenntnis. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Technologie-Trends im Banking: Prozesshürden überwinden – Digitalisierung schaffen!

Technologie-Trends

Anmerkung des Autors: Dieser Blog-Post basiert auf einem ausführlichen Interview mit dem OpenText Senior Industrie-Strategen Gerry Gibney zum Status der globalen Finanzdienstleistungsbranche und deren technischen Anforderungen. Der Interviewtext wurde gekürzt und inhaltlich angepasst. Drei gewaltige Einflussfaktoren für die Entwicklung des Finanzdienstleistungssektors nennt die Unternehmensberatung McKinsey in ihrem aktuellen Jahresausblick für 2017 (Englisch): eine schwächelnde Weltwirtschaft, Digitalisierung und Regulierung. Ganz ähnlich lauteten die Themenschwerpunkte der Handelsblatt Jahrestagung „Banken im Umbruch“, dem renommiertesten deutschen Branchen-Treff der Bankenindustrie. Im Mittelpunkt der 21. Edition standen im vergangenen Herbst Expertendiskussionen zum Fintech-Boom, der Digitalisierung und der andauernden Niedrigzinsphase. Unterschiedliche Quellen, ein gemeinsames Trendthema: Digitalisierung schaffen! Wenige Industriezweige sind so prädestiniert für die digitale Transformation wie das Finanzdienstleistungsgeschäft. Schließlich wird heute erwartet, dass in Echtzeit verlässlich mit enormen Datenmengen in einem sensiblen Feld hantiert wird. Kunden, Anbieter und Aufsichtsbehörden haben gleichermaßen Informationsinteressen, wollen aber in unterschiedlichen Formaten bedient werden. Einheitliche Informationen für die Finanzberichterstattung Auf der Genfer Konferenz SIBOS 2016 wurde viel über Finanzberichterstattung diskutiert. Banken stehen häufig vor großen Prozesshürden, insbesondere wenn sie im Investment- oder Geschäftskunden-Banking aktiv sind. Und viele leisten sich noch manuelle Prozesse. Je größer die Bank, umso größer die Prozessprobleme. Informationen sind in großen Organisationen häufig an verschiedenen Stellen gespeichert. Oft kommt es vor, dass mehrere Abteilungen denselben Kunden für unterschiedlichen Services und Produkte ansprechen. Dagegen ist grundsätzlich nichts einzuwenden, solange diese Aktivitäten nachvollziehbar sind und dokumentiert werden. Anfangs werden Berichtsprozesse durch die verschiedenen Abteilungen oft noch manuell erledigt. Über kurz oder lang wird jedoch in der Regel eine Automatisierung des Berichtswesens gefordert. Zudem sollen Informationen auch mit anderen Datenquellen verknüpft werden. Hier beginnt die echte Herausforderung, denn es kostet Zeit die Informationsflüsse zusammenzulegen und so zu koordinieren, dass sie als internes Dashboard zur Verfügung stehen. Ähnlich komplex ist die Herausforderung für die Entwicklung von Portalen, welche die Finanzliquidität der Kunden abbilden sollen. Ein weiteres praktisches Anwendungsbeispiel sind kundenspezifische Berichte. Ein Bankhaus kann diesen Kundenwunsch natürlich nicht ablehnen. Und so werden Berichte meist von Hand und im Schnellschuss-Verfahren in einem vom Auftraggeber gewünschten Format erstellt. Die Herausforderung besteht darin, große Datenmengen zu nutzen und so zusammenzufassen, dass Kunden in der gewünschten Frequenz und dem individuellen „Look and Feel“ und Format genau das geliefert bekommen, was sie wünschen. Endkundengerechte integrierte Visualisierung Hier setzen die OpenText™ Analytics Lösungen an. Wir bieten unseren Kunden durch die Integration unserer Analyse- und Visualisierungs-Applikationen in deren eigene Systeme (Englisch) einen echten Mehrwert. Damit können diese sowohl interne als auch externe Anforderungen wie Dashboards, Screens oder Berichte im individuellen Wunschformat bedienen. Der Vorteil unserer integrationsfähigen Business Intelligence und Analytics-Applikationen besteht darin, dass Anwender diese weder sehen noch nutzen müssen. Die Funktionalitäten können jederzeit und bei Bedarf aktiviert werden – ohne Anpassungen an die IT-Infrastruktur oder arbeitsintensive Datenerfassung in sperrigen Dritt-Anbieter-Programmen. Das eröffnet enorme Möglichkeiten. Anwender können mittels Datenmapping Informationen automatisch sammeln, verwalten, organisieren und als Reports aufbereiten lassen – und zwar in jedem erforderlichen Format, ob visuell dargestellt in Charts und Grafiken oder numerisch in Tabellen und Listen. Zudem verfügt das System über leistungsstarke Drill-Down-Kapazitäten, die schnellen Zugriff auf individuelle Daten ermöglichen. Flexibel für regulatorische Veränderungen Nicht nur Kunden erwarten passgenaue Berichte. Auch Aufsichtsbehörden setzen präzise Vorgaben für das Berichtswesen. Im Zuge der Wirtschafts- und Bankenkrise forderten Regierungen weltweit in den vergangenen Jahren eine stärkere Regulierung der Finanzindustrie. Damit sind die Anforderungen nach mehr Transparenz auf nationaler wie lokaler Ebene noch einmal gestiegen. Es verwundert also nicht, dass die Abteilungen für Regulierungsfragen und Compliance in Finanzinstituten massiv aufgestockt werden. Dennoch: das Arbeitsvolumen steigt, die Datenströme steigen, und die Personalstruktur kann aus Kostengründen nicht in dem Maße mitwachsen, um die Volatilität der Anforderungskataloge vorausschauend abzudecken. Banken und Finanzinstitutionen benötigen deshalb Reporting-Lösungen, die schnell und einfach jede Art von Information verfügbar machen, die von den Kontrollorganen gefordert werden. Die ideale Anwendung erlaubt ein Höchstmaß an Flexibilität im Zugriff auf unstrukturierte wie strukturierte Daten aus verschiedenen Insellösungen. Ein klassischer Anwendungsfall für Ad-hoc Analytics und Reporting: neue Berichtskategorien so zu gestalten, dass sie den steigenden Regulierungsanforderungen flexibel angepasst werden können. Mit Finanz Analytics den Kunden besser verstehen Kundenorientierung war ein weiteres viel diskutiertes Thema auf der SIBOS Konferenz. Die Wünsche des Kunden besser zu verstehen und geeignete Zielkunden schneller zu identifizieren gehören zu den obersten Prioritäten der Entscheider im Bankgeschäft. Es ist deshalb erstaunlich, wie viele Unternehmen in ihren CRM-Systemen Kundendaten sammeln, diese dann aber nicht nutzen. Häufig handelt es sich bei den vorhandenen CRM-Systemen um Stand-Alone-Lösungen, die nicht mit anderen Systemen verknüpft sind. Hier schlummern möglicherweise wertvolle Informationen, die die Chancen beim Kunden-Pitch, in Verkaufsgesprächen oder bei der Angebotserstellung deutlich verbessern könnten. Regelmäßige gemeinsame Auswertungen und Analysen könnten auch dabei helfen, Vertriebs-Ressourcen ergebnisorientierter einzusetzen. Ein einheitlicher Analytics-Flow unterstützt das Geschäft, weil auf diese Weise Kundenbeziehungen gezielt gesteuert werden können. Durch erweiterte Analysefunktionen lassen sich Zielkunden für Up-Selling und Cross-Selling ermitteln und Neukundenpotenziale identifizieren. Und das Filtern von neuen Erkenntnissen aus CRM-Systemen bietet einen weiteren Mehrwert. Hier haben sich die integrierfähigen Analytics-Lösungen von OpenText bereits bewährt. Analytics sorgt also dafür, dass Geschäftsabläufe effizienter, produktiver und profitabler werden. Was wollen Sie mehr? Sie möchten mehr über die OpenText Analytics Suite erfahren? Für weitere Informationen klicken Sie hier (Englisch). Dieser Artikel wurde aus dem Englischen übersetzt. 

Weiterlesen

Fakten entstehen aus Analysen

smarte personalmanager

Alternative Fakten sind mittlerweile ein geflügeltes Wort. Während sie für die einen durchaus die Wahrheit darstellen, sind sie für die anderen schlicht und einfach Lügen. Wie kann das sein? Fakten sind doch Fakten. Wenn die Sache wirklich so einfach wäre, dann dürfte es nicht nur in der Politik, sondern auch in der Naturwissenschaft niemals Streit unter den Experten geben. Wenn also selbst in der Physik nicht automatisch unanfechtbare gesicherte Erkenntnisse entstehen, worauf soll und kann man sich dann noch verlassen? Gewöhnlich verstehen wir Fakten als Tatsachen, also als etwas, das wirklich im Sinne von beglaubigt so und nicht anders passiert ist oder getan wurde. Dazu muss aber erst einmal etwas passiert oder getan worden sein (die ursprünglichen Bedeutungen des lateinischen factum). Zusätzlich aber muss sich eindeutig feststellen lassen, was genau passiert ist oder getan wurde. Das klingt trivial, ist es aber nicht. Auf die richtigen Fragen kommt es an Leider liegen Fakten oder Tatsachen nicht einfach wie Dinge herum und sind für jeden unmittelbar erkennbar. Fakten sind eben keine Dinge. Nehmen wir zum Beispiel einen Unfall mit Fahrerflucht ohne Zeugen. Nehmen wir ferner an, dass selbst die oder der Geschädigte nicht genau sagen kann, was passiert ist. Offensichtlich ist also „nur“, dass ein Unfall passiert ist und dass ein Schaden vorliegt. Aber wie genau dieser zustande kam, liegt erst einmal im Dunkeln. Jetzt kommt es auf die Spurensicherung an. Gibt es Lackreste vom anderen Fahrzeug? Wie war der Aufprallwinkel? Mit welcher Geschwindigkeit muss der Aufprall passiert sein? Etc. Um die Tatsache des Unfalls, zu der eben auch der Hergang gehört, vollständig zu ermitteln, bedarf es freilich der „Dinge“ wie Lackpartikel oder die so und nicht anders verformten Karosserie des Fahrzeugs der geschädigten Partei. Ferner braucht es Informationen wie die Zuordnung eines Lacks zu einem bestimmten Fahrzeugtyp oder die spezifische Fähigkeit einer Stoßstange, Aufprallenergie zu absorbieren. Drittens aber braucht es das nötige Wissen, um erst einmal die richtigen Fragen zu stellen. Denn nur wer weiß, dass und wie sich ein Fahrzeug per Lackreste identifizieren lässt, wird danach an einer Unfallstelle suchen. Wissen, Fragen, Informationen, Können, Methoden, Dinge – all das ist nötig, um ein Fakt zu etablieren. Mit anderen Worten: Um vermeintliche Tatsachen von den wirklichen zu trennen, benötigen wir Analysen. Dabei kann die IT helfen, wo das Thema Analytics im Zuge der Digitalisierung immer wichtiger wird. OpenText™ Election Tracker – lag die Presse wirklich so falsch? Lassen Sie mich die Leistungsfähigkeit heutiger, unserer Analytics anhand eines konkreten Beispiels veranschaulichen. Denn was mich wirklich – also tatsächlich oder faktisch – daran beeindruckt, ist die Möglichkeit, unter anderem die Tonalität von Informationen zu erfassen. Es gilt ja heute praktisch als Fakt, dass die traditionellen Medien mit ihrer Berichterstattung einseitig Hillary Clinton gegenüber Donald Trump bevorzugt hätten. Die wahre Volksstimmung sei hingegen, wenn überhaupt, nur in den sozialen Medien messbar gewesen. Nun, ich meine, dass sich die Sache vielleicht doch anders verhält. Ich habe mir den Spaß gemacht und unseren Election Tracker, der die Berichterstattung zu Clinton und Trump von über 200 Medien weltweit erfasst und deren Tonalität ermittelt, befragt. Ich habe mir dabei die gemessene Tonalität zu verschiedenen Zeiträumen (gesamte Laufzeit, 90, 60, 30, 15 und 7 Tage) notiert, und zwar zu verschiedenen Terminen (am. 26. Januar sowie am 2. und 13. Februar). Dadurch beinhaltete der Wert des 90-Tage-Durchschnitts die Berichterstattung rund 2 Wochen bzw. 1 Woche vor dem Wahltag sowie kurz danach. Aber schauen Sie sich die Grafik auf Basis der Werte unseres Election Tracker einmal selbst an. Zwar fällt die Berichterstattung über den Gesamtzeitraum betrachtet zugunsten von Clinton aus. Das entspricht der allgemeinen Erwartung. Interessant ist aber, dass die Berichterstattung zu Trump schon vor der Wahl – und wahrscheinlich deutlicher länger als zwei Wochen – weniger negativ als zu Clinton war. Erst bezogen auf den 15-Tage-Durchschnitt dreht sich dieses Bild wieder und findet zu den Werten des Gesamtdurchschnitts zurück. Der Befund, dass die Medien nur einseitig über Trump bzw. gegen ihn und für Clinton berichtet haben, ist also gar nicht so eindeutig. Die Medien scheinen im Grunde einen sehr guten Job gemacht zu haben. Schauen Sie sich doch einmal selbst den Election Tracker an. Er ist hier abrufbar und bietet zahlreiche Möglichkeiten zu Interaktionen. Alle Daten und Visualisierungen sind live. Ich freue mich, dass wir Ihnen den Election Tracker im Detail auf unserer Innovation Tour am 28. März 2017 in München vorstellen werden. Dazu darf ich Sie noch einmal ganz herzlich einladen. Digitalisierung braucht Analytics. OpenText hat sie. Erfahren Sie mehr über unser Analytics-Angebot auf Basis des OpenText™ Information Hub (iHub).

Weiterlesen

Mit der Qualität Ihrer Daten steht und fällt Ihr Geschäftserfolg

Wie das Wasser als Grundlage des Lebens gilt, so gelten Daten als Grundlage des Geschäftslebens. Kein modernes Unternehmen kann heute auf digitale Informationen über Kunden, Lieferanten, Produkte oder Mitarbeiter verzichten, wenn es erfolgreich arbeiten will. Denn ungenaue, veraltete oder gar falsche Stammdaten schaden der digitalen Transformation eines Unternehmens mehr, als sie dieser nutzen. Führungskräfte kennen das Problem, doch in einer Studie von Lünendonk geben nur 52 Prozent der befragten deutschen Unternehmen an, überhaupt Standards für das Stammdaten-Management definiert zu haben. Im Zeitalter der digitalen Transformation sammelt jedes erfolgreiche Unternehmen Daten. Eines der größten und teuersten Probleme, die es dabei zu lösen gilt, ist die Qualität dieser Daten. Eine Datenanalyse ungenauer Informationen ist nutzlos, denn die erhaltenen Ergebnisse können deutlich von der Realität abweichen. Die Folge: Unternehmen können falsche Entscheidungen treffen. Nur Daten sammeln greift zu kurz Die meisten Organisationen sind überzeugt, ihre Daten seien von brauchbarer Qualität. Trotzdem sind sie sich bewusst, dass schlechte Datenqualität ihrem Betriebsergebnis nachhaltig schaden kann. (The State of Enterprise Quality Data 2016 – 451 Research). Unterdessen sorgen die Besonderheiten von Big Data für zusätzliche Probleme bei der Datenqualität. Informationen werden mit wachsender Geschwindigkeit generiert. Ein größeres Datenvolumen ist allerdings auch schwieriger zu verarbeiten. Herausforderungen bezüglich der Datenqualität Für sogenannte „schmutzige“ Daten gibt es vier Hauptursachen: Fehlender Zusammenhang. Möglicherweise kennen Sie die Bedeutung einer Information nicht. Meint beispielsweise der Eintrag „2017“ das Jahr, den Preis (2.017 Euro), die Zahl der verkauften Produkte (2.017) oder die Personalnummer eines Mitarbeiters? Ein möglicher Grund für diesen Fehler ist eine übermäßig komplexe Struktur, etwa in großen, transaktionsorientierten Datenbanksystemen ein anderer eine nicht eindeutige Datenquelle (besonders bei externen Quellen). Unterschiedliche Datentypen. Dieses Problem tritt auf, wenn Sie nicht kompatible Datentypen zusammenführen wollen. Die Inkompatibilität kann dabei in etwas ganz Einfachem bestehen (zum Beispiel, wenn Gewichtsangaben in einer Datenquelle in Pfund und in einer anderen in Kilogramm bezeichnet werden) oder äußerst komplex sein (wie unterschiedliche Datenbankformate). Eingabefehler. Eingabefehler Ihrer Mitarbeiter lassen sich durch Korrekturlesen und bessere Schulung reduzieren. Beruht Ihr Geschäftsmodell jedoch auf einer Erfassung der Daten durch externe Partner oder Kunden, steigt die Gefahr „schmutziger“ Daten, da die Qualität der Eingaben nicht geprüft werden kann. Systemfehler durch Serverausfälle, Fehlfunktionen, Duplikate und so weiter. Der Umgang mit schmutzigen Daten Die Datenqualität zu bereinigen ist keine einfache Aufgabe. Zum einen ist es kompliziert und teurer. Der Aufwand lässt sich vor dem Management schwer rechtfertigen, da kurzfristig keine Vorteile erkennbar sind. Zweitens hat das Sammeln von Daten und deren Interpretation etliche Schwachstellen. Darüber hinaus können sich sowohl die Daten liefernden Geschäftsprozesse als auch die eingesetzte Technologie kurzfristig ändern. Der Prozess zur Bereinigung der Datenqualität muss also flexibel sein. Will eine Organisation also eine gleichmäßig hohe Datenqualität sicherstellen, sind oftmalige Qualitäts-Checkpoints erforderlich: beim Daten sammeln, speichern, zusammenführen, wiederherstellen, während einer Analyse oder dem Data-Mining. Qualitätssicherung erfordert einen Plan Wer so viele mögliche Kontrollpunkte – mit jeweils unterschiedlicher Vorgehensweise – überwachen will, braucht einen durchdachten Qualitätssicherungsplan. Der klassische Ausgangspunkt ist eine Untersuchung der Datenqualität, sobald die Daten im System eintreffen – oft über manuelle Eingaben oder dort, wo keine standardisierten Datenerfassungssysteme vorhanden sind. Geprüft wird auf fehlerhafte, doppelte oder zu stark abgekürzte Dateneingaben (etwa „NY“ statt „New York City“). Treten diese Fehler auf, haben Experten für Datenqualität zwei unterschiedlichen Vorgehensweisen zu ihrer Behebung. Erstens können Sie schon präventiv bei der Gestaltung des Prozesses aktiv werden. Richten Sie zum Beispiel Datenintegritätskontrollen ein. Sorgen Sie dafür, dass bestehende Checkpoints nicht übergangen werden. Beschränken Sie die Eingabemöglichkeiten, indem Sie etwa Freitextfelder durch Dropdown-Listen ersetzen. Belohnen Sie erfolgreiche Dateneingaben, und merzen Sie Einschränkungen bei Hard- oder Software aus (beispielsweise, wenn Ihr CRM keine Informationen direkt aus der Verkaufsdatenbank verarbeiten kann). Die zweite Möglichkeit ist eine nachträgliche Bearbeitung, die sich auf die Datenbereinigung oder Diagnoseprogramme (Fehlererkennung) konzentriert. Dafür empfehlen Experten folgende Schritte: Analyse der Datengenauigkeit – entweder durch eine vollständige Erhebung des Ist-Zustands (verlässlich, aber möglicherweise teuer) oder durch die Überprüfung von Arbeits- und Stichproben aus Audits (günstiger, aber nicht 100 Prozent zuverlässig). Messen der Datenkonsistenz und Übereinstimmung von Datenelementen. Probleme in diesem Bereich können die Richtigkeit der gesamten Geschäftsdaten beeinträchtigen. Quantifizieren systembedingter Analysefehler, die die Datenqualität beschädigen könnten. Erfolgsmessung vollständiger Prozesse, von der Datensammlung über die Umwandlung bis hin zur Nutzung. Beispielsweise, wie viele Meldungen für „ungültige“ oder „unvollständige“ Daten nach einem kompletten Durchlauf noch vorhanden sind. Ihre Geheimwaffe: „Datenprovokateure“ Das alles ist jedoch nutzlos, wenn nicht Ihre gesamte Organisation bei der Verbesserung der Datenqualität in die Pflicht genommen wird. Thomas C. Redman, einer der führenden Experten auf diesem Gebiet, zeigt in seinem Artikel in der Harvard Business Review „Data Quality Should Be Everyone’s Job“ einen Lösungsansatz auf. Redman rät den Unternehmen so genannte „Datenprovokateure“ einzusetzen. Als Datenprovokateure bezeichnet er Personen aus verschiedenen Unternehmensbereichen (vom Top-Management bis zum neuen Mitarbeiter), die die Datenqualität testen und innovative Ideen zu deren Verbesserung entwickeln. Manche Unternehmen verleihen ihren Mitarbeitern sogar Preise, wenn diese für die Datenqualität riskante Schwachstellen in Prozessen aufdecken. Das reduziert nicht nur die Fehlerquote, sondern wirbt gleich im gesamten Unternehmen für die Idee, dass saubere, korrekte Daten wichtig sind. Fazit Organisationen sind durchaus zu recht besorgt um ihre Datenqualität und deren Auswirkungen auf das wirtschaftliche Ergebnis. Diejenigen, die Maßnahmen zur Verbesserung der Datenqualität ergreifen, verzeichnen höhere Profite und effizientere Arbeitsabläufe, weil ihre Entscheidungen auf verlässlichen Daten basieren. Gleichzeitig reduzieren sie damit die Kosten für Fehlerkorrekturen und verwenden weniger Zeit auf die Erhebung und Verarbeitung ihrer Daten. Wenn es um die Verbesserung der Datenqualität geht, sind alle Bereiche eines Unternehmens gefordert. Das beinhaltet die Akzeptanz von Kosten, denen kein kurzfristiger Nutzen gegenübersteht. Doch Unternehmen, die damit ernst machen, steigern Ihre Wettbewerbsfähigkeit und Ihren Profit. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Westpac Bank setzt auf OpenText Analytics: Mit intelligenter Automatisierung zu schnellerem und regelkonformen Berichtswesen

Westpac

Weltweit unterliegt der Banken und Finanzsektor in viel größerem Maße als andere Branchen der Berichtspflicht. Ein immer aufwändigeres Reporting-Wesen, geprägt von Statistiken und AdHoc-Informationsflüssen, soll Aufsichtsbehörden bei der Überwachung von Finanzdienstleistern unterstützen. Sehr zum Leidwesen deutscher Finanzinstitute, deren Kritik immer lauter wird. Gezweifelt wird an der Zielgenauigkeit einzelner Maßnahmen, dem Zusammenwirken verschiedener Regelungen sowie dem Kosten-Nutzen-Verhältnis von regulatorischen Vorgaben. Nicht nur die Banken-Lobby moniert, auch bei Finanzaufsichtsbehörden wie der BaFin und Gesetzgebern wie dem Deutschen Bundestag oder den EU-Gremien wird heftig diskutiert und um Praxistauglichkeit gerungen. Alltagsrealität bleibt jedoch bis auf weiteres der in den Jahren der Finanzkrise massiv gewachsene Anforderungskatalog nach Transparenz und Datenverfügbarkeit auf Abruf. Informationen zum länderübergreifenden Zahlungsverkehr sind genauso von Interesse wie steuerrechtliche Aspekte, Kapitalmarkttransfers, Kreditvergaben oder firmeninterne Governance-Themen. Dabei machen Aufsichtsbehörden selbstverständlich keinen Unterschied, ob es sich um Banken-Großkonzerne, Finanz-Start-ups oder kleinere Privatinstitute handelt, wie der Chef der deutschen Ethikbank Klaus Euler die wirtschaftlichen Konsequenzen der gestiegenen Kontrollanforderungen in einem Zeitungsinterview plakativ beschreibt. Was also tun? Vor allem wenn im Zeitalter der Digitalisierung erwartete Reaktionszeiten eher noch anspruchsvoller und kürzer werden? Fallstudie Westpac Bank – ein Traditionsunternehmen auf Wachstumskurs Der Transformationsprozess, den die australische Westpac Bank kürzlich durchlief, ist ein hervorragendes Beispiel für die schrittweise Anpassung des hauseigenen Berichtswesens an die ständig wachsenden Anforderungen mit Hilfe der OpenText™ Analytics Plattform. Als die Westpac Banking Corporation 1817 in einem kleinen Büro an der Küste Australiens gegründet wurde, steckte das internationale Bankenwesen noch in den Kinderschuhen. Transaktionen wurden von Hand mit Tinte in ledergebundenen Büchern aufgezeichnet. Banknoten und Münzen wurden in die Kasse ein- und wieder ausbezahlt. (Das ging solange gut, bis sich ein Kassenbeamter im Jahr 1821 mit der Hälfte des Barvermögens der noch jungen Bank aus dem Staub machte.) Heute, genau 200 Jahre nachdem die Muttergesellschaft ihre Türen öffnete, ist Westpac nicht nur Australiens älteste Bank, sondern mit 13 Millionen Kunden weltweit und über 812 Milliarden AUS$ verwaltetem Vermögen auch das zweitgrößte Institut des Kontinents. Jahr für Jahr wächst das Geschäft – vor allem in China, Hongkong und anderen Staaten im asiatisch-pazifischen Raum. Internationalisierung schafft neue Herausforderungen Zu den Nachteilen der internationalen Expansion gehört der wachsende Verwaltungsaufwand. Ständig neue Formulare müssen kurzfristig ausgefüllt werden, denn der elektronische und physische grenzüberschreitende Finanzverkehr ist streng reguliert und erfordert detaillierte Transaktionsberichte, die selbstverständlich umgehend in länder- und institutionsspezifischen Formaten bereitgestellt werden müssen. Für diese umfassenden Berichte muss Westpac Informationen aus den verschiedensten Quellen im Unternehmen zusammentragen. Bis vor kurzem erfolgte die Datengewinnung und Konsolidierung dieser komplexen Informationsbruchstücke manuell, langsam und mit hohem Personalaufwand. Nicht selten endete dieser umständliche Prozess mit Fehlern, bestätigt Craig Chu, Westpac CIO für Asien. Die Verantwortlichen in der Bank wussten sehr wohl, dass es einen besseren Weg geben musste, um die regulatorischen Anforderungen zu erfüllen. Gefragt war jedoch ein Ansatz, der keine zusätzlichen IT-Hürden schafft. Westpac realisiert erfolgreiche Transformation durch den Einsatz moderner Analytics Nach einem erfolgreichen Proof-of-Concept entschied sich Westpac für eine Informations-Management und Reporting-Lösung von OpenText™ Analytics (Englisch). Chu beschreibt in einem kurzen Video (Englisch), wie Westpac mit OpenText™ iHub (Englisch) und Big Data Analytics (Englisch) die Reporting-Prozesse der Bank straffen und automatisieren konnte und welche weiteren Vorteile die Einführung der Lösung für das Bankinstitut hatte. Sie wollen mehr über die OpenText Analytics Suite und deren Vorteile für Ihr Unternehmen erfahren? Für weitere Informationen klicken Sie hier (Englisch). Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Mit Advanced Analytics Informationsschätze heben und tiefe Erkenntnisse gewinnen

Advanced Analytics

Eine der Grundregeln des Geschäftslebens lautet: Wer erfolgreich sein will, muss seine Kunden kennen. In der digitalen Welt bilden diese Kenntnisse die Basis für personalisierte Kundenerlebnisse, ohne die ein Erfolg heutzutage schwer möglich ist. Doch wie gelingt die Personalisierung bei Tausenden Kunden, die online kaufen und den Mitarbeitern Ihrer Organisation nicht persönlich bekannt sind? Nun, auch online agierende Kunden hinterlassen eine Informationsspur im Internet: Standort, Uhrzeit, angesehene oder gekaufte Produkte, durchschnittlicher Kaufbetrag, Ursprung des Besuchs (Suchmaschinen, Social Media, Bewertungsplattformen und Ähnliches), benutztes Gerät. Die Liste lässt sich beliebig erweitern. Je besser Sie diese Kundendaten nutzen, desto personalisierter können Sie Ihre Kundenansprache gestalten. Heutzutage können Sie bei jeder Gelegenheit Informationen sammeln. Mit diesen Informationen verstehen Sie Ihre Kunden besser und können deren Verhalten prognostizieren. Das ist doch großartig, oder? Die Sache hat aber einen Haken: Wie filtern Sie die ständig wachsenden Datenmassen und verwandeln sie in brauchbare Erkenntnisse? OpenText hat sich auf Forbes.com (Englisch) mit diesem Thema beschäftigt und aufgezeigt, wie Sie relevante Informationen entdecken und in Ihrem Unternehmen nutzen können. Mit Hilfe von Advanced Analytics (eine Erweiterung der Business Intelligence, die durch Analysen Entwicklungen prognostiziert) erzielte Erkenntnisse spielen dabei eine Hauptrolle. Auszüge aus unserem Forbes-Beitrag haben wir hier für Sie zusammengestellt. Im digitalen Zeitalter geht es um Erkenntnisse „Ohne entsprechenden Datenfluss im Unternehmen kann keine Veränderung stattfinden. Diese Tatsache wird von Unternehmen immer besser verstanden. Und das betrifft alle Informationen – ob über Kunden, Lieferanten, Geschäftspartner, Produkte oder Geschäftsprozesse. Die dadurch entstehende Informationsfülle stellt Organisationen jedoch vor große Herausforderungen: Wie können sie dieses immer weiter wachsende Datenvolumen gründlich analysieren, um nützliche Erkenntnisse zu gewinnen? Die Datenmenge ist mittlerweile viel zu groß, das Wachstum zu schnell, als dass der Mensch all diese Informationen verarbeiten und verstehen könnte.“ Aber wie können Unternehmen diese Daten dann für die Weiterentwicklung von Geschäftsprozessen nutzen oder mit deren Hilfe gar eine ganze Branche revolutionieren? Der Schlüssel zum Erfolg heißt Analytics „Daten bilden die Basis der digitalen Transformation. Dieser Grundsatz gilt, wenn Unternehmen ihre internen Geschäftsprozesse verbessern wollen. Und besonders, wenn sie erwägen, einen Markt, in dem sie operieren, grundlegend zu verändern. Immer öfter stellen einzelne Unternehmen die traditionellen Geschäftsmodelle auf den Kopf. Die effektive Nutzung von Informationen steht dabei im Mittelpunkt. Organisationen wie Airbnb, Netflix und Uber sind die Aushängeschilder dieser Umbrüche. Das Geheimnis ihres Erfolgs ist ihre Kompetenz bei der Massendatenanalyse – und die Fähigkeit, die Ergebnisse anschließend zu ihrem Vorteil umzusetzen.“ Von aktuellen Trends zur Prognose künftiger Ereignisse „In der Vergangenheit untersuchten Business Intelligence (BI) Tools hauptsächlich historische Daten. So sollten Organisationen aktuelle Trends besser verstehen. Heute wird immer öfter Predictive Analytics eingesetzt – Technologien und Tools, durch die Unternehmen historische und aktuelle Daten gleichzeitig analysieren und damit zukünftige Trends oder Ereignisse vorhersehen können. Embedded Analytics (eingebettete Analysen) ist eine weitere Entwicklung, die Organisationen aufzeigt, in welchen Bereichen Innovation den Unterschied macht. Zahlreiche Unternehmen, von der Großbank bis zum Internet Provider, nutzen diese Technologie um ihre Webseiten und mobilen Anwendungen mit interaktiven Grafiken und Diagrammen anzureichern. Damit sollen wichtige Informationen wie Gebühren oder Rechnungen für die Kunden verständlicher und transparenter werden. Den meisten Kunden fällt gar nicht auf, dass ihnen die Daten von einem Drittanbieter-Tool zur Verfügung gestellt werden.“ Analytics sorgt dafür, dass Daten ihr volles Potenzial entfalten und zum Gesamtbild beitragen. Finden Sie heraus, wie auch Sie mit Hilfe von Advanced Analytics zum Branchenführer werden oder das nächste Netflix, Airbnb oder Uber gründen. Der vollständige Forbes-Beitrag steht Ihnen hier (Englisch) zur Verfügung. Schon gewusst? Eine aktuelle Studie von Dresner Advisory Service (Englisch) zeigt auf, dass 81% aller Unternehmen Embedded Analytics heute als Priorität erkennen. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

10 Top-Finanz-Analytics-Trends, die Sie im Auge behalten sollten (Infografik)

Finanz-Analytics

Oft wird angenommen, die ohnehin schon immer mit Daten, Zahlen und Computern hantierenden Finanzabteilungen seien vom digitalen Wandel nicht (oder nur am Rande) betroffen. Für viele Unternehmen stellt sich das jedoch als eventuell teurer Irrtum heraus. Big Data, Self-Service und Predictive Analytics gewinnen auch in der Finanz-Analytik immer mehr an Bedeutung. Business-Intelligence-Systeme (BI) müssen sich weiter entwickeln, um mit der Digitalisierung Schritt halten zu können. Neue Finanz-Analytics-Anwendungen und Trends entstehen. Manche verschwinden wieder, andere werden zum Standard. Letztere frühzeitig zu erkennen hilft, das enorme Potenzial Ihrer Finanzdaten besser zu nutzen um die Entwicklung Ihres Unternehmens voranzubringen. Als General Motors 2010 Daniel Akerson auf den GM-Chefposten berief, stand der Konzern vor einigen Herausforderungen (Englisch). Aufgrund der Verbindungen von Akerson zur Welt der Finanz-Analytik kam die damalige Übernahme von AmeriCredit aber nicht überraschend. Die Kaufsumme von rund 3,5 Milliarden Dollar zahlte General Motors in bar. Daniel Akersons Kommentar in dieser Sache: er wäre dabei, die „IT- und Buchhaltungs-Systeme auf Weltklasse-Niveau zu bringen, um Chancen schnellstmöglich wahrzunehmen und unser Produktprogramm vor negativen äußeren Einflüssen zu schützen.“ Wie das Fortune Magazine berichtete, arbeitet General Motors an der Zukunft des Fahrens. Das Unternehmen prognostiziert eine „vernetzte, nahtlose und autonome“ Zukunft des Autofahrens. Finanzchefs sind nicht bekannt dafür, den Einfluss von Innovationen und Kennzahlen, heute als „Analytics“ bezeichnet, zu unterschätzen. Accenture definiert den Finanzleiter als „Architekten des Unternehmenswerts“. Doch noch 2014 betrieben viele Firmen Insellösungen für strukturierte Daten, die nicht konsistent definiert waren. Das erschwerte das Extrahieren von Informationen aus unterschiedlichen Geschäftsbereichen. Das Problem ist bekannt, also was tut sich im Bereich Finanz-Analytics? 1) Big Data wächst mit dem Internet der Dinge Datengenauigkeit ist immer noch ein kritischer Faktor. Oder, wie der Ingenieur und Statistiker W. Edwards Deming sagte: „Wir vertrauen auf Gott. Alle anderen müssen Daten liefern.“ Natürlich sind wir uns einig, dass nicht alle Daten immer nützlich sind. Aber je größer die Bandbreite an verschiedenen Datenquellen, desto genauer wird das Gesamtbild. Mit 6,4 Milliarden vernetzten Endgeräten steigen die Herausforderungen, und die Finanzabteilungen sind immer stärker gefordert. 2) Digitalisierung macht Finanzorganisationen überflüssig Mit Big Data aus neuen strukturierten und unstrukturierten Datenquellen entstehen mehr Risiken – aber auch mehr Chancen. Immer mehr Führungskräfte verändern ihren Entscheidungsprozess aufgrund immer ausgefeilterer Möglichkeiten zur Datenspeicherung und -analyse. In den USA gibt es heute 111 Millionen Mobile-Banking-Nutzer, 2010 waren es nur 35 Millionen. Banken übernehmen E-Commerce-Taktiken, um die Kundenabwanderung gering zu halten und ihre Absatzchancen zu erhöhen. 3) Alle Daten wandern früher oder später in die Cloud Die Cloud wird immer stärker für Data-Warehousing genutzt. Die Frage in der Informationstechnologie lautet daher nicht mehr ob, sondern wann alle Daten in der Cloud sind. Und wenn Ihre Daten dort sind, sollte Ihre Analytics es auch sein. Mit der OpenText™ Cloud profitieren Sie gleich zweifach. Sie speichern Ihre Daten bei dem Branchenführer für Enterprise Information Management. Und Sie laden Ihre Daten in eine spaltenorientierte Datenbank – egal, ob über Frontend oder Backend. 4) Compliance-Audits bleiben eine Herausforderung Die Aufbereitung der Daten über Self-Services wird zum entscheidenden Faktor für bessere Daten-Audits. Analysten sehen in der Datenaufbereitung über Self-Services die nächste Zäsur des Marktes. Bereits 2019 soll diese Funktionalität für 9,7% der Ertragschancen im globalen Markt für Wirtschaftsinformatik sorgen. OpenText™ Big Data Analytics bietet Finanz-Analysten beispielsweise die folgenden, einfach zu bedienenden Self-Service-Tools zur Datenaufbereitung: Datenaufbereitung – Tools wie Normierung, lineare Skalierung, logistische Skalierung oder Softmax-Skalierung Daten anreichern – Aggregation, Dekodieren, Variablen, numerische Intervalle, Quantil-Intervalle, Parametrisieren oder Rangordnung Daten-Audit – Anzahl, Wölbung, Maximum, Mittelwert, Median, Minimum, Modus, Schiefe, Summe oder Standardabweichung 5) Unternehmen sollten Analytics nicht für Berichte, sondern für Entscheidungen nutzen Analysten entwickelten das Konzept einer „Wirtschaft der Algorithmen“ als nächste Stufe der digitalen Wirtschaft. 2018 werden mehr als die Hälfte aller großen globalen Organisationen Advanced Analytics und firmeneigene Algorithmen nutzen, um sich Wettbewerbsvorteile zu schaffen – so die Prognose. Und das revolutioniert ganze Branchen. 6) Analytics ist mehr als nur Reporting Analytics entwickelt sich weiter, und natürlich stehen wirtschaftliche Aspekte dabei im Mittelpunkt. Zukünftige Algorithmen werden nicht nur Erkenntnisse liefern und die Entscheidungsfindung erleichtern – sie werden sogar an Ihrer Stelle Entscheidungen treffen. 49% aller Unternehmen nutzen heute Predictive Analytics, weitere 37% planen einen Einsatz in den kommenden drei Jahren. Predictive Analytics für Big Data gilt nicht erst seit heute als eine der Grundlagen für erfolgreiche Finanzdienstleister. Neu daran ist: alle Business-Anwender können mit Tools wie OpenText™ Big Data Analytics ganz einfach zukunftsweisende Erkenntnisse gewinnen. Francisco Margarite, IT-Leiter bei der Inversis Bank, sagt: „Unsere technischen Experten haben früher sehr viel Zeit aufwenden müssen, um Informationen zu extrahieren und zu analysieren. Die Folge: Wir konnten keinen angemessenen Service bieten. Heute können unsere Nutzer selbstständiger agieren, und unsere IT ist nicht mehr so überlastet.“ Was Analytics für Sie tun kann – einige Beispiele: Venn-Diagramm: Finden Sie heraus, welche Kunden „Versicherung A“ und „Versicherung C“ abgeschlossen haben, nicht aber „Versicherung B“. Erstellen Sie ein Profil und eine für andere zugängliche Liste. Profile: Identifizieren Sie Variablen für die Kundensegmentierung, damit Ihr Unternehmen Werbekampagnen besser personalisieren kann. Entscheidungsbaum: Finden Sie die passende Immobilie für jeden potenziellen Kunden, basierend auf dessen Profil und den Merkmalen des Objekts (Preis, Größe, usw.). Möglicherweise interessant für HR-Abteilungen ist die Analyse von Social Media-Daten, um Personen mit Affinität zum Unternehmen oder seinen Produkten zu rekrutieren. Prognosen: Kalkulieren Sie Veränderungen, Trends und saisonale Schwankungen im Voraus ein. Prognostizieren Sie treffsicher Vertriebschancen; schätzen Sie die Anzahl der Bestellungen und damit verbundene Risiken bereits im Vorfeld richtig ein. Nutzen Sie beispielsweise Sensordaten, um Fehler im Auszahlungsprozess von Geld-Automaten vorherzusagen. 7) Finanzdaten bieten entscheidende Hinweise bei der Prognose einschneidender Ereignisse mittels Analytics Soziale und politische Entwicklungen können gravierenden Einfluss auf ein Unternehmen oder sogar ein ganzes Land ausüben. Wer Analytics einsetzt, kann diesen Entwicklungen um einen entscheidenden Schritt voraus sein. Das Interesse daran wächst. Das zeigen Beispiele aus der jüngsten Vergangenheit wie die CaixaBank oder MasterCard, bei denen Finanzdaten die entscheidenden Hinweise gaben. Mittlerweile lässt sich auch Big Data aus den sozialen Medien zur Stimmungsanalyse nutzen. 8) Künftige Emotionsanalysen profitieren von einem besseren Analytics-Modell Eine Stimmungsanalyse in den sozialen Medien deckt Risiken und Betrügereien auf, sodass Sie entsprechende Maßnahmen für die Zukunft setzen können. Bedenken Sie aber, dass eine ausschließliche Betrachtung von Emotionen oder Stimmungen viele falsch positive Ergebnisse liefern kann. 9) Anwendungen in Echtzeit zu managen, zu überwachen und Fehler zu beheben, ist heute unternehmenskritisch Je größer das Vertrauen in neue Software ist, desto weiter schreitet der digitale Wandel voran. Hinter der steigenden Bedeutung von Analytics steht die tatsächliche Anforderung an Unternehmen: die Notwendigkeit zur vollständigen Transparenz und Flexibilität. 10) Die Kunden zu kennen und ihnen relevante Informationen zu bieten, bleibt ein wesentliches Differenzierungsmerkmal Ein Beispiel: TransUnion ersetzte 2015 seine relationalen Datenbanken durch integrierte und Predictive Analytics – und schrieb erstmals seit 2012 wieder schwarze Zahlen. Vor der Systemumstellung war die IT die Hälfte der Zeit mit der Wartung der alten Infrastruktur beschäftigt. Etwa 60% des Budgets flossen in die Verwaltung der Altsysteme, laut Angaben des Unternehmens sind es heute nur noch 40 bis 45%. Sobald Sie Erkenntnisse aufgrund von Predictive Analytics gewonnen haben, müssen Sie diese auch der richtigen Person zur Verfügung stellen. Dabei spielt es keine Rolle, ob Sie Prognosen über Betrugsrisiken, Straftaten oder finanzielle Ergebnisse erstellen. Prognosemöglichkeiten werden von 77% der Unternehmen als einer der Hauptgründe für den Einsatz von Self-Service Business Intelligence genannt. Höhere Kundenloyalität durch Verbesserung der Kundenzufriedenheit gilt als weiterer wichtiger Faktor. Heutzutage können Unternehmen ihren Kunden maßgeschneiderte, personalisierte Erlebnisse bieten. Über Self-Services können Kunden ihre Daten verwalten und ihre Historie einsehen. Zusätzlich erhalten sie auch pro-aktive Empfehlungen und Informationen über weitere Produkte und Services. Damit können Unternehmen: Den Umsatz durch Cross-Selling erhöhen, indem sie ausgewählten Kunden neue Produkte oder Services vorschlagen Die Kundenbindung stärken, indem sie ihren Kunden über diverse Endgeräte Self-Service-Zugang mit personalisierter Oberfläche zu den eigenen Kontodaten bieten Die Kundenloyalität erhöhen, indem sie ihren Kunden eine interaktive Möglichkeit zur individuellen Anpassung der Finanzdaten-Analyse geben Für eine schnellere Markteinführung sorgen, indem die Self-Service APIs zur Implementierung neuer Funktionen in vorhandene Kundenapplikationen genutzt werden   Laut Howard Dresner bietet OpenText™ Information Hub ausgezeichnete integrierte Analytics und durch die spezielle Integration von Predictive Analytics mit OpenText Big Data Analytics Zugang zu wichtigen Prognoseerkenntnissen. Jetzt herunterladen: TDWI-Studie „Operationalizing and Embedding Analytics for Action” Erfahren Sie in diesem Report, dass es bei dem Betreiben und Einbetten von Analytics-Lösungen um mehr geht, als um statische Dashboards, die einmal am Tag aktualisiert werden. Verwertbare Analytics-Erkenntnisse müssen in Ihre Applikationen, Devices und Datenbanken integriert werden. Hier können Sie die Studie (Englisch) herunterladen. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Die Zukunft der Information: Höchste Zeit für ein Umdenken bei ECM

customer experience

Das Enterprise Content Management (ECM) hat sich weiter entwickelt. Längst geht es um mehr, als das Steuern und Kontrollieren von Informationen. In zunehmend digitalisierten Arbeitsumgebungen soll ECM die Zusammenarbeit fördern, die Produktivität steigern, und basierend auf Unternehmensinformationen wertvolle Erkenntnisse liefern. Um diesen Anforderungen gerecht zu werden, wurde die OpenText Content Suite 16 (Englisch) umfassend überarbeitet und mit verbesserten Features ausgestattet. Wir haben den Leistungsumfang der OpenText Content Suite 16 (Englisch) ausgebaut. Folgendes ist enthalten: Verknüpfte Arbeitsbereiche verbinden: Workspaces verbinden das Content Management mit Geschäftsprozessen und verändern damit das Konzept von ECM grundlegend. Die Vereinheitlichung von Insellösungen und eine verbesserte Zusammenarbeit stellen sicher, dass aus der Vernetzung echter Mehrwert entsteht. Neues Content Server User Interface (UI): Das neue intuitive UI der OpenText Content Suite und Extended ECM basiert auf Responsive Design. Es gestattet rollenbasierte Ansichten, erlaubt den Zugriff auf zuletzt bearbeitete Dokumente und bietet etliche weitere Features, die Anwender produktiver machen und eine bessere Zusammenarbeit ermöglichen. Unsere neue Nutzeroberfläche ermöglicht durch ein vernetztes und konsistentes Nutzererlebnis ein tieferes Engagement und erhöht die Sicherheit mit rollenbasierten Zugriffsrechten auf Informationen. Analytics Integration: Die Suiten-übergreifende Integration von Analytics ermöglicht Echtzeit-Abfragen und Massen-Downloads von Daten aus OpenText ECM-Lösungen für tiefere Einblicke und detaillierte Geschäftserkenntnisse. Integration von „Social“-Formaten: Ein durchgängiges Lifecycle Management von neuen innovativen Content-Formaten (wie Social Media) mit erweiterten Möglichkeiten für Anwender zur Interaktion und gemeinsamer Content-Optimierung sowie eine angereicherte Suchfunktion stärken das Engagement und gewährleisten die Sicherheit und den Schutz von Geschäfts- und IP-Informationen. Enterprise Search mit InfoFusion: Frei skalierbare, sichere und berechtigungsbasierte Suchanfragen für Inhalte aus unterschiedlichen Enterprise Systemen aufbauend auf Content-Analyse und personenbezogener Identifikation von Informationen (Personally Identifiable Information (PII) Identification). Das aktuelle Release der OpenText Content Suite beinhaltet außerdem eine automatische Klassifizierung für große Archivierungsprojekte, einen integrierten HTML-5-Viewer, Drag-and-Drop-E-Mail-Support, Dashboard-Reporting sowie erweiterte Compliance- und Sicherheitsfunktionen. Die Suite ist zudem mit OpenText CORE integriert. Damit wird das Teilen von Dokumenten und die externe Kollaboration in der Cloud zu einer natürlichen Erweiterung der OpenText Content Suite-Umgebung. Es ist an der Zeit, ECM zu überdenken Die OpenText Content Suite 16 (Englisch) geht weit über eine verlässliche Informationssicherheit hinaus. Mit Enterprise Search, umfassender ERP- und Analytics-Integration sowie der Verfügbarkeit in der Cloud können unsere Kunden ihre Produktivität steigern und gleichzeitig Kosten senken. Die OpenText Content Suite 16 (Englisch) hat alles, was Unternehmen brauchen, um ihre Firmendaten zu kontrollieren und zu schützen. Ist dieses Ziel erreicht, lassen sich Informationsprozesse effizient digitalisieren. Erfahren Sie mehr: www.opentext.com/16 (Englisch) Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Personalisierung: Gut gemeint ist nicht immer gut gemacht

Personalisierung

Austauschbare Massenware wird zunehmend durch personalisierte Angebote abgelöst. Was Facebook, Google und Co. mit auf die Nutzer abgestimmten Inhalten und Werbeanzeigen vormachen, erwarten sich die Kunden laut einer Studie von Mindtree auch von Unternehmen, die online Handel betreiben. Individuelle Kundenansprache und personalisierte Produkte steigern den Umsatz und erhöhen die Kundenbindung. In manchen Unternehmen wie MyMuesli oder Bemz ist die Individualisierung sogar ein erfolgreiches Geschäftsmodell. Persönlich ist nicht immer positiv Personalisierung ist prinzipiell eine gute Sache – wenn sie richtig gemacht wird und die Bedürfnisse der Kunden berücksichtigt. Standortabhängige Produktinformationen, Einkaufsempfehlungen in der Umkleidekabine und Bezahlung per Fingerabdruck finden die Zustimmung der Konsumenten. Gesichtserkennungssoftware und eine automatische Übermittlung von Namen lehnen sie aber ab, wurde in einer aktuellen Studie von RichRelevance ermittelt. Ebenso können einfache Algorithmen, die viel zu schnell „individualisieren“, den gewünschten Effekt ins Gegenteil verkehren, wie beispielsweise mit einer falschen Anrede. Oft liegt dies an der Qualität der Daten. Mit dieser steht und fällt der Erfolg bei der Personalisierung. Mein Kollege berichtete mir kürzlich von einer Geschichte, die er in der New York Times gelesen hatte. Eine Schwangere hatte sich für eine App registriert, die sie durch ihre Schwangerschaft begleiten sollte. Leider verlor sie kurz darauf ihr Baby. Das gab sie in die App ein, und diese reagierte angemessen mit Beileidsbekundungen. Aber sieben Monate später bekam die Frau ein Paket mit kostenlosen Proben von Babynahrung. Die grundsätzlich gute Idee, mittels Personalisierung einen neuen Kunden zu gewinnen, wurde zum Marketing Fail. Wie das geschehen konnte? Wahrscheinlich wurden die Profildaten von ihrer Registrierung in der App als Sekundärdaten an Partnerfirmen weitergegeben oder als Tertiärdaten an Werbeagenturen verkauft. Das Unternehmen hatte dabei sicher die besten Absichten, schließlich passte die App-Nutzerin perfekt in das Kundenprofil einer bei vielen Firmen begehrten Zielgruppe. Das Problem dabei: Sekundär- und Tertiärdaten veralten schnell. In diesem Fall gab es zudem auch keine Feedback-Schleife zu den Zweit- und Drittverwertern, die für die notwendige Aktualisierung der Daten gesorgt hätte. Die OpenText Optimierungs-Expertin Sarah Haggett leitet ein Team, das gemeinsam mit verschiedenen Kunden versucht, digitale Erlebnisse zu personalisieren und zu verbessern. Sie warnt regelmäßig davor, Daten zu nutzen, die älter als ein paar Wochen sind. Sarah Haggett erklärt: „Alle von uns generierten und genutzten Daten basieren auf dem Verhalten der Kunden in der Gegenwart oder jüngsten Vergangenheit. Was die Kunden vor einige Monaten getan haben, ist uninteressant. Wir sollten uns bemühen herauszufinden, was die Kunden in diesem Augenblick wollen und nicht falsche Schlüsse aus alten Informationen ziehen.“ Von einem weiteren missglückten Personalisierungsversuch (Englisch) berichtet unser Kollege Alan Porter und gibt auch gleich Tipps, wie Sie solche Fehler vermeiden können. Nehmen Sie Ihre Zielgruppen als Menschen wahr Im Marketing dreht sich oft alles um die Neukundenakquise. Die Kunden sollen sich registrieren, kaufen und zu Stammkunden werden. Die modernen Marketing-Technologien eröffnen uns zahlreiche neue Möglichkeiten. Laut Schätzung in einer Studie von chiefmartec.com (Englisch) sind heute 3.874 Marketing-Technologielösungen verfügbar. Zudem existieren eine Menge Daten über Seitenbesucher, potenzielle und Bestandskunden und andere vertriebsrelevante Fakten. All diese Daten dienen einem Ziel: Leads zu pflegen und sie durch den Marketing- und Vertriebs-Funnel zu führen. Der Weg durch den Verkaufsprozess ist allerdings keine schnurgerade Autobahn. Die Customer Journey ist voller Hindernisse, Abzweigungen und Umleitungen. Es ist deshalb sinnvoll, unter „Website-Besuchern“ mehr als nur eine Teilmarktkategorie zu verstehen. Die Realität gestaltet sich als ständiges Auf und Ab. An unzähligen Touchpoints hat eine Marke die Möglichkeit, ihre (potenziellen) Kunden zufriedenzustellen – oder eben nicht. Die Kunden werden beeinflusst von Marketingmaßnahmen und ihren Erfahrungen mit dem Kundendienst. In manchen Momenten geht es buchstäblich um alles: Die Kunden werden aufgrund ihrer Erfahrungen entweder stärker gebunden oder wenden sich endgültig ab. Wir Marketing-Experten neigen dazu, mit Schlagworten um uns zu werfen. Wir suchen „coole“ Möglichkeiten, Zielgruppe und Kunden zu analysieren und zu erreichen. Wir sollten uns aber darauf besinnen, was wirklich wichtig ist: Jeder Kontakt ist immer auch ein Mensch, mit Mitgefühl, Würde und Interessen. Technologien sollen uns im Verlauf der Customer Journey dabei unterstützen. Ob es sich um Kundensegmentierung, personalisierte Nachrichten, Cloud-Anwendungen, Interkonnektivität (Verknüpfung von Netzwerken) oder die nächste Zukunftstechnologie handelt, spielt dabei keine Rolle. Unsere Kunden stehen stets im Mittelpunkt. Wir müssen uns bemühen, jedes einzelne Mitglied unserer Zielgruppe wirklich zu verstehen. Wenn wir sie dann auch noch richtig ansprechen, ist uns der Erfolg sicher und wir vermeiden unnötige Ausrutscher. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

CRM und Business Intelligence: Ohne umfassende Analytics geht es nicht

CRM

Je ausgefeilter die CRM-Systeme, desto höher die Erwartungen. Viele erwarten, dass ihre CRM-Applikation allen geschäftlichen Anforderungen genügt. Das CRM soll beispielsweise „beantworten“, welche unserer Kampagnen für den höchsten Umsatz sorgt und uns darüber informieren, warum vielversprechende Geschäftschancen scheitern. Leider hat diese Erwartungshaltung nichts mit der Realität zu tun. Es ist „nur“ ein CRM-System Manche Anbieter sprechen gerne von den Analysemöglichkeiten ihrer CRM (Customer Relationship Management) Plattformen. Üblicherweise bieten diese CRM-Systeme dann Standardauswertungen, mit denen Sie ein paar Dashboards oder Charts zur Geschäftsentwicklung erstellen können: Nachverfolgen der Sales-Pipeline, Effektivität Ihrer Kampagnen, Conversion-Raten, Quartalsumsatz und ähnliches. Im Vergleich zu umfassenden Analytics handelt es sich dabei aber nur um einen winzigen Bruchteil der wertvollen CRM-Informationen, die das System von Ihren Vertriebs-Teams und Kunden erfasst. Ein CRM-System eignet sich perfekt für seinen Zweck: Die Beziehungen zwischen dem Vertriebs-Team und Ihren (potenziellen) Kunden zu managen und alle dafür erforderlichen Informationen zu speichern. Und ja, die Datenbank enthält eine Menge auswertbare Daten. Allerdings muss das Tool, das die Transaktionsdaten sammelt, nicht unbedingt auch das beste Tool für die Verwertung dieser Daten sein. Ein alltagstaugliches CRM-System für den Vertrieb muss flexibel und schnell sein. Ist es das nicht, stört es das Sales-Team bei der Erledigung seinen Aufgaben: verkaufen, Kundenbeziehungen aufbauen und potenzielle Kunden kontaktieren. Das perfekte CRM-System sammelt, strukturiert und nutzt daher Transaktionsdaten so, dass diese von der Plattform einfach verarbeitet werden können. Die schlechte Nachricht: Diese Art von flexibler, transaktionaler Datenstruktur ist für Analytics (Englisch) eher nicht geeignet. CRM-Systeme sind nicht auf komplexe Fragestellungen ausgerichtet Wenn Anbieter von CRM-Systemen versuchen, Business Intelligence in die Plattform zu integrieren, stehen sie vor einem grundlegenden Problem: Daten für einen schnellen Zugriff im Transaktionsprozess sind für eine Analyse nicht entsprechend aufbereitet. Unter diesen Voraussetzungen lassen sich viele Fragen nur schwer beantworten: Welche Accounts (Kunden) wurden in den letzten 30 Tagen nicht bearbeitet? Wer ist für einen bestimmten Account verantwortlich? Woran scheitern potenzielle Geschäfte? Welche Accounts generieren an einem beliebigen Punkt im Verkaufszyklus den meisten Umsatz? Wie profitabel ist ein Account? Welche Kampagnen haben Auswirkungen auf Geschäftschancen? Welche Produkte werden am häufigsten (Englisch) gemeinsam verkauft? Das sind nur einige von hunderten Fragen, die sich allein mit den Daten und Analysetechniken eines CRM-Systems nicht beantwortet lassen. Vollkommen unmöglich wird Ihr Vorhaben, wenn Sie Daten aus anderen externen Systemen gemeinsam mit denen des CRM-Systems auswerten möchten – CRM-Systeme sind als geschlossene Systeme schlicht nicht darauf ausgerichtet. CRM und umfassende Analytics-Software Für manche Dinge ist ein CRM-System das ideale Werkzeug. Für den steigenden Bedarf nach Antworten auf immer komplexere Fragen von Unternehmen allerdings nicht. Der Wunsch nach einem umfassenden Überblick über Ihr Unternehmen sollte dem Wachstum und der Umsatzsteigerung jedoch nicht entgegenstehen. Mit OpenText™ Big Data Analytics (Englisch) können Unternehmensdaten aus verschiedensten Quellen extrahiert und aufbereitet werden. Darüber hinaus bietet die Software eine Sammlung schneller, flexibler und anpassbarer Tools, mit deren Hilfe Business-Analysten die Fragen von Entscheidungsträgern beantworten können. CRM-Daten sind ein wichtiger Teil der Gesamtgleichung, Wettbewerbsvorteile dank umfassender Analytics-Software (Englisch) ein anderer. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Testen und optimieren: Trends und Insights vom Digital Elite Camp 2016

digital elite Camp

Konferenzen gibt es wie Sand am Meer – diese hier hat sich für mich wirklich gelohnt. Organisiert von Conversion XL (Englisch) in Estland war das Digital Elite Camp 2016 ein echtes Highlight: Drei volle Tage mit Seminaren, Workshops und Zeit für Networking. Testing als Basis für Optimierung Leitthema der Konferenz war die Anwendung eines Test-Frameworks auf Grundlage von Analytics, Nutzerforschung, Segmentierung und operativer Website-Performance. Versuche wurden nicht berücksichtigt, wenn die Grundlagen 1) nicht zuverlässig gemessen werden konnten oder sie 2) anfällig waren für geräteübergreifende und bei der Browser-Nutzung auftretende Funktionsfehler Denn nur auf einem soliden Fundament kann vertrauensvoll optimiert werden. Im Verlauf der Konferenz wurde auf zahlreiche Test-Frameworks Bezug genommen. Was mich jedoch am meisten beeindruckt hat, ist der steigende Reifegrad der Messmethoden, die sich zunehmend auf Langzeit-Kennzahlen wie Kundenbindung und Customer Lifetime Value konzentrieren und weniger auf CTR und Conversion abzielen. Der Optimierungs-Experte In den ersten beiden Sessions wurde intensiv über die eigene Rolle diskutiert. Über das Phänomen selbst die Veränderung voranzutreiben, den Status Quo in einer Organisation zu hinterfragen und das Selbstvertrauen, komplexe Herausforderungen zu bewältigen. Paul Rouke (@paulrouke) sprach darüber, wie Optimierungs-Experten dabei helfen können, den HiPPO („highest paid person in the organisation“) neu zu definieren: Bescheidenheit („Humility“) Integrität („Integrity“) Leidenschaft („Passion“) Positive Einstellung („Positivity“) Offenheit („Openness“) Als Optimierungs-Experten dürfen wir nicht dem „Hochstapler-Syndrom“ erliegen, sondern sollten viel mehr als Vorreiter für eine Kultur des Testens im Unternehmen werben. Tom Barker von der Royal Bank of Scottland (@tomabarker) berichtete, wie die RBS ihr Testprogramm bei den Mitarbeitern mit Publikumskontakt eingeführte. Eine Kerngruppe von Experten übernahm in internen Trainings die Wissensvermittlung. Der Kulturwandel verlief behutsam. Innerhalb eines Jahres wurden über 400 Tests absolviert, 110 Live-Dashboards für das Messen von Daten erstellt und die Unterstützung durch die Führungsebene sichergestellt. Was Sie sich fragen sollten: Teilen Kunden wirklich den wertvollen Informationsschatz, den sie aus ihren Optimierungs-Aktivitäten (Englisch) ziehen? Können Sie mehr dazu beitragen, Erfolge darzustellen und im Unternehmen zu verbreiten? Der Einfluss von Design und Content Ein weiteres heiß diskutiertes „Eisen“ war der Einfluss von firmenpolitischen Entscheidungen auf das Design neuer Webseiten. Dabei wurden UX-Fallbeispiele herangezogen, die deutlich die Handschrift interner Geschäftsperspektiven widerspiegelten. Die Lehre daraus: zwingend mehr Nutzerforschung zu betreiben, zum Beispiel in UX-Labs, Scroll-/Heat-Maps oder Umfragen zu investieren. Der Leitsatz lautet: „Verkaufe so, wie deine Kunden kaufen wollen und nicht so, wie du an Sie verkaufen willst.“ Amy Harrison (@harrisonamy) gab eine großartige Session zum Thema Content: „Wie schreibe ich einen Copytext, der wirkt?“ Vermeiden Sie Worthülsen und Verallgemeinerungen wie z.B. „das ist ein starkes Tool“, denn was bedeutet das eigentlich? Konzentrieren Sie sich vielmehr auf die USPs Ihres Produktes und/oder Ihrer Lösung. Arbeiten Sie die Kundenbedürfnisse heraus, und beleuchten Sie im Text konkret wie Ihr Produkt oder Ihre Lösung diese am besten erfüllt. Der Text auf einer Landing Page muss klar und präzise formuliert sein, damit die Website-Besucher dem CTA „Hier downloaden und sofort testen!“ folgen. Die meisten Besucher verweilen nur knappe fünf Sekunden auf einer Landing Page. Lassen sich Ihre USPs in fünf Sekunden erfassen? Um das Erfüllen von Kundenanforderungen ging es auch in mehreren Sessions, die sich mit der Analyse der Customer Journey auf einer E-Commerce-Site befassten. Dabei wurde herausgearbeitet, dass jedes Template im Funnel eine konkrete Aufgabe hat. Untermauern Sie die Kundenanforderungen und wie diese erfüllt werden, auf jeder einzelnen Seite. Tests (Englisch) sollten die Brücke schlagen zwischen dem Offline-Bedürfnis und der Online-Lösung. Pop-up-Einkaufs-Guides sollten beim Scrollen erscheinen. Verwenden Sie regionale Testimonials, nutzen Sie Videos und alternatives Bildmaterial – alles dient dazu ein „Look and Feel“ zu erzeugen, das nah am Offline-Kundenerlebnis ist. Setzen Sie diese Mittel gezielt ein, um die Entscheidungsfindung des Kunden zu erleichtern. Und wenn ein technisch anspruchsvolles oder ein Nischenprodukt besondere Spezifikationen benötigt, aber trotzdem anfängertauglich ist, dann drücken Sie das klar und deutlich aus! Das Digital Elite Camp 2016 im Überblick Der erste Konferenztag wurde von Peep Laja (Conversion XL) zusammengefasst. Er vermittelte den theoretischen Hintergrund und präsentierte das „XL Institut“, einen Abo-Dienst, der Fallstudien teilt und wissenschaftliche Berichte alltagstauglich aufbereitet zugänglich macht. Die wissenschaftlichen Untersuchungen basieren auf Ansätzen der Kognitionstheorie, die sich mit der Rationalisierung von internen Prozessen zur Entscheidungsfindung befasst. Einige der jüngsten Fallstudien weisen auf interessante Trends hin, darunter: Verwendung von Bullet-Points „Von links nach rechts“-Priorität von Preisstaffellungen Vertrautheit mit Symbolen für „Vertrauen“ und „Sicherheit“ Bilder als Ergänzung zu Testimonials Einsatz von weiblichen Stimmen im Kundenservice Am zweiten und dritten Konferenztag ging es um die tieferen Aspekte der Optimierungspraxis: SEO/PPC-Optimierung, Video-Optimierung, Growth-Hacking-Taktiken und Analytics. Dabei kam heraus, dass Optimierungs-Profis heute verstärkt auf Hilfsmittel wie Heat-Maps, die Wiedergabe (Replay) von Sessions und Nutzerforschung setzen. Als Informationsplattform wurde in diesem Zusammenhang Usabilityhub.com (Englisch) genannt. Die oben erwähnten Tool-Kits waren in vielen Sessions das Mittel der Wahl, um herauszufinden, warum ein Kunde bestimmte Verhaltensmuster zeigt. Mit Data Layer, GTM und GA stand eine Reihe von Sessions auf dem Programm, die sich mit der Konfiguration, Content-Optimierung und Re-Targeting beschäftigten. Die einheitliche Kernaussage: Ihr Test-Tool muss mit einer Web-Analytics-Plattform verbunden sein. In zwei weiteren Sessions ging es um die Vorteile der Integration vordefinierter Metriken mit der Web-Analytics-Plattform und der Generierung möglichst vieler „Micro Conversions“. Diskutiert wurde auch über Scoring-Verfahren für Kunden-Sessions, die die Interaktion mit dem Content messen und Seiten mit geringem Traffic identifizieren. Ebenfalls veranschaulicht wurde das Hit-Level-Segmentierungsverhalten: „Ein Nutzer besucht Website X und klickt dann auf den Button Y“. Yehoshua Coren (@analyticsninja) zeigte an einem großartigen Fallbeispiel, wie sich im Zeitraum von 30 Tagen durch den Einsatz von mehreren Micro-Conversions ein Scoring-Index zur Messung des Nutzerinteresses entwickeln lässt. Die Ergebnisse werden genutzt, um Banner-Ermüdungseffekten im Re-Marketing entgegenzuwirken. In beiden Sessions ging es darum, den Mehrwert von Langzeit-Messungen des Nutzerverhaltens zu betonen. Besonders relevant dafür: Kennzahlen wie Customer Lifetime Value, Durchschnittskosten pro Kunden-Session und Akquise-Kosten. Zum Abschluss der Konferenz fasste Craig O Sullivan (@OptimiseOrDie) die Erkenntnisse in einer Aussage zusammen: Tools, Wissen und Techniken haben Fortschritte gemacht, aber die Grundlagen für die Conversion-Optimierung (Englisch) zu schaffen, bleibt ein schwieriger Job. 12 Punkte und 1 Tipp Das Wichtigste kurz zusammengefasst: Vertrauen Sie nicht auf Best-Practices. Es gibt keine 1:1-Empfehlung. Entwickeln Sie eine Optimierungs-Roadmap auf der Grundlage solider Daten. Arbeiten Sie am Design und der Kultur Ihrer Organisation; schaffen Sie die Grundlagen für ein skalierbares Wachstum. Nehmen Sie Rückschläge in Kauf, denn sie sind integraler Bestandteil für Conversion-Optimierung. Mit Bescheidenheit und einer Portion Ignoranz lassen sich bessere Ergebnisse erzielen. Sie können nicht alles wissen. Machen Sie aus Ihrer Unwissenheit eine Tugend, die Sie weiterbringt. Verfeinern Sie Ihre Metriken. Konzentrieren Sie sich auf Treue, Zufriedenheit und den Customer Lifetime Value, anstatt auf kurzfristige Ergebnisse zu setzen. Setzen Sie Prioritäten: Ohne Scoring verschwenden Sie nur Ressourcen. Nutzen Sie quantitative und qualitative Methoden, um die Gesamtsituation und Lösungen abzubilden. Usability versus Motivation – arbeiten Sie an beidem, aber denken Sie daran, dass die Funktionalität vor der Motivation kommt. Implementieren Sie einen Prozess. Finden Sie einen Weg, der für Ihr Team funktioniert. Stellen Sie SICHER, dass Ihr CRO-Team (CRO: Optimierung der Conversion Rates) Zugriff auf Texter, Überzeugungmethoden und psychologische Erkenntnisse hat. Arbeiten Sie an der geräteübergreifenden Optimierung – nur wenige Firmen und Agenturen setzen diese bereits vollständig um. Was ich noch gelernt habe? Dass ich unbedingt dieses Buch lesen muss: „Predictably Irrational“ von Dan Ariely (Englisch) Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Sie wollen ein dynamisches CRO-Team aufbauen? Achten Sie auf Flexibilität!

CRO-Team

Als wesentlicher Part des Online-Marketings sorgt die Optimierung der Conversion Rate (Conversion Rate Optimization, abgekürzt CRO) für eine Steigerung der Conversions auf Webangeboten, darunter beispielsweise Newsletter-Abonnements, Downloads oder tatsächliche Kaufabschlüsse. Damit leistet CRO einen direkten Beitrag zum Unternehmensumsatz. Mit Hilfe von CRO lässt sich der Erfolg von Marketing-Aktionen im Web besser nachweisen; zudem können künftige Maßnahmen einfacher skaliert werden. Um herauszufinden, welche Maßnahmen sich als wirksam erweisen, ist ein beständiges Testen des Online-Angebotes erforderlich. OpenText™ Optimost (Englisch) hat sich als CRO-Partner für Unternehmen spezialisiert und unterstützt nach Bedarf mit umfassenden Website-Tests, ausgefeilter Zielgruppenansprache und der Personalisierung von Webangeboten. In diesem Blog-Beitrag beschäftigen wir uns mit den Zutaten für eine erfolgreiche CRO-Arbeit. Flexibilität ist der Schlüssel zum CRO-Erfolg Kern jeder CRO-Maßnahme ist das kontinuierliche Testen von Webangeboten. Dafür benötigen Unternehmen eine flexible Toolbox (Englisch), eine flexible Technik (Englisch) und eine flexible Planung (Englisch). Und sie brauchen ein Experten-Team, das parallel zur Planung und den technischen Voraussetzungen aufgebaut werden sollte. Dieses „virtuelle“ CRO-Team braucht spezifische Fähigkeiten, um auftretende Probleme erfolgreich zu lösen. Und es muss verfügbar sein, wenn es darauf ankommt. Die schnelle CRO-Eingreiftruppe sollte also so flexibel wie möglich sein. Wenn Sie sich in den vier Bereichen Tools, Technik, Planung und Team entsprechend aufstellen, sind Sie auf einem guten Weg zu einem dynamischen CRO-Programm und damit zum CRO-Erfolg. Wer erfolgreich testen will, braucht das ganze CRO-Team Conversion-Rate-Optimierer erfüllen an einem durchschnittlichen Arbeitstag mehr Rollen in mehr Abteilungen, als andere Mitarbeiter in einem ganzen Monat. Oft werden sie jedoch durch andere Aufgaben blockiert, die eine erfolgreiche CRO-Arbeit behindern. Ihre Designer können keine Wireframes bauen, weil sie eine Deadline für die neuen Landing Pages einer Kampagne haben. Ihr Analytics-Team kann Ihnen keine Site-Search-Auswertung liefern, weil es gerade mit dem Monitoring der neuen Mobil-Seite beschäftigt ist. Und keiner hat Zeit, sich um die Qualitätssicherung eines Tests zu kümmern, der live gehen soll. Manchmal blockieren Sie sich sogar selbst – weil Sie zum Beispiel im Urlaub sind oder gerade in einer Flut wichtiger Geschäftsentscheidungen „untergehen“. Reden, planen und bitte keine Panik – mit diesen drei Maßnahmen bringen Sie Ihre CRO auf Erfolgskurs: 1.) Halten Sie die Kommunikationskanäle offen Sprechen Sie regelmäßig mit allen, auf die Sie sich verlassen müssen: Designer, Entwickler, Analysten. Teilen Sie Ihre Outlook- oder Google-Kalender. Sorgen Sie für einen zentralen Workspace, an dem sämtliche Updates, Diskussionen und Pläne für jeden Beteiligten einsehbar sind. Damit bleibt Ihr gesamtes Team bezüglich anstehender Aufgaben auf dem Laufenden. Digitale Projektmanagement-Tools sind nützlich. Wir haben sehr erfolgreich mit Trello (Englisch) gearbeitet, einer webbasierten Projektmanagement-Software, die es ermöglicht auf so genannten „Boards“ gemeinsam mit anderen Listen zu erstellen, zu bearbeiten und mit Anhängen und Terminen zu versehen. Einige unserer Kunden verwenden für ihr Projektmanagement Jira und bauen „CRO-Sprints“ in ihre Entwicklungs-Sprints (agile Projektentwicklung in kleineren Schritten nach der Scrum-Methode) ein. Nutzen Sie das für Ihr Team am besten geeignete Tool. 2.) Wann immer möglich vorausplanen Sobald Sie wissen, dass Sie Unterstützung brauchen, planen Sie einen Zeitblock mit der betreffenden Person ein. Vermeiden Sie dabei Zeiträume, an denen der Betreffende gerade voll mit anderen Großprojekten beschäftigt ist. Planen Sie Tests für Sales-Phasen und Kampagnen weit voraus. 3.) Sorgen Sie für so viele Backup-Optionen wie möglich Halten Sie für jede Funktion mehr als eine Person parat. Lernen Sie so viele Ihrer Kollegen wie möglich kennen. Wenn Sie Engpässe im Bereich Analyse oder bei der Erstellung von Wireframes haben, fragen Sie Ihren Testing-Provider um Rat. Kann er den Job selbst übernehmen oder Ihnen weitere Optionen empfehlen? Wir bei Optimost (Englisch) arbeiten als verlängerter Arm unserer Kunden und unterstützen bei Bedarf deren UX-, Entwicklungs- oder Analytics-Teams. Wir können die jeweilige Funktion entweder langfristig übernehmen oder aushelfen, wenn gerade die Ressourcen knapp sind. Zeitweise wird sich jeder Ihrer Teamkollegen gerade mit einem anderen dringenden Projekt beschäftigen und keine Zeit für Sie haben. Wappnen Sie sich für diese Zeiten mit einem umfangreichen Vorrat an unaufwändigen Tests (zum Beispiel Überschriften-Tests). Ich hoffe, dass Sie Ihr Team mit diesen Tipps für alle Herausforderungen planen und rüsten können. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Return of Investment: Wie Sie die Rentabilität Ihrer Social-Media-Aktivitäten messen können (mit Infografik!)

return on investment

2017 werden die führenden B2B-Vermarketer erheblich mehr in Technologien investieren, als die IT-Abteilungen. Doch das Marketing gibt bereits jetzt erhebliche Summen aus. Die spannendere Frage lautet deshalb: Werden die Vermarkter dann endlich in der Lage sein, die Rentabilität zu beziffern? Vor nicht allzu langer Zeit begrüßten die CMOs die zunehmende Technisierung des Marketings und die vielen neuen Tools noch begeistert. Problematisch wurde es erst, als die Benutzung der Tools zum Zwang wurde. Und noch schwieriger wurde es, als sie Performance-Kennzahlen vorlegen sollten, um zu nachzuweisen, dass all die Tools auch wirklich noch gebraucht werden. Natürlich bietet jede Plattform ihre eigenen Reporting-Tools – aber im Zeitalter des Omni-Channel-Marketings sind Teilansichten des Gesamtbilds nicht zielführend. Viele Entscheidungsträger und Business-Anwender sehen schon jetzt im Dickicht des Analyse-Dschungels den Wald vor lauter Bäumen nicht. Wie sollen sie dann in der Welt der Analytics des Internet of Things mit weltweit 6,4 Milliarden vernetzten Endgeräten (englisch) zurechtkommen? Sind die CMOs darauf vorbereitet? Eine vor kurzem veröffentlichte Studie von VentureBeat zum Stand der Dinge im Bereich Marketing Analytics kommt zu folgendem Ergebnis: „Ohne Analysen lässt sich kein Nutzen beziffern. Aber der Markt ist riesig und stark fragmentiert.“ Die Kunden kaufen längst nicht mehr nur über einen einzigen Kanal, aber nur 60% der Vermarkter entwickeln integrierte Strategien (englisch). Das Messen der Ergebnisse von Social-Media-Aktivitäten gilt als besonders schwierig Budgets werden selten auf Basis typischer Engagement-Kennzahlen wie Seitenaufrufe oder „Gefällt mir“-Angaben genehmigt, da diese Metriken nicht als umsatzrelevant akzeptiert sind. Auf der anderen Seite drängen Marktanalysten die Marketingverantwortlichen zu immer höheren Ausgaben für Social Media. Eine kürzlich durchgeführte Befragung von CMOs ergab, dass die Ausgaben für Social-Media-Maßnahmen in den nächsten 5 Jahren auf fast 21% des gesamten Marketingbudgets steigen werden. Und das, obwohl Analytics nicht voll integriert oder eingebettet ist. Der ROI von Social Media in Form von neuen und höheren Einnahmequellen und wachsenden Umsätzen (englisch) ist bei Unternehmen mit einer modernen, datenbasierten Kultur deutlich besser erkennbar. Die Grafik unten stammt aus einer Forbes-Studie. Sie zeigt den Wettbewerbsvorteil durch datenbasiertes Marketing in Zusammenhang mit der IT-Entwicklungsstufe eines Unternehmens. Den Social-Media-ROI nicht dingfest zu machen, gehört für die Nachzügler zu den kleineren Übeln. Weitaus verheerender wirkt sich ein mangelndes Verständnis für Analytics aus, das die Rentabilität deutlich reduziert. Ein weitere Ergebnis der Forbes-Studie: Die Nachzügler wissen oft nicht einmal, welche Analytics-Plattformen sie im Einsatz haben. Wie Thomas Edison einst sagte: „Harte Arbeit ist durch nichts zu ersetzen.“ Um den ROI von Social-Media-Marketing beziffern zu können, werden wir uns jetzt mit den Anforderungen an die dafür benötigten Social-Media-Daten befassen. Sie erfahren: Warum Sie auch Social-Media-Daten in die Cloud integrieren und für alle Beteiligten zugänglich machen sollten Warum Self-Service-Analytics (Advanced und Predictive) für Ihre Kampagnen unabdingbar sind Warum im Bereich Marketing Analytics agiles Handeln gefordert ist Warum sowohl Marketingfachleute wie Business-Anwender einfach auf integrierte Berichte und Insights zugreifen müssen Es ist nicht bloß „nützlich“, sich ein kumuliertes Gesamtbild zu verschaffen, das den Tatsachen entspricht. Solange die Social-Media-Plattformen nicht miteinander vernetzt sind, lässt sich der Gesamt-ROI Ihrer Social-Media-Marketing-Bemühungen nicht ermitteln. Sie können vielleicht den Ertrag einer Pay-per-Click Kampagne auf LinkedIn berechnen – aber das wäre nur ein sehr kleiner Ausschnitt von Social-Media-Marketing. Um die realen Erlöse von Social Media zu ermitteln, empfiehlt sich als erster Schritt die Integration der unterschiedlichen Datenquellen in die Cloud Dann können Sie die Informationen aus verschiedenen Datenquellen gegeneinander abgleichen. Sie erhalten einen echten 360-Grad-Blick auf Ihre Kunden und können den tatsächlichen ROI ermitteln. Und noch etwas spricht für die Integration in die Cloud: andere Business-Anwender sind damit in der Lage, mittels Self-Service auf Ihre finalen Erkenntnisse zuzugreifen. Manche sind der Ansicht, dass bereits ein 360-Grad-Blick auf den Kunden vorliegt, wenn sie zur Berechnung des ROI einer bezahlten Ad-Words-Kampagne Google Analytics und Salesforce integrieren. Das Ergebnis ist allerdings alles andere als vollständig. Laut ‚Think with Google‘ klicken Kunden in den USA branchenübergreifend erst dann auf eine bezahlte Anzeige, wenn sie mit dem Unternehmen schon länger via Social Media interagieren (englisch). Ein gewisser Prozentsatz des ROI einer Pay-per-Click Kampagne muss also genaugenommen den sozialen Medien zugeordnet werden. Statt Vermutungen anzustellen, sollten Sie herausfinden, über welchen Kanal der Erstkontakt zustande kam, welcher Kanal danach genutzt wurde und welcher zuletzt. Gut geeignet dafür sind Tools wie Piwik und Eloqua Insights. Sie beobachten alle Endgeräte, mit denen ein Kunde Ihre Website besucht, sowie die tatsächlich aufgerufene URL und sortieren die Ereignisse nach Datum. Diese Lösungen funktionieren, solange Sie pro Tag weniger als 200 Besucher auf Ihrer Website verzeichnen. Sind es mehr, werden Sie schnell feststellen, dass Big Data mehr als nur ein Hype ist! Glauben Sie mir – selbst wenn Sie die Zeit hätten, große Datenmengen mit Piwik oder Eloqua Insights zu erheben, zu analysieren und zu exportieren, bräuchten Sie eine Menge Geduld. Für Big Data, auch wenn Sie nur einen kleinen, ausgewählten Teil nutzen möchten, sind allerdings spaltenorientierte Datenbankmodelle erforderlich, wie sie bei OpenText™ Big Data Analytics (englisch) zum Einsatz kommen. Für den Anfang ist es völlig ausreichend, wenn alle Datenquellen integriert sind und von der IT betreut werden. Wenn es allerdings um Daten-Audits, Datenbereinigung und Datenaufbereitung geht, setzen Sie besser auf Self-Service. Im B2B-Bereich sollten Sie so viel wie möglich über Ihre (potenziellen) Kunden wissen. Immerhin sagen 75% der B2B-Vermarkter, dass exakte Daten erfolgskritisch sind. In bis zu 87% der Fälle sind jedoch fehlende Daten über Branche, Umsatz und Mitarbeiter ein Problem. Schlechte Datenqualität wirkt sich aber auch auf den Vertrieb aus. Laut einer Erhebung von Forrester gaben Chefeinkäufer an, 77% der ihnen gegenüber sitzenden Vertriebsmitarbeiter hätten keine Ahnung, was das Problem sei oder wie sie helfen könnten (englisch). Als Folge davon haben viele CMOs selbst die Initiative ergriffen, um den Vertrieb mit Kundenprofilen und gezielt generierten Leads zu unterstützen. Eine aktuell von MDG Advertising durchgeführte Studie ergab, dass im B2B-Bereich die Wahrscheinlichkeit, das Marketing ROI-Jahresziel zu übertreffen, doppelt so hoch ist (englisch), wenn Unternehmen Predictive Analytics einsetzen. Interessant sind auch die in der Studie genannten Gründe, warum 89% der Unternehmen im B2B-Bereich die Einführung von Predictive Analytics planen. Laut VentureBeat gibt es drei wesentliche Gründe, warum Vermarkter derzeit noch keine komplexen Analyse-Ansätze nutzen (englisch) – darunter auch fehlende Kenntnisse im Bereich Data Science. Natürlich vereinfachen nutzerfreundliche Tools die Berichterstellung. Aber ohne Verständnis für datenbasierte Analyse-Ansätze sind die Ergebnisse wahrscheinlich trotzdem nicht exakt genug. Predictive Lead Scoring führt beispielsweise zu einem deutlich höheren ROI. Und im Jahr 2019 sollen 90% der großen Organisationen einen CDO (Chief Data Officer) (englisch) haben. Aber auch die CMOs sind nicht untätig geblieben: Im B2B-Bereich stellen 55% der Unternehmen bereits Mitarbeiter für Marketing Analytics ein (englisch). Social-Media-Erfolge sind nicht so einfach vorhersehbar, wie das Älterwerden. Sie wissen genau, dass Sie an einem bestimmten Tag im Jahr ein Jahr älter werden. Für das Social-Media-Marketing gelten jedoch ganz andere Regeln. Um überhaupt abschätzen zu können, ob es sich zum Beispiel auszahlt, 10 oder 30 Social-Media-Accounts zu betreiben, müssen Sie schon tiefer ins Detail gehen. Sie müssen sehr genau abschätzen können, ob Sie nun 30 Blog-Beiträge online stellen sollten oder besser 300. Rechnet sich „Kanal A“, weil über diesen 300 Conversions aus nicht qualifizierten Leads generiert wurden? Wollen Sie womöglich herausfinden, welche der qualifizierten Leads bereits „Produkt A“ und „C“ gekauft haben, aber „Produkt B“ noch nicht? Vielleicht möchten Sie diese Leads noch besser segmentieren und genauere Profile erstellen, um diese Informationen dann beispielsweise zusammen mit Daten aus LinkedIn für eine maßgeschneiderte Cross-Selling-Kampagne zu nutzen. Das klingt nach einem guten Plan? Dann sollten Sie mehr tun, als Daten in Grafiken zu verpacken. Um den ROI zu beziffern brauchen Unternehmen Advanced Analytics. Damit erhalten Sie nicht nur Einblick in Ihren Social-Media-ROI, sondern sorgen auch dafür, dass Sie im digitalen Zeitalter von heute Erfolg haben (englisch). OpenText Big Data Analytics (englisch) bietet Ihnen folgende Ad-hoc- und Standard-Tools: Venn-Diagramm: Sind Sie es leid, stets die falschen Personen zu erreichen? Clevere Unternehmen profitieren von Data-Mining, um genau definierte Zielgruppen und die wirklich relevanten Personen mit ihren Marketingmaterialien (englisch) anzusprechen. Anmerkung: Die Segmentierungen basieren auf Data-Mining, können aber per Drag-und-Drop der Datenbankobjekte in der linken Spalte angepasst werden kann. Profil: Vermarkten Sie Ihre Produkte immer noch an Besucher, die nur irrtümlich auf Ihrer Website landen? Für ein adäquates Marketing in einem kundenorientierten Umfeld brauchen Sie ein nutzerfreundliches Drag-und-Drop-Tool. B2B Marketing Goals für Predictive Analytics (englisch) umfasst den gesamten Vertriebstrichter, von Kundenbindung über Customer Lifetime Value und Kundenwert bis zur Neukundenakquise – ein Kunden-Profil ist also von Anfang an zentraler Bestandteil. Assoziationsregeln: Was wäre, wenn Sie bereits im Voraus wüssten, welche Nutzer sich von Ihrem Unternehmen abwenden – weil Sie eine Stimmungsanalyse anhand der Kommunikation in den sozialen Medien und mit dem Helpdesk durchgeführt haben? Und Sie mit einer Kampagne zur Markentreue gegensteuern könnten? Würde das Ihren Social-Media-ROI steigern? Unter den folgenden Links finden Sie weitere hilfreiche Screenshots von Standard-Analysen und Videos zu verschiedenen Anwendungsfällen (englisch). Unternehmen werden zukünftig deutlich mehr für Marketing Analytics ausgeben. Viele davon werden sich für unpassende Lösungen entscheiden oder die Tools nicht richtig nutzen. Die Harvard Business Review warnt dementsprechend, dass zum jetzigen Zeitpunkt „Marketing Analytics einen wesentlichen Einfluss auf das Unternehmenswachstum habe. Doch die Firmen müssen diese auch optimal einsetzen können (englisch).“ Warum Flexibilität beim Thema Marketing Analytics eine zentrale Rolle spielt Advanced und Predictive Analytics sind nicht neu. Finanzdienstleister nutzen sie schon seit Jahren. Neu daran ist, wie schnell und einfach jetzt Analysen mittels Self-Service erstellt werden können. Tatsächlich können laut einer TDWI-Studie nur 20% aller Organisationen ein voll einsetzbares Modell in weniger als zwei Wochen bereitstellen (englisch). Also denken Sie rechtzeitig daran, Self-Service und Advanced Analytics für Echtzeitanalysen anzufordern. Spätestens dann sind Sie froh darüber, dass Ihre Analytics-Plattform eine spaltenorientierte Datenbank nutzt. Warum integrierte Berichte und Insights für Vermarkter und Business-Anwender leicht zugänglich sein sollten 3 von 4 Vermarktern können den Beitrag ihrer Maßnahmen (englisch) zum Unternehmenserfolg nicht benennen. Erschreckend, oder? Dabei gehört es zu den wichtigsten Alleinstellungsmerkmalen eines Unternehmens, seine Kunden zu kennen und relevante Daten beschaffen (englisch) zu können. Marketing Analytics muss daher mehr sein als ein ansehnlich aufbereiteter Bericht. Die Entscheidungsträger müssen mit den darin enthaltenen Informationen auch umgehen können (englisch), so eine Studie von McKinsey & Company. Über die Vorteile von Big Data für Zuliefer- und Einzelhandels-Betriebe wurde bereits viel und oft berichtet, speziell über die Möglichkeit, dadurch die Zielgruppen in den sozialen Medien besser zu erreichen. Der Markt für Einzelhandels-Analytics wird daher in den nächsten 5 Jahren von 2,2 Milliarden Dollar auf geschätzte 5,1 Milliarden Dollar wachsen. Dennoch bleiben die Probleme beim Zugriff auf Kunden-Analysen die größte Herausforderung (englisch) für die Branche. Social Media ist eine schlaue Art, Kunden einem ganz bestimmten Ladengeschäft zuzuordnen, richtig? Instagram zum Beispiel bietet Unternehmen Statistiken über Seitenaufrufe, Reichweite, Klicks und Aktivität ihrer Follower. Es gibt ein paar sehr leistungsfähige Tools, die verfügbare HTML5-Daten individualisieren, teilen und in Seiten einbetten können. Aber nur OpenText™ Information Hub (englisch) bindet Advanced und Predictive Analytics ein. Für 9 von 10 Marketingexperten ist der Zugriff auf Analytics über Front-End Anwendungen (englisch) besonders interessant. OpenText Information Hub wurde also nicht ohne Grund in der jüngsten Embedded Business Intelligence Marktstudie (englisch) von Howard Dresner zum besten Anbieter gewählt. Bedenken Sie auch, dass Sie eine Analytics-Plattform brauchen, die sich problemlos für jede beliebige Zahl von Nutzern skalieren lässt. Bei Predictive Analytics geht es nicht nur um Prognosen für das nächste Quartal, sondern durchaus darum, was ein Nutzer jetzt gerade sucht. Google wartet nicht, bis Sie ein paar möglicherweise nützliche Assoziationsregeln aufstellen – die Suchmaschine lässt Big Data in Echtzeit für Millionen von Nutzern arbeiten. Und jetzt denken Sie an Ihr Unternehmen und stellen Sie sich vor, ein potenzieller Kunde teilt Ihren Content auf Social Media oder via Email. Würden Sie eine Kampagne erstellen, um solches Verhalten nachzuverfolgen und zu fördern? Wie reagieren Sie, wenn ein Nutzer ein Formular nur einmal ausfüllen will? Was geschieht, wenn ein potenzieller Kunde aufgrund eines Social-Media-Posts über „Produkt A“ auf die Website Ihres Unternehmens kommt? Können Sie feststellen, ob „Produkt C“ möglicherweise eher gekauft wird? Ein paar Musiker mögen über Piraterie jammern. Alle anderen sammeln und analysieren Social-Media-Daten und schlagen daraus Kapital (englisch). Über potenzielle Einkommensquellen Bescheid zu wissen, bevor Sie Ihre nächste Omni-Channel-Kampagne starten, sorgt für eine einheitliche Kommunikation – und diese ist essentiell für eine erfolgreiche Omni-Channel-Strategie. Und, was ebenso wichtig ist: Sie können aufgrund der Daten bessere Entscheidungen treffen und damit den ROI Ihres Social-Media-Budgets erhöhen. Laut einer Forbes-Studie konnten immerhin 86% der Unternehmen, die Predictive Analytics über mindestens zwei Jahre im Einsatz hatten, die Rentabilität ihres Marketings steigern (englisch). Jetzt herunterladen: TDWI-Studie „Operationalizing and Embedding Analytics for Action“ Erfahren Sie in diesem Report, dass es bei dem Betreiben und Einbetten von Analytics-Lösungen um mehr geht, als um statische Dashboards, die einmal am Tag aktualisiert werden. Verwertbare Analytics-Erkenntnisse müssen in Ihre Applikationen, Devices und Datenbanken integriert werden. Hier können Sie die Studie herunterladen (englisch). Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Big Data: Die Verknüpfung unterschiedlicher Datenquellen ist der Schlüssel zum Erfolg

big data

Nach gängiger Einschätzung macht Big Data den Unterschied zwischen unternehmerischem Blindflug und kompletter Rundumsicht auf das wirtschaftliche Umfeld. Mit Big Data zu arbeiten, bedeutet aber nicht, einfach nur Daten zu sammeln. Ihr altes (aber immer noch verlässliches) Data Warehouse in einen Daten-See (oder noch schlimmer, in einen Daten-Sumpf) zu verwandeln, verschafft Ihnen keine Mitgliedschaft im „Big Data Club“. Bei Big Data geht es nicht um möglichst große Datenmengen Und es geht auch nicht darum, wer den größten Datenspeicher hat. Erfolgreiche Big-Data-Initiativen ermöglichen die Handhabung von uneinheitlichen Daten: unterschiedlichste Datenformate; separate Datenquellen; Datenbestände, die nur schwer miteinander verknüpft werden können; unsaubere Daten; unstrukturierte oder halbstrukturierte Daten. Dieser Aussage stimmten laut der aktuellen Big Data Analytics Studie von NewVantage Partners mindestens 40% der Führungskräfte zu. Aber nur 14,5% der befragten hochrangigen Manager bereitete das zu verarbeitende Datenvolumen Sorgen. Die Herausforderung ist nicht das Volumen, sondern die Komplexität der Daten Die Big-Data-Probleme eines potenziellen OpenText-Kunden sind ein perfektes Beispiel dafür, warum die eigentliche Herausforderung nicht im Volumen, sondern die Komplexität der Daten besteht. Kürzlich erkundigte sich eine Fluggesellschaft nach OpenText™ Analytics. Das Unternehmen benötigte bessere Auswertungsergebnisse, um Maßnahmen gegen die Abwanderung von Kunden zu ergreifen. Der Billigflieger hatte entdeckt, dass einige ihrer treuesten Kunden plötzlich ohne Begründung keine Flüge mehr buchten. Dabei handelte es sich um Kunden, die regelmäßig einmal in der Woche oder einmal im Monat mit der Airline geflogen waren. Diese Kunden hatten vollkommen unerwartet ihre Buchungen eingestellt. Der IT-Leiter der Fluggesellschaft wollte der Sache auf den Grund gehen. Also kämpfte sich die IT-Abteilung mit SQL-Abfragen durch diverse Systeme und Datenbanken und untersuchte die üblichen Ursachen für die Abwanderung von Kunden. Sie überprüften: … das Buchungssystem auf der Suche nach verlorenen Kunden. Wer hatte in der Vergangenheit öfters gebucht, aber im letzten Monat damit aufgehört? Welche Flüge wurden zuletzt gebucht? … das Customer Service Ticketsystem, um herauszufinden, ob sich einer der im Buchungssystem erfassten Abgänge kürzlich beschwert hatte. Waren die Probleme bereits gelöst? Oder war die Beschwerde vom Kunden zurückgezogen worden? Fanden sich irgendwelche Hinweise auf mangelnde Kundenzufriedenheit? Welche Begriffe tauchten in der Kommunikation zwischen Kunden und Airline am häufigsten auf? Preise? Kundenservice? Sitze? Verspätungen? Und wie waren der Ton und die Stimmung in diesen Nachrichten? Bloß verärgert, oder fuchsteufelswild und mit der Drohung, die Airline zu wechseln? … die Flugverspätungs-Datenbank, um dort die letzten Buchungen der Abtrünnigen zu analysieren. Waren die Flüge überhaupt verspätet? Wenn ja, wie sehr? Wurde einer der verspäteten Flüge abgesagt? Die Identifikation der Kunden, die dem Unternehmen im letzten Monat den Rücken gekehrt hatten – entweder wegen unbearbeiteter Beschwerden oder zu vieler verspäteter oder abgesagter Flüge – wäre der erste Schritt, um sie zurück zu gewinnen. An diesem Punkt lautet die vordringlichste Aufgabe an die IT, dem IT-Leiter zu liefern, was er angefordert hatte: eine vollständige Liste dieser Kunden. Die IT-Abteilung brauchte mehr als einen Monat, um die obigen Fragen zu beantworten, weil zwischen den drei Systemen und ihren Datenbanken keine brauchbaren Schnittstellen existierten. Es musste also immer zuerst die lange Liste mit Kunden-ID, Buchungscodes und Flugnummern von einem System auf das andere übertragen werden. Und das so oft, bis die Ergebnisse akzeptabel waren. Ein einziger Albtraum aus fragmentierten Daten, komplexen SQL-Abfragen, manueller Datenübertragung und enormem Aufwand. Und die Antworten für den Entscheidungsträger kamen viel zu spät, denn in diesem Monat gingen weitere Kunden verloren. Zu diesem Zeitpunkt wurde der Airline klar, dass sie eine bessere und flexiblere Analytics-Lösung benötigte, die problemlos verschiedene Datenquellen gleichzeitig nutzen kann. Beeindruckt von den Möglichkeiten von OpenText Analytics baten sie uns, ihnen Lösungen für ihr Problem zu präsentieren. Mit Big Data Analytics verknüpften wir die drei separaten Datenquellen Nach nur 24 Stunden konnten wir die Fragen beantworten. OpenText™ Big Data Analytics hatte wieder einmal gezeigt, was es kann. Daten aus vielen verschiedenen Quellen und unterschiedlichen Abteilungen zur Ermittlung von Antworten heranzuziehen, das ist der wahre Nutzen von Big Data. Genau das ist die 360-Grad-Sicht auf Geschäftsprozesse, von der alle reden. Aber ohne eine agile und flexible Möglichkeit, diese Sicht zu erstellen, geht der Nutzen durch zeitliche Verzögerungen wieder verloren. Durch den Einsatz von spaltenorientierter Datenbank-Technologie – auf der auch die OpenText Analytics-Lösungen basieren – liefert das Analyse-Repository schnelle Antworten. Antworten, die Entscheidungsträgern dabei helfen, wirtschaftliche Herausforderungen zu meistern, dann, wenn sie anstehen. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Schon fit für die digitale Welt? Vier Bausteine für Ihre Digitalisierungsvorhaben

Digitalisierung

Sie denken sicher auch darüber nach, wie Sie sich die digitale Welt am besten erschließen können. In Las Vegas haben wir über die strategischen Grundsätze gesprochen, die hinter unseren langfristigen Plänen stecken. Wir möchten unseren Kunden dabei helfen, möglichst viel aus den durch die Digitalisierung bedingten Verwerfungen herauszuholen: von einer besseren Benutzererfahrung über flexiblere Einsatzmöglichkeiten und ein breiteres Funktionsspektrum bis hin zu Erweiterungen unserer Lösungspakete, die einen durchgehenden Informationsfluss garantieren. Denn wir sind überzeugt davon, dass wir damit bessere Arbeitsmöglichkeiten schaffen können. Sie wollen es wissen und bereiten gerade Ihr digitales Unternehmen vor? Behalten Sie die nachfolgenden vier Bausteine für Ihre Digitalstrategie im Auge. Cloud Erleichtern Sie Ihrem Unternehmen den Wechsel in die Cloud. Planen Sie eine reine Cloud-Umgebung, hauseigene Server oder eine Mischform? Auf der Enterprise World haben wir über einige der neuesten Fortschritte in Sachen Cloud diskutiert – von neuen SaaS (Software as a Service)-Apps wie PowerDocs zur Dokumentenerstellung über iHub für Analytics und Datenvisualisierung bis zu neuen Funktionalitäten in OpenText Core und Archive Center. OpenText Core Das wünscht man sich doch: Flexibilität und Komfort für ein betriebsbereites File-Sharing und die Zusammenarbeit in der Cloud. Zu den auf der Enterprise World 2015 vorgestellten neuen Features von OpenText Core gehören die Möglichkeiten, Inhalte mit Schlagworten zu markieren, Dateien direkt auf einem OpenText-Content-Server zu veröffentlichen oder sie von dort zu importieren. Zudem haben wir das Sicherheits- und Benutzer-Management durch Integration in Ihr vorinstalliertes Microsoft Active Directory optimiert. Schauen Sie doch einfach mal bei OpenText™ Core vorbei, melden Sie sich für eine kostenlose 90-Tage-Testversion an und legen Sie los. Analytics Ein zentraler Punkt jeder digitalen Strategie besteht darin, bessere Einblicke zu erhalten. Daher verraten wir Ihnen hier etwas aus unserem Strategieplan: Wir betten Analytics jetzt als festen Bestandteil in unsere Software-Suiten ein, damit Sie aus bereits bestehenden Implementierungen noch mehr herausholen können. Durch die Integration in unsere Content-Suite und in unsere Process-Suite sind Sie beispielsweise in der Lage Content- und Prozessanalysen durchzuführen. Sie wollen wissen, wie die Analyse großer Datenmengen aussieht? Dann probieren Sie doch unsere kostenlose 30-Tage-Testversion aus. Digitale Disruption Die digitalen Disruptoren von heute setzen auf Technologie, um mit deren Hilfe ganzen Branchen die Existenzberechtigung zu nehmen und Konzernriesen aus ihrer Machtposition zu verdrängen. Es gibt sogar schon neue Slang-Ausdrücke für diesen digitalen Transformationsprozess: In der Internet-Ära hieß es, dass die betreffenden Unternehmen „amazoned“ worden seien; im digitalen Zeitalter werden sie – basierend auf dem aggressiven Fahrdienstleistungsvermittler Uber – „ubered“. Es stimmt, dass die Digitalisierung alles verändert. Sie hat ganze Wirtschaftssektoren zerschlagen, Marktführer verdrängt und neue Geschäftsmodelle aus dem Boden gestampft. Doch sie eröffnet auch neue Chancen. In seinem neuen Buch On Digital befasst sich unser CEO Mark Barrenechea mit dem unglaublichen Potenzial der digitalen Welt. Laden Sie „On Digital“ hier kostenlos herunter. Sie sind auf der Suche nach Inspiration? Hier können Sie sich das Video von Mark Barrencheas EW2015-Grundsatzreferat zur Zukunft von OpenText und der digitalen Welt ansehen. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Übersicht aus Daten gewinnen: Unstrukturierte Daten visualisieren

Der amerikanische Präsidentschaftswahlkampf ist in vollem Schwung und die Kandidaten und Sprecher beschuldigen die Medien wechselseitig der Voreingenommenheit. Ein guter Grund, sich einmal mehr mit der Analyse von Texten und den Möglichkeiten, unstrukturierte Inhalte zu visualisieren, zu beschäftigen. (Wir wollen ja nicht angeben, aber TechCrunch meint, dass wir einen interessanten Ansatz zur Messung des Tenors der Berichterstattung über die Kandidaten bieten…) Schauen wir uns doch einmal genauer an, welche Erkenntnisse wir aus den unstrukturierten Daten zur anstehenden Wahl gewinnen und sinnvoll visualisieren konnten. Unstrukturierte Daten visualisieren – und Action! Wir waren fleißig und haben die vollständige Berichterstattung zur Präsidentschaftswahl 2016 ins Bild gesetzt. Rechtzeitig zur ersten Wahlversammlung in Iowa hat OpenText seinen Election Tracker ‘16 vorgestellt. Mit diesem Online-Tool kann die Berichterstattung zu allen Kandidaten beobachtet, verglichen und analysiert werden. Der Election Tracker basiert auf dem OpenText Release 16 (Content Suite und Analytics Suite); das Tool durchsucht und liest Hunderte große Online-Medien in der ganzen Welt. Diese Daten werden tagesaktuell hinsichtlich Stimmungen analysiert; weitere Informationen werden herausgezogen, beispielsweise zu Personen, Orten und Themen. Dann werden die Inhalte in visuelle Zusammenfassungen „übersetzt“ und in die Wahl-App eingebettet, wo sie über interaktive Dashboards und Reports verfügbar sind. Diese Art von Content-Analyse enthüllt wesentlich mehr, als traditionelle Datenerhebungen. Sie bietet ganzheitliche Einsichten zum jeweiligen Ansatz der Kandidaten und ermittelt auch, ob über deren Kampagnenbotschaften berichtet wird. Sicher, es gehört zum Handwerk von Politikern, die tägliche Medienberichterstattung auszuwerten. Doch OpenText Release 16 leistet, was der Mensch unmöglich schaffen kann: eine Milliarde Worte pro Tag zu lesen, zu analysieren, zu verarbeiten und zu visualisieren. 9 Milliarden Tweets knacken Während wir der Sprache nachspüren, hat Jack Grieve, forensischer Sprachwissenschaftler an der Universität Birmingham in Großbritannien, einen Weg entdeckt, um aufzuzeigen, wie neue Slang-Ausdrücke in unsere Sprache einfließen: Twitter. Diese interaktive Karte verfolgt das Auftauchen und den Gebrauch neuer Wörter über Twitter. (Bildquelle: mit freundlicher Erlaubnis von Quarz) Grieve studierte im Zeitraum 2013/2014 die Tweets von 7 Millionen Nutzern in ganz Amerika, die fast 9 Milliarden Wörter enthielten (gesammelt von Diansheng Guo, Professor für Geographie an der Universität von South Carolina). Nach Ausschluss bekannter und langweiliger Wörter aus dem Lexikon (er wollte nur „neue“ Wörter“ finden), sortierte Grieve die verbleibenden Worte nach Ländern, filterte offensichtliche Fehler und seltene Sonderfälle heraus, und hielt Ausschau nach den Ausdrücken mit der wöchentlich höchsten Popularitätsrate. Zu den beliebten Neulingen zählte „baeless“ (für immer Single bleiben), „famo“ (Familie und Freunde), „TWF“ (That Feeling When –„das Gefühl wenn…“ Ihnen zum Beispiel ein viel jüngerer Freund das Wort Verdruss erklären muss, ist das ein Verdruss) und „rekt“ (die Abkürzung für „wrecked“ (vernichtet) oder „destroyed“ (zerstört), aber nicht „rectitude“ (Rechtschaffenheit). Wie er im Online-Magazin Quartz berichtete, fand Grieve heraus, dass einige neue Wörter durch Social-Media-Influencer populär gemacht werden oder sich – wie „faved“ („einen Tweet favorisieren“) und „amirite“ (ein absichtlicher Schreibfehler von „Am I right?“, mit dem die Zustimmung des Publikums zu einem bestimmten Standpunkt auf den Arm genommen wird) aus dem Kontext des Internets entwickeln. Neben diesen sprachlichen Feinheiten eröffnet die Auswertung von Grieve auch generelle Einsichten in Big Data (immerhin 9 Milliarden Worte auf Twitter) und die Fähigkeit von Social Media, tatsächlich verwendete Sprache in Echtzeit zu erfassen. „Wenn es um Alltagssprache geht, ist Twitter näher dran, als ein Interview in den Nachrichten oder ein Vortrag an der Universität“, erklärt Grieve in Quartz. Virale Verbreitung Unstrukturierte Daten machen auch bei schwerwiegenderen Problemen einen guten Job. So können diese Daten in Form von Nachrichten Auskunft zur Ausbreitung ansteckender Krankheiten wie dem Zika-Virus geben. Die Website HealthMap.org und deren Mobil-App wurden von Medizinwissenschaftlern und Software-Entwicklern am Bostoner Kinderkrankenhaus entwickelt. Sie verwenden „informelle Online-Quellen“, um die Ausbreitung von auftauchenden Krankheiten wie Influenza, Denguefieber und Zika zu verfolgen. Der Tracker zapft automatisch einen breiten Pool an Datenquellen in neun Sprachen (inklusive Chinesisch und Spanisch) an, darunter Nachrichten, Augenzeugenberichte, offizielle Reports und Expertendiskussionen zu gefährlichen ansteckenden Krankheiten. Ein interaktiver Echtzeit-Tracker zeigt Ausbrüche des Zika-Virus basierend auf Nachrichten-Storys, Patientenberichten und anderen unstrukturierten Daten (Bildquelle: mit freundlicher Erlaubnis von HealthMap.org) Das Auswerten unstrukturierter Daten unterscheidet HealthMap.org von anderen Trackern für Infektionskrankheiten wie der amerikanischen Bundeszentrale für die Überwachung von Krankheiten (Center for Disease Control) und dem wöchentlichen FluView-Vorsorge-Report der US-Behörden. Der FluView-Report des CDC enthält ein enormes Datenspektrum vom Alter der Patienten, betroffenen Regionen und neuen Grippeerregern bis hin zum Vergleich mit früheren Grippewellen und mehr Das einzige Problem dabei: Das CDC erstellt seine Berichte auf Basis von Influenzafällen, die von Krankenhäusern und öffentlichen Kliniken in den USA gemeldet werden. Deshalb kommen die Daten mit Verzögerung und unvollständig; sie enthalten beispielsweise keine Grippekranken, die nicht bei einem Arzt waren, oder Fälle, die dem CDC nicht gemeldet wurden – das begrenzt den Vorhersagewert. Die HealthMap dagegen greift auf eine sehr viel breitere Palette an Datenquellen zu. Ihre Berichte zeigen also ein vollständigeres Bild von Krankheitsausbrüchen, das nahezu in Echtzeit übertragen wird und Ärzten, Gesundheitsbeauftragten der öffentlichen Hand oder verängstigten Reisenden bessere Einsichten zur Verbreitung des beispielsweise angesprochenen Zika-Virus liefert. Eine Art der Datenvisualisierung, wie Sie Ihr Arzt verschreiben würde. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Hüten Sie sich vor der Dunklen Seite – Sie müssen Ihren Cloud-Content kontrollieren

Cloud content

Es ist hinlänglich bekannt, dass Cloud- und mobile Plattformen die Spielregeln verändern und sehr viele Vorteile bieten. Ganz oben auf der Liste: das Teilen von Informationen und die Kollaboration unter Kollegen. Wissensarbeiter waren schon immer an besseren und einfacheren Möglichkeiten zum Informationsaustausch und der Zusammenarbeit interessiert. Und so kommt es nicht überraschend, dass sich diese nur zu gerne auf Microsoft® SharePoint®, Microsoft® SharePoint® Online und andere Cloud-basierte Ablagesysteme einließen. In den letzten Jahren haben Anwender mehr und mehr Arbeitsprozesse von ihren lokalen Enterprise-Content-Management-Systemen in diese Online-Applikationen verlagert. Laut der AIIM (Association for Information and Image Management) nutzen bereits 30 Prozent der User „inoffizielle File-Sharing-Tools in der Cloud“ am Arbeitsplatz. Leider hat das eine „Dunkle Seite“, zumindest, wenn es um Sicherheit und Kontrolle geht. Obwohl die erwähnten Online-Applikationen sich durch anwenderfreundliche Portal-Schnittstellen auszeichnen, mangelt es ihnen grundsätzlich an der für die Verwaltung von Dokumenten und Datensätzen notwendigen Stabilität. Wie die AIIM erläutert, macht „diese ungeregelte Art, Informationen zu teilen, Organisationen blind – die Information befindet sich außerhalb aller Governance-, Berechtigungs- und Sicherheitssysteme und hat sich sprichwörtlich unerlaubt von der Truppe entfernt.“ Eingeschränkte Unterstützung für die Verlagerung des kompletten ECM in die Cloud Obwohl der Drang in die Cloud mit Sicherheit anhält – schon weil sich niemand die Vorteile entgehen lassen will – wird deutlich, dass zumindest in der nahen Zukunft keineswegs der gesamte Content in die Wolke abhebt. Viele Organisationen fühlen sich unwohl dabei, ihre hochsensiblen ECM-Inhalte schon heute in die Cloud zu schicken. In einer AIIM-Erhebung von 2016 zum Thema Cloud und Mobilität erklärten weniger als 20 Prozent der befragten Stakeholder im Bereich Informationsmanagement, dass sich eine 100-prozentige Cloud-Lösung für das Enterprise Information Management ihrer Organisation eignen würde. Ihre grundlegenden Bedenken galten der Sicherheit und Verlässlichkeit. Denn ECM-Systeme beinhalten nicht nur geschützte Informationen, sondern in vielen Fällen auch Geschäftsprozesse und Integrationen von Dritten, die auf darauf aufbauen – alles Applikationen, die für das Tagesgeschäft unverzichtbar sind. Die unterschiedlichen Bedürfnisse der Stakeholder austarieren Es ist ein Drahtseilakt. Wissensarbeiter wünschen sich schnellere und einfachere Arbeitsmöglichkeiten. Und sie sind bereit, restriktive Unternehmensregularien zu umgehen, damit sie ihre Arbeit erledigen können. Die Verantwortlichen für das Risikomanagement und die Sicherheit wollen dagegen den Content sicher vor Ort und unter Kontrolle wissen. Wie geht man nun am besten vor? Der optimale Ansatz stellt Tools bereit, die den Nutzer nicht einschränken – gleichzeitig sorgt er – angepasst an den Bedarf der Organisation – für den adäquaten Sicherheits-Level und reduziert die Risiken. Hybrides ECM – das Beste beider Welten Das Konzept des hybriden ECM eröffnet eine ausgezeichnete und akzeptable Option. In der bereits erwähnten AIIM-Studie hielt die Mehrheit der Befragten eine ECM-Mischform für die ideale Lösung. Die gesamte Organisation profitiert von einem lokalen ECM-System mit dem sensitive Unternehmensinhalte gesichert, verwaltet und archiviert werden. Hinzu kommt eine Cloud-basierte Applikation wie zum Beispiel Microsoft SharePoint Online, die es den Mitarbeitern ermöglicht, Inhalte einfacher mit externen Partnern und Lieferanten zu teilen und zu kollaborieren. Der Schlüssel zum Erfolg heißt Synchronisierung Als integraler Bestandteil gehören Synchronisierungstechnologien in jede hybride ECM-Lösung. Diese integrieren die Cloud-basierte File-Sharing-Applikation mit der lokalen ECM-Applikation und verschieben oder kopieren Inhalte, um die Governance sicherzustellen. Hier ein paar typische Szenarien: Archivierung: der Content wird zu Kontroll- und Archivierungszwecken von der Cloud/SharePoint in das lokale ECM-System geschoben Veröffentlichung: der Content wird zur Veröffentlichung aus dem lokalen ECM-System in die Cloud/an SharePoint geschickt Synchronisierung: wenn Inhalte an mehr als einer Stelle dupliziert werden, sichert die Synchronisierung, dass alle Änderungen an jeder Stelle berücksichtigt werden Unter dem Strich macht die beste Lösung dem Endanwender nur wenig oder gar keine Arbeit. Sie unterstützt nahtlos den Einsatz von Cloud-basierten Ablagen für das Teilen von Informationen und schützt vor der Dunklen Seite – dem Wildwuchs nicht integrierter und nicht regulierter Inhalte und den damit verbundenen Risiken für die Organisation. OpenText™ eDOCS bietet automatisierte und leicht anwendbare Tools zur Synchronisierung von Inhalten in Ihrem Dokumenten-Management (DM). Als Teil der eDOCS-Lösung sind Synchronisierungsfunktionen sowohl über eDOCS DM wie auch über Ihr SharePoint-Integrationsmodell verfügbar. Mehr dazu erfahren Sie auf unserer Microsite. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Wie viele Clouds brauchen Unternehmen für eine effiziente Archivierung, die mehr als 50 % Kosten sparen kann? Spoiler Alert: eine einzige!

Der Kostendruck auf Unternehmen wächst. Auch die IT-Abteilungen sind heute verstärkt gefordert, schlanker und gleichzeitig effizienter zu arbeiten. Ein Faktor, der möglichen Sparpotenzialen entgegenwirkt, sind die vielfältigen Lösungen, die global tätige Unternehmen heute im Einsatz haben. Was, wenn es eine Archivierungs-Lösung in der Cloud gäbe, die weltweit zur Verfügung steht, genauso sicher ist wie Ihre lokale Lösung, und dabei die Kosten des gesamten IT-Betriebs um mehr als 50 % reduzieren kann? Das können Sie sich nicht vorstellen? Dann lesen Sie doch mal weiter! Stellen Sie sich vor, Ihre IT-Abteilung hätte eine neue automatisierte Archivierungslösung in der Cloud eingerichtet, die als Archivsystem für alle Daten und Dokumente rund um SAP gedacht ist. Das System bringt auch neue nützliche Funktionen mit, etwa eine grafische Vorschau (Thumbnail View) Ihrer Dokumente direkt in der SAP-Anwendung; außerdem werden alle relevanten Dokumente dynamisch genau dort und dann präsentiert, wo und wann Sie sie im Geschäftsprozess benötigen. Schon einen Monat später verkündet Ihr IT-Administrator, man habe nun ein zweites Cloud-Archivsystem angelegt. Dieses Mal für die Dateien und Dokumente, die Sie für die tägliche Arbeit benötigen. Auf das neue System haben Sie von diversen Endgeräten aus Zugang auf Ihre Dateien und Dokumente. Und es gibt eine Versionsverwaltung, damit Sie, falls nötig, alte Versionen Ihrer Dokumente wiederherstellen können. Nicht schlecht, nicht wahr? Einen weiteren Monat später wartet die IT-Abteilung dann mit einer dritten Archiv-Cloud auf, die im Hintergrund für höhere Sicherheit und Governance Ihrer BPM-Daten (Business Process Management) und -Dokumente sorgt. Und im Folgemonat beglücken die fleißigen IT-Mitarbeiter Sie mit noch einem vierten Archivsystem, das all Ihre geschäftlichen E-Mails in der Cloud hostet und auf das Sie vom E-Mail-Programm Ihrer Wahl aus bequem zugreifen können. Keine Meldungen mehr, dass Ihr Postfach voll sei. Keine Notwendigkeit mehr, große Anhänge zu löschen, um unter dem Speicherlimit zu bleiben. Weniger Drama, wenn Ihr Notebook verloren geht oder ersetzt werden muss – all Ihre E-Mails stehen auf der neuen Hardware sofort zur Verfügung. Jedes dieser Archivsysteme in der Cloud ist für sich genommen wunderbar In der Kombination haben Sie es aber mit vier separaten Systemen zu tun. Vier unterschiedlichen Anmeldebildschirmen, vier Orte, an denen Sie suchen müssen, vier voneinander getrennte Systeme, die nicht miteinander verbunden sind. Sie können zwar jedes System über die zugehörige Anwendung durchsuchen, doch wäre es nicht viel einfacher, wenn es eine zentrale Anlaufstelle gäbe? Genau dieser Gedanke steckt hinter OpenText Archive Center, Cloud Edition, einem Archivierungsdienst für Unternehmen, der als öffentlicher Cloud-Service in der OpenText-Cloud läuft. Wir haben unsere umfassenden Erfahrungen im Bereich Archivierungs-Methoden und -Technologien in die Entwicklung dieses zentralen Archivierungsdienstes in der Cloud einfließen lassen. Die Lösung wurde für Großunternehmen konzipiert und ist entsprechend Ihrer Anforderungen skalierbar. So können Sie heute mit der Archivierung von SAP-Content beginnen, morgen E-Mails und Dateien hinzunehmen und, sobald Sie wollen, weitere Dateitypen aus anderen Anwendungen ins Archivsystem übernehmen. Der gesamte Content Ihres Unternehmens in einem Archivsystem in der Cloud. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen