Neuste Artikel

Warum das Abschalten von Altsystemen so wichtig ist

Der Trend aus dem vergangenen Jahr, mehr IT-Budget für das Tagesgeschäft und weniger für Innovation auszugeben, setzt sich fort.“ Diese Aussage stammt von Capgemini und bezieht sich auf die Jahre 2016 und 2017. Die Analysten sehen in diesem Jahr den Anteil des IT-Budgets, der für Investitionen in Innovationen ausgegeben wird, bei unter 14 Prozent. Dieser Befund wäre schon für sich genommen schlimm genug. Doch in Zeiten der Digitalisierung ist man versucht, die Situation als niederschmetternd zu bezeichnen. Denn Digitalisierung bedeutet, dass mittel- und langfristig Software den Löwenanteil in der Wertschöpfung ausmachen wird. Das würde im Grunde viel massivere Steigerungen der IT-Ausgaben erfordern als die Zunahme von knapp fünf Prozent im Jahr 2017 gegenüber dem Vorjahr. Dies hat zum Beispiel  die jährliche Investitionsumfrage der deutschsprachigen SAP-Anwendergruppe (DSAG) ergeben. Die Abschaltung von Altsystemen könnte hier helfen. Intelligent sparen mit der Ablöse von Altsystemen In Vorlesungen zur Volkswirtschaftslehre lernt man schon früh, dass Investieren gleich Sparen heißt. Standardisierung, Automatisierung, Implementierung von Plattformen. Das ist der Dreiklang für intelligentes Sparen. In den Rechenzentren der Unternehmen hat sich auch bei den Geschäftsanwendungen über die Jahre ein Wildwuchs an Datenbanken, Applikationen und Systemen angehäuft. Es gibt Schätzungen, dass bis zur Hälfte davon abgeschaltet werden könnte. Den CIOs ist das seit Jahren bewusst. Warum handeln sie dann nicht danach und schalten die Altsysteme einfach ab? Aus meiner Erfahrung kann ich sagen, dass es vor allem zwei Gründe sind, die sie zögern lassen. Zum einen sind sie aus gesetzlichen Gründen verpflichtet, Daten über zum Teil sehr lange Zeiträume aufzubewahren und den Zugriff darauf im Geschäftskontext zu gewährleisten, was in der Regel am einfachsten über die Originalsysteme geht. Zum anderen scheuen sie die damit verbundenen Kosten, wenn mit der Abschaltung ein hoher manueller Aufwand verbunden ist.  Zwei Fliegen mit einer Klappe schlagen  Auf den ersten Blick wird diese zögerliche Haltung durch die neue europäische Datenschutz-Grundverordnung, die spätestens ab dem 25. Mai 2018 von den Unternehmen eingehalten werden muss, noch verstärkt. Denn sie erfordert ein noch nie gekanntes Maß an Transparenz in und Zugriffsmöglichkeiten auf den Datenbestand. Also scheint es auf den ersten Blick erst einmal rational zu sein, nichts abzuschalten. Gleichzeitig stehen die CIOs vor der Herausforderung, neue Generationen ihrer Kernapplikationen zu implementieren. SAP S/4 HANA sei hier stellvertretend genannt. Hierbei stehen massive Investitionen in Software und Hardware sowie in die Migration der Daten an. Daraus leiten sich wiederum dauerhaft hohe Betriebskosten für die neue Umgebung ab. Beide Kostenarten fallen umso höher aus, je mehr Daten aus den Altsystemen übernommen werden, und dürften die Einsparungen aus dem Abschalten von Altsystemen übertreffen. Paradoxerweise sind es diese beiden Herausforderungen, die zusammengenommen den Lösungsweg aufzeigen. Der Umstieg auf neue Softwaregenerationen muss mit einer Bereinigung der Daten einhergehen, damit möglichst wenige davon übernommen werden müssen. Das senkt die Implementierungs- und die Folgekosten im Betrieb, erhöht gleichzeitig die Datenqualität und damit sowohl deren Geschäftsnutzen als auch die Rechtssicherheit im Sinne der DSGVO. Die restlichen Daten, die in vielen Fällen sicher mehr als die Hälfte des gesamten Datenbestands ausmachen, dürfen aber nicht in den Altsystemen verbleiben. Sie müssen vielmehr auf einer standardisierten und automatisierten Plattform weiter vorgehalten werden, um zum Beispiel für Auswertungszwecke im Sinne von Big Data zur Verfügung zu stehen oder der Auskunftspflicht im Sinne der DSGVO zu genügen. Der dritte Schritt wäre dann die Abschaltung der Altsysteme, was nicht nur die Kosten dauerhaft senkt, sondern auch die Komplexität in der IT-Landschaft der Unternehmen reduziert. Selbstverständlich rede ich hier nicht nur von Daten im Sinne von Datenbankeinträgen, sondern auch und vor allem von unstrukturierten Informationen wie Office-Dokumenten oder E-Mails. Einfach mal abschalten Neue Softwaregenerationen und Gesetze machen die Implementierung einer Plattform für das unternehmensweite Informationsmanagement nötiger denn je. Dies erlaubt die Entkopplung von Systemen und Daten und erhöht damit die Transparenz und Flexibilität im wohl wichtigsten Vermögensgegenstand der digitalen Wirtschaft: den Informationen. Investieren die Unternehmen intelligent in solche Plattformen für Enterprise Information Management (EIM), können sie den Wildwuchs in ihrer Applikationslandschaft massiv reduzieren und ihre Betriebskosten dauerhaft und deutlich senken. Umgekehrt vergrößert sich dadurch ihr finanzieller Spielraum für Innovationen im Rahmen weiterhin nur moderat wachsender IT-Budgets erheblich und dauerhaft. Also: Schalten Sie jetzt ab! Wir zeigen Ihnen wie.

Weiterlesen

OpenText Business Network in Zahlen

OpenText

OpenText hat im Laufe der letzten Jahre viele Unternehmen akquiriert.  Investitionsschwerpunkt für das Unternehmen war es, die Reichweite von OpenText™ Business Network (Englisch) zu erweitern – nicht nur in unterschiedlichen Branchen sondern auch in verschiedenen Regionen weltweit. OpenText betreibt das weltweit größte B2B-Integrationsnetzwerk. Die Akquisition von EasyLink, GXS und ANX in den vergangenen Jahren hat dazu beigetragen, OpenText als Schlüsselkomponente für die heutige digitale Supply Chain zu positionieren. Die Akquisition von Covisint stärkt das Business Network vor allem in der Automobilindustrie. Covisint wurde im Jahr 2000 gegründet, um die großen drei OEMs in Detroit zu unterstützen: GM, Ford und Chrysler. Diese drei Unternehmen entwickelten ein Webportal, um sich nahtlos mit ihren Lieferanten zu vernetzen. In den vergangenen Jahren hat sich Covisint in einige neue und spannende Bereiche wie das Internet der Dinge diversifiziert. Eine weitere Kernkompetenz liegt im Bereich Identity Management. Ich werde in naher Zukunft einen ausführlicheren Blogpost über Covisint veröffentlichen. In der Zwischenzeit stelle ich Ihnen das folgende Video vor, um den Umfang von OpenText Business Network zu illustrieren. Dieses Video wurde kurz vor der Akquisition von Covisint produziert. Sobald wir Transaktions- und Handelspartnerzahlen von Covisint mit einbeziehen können, werden sich die Zahlen nach oben hin verändern. Bis dahin werfen Sie bitte einen Blick auf dieses Video und erfahren Sie, welchen Stellenwert Business Network für die heutigen Supply Chains hat. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Video ist King – warum Unternehmen heute nicht mehr auf zeitbasierte digitale Assets verzichten können

digitale Assets

Bewegte Bilder bewegen das Marketing. Ob in den sozialen Medien, in der klassischen Werbung oder im Online-Marketing: Video gehört unter den digitalen Assets zu den Wachstumstreibern. 72 Prozent der im Rahmen der AOL Publisher Studie 2016 befragten Entscheidungsträger aus Deutschland erwarten in diesem Jahr ein Umsatzwachstum von über zehn Prozent. Mehr als die Hälfte will 2017 mehr investieren als im Vorjahr. Das deckt sich mit dem Verhalten der Konsumenten. In Österreich beispielsweise schauen rund 87 Prozent der 18- bis 29-jährigen Online-Videos. In Deutschland waren 2016 laut einer Erhebung zur Mediennutzung des VPRT (Verband Privater Rundfunk und Telemedien) 78 Prozent der über 14-jährigen regelmäßig online. Etwa die Hälfte der Online-Zeit entfällt dabei auf den Konsum von Videos. Video ist bereits unverzichtbar Wie viele Online-Videos sehen Sie sich an? Heute mehr als im vergangenen Jahr oder dem Jahr davor, da bin ich mir ziemlich sicher. Kaum eine Website scheint gegenwärtig ohne Video-Formate auszukommen. Auch auf den diversen Social Media-Plattformen geht ohne Video nichts mehr. Und das aus gutem Grund. Wie etliche Studienergebnisse zeigen, sorgen Videos für weit mehr Interaktion als Text oder unbewegte Bilder. Ein Video mit einer gut erzählten Story, die Mehrwert oder Unterhaltung (oder im besten Falle beides) bietet, wird oft kommentiert und geteilt. Videos sind in der digitalen Welt allgegenwärtig. Wie Cisco berichtet (Englisch) sollen Videos in diesem Jahr für 69 Prozent des Konsumenten-Traffics sorgen. Wer keine Video-Assets besitzt, kann auch auf YouTube nur schwer gefunden werden. Die Video-Plattform gilt heute mit drei Milliarden verarbeiteter Suchen pro Monat als zweitgrößte Suchmaschine weltweit (Englisch). In Zukunft nur mit Ton Audio folgt Video auf dem Fuße. Sprachgesteuerte Anwendungen und Geräte sind ebenfalls immer weiter verbreitet. Die Anzahl sprachgesteuerter Suchen wächst rasant, und manchen Schätzungen (Englisch) zufolge sollen 2020 bereits 50 Prozent aller Suchanfragen sprachgesteuert erfolgen. Digitale Assets und Media Management: Bessere Tools für besseren Content Sowohl Video wie Audio können als zeitbasierte digitale Assets betrachtet werden. Diese müssen jedoch genauso verwaltet, markiert und in einem geregelten Arbeitsablauf produziert werden, wie traditionellere Mediendateien – etwa Fotos. Die OpenText™ Media Management (OTMM) Plattform (Englisch) ist für diese Aufgaben bestens gerüstet. Sie verarbeitet herkömmliche Medien und bietet alle notwendigen Funktionalitäten, um der steigenden Nachfrage nach zeitbasierten Medien nachzukommen und diese zu bewältigen. Ab sofort bietet OpenText™ Media Management (Englisch) auch eine Advanced Video Workflow-Option mit erweiterten OTMM-Funktionalitäten zur Bearbeitung von zeitbasierten Mediendateien. Diese umfasst drei Bereiche: detailliertere Metadaten, mehr Kontrolle über das jeweilige Asset und eine verbesserte Integration mit den bevorzugten Bearbeitungsprogrammen und Workflows. OTMM zieht jetzt automatisch zusätzliche Metadaten aus zeitbasierten Dateien, um Suchergebnisse zu verbessern und die Verarbeitung der Dateien zu vereinfachen. Eine neue Protokollfunktion ermöglicht es Ihnen, Anmerkungen oder Metadaten zu einzelnen Szenen hinzuzufügen. Dies ist sogar für einzelne Frames oder Sound-Bites möglich. Die Buttons zur Auswahl von Metadaten sind vollständig konfigurierbar. Sie lassen sich für ein intuitives Markieren per Sprachüberwachung, Fachterminologie oder beliebige andere Terminologien steuern. Zur Gestaltung klar definierter Teil-Clips können mehrere Frames gleichzeitig markiert werden. Das integrierte Bearbeitungstool ermöglicht eine Bild-für-Bild-Bearbeitung der Sendequalität und die Einzelbildsuche. Unterstützt werden mehrere Audio-Kanäle innerhalb einer Browser-Umgebung. Ein Umschalten zwischen den Bearbeitungs-Streams mit niedriger und der Vorschau mit hoher Auflösung über einen einzigen Button sorgt für mehr Effizienz bei der Bearbeitung. Nach ihrer Bearbeitung und Markierung werden die finalisierten Dateien an OTMM zurückgesendet. Dort werden sie gespeichert und auf Abruf vorgehalten – auf einer einzigen Plattform für digitale Assets, die als zentrale Quelle für alle markenkonformen Dateien dient. Sorgen Sie für attraktiven und aufmerksamkeitsstarken Content: mit den leistungsfähigen Video-Tools der Advanced Video Workflow-Option für OpenText™ Media Management (Englisch) holt Ihr Team den „Online-Oscar“. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Supply Chain Analytics For Dummies

Supply Chain Analytics for Dummies

Lieferketten werden immer komplexer und dynamischer. Unternehmen werden daher mit noch nie dagewesenen Veränderungen und Herausforderungen konfrontiert. Die besten Supply Chains können mit Analytics-Anwendungen schnell große Mengen an unterschiedlichen Daten analysieren. So erhalten Entscheidungsträger Einsichten und Erkenntnisse in Echtzeit. Unternehmen, deren Supply Chain dies nicht leistet, müssen mit zunehmenden Wettbewerbsnachteilen rechnen. Aber was bedeutet es für ein Unternehmen, Supply Chain Analytics einzuführen. Und mit welchem Aufwand muss gerechnet werden? OpenText hat hierfür eine Anleitung. Neues eBook von OpenText und Wiley zu Supply Chain Analytics In den vergangenen Monaten haben wir mit dem Wiley Verlag an einem interessanten Projekt gearbeitet. Wiley veröffentlicht die weltweit bekannt Reihe „For Dummies Guides“. In diesen Guides werden komplexe Sachverhalte leicht verständlich erklärt. Das Thema Big Data Analytics ist nicht neu und es ist ein komplexes Thema. Aber man  könnte es infacher erklären, dass  jeder im Unternehmen die Technologie begreift.  OpenText™ Business Network bietet eine Lösung für Trading Grid Analytics mit einer intuitiven Umgebung. So können Sie besser verstehen, was genau in ihren Supply Chain-Prozessen vor sich geht. Sie befassen sich zum ersten Mal mit Analytics. Und möchten wissen, wie diese Technologie sinnvolle Einblicke in Ihre Supply Chain-Prozesse ermöglicht. Wo sollten Sie dann anfangen? Wir haben das eBook Supply Chain Analytics  als leicht verständlichen Leitfaden geschrieben. Supply Chain Analytics  for Dummies erklärt Unternehmen, warum sie Analytics über eine gesamte Lieferkette hinweg nutzen sollten. Das eBook gibt eine sechsstufige Anleitung, welche Metriken Unternehmen über die gesamte Supply Chain nutzen kann. Und es erläutert,  wie Analytics die Supply Chain verbessern kann. Laden Sie sich Ihr Exemplar unseres eBooks noch heute runter. Kostenlose Testumgebung Vielleicht möchten Sie unsere Analytics-Umgebung erst einmal auf Herz und Nieren testen. Wir stellen ihnen eine kostenlose Testumgebung (Englisch) unserer Trading Grid Analytics-Lösung zur Verfügung. Hier (Englisch) können Sie sich für die Nutzung der kostenlosen Testversion registrieren. Anhand dieser Test-Umgebung können Sie prüfen, wie Analytics auch Sie dabei unterstützt, unterschiedliche Kennzahlen wie Liefertermintreue, Lieferpünktlichkeit, Rechnungsbetrag und Transaktionsvolumen von Handelspartnern zu verstehen. Wenn Sie das eBook Supply Chain Analytics for Dummies gelesen und unsere Testumgebung unter die Lupe genommen haben, verstehen Sie sicherlich besser, wie auch Ihr Unternehmen von einer Supply-Chain-orientierten Analytics-Umgebung profitieren kann. Klicken Sie hier, um sich jetzt das eBook herunterzuladen. Worauf warten Sie noch? Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Woran werden wir das Goldene Zeitalter bemessen?

vierte industrielle Revolution

„Wir müssen nicht die republikanische oder demokratische Antwort finden, sondern die richtige. Wir dürfen nicht Schuldige für die Fehler der Vergangenheit suchen. Wir müssen selbst die Verantwortung für unsere Zukunft übernehmen.“ – John F. Kennedy Die digitale Transformation beschränkt sich schon lange nicht mehr allein auf die Wirtschaft und den Berufsalltag. Wie alle industriellen Revolutionen hat auch diese weitreichenden Einfluss auf unser Leben, unsere Gesellschaft und unsere Zukunft. So fallen in Deutschland bis 2025 geschätzte 1,5 Millionen Arbeitsplätze weg. Dafür entstehen neue Berufsfelder, die Industrie wandelt sich zu einer Industrie 4.0. Diese erfordern neue Kenntnisse und Fähigkeiten und führen damit zu neuen Ausbildungszweigen und Studienrichtungen, wie etwa an der Universität Potsdam. Je weiter fortgeschritten ein Land im Hinblick auf die Digitalisierung ist, desto schneller und stärker wird es von der digitalen Transformation profitieren. Viele, heute drängende, Probleme lassen sich mit Hilfe von künstlicher Intelligenz, Robotern und anderen Technologien lösen – die Industrie 4.0 ist auf dem Vormarsch. Andere wiederum werden von eben jenen Technologien erst verursacht. Ob nach der vierten industriellen Revolution tatsächlich ein „Goldenes Zeitalter“ anbricht, hängt also ganz davon ab, wie wir unsere neuen Möglichkeiten einsetzen. Industrie 4.0: Industrielle Revolutionen sind nicht gerecht Von jeder industriellen Revolution profitieren in der Regel zunächst die Reichen. Alle Umwälzungen sind anfangs gekennzeichnet durch große soziale Ungleichheiten. In solchen Zweiklassengesellschaften sinken die Lebenserwartung und das allgemeine Vertrauen. Die Gewaltbereitschaft hingegen steigt tendenziell. Die Anzahl der psychischen Erkrankungen und Inhaftierungen nimmt zu. In den USA steht einer von 50 Bürgern unter kommunaler Beobachtung, bekam eine Bewährungsstrafe oder wurde bedingt aus der Haft entlassen. Einer von 50! Aus heutiger Sicht verläuft die Zukunft nicht für alle gleich. Das reichste Prozent der Bevölkerung besitzt 75 Prozent des gesamten Privatvermögens. Nur acht Personen kontrollieren mehr Vermögenswerte als die ärmsten 3,6 Milliarden Menschen zusammengenommen (Englisch) – das ist die Hälfte der Weltbevölkerung. Digitale Transformation verursacht reale Probleme Die Angst vor der Automatisierung und die wachsende digitale Kluft sind real. Hier handelt es sich um die größten moralischen Herausforderungen unserer Zeit. Die Studien sind sich uneins über das Ausmaß der Verwerfungen. Einige Prognosen liegen am unteren Ende der Skala (25 Prozent). Andere schätzen die Anzahl der durch die Digitalisierung wegfallenden Jobs höher ein (47 Prozent). Alle zeigen jedoch übereinstimmend, dass die Anzahl der arbeitenden Menschen zukünftig sinkt (Englisch), wenn mehr und mehr Arbeitsplätze „wegautomatisiert“ werden. Die steigende Angst, die wachsende digitale Kluft und die soziale Ungleichheit erzeugen Instabilität und Unsicherheit für Bürger und Staaten und damit einen generellen Zustand der Unruhe. Diese Unruhe kann sich von innen heraus manifestieren – wie der BREXIT – oder von außen, durch staatlich gestütztes Fehlverhalten, siehe Bankenkrise. Der Wandel ist real und wird sich auf die Arbeitsplätze und die Gleichberechtigung auswirken. Konflikte und Gesellschaft im Wandel Der strategische Spielraum für Konflikte verändert sich. Neue Kriegsschauplätze entstehen. In Zukunft werden Kraftwerke nicht mehr bombardiert, sondern abgeschaltet. Führungspersönlichkeiten fallen keinem Attentat mehr zum Opfer, sondern werden durch Propaganda, Datenlecks und Fake News gestürzt. Einen Vorgeschmack gab der Computerwurm Stuxnet im Iran (Englisch). Hier ließen Hacker die Rechner des iranischen Atomprogramms mitten in der Nacht lautstark „Thunderstruck“ von AC/DC spielen. Sogar die US-Präsidentschaftswahl 2016 wurde durch derartige Attacken beeinflusst. Die vierte industrielle Revolution (4IR) betrifft auch unsere Vorstellungen von uns selbst – als Personen und als Spezies. Sie hat unmittelbaren Einfluss auf unsere Identität und unsere Gemeinschaften. Wie lässt sich ein „Goldenes Zeitalter“ bemessen? Neben der Transformation aller Branchen, neben den neuen Gewinnern, Verlierern und der Entstehung neuer „Kodak-Momente“, woran bemessen wir unser neues Goldenes Zeitalter der Innovation? Hier ein paar bescheidene Vorschläge: Persönliche Verantwortung: Wir alle müssen persönlich Verantwortung übernehmen und die positive Veränderung vorantreiben. Wir entscheiden und handeln selbst. Jeder von uns muss moralische Verantwortlichkeit zeigen und damit die gemeinsame Zielsetzung der Menschheit vorantreiben, abwechselnd an vorderster Front. Bildung: Bildung ist ein entscheidender Faktor. Sie führt zu einem zufriedeneren und stabileren Leben, hebt das Einkommensniveau und fördert den sozialen Ausgleich. Sie sorgt für Unabhängigkeit. Eine gebildetere Welt ist toleranter, sicherer, friedlicher und natürlich wirtschaftlich erfolgreicher. Bildungsgerechtigkeit wirkt zweigleisig. Sie fördert den beruflichen und akademischen Fortschritt und damit letztendlich die soziale Gleichheit. Die Welt braucht gut ausgebildete Elektriker, Klempner, Dachdecker und Schreiner – ebenso wie Ärzte, Programmierer und Rechtsanwälte. Jugendsport: Ich selbst bin das Ergebnis von staatlicher Bildung und Jugendsport. Sport hat einen lebenslangen, positiven Effekt. Sport schafft die Basis für Teamwork, Selbstdisziplin und gesunden Wettbewerb. Jugendliche lernen so, sich von Misserfolgen zu erholen. Sport hilft Kindern bei der Entwicklung kognitiver und motorischer Fähigkeiten, ist positiver Einfluss und Inspiration und hält die Jugend von der Straße fern. Keine andere Aktivität bietet die Möglichkeit, Kindern so viele positive Eigenschaften zu vermitteln. Es gibt einen direkten Zusammenhang zwischen jugendlichen Sportlern und einer erfolgreicheren beruflichen Zukunft. Doch die sportlichen Aktivitäten der amerikanischen Jugend nehmen ab. Rund 40 Prozent üben regelmäßig einen Mannschaftssport aus (Englisch). Diesen Anteil müssen wir für eine bessere Zukunft deutlich steigern. Industrie 4.0 – Technologie überall: Technologie muss zu den ärmsten Bevölkerungsgruppen und in die einkommensschwächsten Länder vordringen. Selbst wenn die Kosten für ein Smartphone und die Nutzung ländlicher Mobilfunknetze auf 150 Dollar pro Jahr sinken würden, wäre das noch zu teuer. Für viele stellt dieser Betrag bereits einen großen Teil ihres Jahreseinkommens dar. Eine Milliarde Smartphones in Entwicklungsregionen wie Afrika würde nicht nur eine Bevölkerungsgruppe oder ein Land, sondern einen ganzen Kontinent in die vierte industrielle Revolution führen. Die Menschheit von Armut befreien: Angesichts der Tatsache, dass weltweit immer noch ein Großteil der Menschheit in Armut lebt, sind technische Annehmlichkeiten bedeutungslos. Um 1.800 lebten 95 Prozent der Weltbevölkerung in Armut. Heute betrifft Armut immer noch 50 Prozent der Weltbevölkerung (Englisch). Fünfzig Prozent!!! Obwohl das viele als Fortschritt betrachten, bin ich der Meinung, es ginge noch besser. Die größte Ungerechtigkeit auf diesem Planeten ist Armut. Es gibt keinen strukturellen Grund, warum wir die Welt nicht radikal ändern können – und Technologie könnte den Weg dafür ebnen. Wir bestimmen unsere (digitale) Zukunft Unser Zeitalter der Innovation wird erst dann zu einem wahrhaft goldenen, wenn wir die Weltbevölkerung noch zu unseren Lebzeiten aus der Armut befreien und den nachhaltigen Kapitalismus vervollkommnen. Test, Test, eins, zwei, drei. Funktioniert das Mikrophon? Können Sie mich hören? Ich freue mich, dass Sie mich auf meiner Reise in das Zeitalter der vierten industriellen Revolution begleitet haben. Erfahren Sie mehr über das Goldene Zeitalter der Innovation (Englisch) und die digitale Transformation. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Vereinfachen Sie die Migration auf SAP HANA oder S/4HANA

Informationsmanagement

Sie entstehen in jedem Geschäftsprozess, bei jeder Transaktion, jedem Kontakt mit Kunden oder Lieferanten: Datensätze und digitale Dokumente. Ein effizientes Informationsmanagement ist deshalb unumgänglich. Eine aktuelle IDC-Studie prognostiziert eine Verzehnfachung der weltweiten Datenvolumens auf 163 Zettabyte bis 2025. (Ein Zettabyte entspricht einer Billion (1012) Gigabytes.) Zudem sollen dann Unternehmen und nicht mehr Endverbraucher für den Großteil der Daten verantwortlich sein. Für Unternehmen bedeutet das: sie müssen sich mit effizientem Informationsmanagement und leistungsfähigen Dokumentenmanagementsystemen für die Zukunft rüsten. Eine solche Maßnahme trafen viele SAP-Kunden mit dem Umstieg auf SAP HANA oder S/4 HANA. Die größte Hürde (und der größte Kostenpunkt) ist dabei im Normalfall die Migration der Daten. Wir stellen Ihnen drei Best Practices vor, die eine Migration beschleunigen und vereinfachen können. Herkömmliches Informationsmanagement in SAP® Bisher wurde die Datenmenge in SAP durch Archivierung der Daten in SAP selbst verwaltet. Das gehört seit SAP R/3 zu den Best Practices von SAP-Kunden und zieht sich durch den gesamten Lebenszyklus der SAP Business Suite. Aus gutem Grund: der Nutzen einer Archivierung ist klar nachvollziehbar. Bei jedem Vorgang werden Daten in der Datenbank gespeichert. Und das Volumen der Transaktionsdaten wächst unaufhörlich. Je umfangreicher Ihre operative SAP-Datenbank ist, desto mehr Ressourcen und Wartungsaufwand fallen an. Gleichzeitig leidet die Systemperformance. Und die Reaktionszeiten für Endnutzer verlängern sich. Fakten, die auf die SAP Business Suite mit einer herkömmlichen Datenbank zutreffen. Aber gilt das auch für die Zukunft? SAP HANA: die neue Welt von Big Data Nach dem Release der In-Memory-Datenbank SAP® HANA® stiegen viele SAP-Kunden auf die SAP Business Suite für HANA oder SAP S/4 HANA um. Einige Pain Points haben sich damit erledigt. SAP HANA zeigt eine hohe Systemperformance und kurze Reaktionszeiten. Und auch der Ressourcenverbrauch scheint geringer, da der Komprimierungsfaktor von HANA bei 50 Prozent liegt. ABER: Als In-Memory-Datenbank erfordert SAP HANA eine sehr stabile Hardwarebasis. In-Memory-Datenbanken benötigen eine hohe Rechenleistung und einen beträchtlichen Anteil am Hauptspeicher. So hat eine zwei Terabyte große Datenbank mit HANA die Kapazität von einem Terabyte. Die gesamte erforderliche Speicherkapazität liegt etwas höher, bei rund 1,25 TB. Der SAP QuickSizer für HANA liefert folgende Berechnungsformel: (Datenbankgröße (herkömmliche DB) / 2) + 20% + 50 GB. Bezog sich der Ressourcenverbrauch also früher meist auf teure Hochleistungsfestplatten, geht es heute um teure, leistungsfähige HANA-Hardware. Best Practice 1: Informationsmanagement vor der Migration auf HANA Es empfiehlt sich, den SAP-Datenbestand beim Umstieg auf HANA als Datenbank zu bereinigen. Ob Sie SAP Business Suite für HANA oder SAP S/4HANA darauf aufsetzen wollen, spielt dabei keine Rolle. Ältere Transaktionsdaten werden so schon vor der Migration archiviert. Auf die archivierten Daten kann weiterhin über die Business Suite für HANA oder S/4HANA und die Standardwerkzeuge und -schnittstellen, zum Beispiel SAP Archive Information System, zugegriffen werden. Falls Sie noch kein verbindliches Datenarchivierungsverfahren, aber eine entsprechend große Datenbank (ein Terabyte oder mehr) haben, führen Sie es jetzt ein. Best Practice 2: Nutzen Sie eine regelkonforme Archivierungsplattform Sorgen Sie zeitgleich dafür, dass die betreffenden Dateien über die ArchiveLink-Schnittstelle in einer sicheren und regelkonformen Plattform gespeichert werden. Eine derartige Plattform bieten OpenText™ Archiving für SAP® Lösungen (Englisch) und OpenText™ Document Access für SAP® Lösungen (Englisch). Das dahinter liegende OpenText Archive Center archiviert die SAP-Dateien auf den Speicherplattformen aller führenden Anbieter, die Daten unveränderbar abspeichern können. Das erfüllt die gesetzlichen Anforderungen. Archive Center fungiert als Hardwareabstraktionsschicht und erzeugt zusätzlich automatische Backup-Kopien der Dateien. Im Unterschied dazu sind die Daten bei einer direkten Speicherung der Dateien im System nicht geschützt. Und: bei einem Wechsel des Fileservers müssen Sie selbst für Backup und Migration sorgen. Best Practice 3: Unstrukturierten Content aus der Datenbank entfernen Im Zuge Ihrer Datenbereinigung sollten Sie noch einen anderen Bereich überprüfen: unstrukturierte Inhalte in Ihrer SAP-Datenbank. Falls Sie keinen Speicherort für GOS-Attachments (Generic Object Services, Services für alle Datenobjekte) eingerichtet hatten, sind alle von den Nutzern über GOS hochgeladenen unstrukturierten Inhalte direkt in der Datenbank gespeichert. Das erhöht das Gesamtvolumen an Daten. Prüfen Sie die Tabelle SOFFCONT1 direkt in SAP. Kontrollieren Sie gegebenenfalls auch noch die Tabelle DRAO. Hier sind SAP-DMS-Dokumente (Dokumentenmanagementsystem) abgelegt. Sowohl GOS-Attachments wie DMS-Dokumente können Sie über OpenText Archiving und OpenText Document Access für SAP-Lösungen im OpenText Archive Center sichern. Dafür definieren Sie einfach eine neue Speicherkategorie im OpenText Archive Center. In der Transaktion SKPR08 können Sie über einfache Customizing-Einstellungen die alte Speicherkategorie auf die neue umstellen. Zur Migration bereits vorhandener Dokumente auf die neue Speicherplattform können Sie den SAP Report RSIRPIRL nutzen. Als Ergebnis ist Ihre Datenbank frei von unstrukturierten Inhalten. Diese sind nun im OpenText Archive Center gespeichert. Fazit: Informationsmanagement einführen, Datenmengen begrenzen und Gesamtbetriebskosten senken Unser Rat: Führen Sie Informationsmanagementprozesse ein, um die Datenmengen zu begrenzen. Mit der Archivierung von Daten können Sie die Größe Ihrer Datenbank kontrollieren und verringern. Das wiederum reduziert die Kosten für Hardware und Verwaltung. Und es kann die Gesamtbetriebskosten Ihrer SAP-Landschaft deutlich senken. Bei einer zukünftigen Migration auf SAP HANA als Datenbank können Sie also erhebliche Einsparungen erzielen, wenn Sie den notwendigen Speicherumfang der HANA Datenbank und damit auch den Umfang der HANA Hardwarebasis verringern. Mehr über die OpenText Archivierungsmöglichkeiten für Daten und Geschäftsdokumente aus SAP erfahren Sie hier: OpenText™ Data Archiving für SAP® Lösungen (Englisch) OpenText™ Archiving für SAP® Lösungen (Englisch) OpenText™ Document Access für SAP® Lösungen (Englisch) Hier (Englisch) können Sie sich über die Erfolge unserer Kunden mit SAP Data Archiving informieren. OpenText und SAP haben auch in Zukunft noch einiges vor. Erfahren Sie hier mehr über unseren gemeinsamen Fahrplan für SAP HANA und S/4 HANA und weitere Initiativen für 2017. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Europäischer Datenschutz: Vom Geist der Gesetze

Europäischer Datenschutz

Dem französischen Aufklärer Montesquieu verdanken wir die Einsicht, dass ein Gesetz nur so lange gut und gerecht ist, wie sein Geist gelebt wird. Wer Gesetzeslücken bewusst ausnutzt, mag die Vorschriften zwar noch immer dem Buchstaben nach erfüllen, doch gleichzeitig ihren Sinn verdrehen, unter Umständen ins komplette Gegenteil. Europäischer Datenschutz: Europa meint es jedoch sehr ernst mit seinem Datenschutzverständnis: Das jüngste Gutachten des europäischen Gerichtshofs beweist es: Das Abkommen der EU mit Kanada zum Austausch von Fluggastdaten entspricht laut den Richtern nicht dem Geist (und dem Buchstaben) der Charta der Grundrechte der Europäischen Union, auf die sich unter anderem die neue EU-Datenschutz-Grundverordnung (EU-DSGVO) stützt. Zwar geht es im Gutachten um ein sicherheitspolitisches Abkommen. In der Sache aber ergeben sich daraus zwei wichtige Konsequenzen für die Unternehmen: Die neue Datenschutz-Grundverordnung wird kein Papiertiger sein. Ihr Geist weht und wirkt bereits jetzt. Und: Die EU-Organe sind gewillt, das europäische Verständnis von Datenschutz, innerhalb der EU, aber auch gegenüber anderen Ländern durchzusetzen. Europäischer Datenschutz und das geplante Abkommen: Zu viel und zu vage Hauptkritikpunkt der Richter an dem geplanten Abkommen mit Kanada ist offenbar, dass zu viele personenbezogene Daten für einen zu langen Zeitraum für zu unbestimmte Zwecke gesammelt und aufbewahrt werden. Dadurch seien Rückschlüsse auf „Reisegewohnheiten, Beziehungen zwischen zwei oder mehreren Personen sowie Informationen über die finanzielle Situation der Fluggäste, ihre Ernährungsgewohnheiten oder ihren Gesundheitszustand offenbaren und sogar sensible Daten über die Fluggäste“ möglich. Die Richter stellten damit einen unverhältnismäßigen Eingriff in die Grundrechte von EU-Bürgern fest, den selbst das erklärte und sehr weit gefasste Ziel der Politik, die Terrorismusabwehr zu verbessern, nicht rechtfertigt. Betrachtet man das Gutachten im Licht der neuen Datenschutz-Grundverordnung, dürfte die im Abkommen bislang vorgesehene Datensammlung und -aufbewahrung gleich mehrere Grundsätze verletzen, insbesondere diejenigen der Datenminimierung und der Speicherbegrenzung. Offenbar werden einfach zu viele Daten erhoben, mit deren Hilfe sich das Leben von Menschen in finanzieller als auch gesundheitlicher Hinsicht gleichsam durchleuchten lässt. Wer nicht weiß, ob, wie, wann und wozu wichtige Details seines Privatlebens analysiert werden können, verliert sein Grundrecht auf informationelle Selbstbestimmung. Das ist es, was die Richter mit ihrem Gutachten klargemacht haben. Dementsprechend fordern sie zahlreiche Änderungen an dem Abkommen mit Kanada. Testfall bestanden Für die Unternehmen bedeutet dieses Gutachten einen Testfall, den der europäische Datenschutz bestanden hat. Sie können folglich nicht mit Nachsicht rechnen, wenn sie spätestens ab dem 25. Mai 2018 die Einhaltung der Bestimmungen der EU-Datenschutz-Grundverordnung nachweisen müssen. Speziell mit den Grundsätzen der Datenminimierung und Speicherbegrenzung wollte der Gesetzgeber offenbar sehr gründlich vorgehen, damit das eigentliche Ziel der Verordnung, der Schutz personenbezogener Daten, tatsächlich erreicht wird. Zweideutigkeiten und Lücken gefährden dieses Ziel. Deshalb sind die zeitliche und quantitative Begrenzung der Speicherung personenbezogener Daten und ihre strikte Zweckbindung so entscheidend. Nur so können die Betroffenen nachvollziehen, welche ihrer Daten für welche Zwecke gespeichert und verarbeitet werden. Nur so können sie sich darauf verlassen, dass keine anderen Zwecke und dazu passende Daten existieren, von denen sie nichts wissen. Mit anderen Worten: Nur so wird der Geist der Gesetze gewahrt, wie Montesquieu es so trefflich genannt hat. Europäischer Datenschutz: Geist sucht Materie Jeder Geist braucht Materie, um sich zu verwirklichen – selbst wenn es sich dabei um immaterielle Software handelt. Die Anforderungen der europäischen Datenschutz-Grundverordnung bedeuten für die Unternehmen einen enormen Dokumentations-, Überwachungs- und Änderungsaufwand. Es geht also nicht nur um Daten, sondern um Informationen um diese Daten herum. Aus diesem Grund brauchen die Unternehmen Werkzeuge für Informationsmanagement, um die Speicherung personenbezogener Daten effektiv und zuverlässig zu gewährleisten. Darin liegt eine unglaubliche Chance. Wer seine Daten und Informationen so punktgenau und auf Knopfdruck im Griff hat, hat die Nase vorn in der digitalen Wirtschaft. Denn ein unternehmensweites Informationsmanagement ist die Basis dafür – und darüber hinaus das Mittel, um passgenaue digitale Dienste und erfolgreiche innovative Geschäftsmodelle zu entwickeln und zu verwirklichen. Kein Zweifel: Andere Länder und Regionen werden uns bald um den Geist des europäischen Datenschutzes beneiden. Warum das so ist, erklären wir Ihnen kurz und knapp in unserer Animationsserie „GDPR – Über Datenschutz zum Wettbewerbsvorteil“. Viel Spaß beim Anschauen!

Weiterlesen

Optimal suchen mit Künstlicher Intelligenz

Kuenstliche Intelligenz

Künstliche Intelligenz (KI) gehört zur digitalen Transformation. Intelligente Roboter und selbstlernende Maschinen werden nicht nur unsere Haushalte, sondern auch die Unternehmen der Zukunft prägen. KI hilft Unternehmen, ihre Ressourcen optimal einzusetzen, effizienter zu arbeiten und höhere Gewinne zu erzielen. Die Unternehmen haben die durch KI gebotenen Chancen bereits erkannt. So gründete der VDMA (Verband Deutscher Maschinen- und Anlagenbau) einen Arbeitskreis für die Nutzung von KI und Machine Learning (maschinelles Lernen). Und die Ergebnisse einer Studie des Fraunhofer Instituts zeigen, dass bis zu 25 Prozent Ressourceneinsparungen für KMU möglich wären, würden die Potenziale der Industrie 4.0 voll genutzt. Digitale Transformation wirkt im Hintergrund Dennoch denken viele bei Künstlicher Intelligenz (KI) meist an menschenähnliche Roboter oder natürlich klingende Stimmen, die mit uns interagieren. Den wahren Nutzen entfaltet Künstliche Intelligenz allerdings eher hinter den Kulissen. Etwa, wenn unüberwachtes maschinelles Lernen (eine Form von KI) auf Unternehmenscontent übertragen wird. Die KI kann so ein tieferes Verständnis für diesen Content entwickeln und menschlichen Anwendern sofort umsetzbare Erkenntnisse liefern. Kontext ist Mehrwert Bei Content geht es um mehr als nur Worte. Es geht es um den Zusammenhang zwischen den Worten. Durch statistische Auswertung von Begriffen aus diversen Quellen im gesamten Unternehmenscontent kann maschinelles Lernen (ML) ausgefeilte Modelle entwickeln. Das wirkt sich positiv auf Ihre Suche aus. ML erkennt Konzepte, ermittelt Phrasen, schlägt bessere Suchanfragen vor und weist auf Fachleute mit der entsprechenden Expertise hin – unabhängig davon, ob diese in den schriftlichen Mitarbeiterprofilen erfasst ist. Mit KI ausgestattete Suchfunktionen helfen Menschen, zu finden, was sie suchen. Auch dann, wenn diese gar nicht genau wissen, was sie suchen. Genau darum geht es bei OpenText™ Decisiv (Englisch). „Asien not Asien“ Nehmen wir an, Sie wollen mehr über Ihre Geschäftstätigkeiten in Asien wissen. Ihr erster Gedanke ist sicherlich, in den verschiedenen Datenbanken nach Dokumenten mit dem Begriff „Asien“ zu suchen. Aber enthält der relevanteste Content notwendigerweise den Suchbegriff? Und in diesem Fall: Wie viele Dokumente enthalten Stadt, Bundesland, Land und/oder Kontinent? Ohne maschinelles Lernen bräuchten Sie eine ermüdende Such-Taxonomie, um alle Varianten abzudecken. Gibt ein Nutzer „asien“ in Decisiv ein, ruft das System sofort und vollautomatisch alle Dokumente ab, die (1) entweder das Wort „Asien“ enthalten und/oder (2) inhaltlich mit Asien zusammenhängen. Das erweitert Ihre Suche beträchtlich. Zudem erhalten Sie Ergebnisse auf Basis einer weitaus ausgefeilteren Bedeutungsanalyse, als es eine einfache Schlagwortsuche je leisten könnte. Die anscheinend unlogische Sucheingabe „Asien not Asien“ veranschaulicht das. Das Ergebnis zeigt Nutzercontent mit inhaltlichem Zusammenhang zu Asien. Aber ohne das Wort Asien zu enthalten – zu sehen sind nur Dokumente, die durch weit über eine Schlagwortsuche hinausführendes, unüberwachtes maschinelles Lernen gefunden werden. Eine Gruppierung nach Inhalten kategorisiert Dokumente anhand sprachlicher Schemata, die wir Menschen in großen Datenmengen nur schwer identifizieren könnten. Maschinelles Lernen führt solche inhaltlichen Analysen automatisch und hoch skalierbar durch. Und der Mensch profitiert davon. Künstliche Intelligenz: Noch einen Schritt weiter Concept Groups (Themengruppen) lassen Sie bei der Recherche auch in neue Bereiche mit nützlichem Content vordringen. Ein Blick auf die Liste der wichtigsten Concept Groups, die als Ergebnis einer Suche oder eines Metadatenfilters erscheinen (gemeinsam mit der Anzahl der Dokumente pro Gruppe) liefert Ihnen bei Ihrer Recherche einen Überblick über den verfügbaren Content. So lassen sich auch geeignete Alias-Begriffe finden, die Suchbegriffe anpassen und bestimmte Inhalte hinzufügen oder ausschließen, um Ihre Ziele zu erreichen. Die Concept Groups werden mit charakteristischen „Merkmalen“ (zentrale Begriffe oder Phrasen für die jeweilige Gruppe) angezeigt. Damit können Sie schnell und einfach erkennen, was jede Gruppe repräsentiert und wie nützlich diese für die jeweilige Suche ist. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Vermitteln Sie das richtige Bild?

Customer Experience

Das Sprichwort: „Ein Bild sagt mehr als tausend Worte“ hat nach wie vor Gewicht. Bilder erregen unsere Aufmerksamkeit. Und sie wecken laut einer aktuellen Studie aus Österreich auch das Kaufinteresse. Besonders gut funktioniert das, wenn die Bilder personalisiert und auf die Bedürfnisse der Kunden zugeschnitten sind. Davon zumindest sind Real und die Deutsche Post überzeugt. Sie haben 2017 einen Versuch mit personalisierter Werbung durch Gesichtserkennung gestartet. Die Sache hat nur einen Haken: Sind die Bilder inhaltlich falsch, thematisch oder kulturell unpassend, dreht sich die angestrebte positive Customer Experience ganz schnell ins Gegenteil. Ich bin ein absoluter Motorsport-Fan. Alles, was Motor und Räder hat, begeistert mich. Sie finden mich an jeder Rennstrecke. Die Anzahl der Räder spielt dabei keine Rolle. Und ein passender Online-Artikel mit einem Rennwagen als Aufmacher wird sofort mit einem Click-Through belohnt. Blickfang und Customer Experience Zum Beispiel letzte Woche. Da blieb mein Blick am Foto eines schönen, alten Renn-Ferrari kleben. Der Artikel selbst setzte noch einen drauf. Mit dem Autorennen Indianapolis 500 als Metapher wurden die Herausforderungen einer Systemimplementierung beschrieben. Der perfekte Beitrag für mich, sollte man meinen. Doch ich war nur genervt. Der Grund? Eben jener Ferrari, der zuerst mein Interesse geweckt hatte. Der kleine (aber wichtige) Unterschied Das Problem: der Artikel bezog sich ständig auf das Rennen in Indianapolis. Das Titelbild zeigte aber einen Formel Eins-Rennwagen. Formel Eins und IndyCar sind jedoch zwei völlig verschiedene Sparten des Motorsports – mit sehr unterschiedlichen Autos. Der Ferrari hätte niemals bei einem Indy500-Rennen starten können. So interessant der Artikel auch klang, als Motorsport- und Content-Verfechter war ich irritiert. Warum wurde kein passendes Bild verwendet? Klar, wahrscheinlich fiel diese Unstimmigkeit dem Großteil der Leser gar nicht auf. Rennwagen ist schließlich Rennwagen, oder? Was aber, wenn ein Star-Wars-Artikel mit einem Bild aus Star Trek aufmachen würde? Oder eine Filmkritik zum neuen Marvel–Blockbuster käme mit einem Batman-Bild daher? Oder ein Branchenbeitrag über Ihr Unternehmen wird mit Bildmaterial der Konkurrenz illustriert? Letzteres habe ich sowohl während meiner Zeit in der Luftfahrtindustrie wie im Anlagenbau erlebt. Derartige Vorfälle untergraben bei allen, die sich ein wenig mit der Materie auskennen, sofort Ihre Glaubwürdigkeit. Ihr Bild muss für eine gelungene Customer Experience zu Ihrer Botschaft passen In einem meiner Webinare ging es kürzlich um die Nutzung der sozialen Netzwerke. Thematisiert wurde auch der Einsatz von Bildmaterial zur Unterstützung von Posts, Blogbeiträgen, Artikeln und ähnlichem. Unsere Diskussionsergebnisse: Bilder sollten: -relevant, -aufmerksamkeitsstark, -symbolträchtig, -thematisch passend, -und idealerweise originell sein. Probleme wie mit dem Ferrari-Foto entstehen, wenn man sich zu sehr auf die Bildsuche oder Agenturbilder verlässt. Dieses übergroße Vertrauen kann sich schnell als „Fluch des Millennial Man“ erweisen. Dasselbe Agenturfoto wird immer und überall eingesetzt. Der „Millennial Man“ bezieht sich auf ein Foto, das scheinbar in jedem Artikel mit dem Wort „Millennial“ im Titel zu finden ist. Das Motiv: ein bärtiger Mann, der eine Straße entlang geht, in der einen Hand einen Kaffee, in der anderen ein Smartphone, auf das er blickt. Digital Asset Management für die richtigen Bilder Aber wie stellen Sie sicher, dass Sie die richtigen Bilder verwenden? Durchsuchen Sie nicht einfach das Internet. Nutzen Sie eine Digital Asset Management Plattform (Englisch), die ausschließlich für die Marke freigegebene oder lizensierte Bilder und Grafiken vorhält. Sorgen Sie dafür, dass das Bildmaterial mit genauen, umfassenden Metadaten versehen ist. Das erleichtert die Suche und liefert treffendere Ergebnisse. Was Digital Asset Management (DAM) noch leisten kann, erfahren Sie in diesem Artikel. Metadaten als Schlüssel zu Erfolg Die Metadaten, als die Kurzbeschreibung des Contents, sind oft wichtiger als der Inhalt selbst. Denken Sie also zuerst über die Metadaten nach. Beschreiben Sie nicht einfach das Bild. Überlegen Sie, welchen Sachverhalt es veranschaulichen könnte. Für welche Märkte eignet es sich? (Genauso wichtig: Bedenken Sie auch, für welche Märkte oder Anlässe es nicht geeignet ist.) Definieren Sie eine Metadaten-Strategie, und halten Sie sich daran. Das zahlt sich aus. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Aktuelle Forrester-Reports küren OpenText Content Suite und Documentum ECM zu Marktführern

ECM

Als einer der größten Vorteile der digitalen Transformation gilt der Effizienzgewinn. Digitale Geschäftsprozesse sind meist schneller, fehlerfreier und kostengünstiger. Mitarbeiter werden durch die Automatisierung von Routinetätigkeiten entlastet und können sich auf strategisch wichtige Aufgaben konzentrieren. Beispiel: Die Einführung von e-Invoicing oder e-Rechnungen verkürzt die Bearbeitungszeit von bis zu 23 Minuten pro Papierrechnung um rund zehn Minuten. Die Kehrseite der Medaille: das digitale Content-Volumen in Unternehmen steigt. Egal, ob digitale Dokumente, Transaktionsdaten, Mediendateien oder E-Mails – ohne leistungsfähiges Enterprise Content Management (ECM) verpufft der angestrebte Effizienzgewinn. Bei OpenText betrachten wir es als unsere Aufgabe, ECM-Lösungen bereitzustellen, die das Versprechen einer höheren Effizienz einlösen. Dass uns das gelingt, zeigen zwei von Forrester Research durchgeführte Marktanalysen. Forrester Research bescheinigt OpenText Markführerschaft im Bereich ECM In zwei aktuellen Reports bewerten die Analysten den aktuellen ECM-Markt. In der Forrester Wave™ evaluiert wurden Transactional Content Services [1] (Transaktionsdaten) und Business Content Services [2] (Englisch). In beiden Reports wurden die Produkte der OpenText™ Content Suite (Englisch) und das Documentum Portfolio (Englisch) als marktführend eingestuft. Zwei Reports, und in beiden jeweils zwei Marktführer-Positionen für die OpenText ECM-Lösungen. Das freut uns natürlich sehr. So bewertet Forrester Sie kennen die Forrester-Methode zur Evaluierung des ECM-Marktes noch nicht? 2015 entschieden die Analysten, dass ein einziger Bericht nicht alle Aufgaben erfasst, die ECM-Plattformen in modernen Unternehmen abdecken müssen. Sie trennten ihre Analyse in zwei Schwerpunktthemen: Transactional Content Services (TCS) – Im Mittelpunkt steht die Fähigkeit einer ECM-Plattform, durch Einbindung in stark strukturierte Massengeschäftsprozesse Automatisierung und Effizienz voranzutreiben und Papier überflüssig zu machen. Content umfasst hier Rechnungen, Bescheinigungen, Onlineformulare, eingescannte Dokumente sowie weitere Daten aus ERP-, BPM-, HCM-, SCM- und CRM-Systemen. Business Content Services (BCS) – Hier liegt der Schwerpunkt auf der Verwaltung digital erarbeiteter Dokumente, E-Mails, Spreadsheets und Multimedia-Dateien. Die Beurteilungskriterien für ECM-Plattformen sind: Vereinfachung der Nutzerinteraktion, Verbesserung der Zusammenarbeit und Anwendung von Governance-Kontrollen. Die Kriterien für ECM-Anbieter In beiden Reports erfolgt eine Beurteilung der Anbieter in drei Hauptkategorien: Current Offering (derzeitiges Angebot), Market Presence (Marktpräsenz) und Strategy (Strategie). Gerade durch die Platzierung in der letzten Kategorie sehen wir uns durch die Forrester-Bewertung 2017 bestätigt. Sowohl die Content Suite wie auch die Documentum-Plattformen holten in der Kategorie Strategie des TCS-Reports die höchste Punktzahl und erzielten eine der höchsten Bewertungen im BCS-Report. Laut TCS-Report „müssen ECM-Anbieter schlüssige Strategien zur Technologie, Markteinführung und Partnern nachweisen. Nur so können sie ihren Kunden zum Erfolg verhelfen und sie bei der Verwaltung von Transaktionsdaten innerhalb eines umfassenden Informationsökosystems unterstützen. Dieses Ökosystem beinhaltet Anwendungen des Unternehmens auf lokalen Servern und in der Cloud, mobile Anwendungen und die Kompatibilität mit anderen Content-Management-Systemen.“ Unsere ECM-Vision überzeugt Die aktuellen Bewertungen bestätigen unsere Vision von der Zukunft des ECM. Mit der Einführung von Content Suite 16 (Englisch) im vergangenen Jahr nahm unsere Strategie konkrete Formen an. Die Investition in Documentum brachte sie ein gewaltiges Stück voran. Aus unserer Sicht unterstützen erfolgreiche ECM-Lösungen der Zukunft Unternehmen dabei, vorhandene Systeme effektiver zu nutzen. Durch die Integration simpler, zweckbasierter Serviceanwendungen lassen sich spezifische Probleme lösen (Englisch). Diese Cloud-gesteuerten, nutzerfreundlichen und unaufwändigen Content-Dienste arbeiten im Hintergrund. Einmal voll integriert fördern sie die Produktivität auf beiden Seiten der Firewall. Blick in die Zukunft Im nächsten Schritt wird OpenText die Stärken der beiden in ihrem Bereich führenden Plattformen bündeln. Zudem erweitern wir ihre Effektivität mit neuen, innovativen, auf LEAP-Technologie aufbauenden Services. Wir glauben, Forrester hat das Potenzial dieser Ausrichtung erkannt. Und wir sind mehr denn je von den Möglichkeiten begeistert. Unabhängig von Ihrer Rolle im ECM-Prozess oder Ihrem gegenwärtigen Lösungsanbieter: Der TCS- und der BCS-Report von Forrester liefern Erkenntnisse über ECM, die zum Nachdenken anregen. Hier (Englisch) können Sie sich die Gesamt-Reports herunterladen. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Digitale Infrastruktur, standardmäßig flexibel: Government-as-a-Platform

digitale Transformation

Flexibler, schneller, effektiver. Die digitale Transformation macht auch vor Behörden und Ämtern nicht halt. Digitale Services sollen künftig als „eGovernment“ das Leben der Bürger vereinfachen. Leitlinie dafür ist der eGovernment-Aktionsplan der EU. Dessen Umsetzung in den Mitgliedsstaaten wird jährlich durch den Europe´s Digital Progress Report (Englisch) überprüft. Deutschland schneidet dabei vergleichsweise schlecht ab. Nur 19 Prozent digitale Interaktion zwischen Behörden und Bürgern – das reicht im eGovernment-Ranking gerade für Platz 20. Weiterentwickelt ist die digitale Transformation der Behörden in Österreich. In der Alpenrepublik sind 98 Prozent der am häufigsten genutzten behördlichen Dienste online verfügbar. Das ergibt EU-weit den fünften Platz im Bereich eGovernment. Die Schweiz hingegen setzt auch bei der Digitalisierung ihrer Ämter auf Bürgerbeteiligung. Sie hat eine großangelegte eGovernment-Studienreihe gestartet. So sollen die Anforderungen von Bürgern und Unternehmen an digitale Behörden erkannt und bei der Umsetzung berücksichtigt werden. Die elektronische Behörde ist weltweit ein Thema. Und sie stellt die Flexibilität vorhandener IT-Systeme vor eine große Herausforderung. Leistungsfähige Infrastruktur als Basis der digitalen Transformation Die Amtsübergabe des US-Präsidenten richtet das Augenmerk wieder einmal auf die Flexibilität behördlicher IT-Systeme. Als Richtwert für die Abwicklung einer Amtsübergabe gelten innerhalb der US-Bundes- und Landesregierungen etwa 60 Tage für höhere und 30 Tage für niedrigere Ämter. Diese Erwartungen setzen veraltete und möglicherweise überforderte Behörden-IT-Systeme unter Druck. Das Government-as-a-Platform-Konzept (Englisch) der britischen Regierung könnte anderen Organisationen der öffentlichen Hand als Modell für mehr Flexibilität in der IT-Infrastruktur dienen. Es schafft es eine solide Basis für die fortschreitende digitale Transformation. Sind große IT-Projekte per se fehleranfällig? Ganz ehrlich: Wenn es um IT-Projekte geht, hat keine der Behörde der Welt eine weiße Weste. Es gibt genügend Beispiele aufsehenerregender IT-Fehlschläge (Englisch). Bob Charette, Redakteur bei IEEE Spectrum, nennt dafür einen (nicht ganz ernstgemeinten) Grund (Englisch): „Solche Systeme sind meist von der Politik beauftragt. Das heißt, jemand in einem Amt oder Ministerium gibt ein System, einen Zeitrahmen und ein Budget vor. Und dieser jemand hat keine Ahnung davon.“ Das betrifft aber nicht nur den öffentlichen Bereich. Die Geschichte großer IT-Projekte kennt viele Fälle, in denen die Kosten explodierten oder die nicht den erwarteten Nutzen brachten. Schrittweises, aufeinander aufbauendes Vorgehen hat immer größere Erfolgschancen als eine radikale Umstellung. Dies gilt besonders für die digitale Transformation. Und genau aus diesem Grund haben Ansätze wie „Government-as-a-Platform“ ein derart großes Potenzial. Baukasten-Prinzip als flexible Lösung Das Konzept von Government-as-a-Platform ist einfach: Die Basis bildet eine technische Infrastruktur aus gemeinsamen, wiederverwendbaren Bausteinen (Systeme, Dienste, Prozesse, Analytics etc.). Diese können alle Regierungsebenen zum Aufbau von Systemen, zur Zusammenarbeit und gemeinsamen Datennutzung übernehmen. Kit Collingwood-Richardson, stellvertretender Leiter im britischen Ministerium für Arbeit und Renten, dazu: „Wie müssen die organisatorischen Grenzen zwischen den Ministerien auflösen. Wir dürfen nicht mehr auf die Zuständigkeit dieses oder jenes Ministeriums verweisen. Stattdessen müssen wir dem Bürger einen gemeinsamen Service als Ergebnis der Zusammenarbeit aller Ministerien bieten.“ (Englisch) Die britischen Behörden sind überzeugt, durch Effizienzsteigerungen mit Government-as-a-Platform in 2017 und 2018 zehn Milliarden Pfund einzusparen (Englisch). Government-as-a-Platform lässt sich als Reaktion auf den eGovernment-Aktionsplan 2016-2020 der EU betrachten. Wichtige Grundsätze darin: „standardmäßig digital“, das „Prinzip der einmaligen Eingabe“ und die Modernisierung der öffentlichen Verwaltung. Dazu sollen sogenannte „zentrale digitale Grundlagentechnologien“ wie elektronische Identifikation (eID), elektronische Dokumente (eDocuments) und verlässliche Datenquellen genutzt werden. Wichtige Investitionen in eine digitale Zukunft Der größte Vorteil meiner Ansicht nach: der öffentliche Sektor ist gezwungen, Zeit und Geld in die Transformation ihrer Middleware- und Backoffice-System zu stecken. Und zwar genauso viel oder mehr, wie in ihre digitalen Multichannel-Services. Das ist aus gutem Grund wichtig. Eine aktuelle Studie zum Status von eGovernment in Europa zeigt, dass 81 Prozent der öffentlichen Dienstleistungen mittlerweile online verfügbar sind. Betrachtet man allerdings nur die vollautomatisierten Dienstleistungen, fällt dieser Wert auf drei Prozent. Die Behörden haben bereits große Schritte in Richtung eines digitalen Dienstleistungsangebots unternommen. Trotzdem waren die befragten Nutzer der Systeme unzufrieden in puncto Schnelligkeit und Nutzerfreundlichkeit. Im Endeffekt sind die digitalen Kanäle zwar vorhanden, die Services selbst müssen aber noch entsprechend umgestaltet werden. Flexible Systeme im Vorteil Hier überzeugt das Government-as-a-Platform-Konzept. Es ermöglicht, Systembausteine und Daten nur einmal zu erstellen und dann behördenübergreifend zu nutzen. Alle Behörden erhalten so dieselbe einheitliche Sicht auf einen Bürger. Das ermöglicht eine weitaus kosteneffizientere und effektivere Erbringung von Dienstleistungen. Es schafft die erforderliche Flexibilität, um neue Systeme innerhalb der von politischen Aufträgen gesetzten Fristen zu gestalten. Zusätzlich bietet es eine Basis für Innovation und eine neue, vernetzte Herangehensweise bei der Bereitstellung erforderlicher neuer Services. Die Bürger können darauf vertrauen, dass alle Interaktionen mit Behörden – egal welcher Art – auf korrekten und zutreffenden Informationen beruhen. EIM unterstützt die digitale Transformation des öffentlichen Sektors Prinzipiell beschreibt Government-as-a-Platform eine umfassende Enterprise Information Management (EIM) Infrastruktur. Diese beruht auf der Möglichkeit, strukturierte und unstrukturierte Daten zu verknüpfen. Und sie erlaubt die Zusammenarbeit unter Verwendung sämtlicher Inhalte und Informationen innerhalb der Organisation. Zudem gestattet die zentrale Steuerung den Einsatz von Analytics. Damit lassen sich die für die Bereitstellung neuer Services notwendigen Einblicke in die Daten gewinnen. Big Data landet interessanterweise auf Platz drei (Englisch) der 50 weltweit führenden Veränderungstreiber im öffentlichen Sektor. Das ermittelte kürzlich die Association of Chartered Certified Accountants (ACCA). Schrittweise zum Erfolg Gut zu wissen: Staatliche Organisationen, die sich für die EIM-Plattform eines Serviceanbieters wie OpenText entscheiden, können ihre digitale Transformation schrittweise angehen. Vorhandene Altsysteme müssen nicht sofort abgeschaltet werden. Sie lassen sich in das zentrale EIM-System integrieren. Damit profitieren Sie umgehend von den Vorteilen der digitalen Transformation. Und die Ablöse der für moderne, digitale Services ungeeigneten Systeme können Sie langfristiger vorbereiten. Mehr Informationen zum Thema finden Sie in diesem Blog-Artikel.  Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Digitalisierung in Unternehmen: Knorr-Bremse setzt auf vorausschauende Wartung – unterstützt von OpenText Analytics

Digitalisierung in Unternehmen

Digitalisierung in Unternehmen: Die Bahn hat nicht eben das beste Image. Zugverspätungen im ÖPNV (Öffentlichen Personennahverkehr) und bei Fernzügen, Ausfälle und technische Probleme sorgten in der Vergangenheit immer wieder für Unmut. Doch Bahn und Bus verzeichneten in Deutschland 2016 so viele Fahrgäste wie noch nie – und die Bahn führt mit einem Zuwachs von 5,3 Prozent. Das ist das größte Plus im Fahrgastaufkommen seit 10 Jahren. Ob durch neue Technologien oder smartere Strategien: Ihre viel kritisierte Unpünktlichkeit hat die DB im vergangenen Jahr stark verbessern können. Der Personenfernverkehr der Deutschen Bahn ist entgegen aller Erwartungen wieder pünktlicher und zuverlässiger geworden, berichtet SPIEGEL ONLINE. Technologisch tut sich jedenfalls einiges: Auch im Gütertransport gibt es neue Ideen wie zum Beispiel den automatisierten Güter-ICE, die den umweltfreundlichen Schienenverkehr vorantreiben sollen. Technologie Made in Germany setzt auf moderne Analytics zur vorausschauenden Wartung und zustandsbezogenen Instandhaltung Züge transportieren weltweit jährlich Milliarden Passagiere und Milliarden Tonnen an Gütern. Das Überprüfen der Bremssysteme gehört daher nicht nur zu den rein routinemäßigen Wartungschecks. Den Schienenverkehr sicherer und effizienter zu machen, das ist das erklärte Ziel der in München beheimateten Knorr-Bremse-Gruppe. Der Konzern zählt zu den international führenden Herstellern moderner Bremssysteme und weiterer Komponenten für Loks, U-Bahn-Triebwägen und Busse. Zu diesen Komponenten gehört unter anderem eine hochentwickelte Software zur Optimierung von Betrieb und Fehlererkennung. Die Digitalisierung in Unternehmen und im Schienengeschäft hat begonnen Knorr-Bremse entwickelte mit iCOM eine auf dem Internet der Dinge (IoT) basierende (Englisch) Plattform zur automatischen Wartung und Diagnose – die Digitalisierung in Unternehmen hat begonnen. Über On-Board-Sensoren sammelt iCOM (Intelligent Condition Oriented Maintenance; intelligente, zustandsbezogene Wartung) per Funk Daten aus mehr als 30 Systemen eines Zuges, darunter Bremsen, Türen, Scheibenwischer, Heizung und Belüftung. Die IoT-Sensoren melden kontinuierlich Informationen wie Temperatur, Druck, Energieerzeugung, Nutzungsdauer und Fehlfunktionen an iCOM weiter. iCOM analysiert diese Daten und empfiehlt eine Wartung abhängig vom Zustand, anstatt in festgeplanten Intervallen. So können Leistungsstörungen erkannt werden, bevor sie ein größeres Sicherheitsrisiko verursachen und eine teurere Reparatur oder einen Ersatzteileinbau erfordern. Die Digitalisierung in Unternehmen bedeutet für die iCOM-Kunden mehr Sicherheit, längere Betriebszeiten, eine verbesserte Energieeffizienz und geringere Betriebskosten ihrer Schienenfahrzeugflotten. Leistungsstark und nutzerfreundlich: neue Analytics-Komponente gefragt Mit der Akzeptanz der iCOM-Lösung durch immer mehr Kunden, stieg die Nachfrage nach einer differenzierteren Datenanalyse (Englisch), mit der sich erkennen lässt, wann, wo und warum ein Ereignis auftrat. Gewünscht wurden zudem optisch ansprechendere Benutzeroberflächen und die Möglichkeit, eigene Berichte ohne IT-Unterstützung zu erstellen. Aufgrund der enormen Datenmengen, die von iCOM kontinuierlich gesammelt werden, war die bisherige Opensource-Lösung für Analyse- und Reporting BIRT (Business Intelligence and Reporting Tools) obsolet und sollte abgelöst werden. Knorr-Bremse suchte nach einer neuen Analytics-Plattform, die sich zudem skalieren lässt, um das gigantische, permanent von den tausenden Sensoren einer Schienenfahrzeugflotte erzeugte, Echtzeitdatenvolumen zu verarbeiten. Darüber hinaus benötigte Knorr-Bremse eine Lösung, die der Konzern mit geringstmöglichem Zeit- und Programmieraufwand entwickeln, in die übergeordnete iCOM-Plattform einbinden (Englisch) und auf den Markt bringen konnte. Die Antwort auf diese Herausforderungen: OpenText™ Analytics Suite (Englisch) „Aufgrund der leicht bedienbaren Nutzeroberfläche von OpenText Analytics konnten unsere Entwickler zügig mit der Entwicklung der Analytics- und Reports-Aspekte für iCOM beginnen. iCOM basiert auf Java. Folglich war es entsprechend einfach, die Integration und Anbindung von OpenText Analytics zu realisieren. Es ging allerdings nicht nur um die Verkürzung der Entwicklungszeit. Die Ergebnisse sollten auch gut aussehen – und das tun sie mit OpenText“, erklärt Martin Steffens, Projektmanager der iCOM-Digitalplattform und Software-Architekt bei Knorr-Bremse. Mehr über den erfolgreichen Einsatz von OpenText Analytics bei Knorr-Bremse (inklusive 20 Prozent Einsparpotenzial bei den Wartungskosten) erfahren Sie hier (Englisch). Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Fünf nach zwölf: Was die Digitalisierung für die Customer Journey der Finanzdienstleister bedeutet

Customer Journey

Die digitale Transformation verändert unser Wirtschaftsumfeld massiv. Neue, disruptive Geschäftsmodelle lösen traditionelle Formen ab, neue Märkte entstehen, und die Anforderungen der Kunden an Unternehmen verändern sich. Im B2B-Bereich vollzieht sich der Wandel langsamer. Das gilt auch für die ohnehin schon als „verstaubt“ geltenden Finanzdienstleister. Laut einer aktuellen Trendstudie von Lünendonk & Hossenfelder schätzen Banken und Versicherungen den Einfluss der Digitalisierung als sehr groß ein, sehen jedoch auch ein hohes Investitionsrisiko. Das allerdings bremst die Entwicklung längst notwendiger neuer Produkte und Services, ohne die die Branche langfristig nicht auskommt. Der Wendepunkt ist überschritten Ende 2015 geschah etwas Wesentliches. Leise und unauffällig, wahrscheinlich unbemerkt von vielen. Zum ersten Mal wurden mehr Transaktionen über mobile Endgeräte als in stationären Niederlassungen (Englisch) abgewickelt. Es ist also bereits fünf nach zwölf. Und, vielleicht noch wichtiger: die Kunden – und nicht die Finanzdienstleister – bestimmten den Zeitpunkt dafür. Wenn also Ihre Kunden entscheiden, wann und wie sie Sie mit Ihnen kommunizieren, sollten Sie in der Lage sein, Services für jede Station der digitalen Customer Journey anzubieten. Der Trend zur Akzeptanz neuer Kanäle wirkt sich auch auf das mobile und Online-Banking ab. 2015 stiegen die mobilen Transaktionen im Privatkundengeschäft der Banken um 54 Prozent, gegenüber nur zwei Prozent Zuwachs beim Online-Banking (Englisch). Auch wenn es noch nicht soweit ist, die beiden Kanäle dürften in naher Zukunft gleichauf ziehen. Wie rein mobile Finanzdienstleistungen aussehen können, zeigt die Atom Bank exemplarisch. Der Erfolg des neuen, filial-basierten, Modells der Metro Bank in Großbritannien demonstriert jedoch auch, was ohnehin auf der Hand liegen sollte: Die Kunden erwarten, dass Dienstleistungen so bereitgestellt werden, wie es für sie am besten passt. Oft handelt es sich dabei einfach um die für den Kunden angenehmste Art. Finanzdienstleister – egal ob Banken, Versicherungen oder Investmenthäuser – sollten sich dessen bewusst sein. Kommunikationskanäle und Kundenerfahrung – zwei Paar Schuhe? Dieser Gedanke kam mir, als ich einen vor kurzem veröffentlichten Report mit dem Titel „Die Entwicklung der Finanzdienstleistungen“ (Englisch) las. Der Bericht beschäftigt sich in der Hauptsache mit den Auswirkungen der digitalen Transformation auf die darin so bezeichneten „Traditionalisten, Herausforderer und Disruptoren“ unter den Finanzdienstleistern. Man erfährt viel über Kundenerfahrung, doch im Endeffekt konzentriert sich der Report auf die Kommunikationskanäle. Die Kunden interessieren die Kanäle jedoch nicht, sie sind schlicht Mittel zum Zweck. Die Kunden interessieren sich für Einfachheit, Transparenz, Fairness und Sicherheit. Genau das erwarten sie auch von ihrem Anbieter. Und zwar bereits bevor sie etwas gekauft haben bis zum Ende einer Geschäftsbeziehung – und darüber hinaus. Finanzdienstleistungsunternehmen haben hart daran gearbeitet, eine einheitliche Sicht auf den Kunden zu entwickeln, mit unterschiedlichem Erfolg. Nun müssen sie eine einheitliche Sicht auf die digitale Customer Journey entwickeln. Hier kommen meine besten vier Tipps, um eine ausgezeichnete Kundenerfahrung schaffen: Die Welt ist digital. Einige wichtige Leute hat man allerdings nicht darüber informiert. Mobiles Banking und Versicherungs-Apps verändern die Art (Englisch), wie ein Großteil der Menschen Finanzprodukte konsumiert. Und das Smartphone ist der klare Favorit der Millennials. Forbes wies allerdings auf ein kleines Paradox hin: Obwohl 80 Prozent der Privatkundentransaktionen über Self-Service-Anwendungen abgewickelt werden, suchte dennoch mehr als die Hälfte der US-amerikanischen Bankkunden in den letzten sechs Monaten eine Filiale (Englisch) auf. Seltsamerweise bevorzugen viele Kunden noch immer gedruckte und per Post versandte Kontoauszüge. Omni-Channel bedeutet also nicht immer eine Verlagerung der Kanäle. Und bei der digitalen Transformation geht es nicht immer um den Ersatz von Papierdokumenten durch ihre elektronischen Gegenstücke. Die Anforderung an die meisten Finanzdienstleistungsunternehmen lautet daher: Schaffen Sie eine flexible und agile Infrastruktur, die den Kunden verschiedene Kanäle zur Auswahl bietet. Das erfordert ein Content Management, das die Verwaltung digitaler Daten mit herkömmlichem Dokumenten- und Records Management verbindet. Auf diese Weise können Unternehmen das von ihren Kunden erwartete Erlebnis bieten. Einfach, sicher und zufriedenstellend – das Erfolgsrezept für Finanzdienstleistungen Der Gedanke, wir müssten unsere Kunden „überraschen“ oder „ihre Erwartungen übertreffen“, ist verführerisch. Die Kunden scheinen aber etwas viel Grundlegenderes zu wollen. Im Bereich Finanzdienstleistungen wünschen sie sich einfache (Englisch) und faire Produkte (ohne versteckte Gebühren oder überflüssige Fachbegriffe). Noch allgemeiner betrachtet, wollen die Kunden schlicht mit ihrer Erfahrung zufrieden sein (Englisch). Wenn Sie also tun, was Sie versprechen, steigen die Chancen, Kundenloyalität aufzubauen und den Kunden in seiner Customer Journey da abzuholen, wo er steht. Allerdings ist das leichter gesagt als getan. Eine Enterprise Information Management (EIM) Plattform für den Abgleich und die Abstimmung aller Kundendaten bietet meiner Ansicht nach allen Beteiligten – auch den Kunden selbst – jederzeit Zugang zu den richtigen Informationen. Personalisierung ist am wirksamsten, wenn sie über das Marketing hinausführt Das digitale Marketing hatte enorme Auswirkungen auf den Finanzdienstleistungssektor und die Customer Journey. Die Marktteilnehmer haben begonnen, mehr Nutzen aus ihren Daten zu ziehen. Das schafft ein besseres Verständnis für die Kunden und damit eine effektivere Kundenkommunikation. Die Möglichkeit zur Personalisierung und zur Entwicklung von Marketing-Aktivitäten, die sich an Lebensereignissen orientieren (Englisch) führt zu wesentlich zielgerichteteren und erfolgreicheren Kampagnen. Aber, und das ist interessant: Die Kunden geben Ihnen gerne die Erlaubnis, ihre Daten zum Zweck personalisierter Werbung zu nutzen – obwohl die meisten das gar nicht wollen. Sie wünschen sich allerdings aktiv, dass Sie ihre Kauf- und Support-Erlebnisse personalisieren (Englisch). Das erfordert einen neuen Blick auf Big Data. Der Weg geht in Richtung Echtzeitanalyse der Daten, ohne die, wie es ein Branchenexperte formuliert, „Data Warehouses zu einer überflüssigen Belastung (Englisch) werden, die nur sehr spezifischen Zwecken dient“. Es geht nicht um den Kanal der Customer Journey. Es geht um Konsistenz. Ein bekannter Mythos lautet: Menschen hassen Contact Center. Nein, tun sie nicht. Sie hassen die schlechte Erfahrung, die beinahe jeder im Umgang mit solchen Contact Centern macht. Jede Wette: wären Ihre Erfahrungen jedes Mal großartig, würden Sie Contact Center lieben! Wenn Sie also eine ausgezeichnete Customer Experience liefern können – und sicherstellen, dass diese in allen von Kunden genutzten Kanälen durchwegs hervorragend ist – dann gehört das traditionelle Bild vom Kundenservice („Drücken Sie die Eins, um in den nächsten Kreis der Hölle zu gelangen…“) der Vergangenheit an. Eine Customer Communications Management Lösung (Englisch) schafft eine solide Basis für eine konsistente, zielgerichtete und personalisierte Kommunikation über alle vom Kunden bevorzugten Kanäle. Laut Gartner konkurrieren 89 Prozent der Unternehmen sogar hauptsächlich um die Qualität der gebotenen Customer Experience (Englisch). Es ist unbestritten, dass die Digitalisierung die Geschäftsprozesse und den Kundenkontakt der Finanzbranche transformiert. Erfolg ist jedoch nur den Unternehmen beschieden, die begreifen, dass eine ausgezeichnete Erfahrung auf den Vorlieben ihrer Kunden beruht. Sie sollten also wissen, was Ihre Kunden im Laufe des Kaufprozesses erwarten. Und Sie müssen jedem einzelnen Ihrer Kunden ein attraktives, personalisiertes Erlebnis bieten – nicht nur jenen, die von neuen, spannenden Technologien begeistert sind. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

So richten Sie eine IoT-Plattform für Ihre Supply Chain ein

IoT

Das Internet der Dinge (Internet of Things, IoT) hat maßgeblichen Einfluss auf die Supply Chains von morgen. Künftig werden vernetzte Geräte (und nicht der Mensch) die Prozesse entlang der Lieferkette steuern. Just-in-Time-Produktion und Kanban-System laufen voll automatisiert ab. DHL testet eine solche digitale Supply Chain derzeit drei Standorten in Deutschland, Polen und den Niederlanden. Mit IoT-Technologie sollen Daten aus Sensoren, vernetzten Geräten und dem Bestandsverwaltungssystem eine Überwachung der Geschäftsprozesse in Echtzeit ermöglichen. Der Logistikanbieter DHL zählt zweifelsohne zu den Vorreitern auf diesem Gebiet. Denn obwohl die Digitalisierung als Chance zur Effizienzsteigerung erkannt wird, fehlt es vielen Unternehmen an einer konkreten Strategie für die Umsetzung. So lautet zumindest das Ergebnis einer Studie der TU Wien. Rund 40 Prozent der befragten österreichischen Unternehmen nutzen demnach immer noch Excel für ihre Absatzplanung. In Deutschland bietet sich ein ähnliches Bild. Ein Grund dafür: Nach den Erkenntnissen einer Studie des Fraunhofer Instituts herrscht Unsicherheit hinsichtlich der Technologien, die die notwendige Qualitäts- und Effizienzsteigerung von Prozessen ermöglichen. IoT, EIM und Supply Chain In den letzten Jahren habe ich viel über den Einfluss des Internets der Dinge (IoT) auf die Abläufe in der Supply Chain berichtet. Erst kürzlich habe ich mich mit dem IoT im Kontext der digitalen Transformation beschäftigt. Der Begriff „IoT-Plattform“ ist unter IT-Leitern noch nicht weit verbreitet. Ein guter Grund, um einmal zu erläutern, wie die OpenText Enterprise Information Management (EIM) Lösungen eine auf dem IoT basierende Plattformstrategie unterstützen und fördern können. Bevor wir in die Materie eintauchen, möchte ich Sie auf weiteren Lesestoff im Anschluss an diesen Beitrag hinweisen. Am 5. Juni 2017 verkündete OpenText die finale Einigung zur Übernahme von Covisint. Mit der Gründung durch Ford, GM und Chrysler im Jahr 2000 wurde ein Marktplatz speziell für die Automobilbranche geschaffen. In letzter Zeit führte Covisint mehr und mehr IoT-Funktionalitäten ein. Weitere Informationen zu dieser Übernahme finden Sie hier (Englisch). Eine neue Art von Plattform Seit 2011 gewinnen cloudbasierte Lösungen an Bedeutung. Seit dem gab es zahlreiche Bemühungen, cloudbasierte „Plattformen“ genau zu definieren. Manche Plattformen bieten cloudbasierte „Server“-Dienste, andere bieten Infrastructure as a Service (IaaS) oder Platform as a Service (PaaS). Gartner prägte den Begriff „Integrations-Serverdienste“. Dieser erfasst die unterschiedlichen, derzeit über OpenText™ Business Network verfügbaren, B2B-Lösungen recht gut. Business Network ist die weltweit größte, cloudbasierte B2B-Integrationsplattform. OpenText bietet gegenwärtig mehrere verschiedene cloudbasierte Lösungen an. Erfahren Sie nachfolgend, wie eine ganz neu entstehende Cloud-Plattform (die IoT-Plattform) von OpenText EIM-Lösungen profitieren kann. Das Internet der Dinge hat viele Namen In diesem Artikel halte ich mich an den gesetzten Begriff IoT. Allerdings sind in den letzten vier Jahren etliche regionale Abwandlungen aufgetaucht. Der Markt hat also seine Schwierigkeiten damit, eine perfekte, von allen akzeptierte Bezeichnung zu finden: Internet der Dinge (IoT): Den heute am weitesten verbreiteten Begriff definierte Kevin Ashton ursprünglich im Jahr 1999 im Rahmen seiner Forschungen im AutoID Center. Allesnetz (Internet of Everything): Eingeführt 2013 von Cisco soll der Begriff die Prozessseite und die Menschen im IoT widerspiegeln. Industrielles Internet (Industrial Internet of Things): 2013 verkündet von GE und anderen nordamerikanischen Unternehmen. GE Digital wurde gegründet, um das intelligente industrielle Umfeld der Zukunft zu schaffen. Industrie 4.0: 2013 geprägt von deutschen Unternehmen wie Bosch und Siemens soll diese Bezeichnung die vierte industrielle Revolution und den Bedarf an einem prozessorientierteren IoT-Umfeld wiedergeben. Industrielle Wertschöpfungskette: Japanische Unternehmen führten den Begriff 2015 ein, weil sie eigene Standards für vernetzte Geräte bei allen Industrieanwendungen schaffen wollten. Internet Plus: Etabliert 2015 von chinesischen Firmen, die ebenfalls unbedingt ihr eigenes Verfahren zur Nutzung der Informationen aus vernetzten Geräten entwickeln wollten. Es sieht ganz so aus, als müssten wir uns erst einmal auf eine einheitliche Bezeichnung für unseren eigentlichen Diskussionsgegenstand einigen. Und das, bevor wir standardisieren, wie Informationen von vernetzten Geräte gesammelt, übertragen und archiviert werden. Damit dieser Artikel nicht unnötig verwirrt, bleiben wir hier bei dem gängigen Begriff „IoT“. Wachstumsbereich IoT Soviel steht fest: Das IoT gehört aktuell zu den attraktivsten Investitionsbereichen. Es betrifft fast jeden Industriezweig. Beinahe täglich scheinen neue Anwendungsfälle für das IoT aufzutauchen. Die Analysten von IDC prognostizieren, dass im Jahr 2025 163 Zettabyte (163×1012 Gigabyte) an Daten verarbeitet werden. In welcher Form auch immer. Wie viele vernetzte Geräte soll es in Zukunft geben? Schon heute laufen die Schätzungen auseinander. Bei Cisco geht man von 12,2 Milliarden vernetzter Geräte (Englisch) im Jahr 2020 aus. Gartner wiederum schätzte (bei einem gemeinsamen Webinar (Englisch) mit OpenText), dass es 2020 rund 21 Milliarden vernetzte Geräte geben wird. Sie könnten also wahrscheinlich genauso gut fragen, wie nass Wasser ist. OpenText Studie zur digitalen Transformation Vor kurzem führte OpenText gemeinsam mit IDC eine Studie zum Thema digitale Transformation durch. (Hier können die Studie hier herunterladen. (Englisch)) Wir wollten herausfinden, ob neue digitale Transformationsprojekte wie das IoT die Transformationsinitiativen entlang der Supply Chain in Schwung bringen. Befragt wurden 254 Unternehmen in sieben Ländern und vier verschiedenen Branchen. Die Antworten zum IoT waren ausgesprochen interessant. Das können Sie der nachfolgenden Grafik entnehmen. Frage: Wenn Sie speziell an das Internet der Dinge (IoT) und den Einsatz von Sensoren denken: von welcher Art von Prozessen (oder Anwendungsfällen) in der Supply Chain würde Ihr Unternehmen am meisten profitieren? Vernetzte Geräte – aber womit? Im diesem Artikel geht es zum einen darum, woran (in Bezug auf Plattformen) diese Milliarden von Geräten angebunden sind. Und zweitens, was mit den von den Geräten erzeugten Zettabytes an Daten geschieht. Wie können Enterprise-Systeme diese Informationen nutzen? Wie können sie zur Trenderkennung herangezogen werden? Und, noch wichtiger, wie können sie zur Rationalisierung von Prozessen in der Supply Chain beitragen? Für etliche Unternehmen ist die Investition in das IoT eine Gleichung mit vielen Unbekannten. Richtig umgesetzt, bringt das IoT jedoch einen erheblichen ROI. 2013 nahm ich an der von Cisco veranstalteten Konferenz IoT World Forum teil. In den folgenden vier Jahren habe ich den IoT-Sektor sehr genau beobachtet. Die Diskussion wandte sich jedoch erst in den letzten zwölf Monaten der Implementierung von IoT-Plattformen zu. Wie können diese als effektive Middleware zwischen vernetzten Geräten und dem Geschäfts- oder Supply Chain-Prozess dienen, der verbessert oder optimiert wird? Supply Chains für das Internet der Dinge freigeben Anfang 2016 diskutierte ich ausführlich (Englisch) mit Gartner über Supply-Chain-Anwendungsfälle für das IoT. Wir besprachen, wie B2B Managed Services (Englisch) die Integrationsvoraussetzungen für eine IoT-fähige Supply Chain schaffen können. Bei Gartner verstand man, wie unsere EIM-Lösungen den Aufbau einer IoT-Plattform unterstützen können. Unsere Diskussion führte zu einem gemeinsamen Webinar im Oktober 2016. Es befasste sich mit den wichtigsten Trends im IoT-Sektor. Zudem stellten wir Technologien für eine ideale IoT-Plattform vor. Wie von Gartner im Webinar erklärt, fußt eine IoT-Plattform auf fünf Eckpfeilern: Gerätemanagement, Informationsmanagement, Analytics, Integration und Sicherheit. Hier ist OpenText mit den verschiedenen Lösungen in unserem EIM Portfolio gut für den Support einer IoT-Plattform aufgestellt. OpenText Lösungen stützen die Eckpfeiler einer IoT-Plattform Wie andere Anbieter gezeigt haben, bieten sich für OpenText Kooperationen an. Zum Beispiel mit einem Telekommunikations-Provider zur Peripherieanbindung. Unsere Lösungen zur Web- und Anwendungsentwicklung decken den Kernbereich Gerätemanagement bereits teilweise ab. Sie ermöglichen den Fernzugriff und eine Remote-Konfiguration vernetzter Geräte. Die Abbildung unten zeigt, welche Möglichkeiten die sechs Kernkomponenten des OpenText EIM Portfolios zur Unterstützung Ihrer Strategie für eine IoT-Plattform bieten. Nutzung der IoT-Plattform in der Supply Chain Damit eine IoT-Plattform die Geschäftsprozesse Ihrer Supply Chain unterstützen kann, müssen Sie sicherstellen, dass alle von Ihren Geschäftspartnern kommenden strukturierten und unstrukturierten digitalen Daten gespeichert werden. Der Datenspeicher lässt sich am besten als „Supply Chain Data Lake“ beschreiben. OpenText Business Network verfügt bereits über einen cloudbasierten, in unserem Data Center gehosteten, Data Lake. Dieser speichert alle B2B-Transaktionen schon während der Übertragung in Ihrem Netzwerk. Damit sind Unternehmen in der Lage, die Transaktionen zu analysieren und Performance-Trends in der gesamten Supply Chain zu erkennen. Mehr Informationen dazu finden Sie auf unserer Website Trading Grid Analytics. Ich möchte Ihnen nun erklären, wie ein Data Lake entsteht, der verschiedene Arten von Daten aus der Supply Chain verarbeiten kann. Der Supply Chain Data Lake Die Grafik oben zeigt, wie so ein „Supply Chain Data Lake“ meiner Ansicht nach aussehen könnte. Sie demonstriert, welche Art von Daten, sowohl strukturiert als auch unstrukturiert, in diesen Data Lake fließen könnte. Und sie illustriert, auf welch unterschiedliche Arten unsere EIM-Lösungen diese Informationen im gesamten Unternehmen nutzen können, um IoT-fähige Supply-Chain-Prozesse zu steuern. Im Folgenden möchte ich etwas näher auf die einzelnen Bereiche dieser Grafik eingehen. Schritt eins: Netzwerk aufbauen Im ersten Schritt stellen Sie sicher, dass Sie von allen Geschäftspartnern entlang der gesamten Supply Chain elektronisch Daten empfangen können. Das umfasst die digitale Befähigung jedes Geschäftspartners, führt aber darüber hinaus. Jedes der vernetzten Geräte muss sich drahtlos mit der IoT-Plattform verbinden können. Vom LKW, der Endprodukte an Kunden liefert, bis zu den Paletten, auf denen sich die Ware befindet. Damit wird die Transparenz der Supply Chain auf Makroebene erreicht. Sie entscheiden: Welche Supply-Chain-Assets müssen mit der IoT-Plattform verbunden werden? Welche Art von Informationen soll ein vernetztes Gerät liefern? Welche B2B-Transaktionen müssen zugänglich sein? Und was wollen Sie tatsächlich messen? Das bestimmt, welche Art von Analysen und Reports letztendlich möglich sind. Schritt zwei: Data Lake füllen Im nächsten Schritt lassen Sie die Daten nach und nach in Ihren Supply Chain Data Lake fließen. Zusätzlich zu B2B-Transaktions- und Sensordaten können Sie den Data Lake mit vielen anderen Arten von strukturierten und unstrukturierten Daten füllen. Zum Beispiel Social-Media-Daten und Websitedaten zur Serviceverfügbarkeit der wichtigsten Logistikdrittanbieter. Oder die Bestandsdaten aller vernetzten Assets, die in den Warenfluss entlang der gesamten Supply Chain eingebunden sind. Zudem noch Multimedia-Daten, etwa Videos, die schadhafte Ware eines Lieferanten zeigen. Und vielleicht auch neue gesetzliche Informationen mit Auswirkungen auf das Compliance-Reporting einer Handelspartnergemeinschaft. Wenn alle diese Informationen in einen zentralisierten Supply Chain Data Lake fließen, können die verschiedenen Stakeholder im Unternehmen jederzeit angemessen reagieren. Schritt drei: Data Lake mit EIM nutzen Im dritten Schritt nutzen Sie die auf EIM basierenden Lösungen, um die im Supply Chain Data Lake enthaltenen Informationen zu bewerten und zu analysieren. Danach können Sie einen wie auch immer gearteten Prozess in der Supply Chain auslösen. Betrachten Sie diesen Teil der Grafik als Bohrinsel (EIM-Lösungen), die über einer wertvollen Ölquelle (Daten) schwimmt. Das Öl wartet nur darauf, gefördert zu werden. Jede EIM-Lösung spielt hier ihre eigene Rolle bei der Verarbeitung der Informationen aus dem Supply Chain Data Lake. Setzen Sie Business Network ein, um die Daten in ein Backend-Softwaresystem wie ERP zu übertragen. Oder nutzen Sie Analytics, um Performance-Trends zu identifizieren, die ein Eingreifen erforderlich machen. Schritt vier: Informationen zugänglich machen Schließlich greifen die wichtigsten Stakeholder aus dem ganzen Unternehmen auf die IoT-Plattform zu, beispielsweise Nutzer aus Beschaffung, Produktion oder Logistik. Diese können die Informationen auf vielfältige Weise verwerten. Einige wichtige Anwendungsfälle betreffen jedoch die Supply Chain. Sie zeigen, wie eine voll integrierte IoT-Plattform mit weltweiter Zugriffsmöglichkeit Supply-Chain-Prozesse optimieren kann. Im bereits erwähnten Webinar mit Gartner habe ich erklärt, wie eine auf EIM aufbauende IoT-Umgebung drei Prozesse rund um die Supply Chain unterstützt: umfassende Transparenz, automatische Lagerauffüllung und vorausschauende Wartung. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Regulierungsfragen: Im Bereich Life Sciences geht es 2017 um Zusammenarbeit – Teil Zwei

Das Internet der Dinge

Das Gesundheitswesen und alle damit verbundenen Branchen zählen zu den größten potenziellen Wachstumsmärkten. Dies liegt zum einen an der demographischen Entwicklung der Bevölkerung, zum anderen am schnellen Fortschreiten der Digitalisierung. Ob Patientenkartei, Telemedizin oder computergestützte Operationsmethoden – die IT ist heute aus dem Gesundheitswesen nicht mehr wegzudenken. Zu diesem Schluss kommt auch der deutsche Bundesverband Gesundheits-IT (BVITG) in seinem Jahresbericht 2016. Entsprechend ortet der Branchenverband eine positive Marktentwicklung und relativ hohe Margen für spezialisierte Anbieter. Eine Ausnahme von dieser Regel scheint der deutsche Markt für Diagnostikgeräte zu sein. So gaben Diagnostik-Unternehmen bei einer Umfrage des Verbandes der Diagnostica-Industrie (VDGH) an, „der Markt sei mit 0,1 oder 0,2 Prozent faktisch nicht gewachsen“. Als Grund wird der „Preisverfall im Massengeschäft“ genannt. In Spezialbereichen wie personalisierter Medizin gäbe es dagegen ein stabiles Wachstum. Ein Bild, das symptomatisch für die einzelnen Sparten der Life Sciences ist. Dabei sind die Biowissenschaften ein sehr innovativer Sektor. So stellte die Boston Consulting Group fest, dass fast 20 Prozent der innovativsten Unternehmen weltweit (Englisch) aus dieser Branche stammen. PwC prognostiziert sogar, dass das Gesundheitswesen die IT-Branche 2018 in puncto höchste Ausgaben für Forschung und Entwicklung (Englisch) ablösen werde. Das Innovationsparadoxon unter der Lupe Trotz aller Bemühungen herrscht Mangelware an neuen Produkten. 2016 fiel die Anzahl der durch die FDA neu zugelassenen Medikamente auf den tiefsten Stand seit sechs Jahren (Englisch). Die rasante Zunahme an therapieresistenten „Superkeimen“ verdeutlicht, dass seit über 30 Jahren (Englisch) kein wirklich neues Antibiotikum auf den Markt kam. Die schlechte Rendite der Ausgaben für Forschung und Entwicklung erklärt das Paradoxon steigender Innovation bei gleichzeitig sinkender Zahl an neuen Produkten. Wie Deloitte in einer Studie ermittelte, fiel die Rendite der zwölf größten Pharmaunternehmen für Forschungs- und Entwicklungsausgaben 2016 auf gerade einmal 3,7 Prozent gegenüber einem Höchstwert von 10,1 Prozent im Jahr 2010 (Englisch). Obwohl viele Führungskräfte aus dem Bereich Life Sciences in Bezug auf die Neuentwicklung von Medikamenten optimistisch bleiben, ist klar erkennbar, dass der Erfolg von zwei Faktoren abhängt: Intern geht es um die Erhöhung der Betriebseffizienz. Außerhalb des Unternehmens müssen neue strategische Allianzen geschaffen werden. Das Internet der Dinge rückt das Thema Cybersecurity verstärkt in den Mittelpunkt Wie die Financial Times 2014 feststellte, nimmt die Online-Sicherheit im Gesundheitswesen und in der Pharmabranche schneller ab, als in allen anderen Branchen (Englisch). Da der Sektor, wenn es um Innovation, Forschung und Entwicklung sowie Produktion geht, immer IT-getriebener wird, steigt auch die Cyberkriminalität – etwa durch Diebstahl geistigen Eigentums, internationale Industriespionage oder DoS-Attacken. Da die Branche sowohl die digitale Transformation wie auch das Internet der Dinge (IoT) durchaus begrüßt, gehört das Thema Sicherheit zu den Top-Prioritäten eines jeden IT-Leiters. Der Trend zu vorbeugenden und ergebnisorientierten Modellen beruht auf der Möglichkeit, den Gesundheitszustand der einzelnen Patienten zu messen und zu überwachen. Doch ob nun Wearables oder eine andere Form intelligenter medizinischer Geräte zum Einsatz kommen: Jede erforderliche Online-Verbindung macht verwundbar. Kürzlich demonstrierten Experten auf einer Konferenz zum Thema Cybersecurity, wie sich Geräte wie Insulinpumpen hacken lassen (Englisch). Die unbestrittene Gefahr für den Einzelnen erhöht aber auch die Wahrscheinlichkeit, dass sich Geräte wie Herzschrittmacher als Ausgangspunkt für DoS-Attacken auf andere Ziele nutzen lassen. Um diesen Sicherheitsrisiken Paroli zu bieten, leitet die FDA Hersteller medizinischer Geräte (Englisch) dazu an, angemessen mit Cybersecurity-Bedrohungen umzugehen und die Risiken zu begrenzen. Die Begeisterung für das Internet der Dinge wird durch die notwendige Garantie einer lückenlosen Sicherheit gedämpft. Denn hier geht es um weit mehr, als sich Zugang zu den Endgeräten der Nutzer zu verschaffen. Es geht um die sichere Datenübertragung, aber auch um das sichere Verwalten und Speichern von Informationen im Life-Sciences-Unternehmen selbst. Security-by-Design – in alle OpenText-Lösungen integriert (Englisch) – wird künftig zum grundlegenden Bestandteil jedes Bereichs der IT-Infrastruktur für Unternehmen im Gesundheitswesen und der Pharmabranche. Betriebseffizienzen steigern – für höhere Margen und einen kürzeren Time-to-Market Mit der entschiedenen Ausrichtung auf wertorientierte Medizin, personalisierte Betreuung und die öffentliche Gesundheit erfährt die Life-Sciences-Branche ein noch nie dagewesenes Ausmaß an Konvergenz und Zusammenarbeit. Die Unternehmen haben begonnen, ihre Geschäftstätigkeiten durch die gemeinsame Entwicklung von Produkten und neuen Dienstleistungen zu verändern. Das Modell „Nicht unsere Entwicklung“ hat aufgrund der immer komplexeren und teureren Produktlebenszyklen ausgedient. Wie Deloitte festhält (Englisch): „Immer häufiger wird während des Produktentwicklungszyklus zusammenarbeitet – eine effektive Möglichkeit für Biopharma- und Medizintechnik-Unternehmen, um die steigenden Kosten für Forschung und Entwicklung, Finanzierungslücken, immer komplexere Krankheitsbilder und technische Fortschritte auszugleichen.“ Die vernetzte Supply Chain als Schlüssel zum Erfolg Life-Sciences-Firmen machen sich in diesem Jahr daran, traditionelle lineare Lieferketten in eine Supply Chain aus dynamischen, miteinander vernetzten Systemen zu transformieren und integrieren die Ökosysteme ihrer Partner. Mit dieser neuen Form der Supply Chain lässt sich die Wertschöpfungskette über eine reine Produktentwicklung hinaus ausdehnen. Im immer stärker ergebnisorientierten Gesundheitswesen umfasst die Wertschöpfungskette auf diese Weise auch die Durchführung von Pflege und Betreuung. Unternehmen, die eine sichere, offene und integrierte Supply Chain implementieren, sind in der Lage, Kosten zu senken, die Qualität zu steigern und Risikomanagement im gesamten Partnerökosystem zu betreiben. Diese Supply Chain schafft die Basis, um das Partnernetzwerk im Bereich Life Sciences schnell und einfach zu erweitern (Englisch). Sie wollen Ihre Geschäftsstrategien und Prioritäten in den nächsten zwölf bis 18 Monaten evaluieren? Dann setzen Sie auf Zusammenarbeit. Ein vertrauenswürdiger Partner wie OpenText kann Ihrem Unternehmen bei der Vorbereitung auf künftige Herausforderungen helfen. Kontaktieren Sie mich uns gerne unter: http://www.opentext.de/wer-wir-sind/contact-us/contact-opentext Sie haben den ersten Teil dieses Zweiteilers verpasst? Hier können Sie darauf zugreifen. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Compliance Richtlinien: Im Bereich Life Sciences geht es 2017 um Zusammenarbeit – Teil Eins

Compliance Richtlinien

Das deutsche Gesundheitssystem zählt laut den Ergebnissen einer aktuellen Studie des Verbandes Privater Krankenversicherungen (PKV) zu den besten weltweit. So ist die Bundesrepublik beispielsweise mit durchschnittlichen 3,5 Monaten von der Zulassung bis zur Markteinführung neuer Medikamente europaweiter Spitzenreiter. Dennoch wünschen sich die Patienten Verbesserungen, etwa bei Krankenhäusern sowie im Bereich Information und Aufklärung über Behandlungen und Therapien. Auch die Gesundheitstelematik, also die Übertragung von medizinischen Daten zu verschiedenen Zwecken und zwischen verschiedenen Beteiligten, wird immer weiter ausgebaut. Derzeit nutzen mehrheitlich Ärzte, Krankenhäuser und Labore diese Services. Zukünftig sollen alle Anbieter von Gesundheitsdiensten über solche Netzwerke verfügen. Neben vielen Vorteilen stellt die digitale Transformation das Gesundheitswesen aber auch vor Herausforderungen – beispielsweise in den Bereichen Compliance Richtlinen und Datenschutz. Leben bedeutet ständige Entwicklung Die Life Sciences (Biowissenschaften) entwickeln sich – wie das Leben selbst – beständig weiter. Das starre, rein auf Produkten basierende System aus sich ergänzenden, aber klar voneinander abgegrenzten, Spezialisten im Gesundheitswesen weicht zunehmend einem nahtlos ineinandergreifenden Ökosystem. Als Treiber für Innovationen und preisliche Wettbewerbsfähigkeit in diesem Ökosystem gelten wachsende und globale Wertschöpfungsketten sowie strategische Allianzen. Sichere Möglichkeiten zur Zusammenarbeit sind dabei von zentraler Bedeutung (Englisch) meint Greg Reh, Leiter der Life-Sciences-Sparte bei Deloitte: „Life-Science-Unternehmen stehen in mehrerer Hinsicht unter Druck, etwa bei den Kosten, in Hinsicht auf den Gesetzgeber oder bei betrieblichen Prozessen. Ein deutlich kollaborativeres Vorgehen im Bereich Forschung und Entwicklung über die Vermarktung bis hin zur Produktion und Distribution kann den Druck in etlichen Punkten herausnehmen.“ Die verstärkte Zusammenarbeit betrifft alle Bereiche eines Life-Science-Betriebs. Die folgenden Trends 2017 werden demnach die meisten dieser Unternehmen beschäftigen. Bereiten Sie sich auf Unsicherheiten im Compliance-Umfeld vor Über den Einfluss der Trump-Administration auf die Einhaltung gesetzlicher Bestimmungen (Englisch) wurde viel berichtet. In diesen unsicheren Verhältnissen können sich Unternehmen aus der Life-Science-Branche ein „Abwarten und Tee trinken“ nicht leisten. Soviel steht fest: Es wird neue Gesetze und damit neue Regelungen geben. Ob es nun um die anstehende neue Richtlinie der EU für medizinische Geräte (Englisch) oder um MACRA (Medicare Access und CHIP Reauthorization Act; Englisch) in den USA geht: Gesetzliche Änderungen legen keine Pause ein – auch nicht für einen neuen Präsidenten. Auch die Durchsetzung der Regelungen rückt wieder stärker in den Mittelpunkt. Das ist allgemein bekannt. Laut der Anwaltskanzlei Norton Rose Fulbright wurde 2016 ein Drittel aller Sammelklagen in den USA gegen Life-Science-Unternehmen erhoben (Englisch). Diese Zahl ist in den vergangenen drei Jahren kontinuierlich gestiegen. Die Kanzlei stellte ebenfalls fest, dass 56 Prozent der Klagen im Jahr 2014 aufgrund angeblicher Fehlinterpretationen oder Versäumnissen erfolgten. In Folge konzentrierten sich die Unternehmen auf ein effektives Content Management im Marketing (Englisch), um adäquate Qualitätskontrollen für Promotion- und Werbematerialien zu entwickeln. Außerdem werden gesetzliche Vorgaben in Bereichen wie TCPA und FCPA immer strikter durchgesetzt. Im vergangenen Jahr stimmte der Generika-Hersteller Teva International einer Zahlung von 519 Millionen Dollar zur Beilegung parallel laufender Zivil- und Strafverfahren zu (Englisch). Compliance Richtlinien gehen alle gemeinsam an Innerhalb der erweiterten Wertschöpfungsketten wird Compliance immer mehr zum gemeinschaftlichen Prozess, um sicherzustellen, dass Informationen von den Regulierungsbehörden abgerufen werden können. Doch auch darüber hinaus ist Teamwork das Gebot der Stunde. Life-Science-Firmen müssen stärker zusammenarbeiten, da die globalen Regulierungs- und Vollzugsbehörden bereits miteinander kooperieren (Englisch). Je mehr Regulierungs- und Vollzugsbehörden Informationen austauschen und zusammenarbeiten, umso wichtiger wird es, Compliance-Risiken über alle Bereiche der Organisation und darüber hinaus zu managen. Deloitte rät (Englisch) Organisationen, die Compliance-Risiken in den Griff bekommen wollen: Stellen Sie von nachträglichen Ereignis-Checks auf die Erkennung und Lösung von Compliance- und Qualitätsproblemen in Echtzeit um Stellen Sie Predictive Insights und Analytics zur Risikoerkennung zur Verfügung Sorgen Sie bei globalen Geschäftstätigkeiten für mehr Transparenz hinsichtlich von Maßnahmen und Qualitätsproblemen Identifizieren Sie übergreifende Standardisierungsmöglichkeiten für Compliance-Prozesse für Geschäftsfelder, Partner und Märkte Automatisieren Sie die Prozesse für Ihre Compliance Richtlinien Preisbewusste Kunden sorgen auch weiterhin für eine wertorientierte Preisbildung Laut Statista hat sich der Absatz markenfreier Generika zwischen 2005 und 2015 nahezu verdoppelt (Englisch). Die japanische Regierung will bis 2020 80 Prozent der Markenmedikamente durch Generika ersetzen (Englisch). Die Preissensibilität steigt – sowohl bei den Käufern wie auch bei den Regulierungsbehörden. In vielen Volkswirtschaften begrenzen rückläufige Steueraufkommen die Ausgaben im Gesundheitssystem. Regierungen und Versicherungen wollen die Ausgaben für Produkte zu Behandlungsergebnissen verlagern. Tatsächlich sollen im Jahr 2018 bereits 90 Prozent der Zahlungen der US Centers for Medicare and Medicaid Services (CMS, Bereich des US-Gesundheitsministeriums) wertorientiert erfolgen (Englisch). Pharmaunternehmen stehen durch eine wertorientierte Preisbildung noch stärker unter Druck. Aber sie bietet auch Chancen, die Rentabilität von Markenmedikamenten zu erhalten. Die Unternehmen können eine ganzheitlichere Sichtweise (Englisch) anstreben und den Blick stärker auf die Patienten und deren Bedürfnisse richten. Das erfordert durchgängige Systeme zur Verwaltung der Wirknachweise. Diese müssen die Unmengen von Daten, die durch die Verarbeitung von Behandlungsergebnissen entstehen, nutzen können. Auf diese Weise können Dienstleistungen mit einem Mehrwert für die Patientengesundheit angeboten werden, anstatt einfach mehr oder teurere Medikamente zu verkaufen. Bei OpenText sind wir überzeugt, dass die Aufwände für die digitale Transformation (Englisch) stets auch die Integration einer passenden Softwareumgebung für wertorientierte Preisbildung beinhalten sollten. Das erhöht die Effizienz im Tagesgeschäft und verkürzt die Zeit bis zur Markteinführung. Lesen Sie im nächsten Blog den zweiten Teil dieses Beitrags. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Europäische Datenschutz-Grundverordnung: Es geht nicht nur um Daten

Europäischer Datenschutz

Nomen est Omen: Bei der europäischen Datenschutz-Grundverordnung geht es in der Tat um Daten. Doch das ist nur ein Teil der Geschichte. In Wahrheit geht es um Informationen. Wer das nicht versteht, erliegt einem Missverständnis und wird die Vorgaben der Verordnung nicht erfüllen können. Dieses Missverständnis muss unbedingt aus dem Weg geräumt werden, denn die Zeit läuft ab: In nicht mal einem Jahr – ab dem 25. Mai 2018 – müssen die Unternehmen die neuen Vorschriften erfüllen, sonst wird es teuer – vom Imageschaden bei Bekanntwerden von Verstößen mal ganz abgesehen. Vorteil für deutsche Unternehmen Die europäische Datenschutz-Grundverordnung ist kein Mythos, sondern Realität. Auch wenn großer Zeitdruck herrscht, haben die deutschen Unternehmen einen entscheidenden Vorteil. Im Prinzip dehnt nämlich die neue Verordnung den strengen deutschen Datenschutz auf ganz Europa aus. Allerdings bestehen zwei ganz grundlegende Unterschiede zum bisherigen deutschen Recht. Erstens müssen die Unternehmen die Grundsätze des Datenschutzes nicht nur einhalten, sondern auch alles, was damit zu tun hat, lückenlos dokumentieren. Das ist unerlässlich, denn zweitens kehrt die europäische Verordnung die Beweislast um. Jetzt sind es die Unternehmen, die den Aufsichtsbehörden gegenüber nachweisen müssen, dass sie die Vorgaben einhalten. Außerdem haben sie Vorfälle von sich aus zu melden. Früher mussten die Aufseher Verstöße aufdecken und Beweise vorlegen. Von Daten zu Informationen Beim europäischen Datenschutz geht es also gar nicht nur um die personenbezogenen Daten selbst. Mindestens genauso wichtig sind die Informationen darum herum. Nehmen wir den ersten der sechs Grundsätze der DSGVO. Dieser lautet: Personenbezogene Daten müssen auf rechtmäßige Weise, nach Treu und Glauben und in einer für die betroffene Person nachvollziehbaren Weise verarbeitet werden. Um den betroffenen Personen einfach, verständlich und lückenlos darlegen zu können, dass und wie sie deren Daten schützen, brauchen Unternehmen eine Menge Informationen: angefangen bei den zu schützenden Daten selbst, über die damit verbundenen Zwecke und Prozesse bis hin zu den Menschen, die damit umgehen, und deren Verantwortlichkeiten. All diese Informationen müssen an einem zentralen Ort gesammelt, verarbeitet und verwaltet werden. Nur so sind die Unternehmen überhaupt in der Lage zu wissen, ob und wie sie die Vorgaben des europäischen Datenschutzes einhalten. Und nur so können sie sowohl den Aufsichtsbehörden als auch den Betroffenen selbst darüber Auskunft geben. Datenschutz: Eine echte Chance Die Unternehmen brauchen folglich ein einheitliches und unternehmensweites Managementsystem für Informationen. Positiver Nebeneffekt: Ein solches System sorgt nicht nur für Rechtssicherheit, sondern schafft die Grundlage für einen optimierten Umgang mit Unternehmensinformationen generell. So kann sich der europäische Datenschutz als ein Wettbewerbsvorteil erweisen, um den uns die Welt beneiden wird. Denn er setzt ein durchgängiges, unternehmensweites Informationsmanagement auf Basis vollständig digitalisierter Daten und Prozesse voraus. Das erst ist die Basis für digitale Geschäftsmodelle, das Herzstück der digitalen Transformation. Wer jetzt handelt und ein unternehmensweites Informationsmanagement in Angriff nimmt, kann die eventuell bereits verlorene Zeit aufholen und die Konkurrenz in Sachen Digitalisierung hinter sich lassen. Warum das so ist, erklären wir Ihnen kurz und knapp in unserer Animationsserie „GDPR – Über Datenschutz zum Wettbewerbsvorteil“. Viel Spaß beim Anschauen!

Weiterlesen

Sag mir, wo die Millennials sind? Nutzen Sie Customer Experience Management und erfüllen Sie die Erwartungen Ihrer Kunden!

Customer Experience Management, Millennials

Meine Frau und ich haben kürzlich in einem örtlichen Restaurant Halt gemacht. Hier waren wir früher häufig beim Essen. Es war genauso gut und preiswert wie damals. Die Angestellten waren engagiert, gut gelaunt und freundlich. Aber es fehlte etwas: andere Gäste. Vor allem Millennials waren nicht zu sehen. Das Restaurant war während der Hauptgeschäftszeit nur zu etwa einem Viertel besucht. Wir erinnerten uns, dass es hier früher immer sehr geschäftig zuging. Diese Tage schienen der Vergangenheit anzugehören. Ist schlechte Kundenerfahrung der Grund? Zufällig hatten wir beide zuvor ein paar Artikel über die Generation Y gelesen.  Die Millennials vermeiden die traditionellen Familienrestaurants, zu denen ihre Eltern sie mitgenommen hatten. Obwohl kein Artikel dieses besondere Restaurant erwähnt hatte, passte die Beschreibung auf jeden Fall. Was wir sahen, schien die These dieser Artikel zu bestätigen. Während des Essens diskutierten wir darüber, warum diese Veränderung wohl stattgefunden hatte. War etwa schlechte Kundenerfahrung der Grund? Soweit es meine Frau und mich betraf, hatte sich nichts geändert: Kundenerlebnis und Service waren genauso. Und eigentlich würde ich sagen, dass sich beides sogar leicht verbessert hatte. Also fragten wir unsere eigenen „Millennials“, unsere älteste Tochter und ihren Ehemann: Habt Ihr jemals wieder bei unserem ehemaligen Lieblingsrestaurant gegessen? Das veränderte Essverhalten der Millennials Die Antwort war interessant:  Die Millennials gehen nicht so „zum Essen“ aus, wie wir es damals getan haben oder immer noch tun. Für sie und die meisten ihrer Freunde, ist „Essen gehen“ Teil eines ganzen Abendprogramms. Sie essen schnell etwas. Und gehen hinterher zu einem Konzert oder einer Veranstaltung. Bevorzugt in der Nähe des Veranstaltungsortes. Sie wollen einfach nur schnell etwas zu sich nehmen und dann weiterziehen. Wollen sie Gerichte wie in einem Restaurant, lassen sie sich alles nachhause liefern. Ihre erste Wahl sind Restaurants, die mit Zustelldiensten wie UberEATS, (derzeit noch nicht in Deutschland vertreten) oder Lieferheld und ähnlichen Lieferservices vernetzt sind. Hier können sie die Menüs ansehen, nach Wahl zusammenstellen, ordern und online bezahlen. Aber sie können auch noch direkt an die Haustüre liefern lassen. Customer Experience Management als Schlüssel zum Erfolg Also handelt es sich hier um ein Problem mit den Kundenanforderungen. Dabei geht es gar nicht um ein taktisches Erlebnis auf Mikro-Ebene, wie beispielsweise Service oder das Restaurant selbst. Es geht um die strategische Makro-Ebene. Das Verhalten eines Teils der Kunden hat sich verändert. Und jedes Restaurant, das sich nicht physisch in der Nähe von anderen Unterhaltungsmöglichkeiten befindet oder einen Lieferservice anbietet, wird erst gar nicht in den Entscheidungsprozess einbezogen. Innerhalb des Customer Experience Management nutzen wir Tools wie  Website-Optimierung, Analytics, Umfragen und mehr, um die „Voice of the Customer“ (Kundenstimme) zu erfassen, damit wir bessere, ansprechendere Erlebnisse liefern können. Diese basieren jedoch auf den Aktivitäten und Erfahrungen unserer Kunden Können wir die gleichen Tools nutzen, um Informationen über diejenigen Erlebnisse zu sammeln, die wir nicht liefern, nach denen potenzielle Kunden jedoch suchen könnten? Wie verfolgen wir die Verhaltensänderungen einer demografischen Zielgruppe und wie nutzen wir die Erkenntnisse, um strategische Entscheidungen über sich verändernde Kundenanforderungen zu treffen?Ich habe darauf keine unmittelbaren Antworten, aber dies ist eine interessante Diskussion. Und es ist ein Thema, über das ich während meiner Session auf der letzten OpenText™ Enterprise World referiert habe: „Ten Trends in Customer Experience Management für 2017“. Lesen Sie mehr über Customer Experience Management im Blog. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Digitaler Wandel und Digitalisierung – Achtung: Verwechslungsgefahr?

Digitaler Wandel

Ämter und Behörden sind rückständige Organisationen, die alles auf Papier festhalten? Bei einem amtlichen Archiv handelt es sich um endlose, verstaubte Korridore voller Aktenschränke? Und auf die eigenen Daten zugreifen kann nur, wer vorher endlose Anträge ausgefüllt und Gebühren bezahlt hat? Eine Vorstellung, die so längst nicht mehr zutrifft. In Österreich beispielsweise sollen über digitale Bürger-Services und Online-Behördenwege zukünftig jährlich bis zu 500 Milliarden eingespart werden. In Deutschland existiert seit 2015 ein eGovernment-Gesetz, das Anfang 2017 um eine sogenannte „Open Data“-Regelung erweitert wurde. Diese soll den Zugang zu öffentlichen Daten, etwa Statistiken, Verkehrs- oder Wetterdaten erleichtern. Digitalisierung und digitale Transformation sind auch in der öffentlichen Verwaltung angekommen. Mehr als Digitalisierung –  digitaler Wandel Die digitale Transformation steht schon seit geraumer Zeit ganz oben auf der Prioritätenliste von IT-Managern der öffentlichen Hand. Dennoch zeigen sich laut einer Studie von Deloitte nur 41 Prozent der Führungskräfte aus Ämtern und Behörden mit den Reaktionszeiten ihrer Organisationen auf digitale Trends (Englisch) zufrieden. Vielleicht lässt sich diese Diskrepanz zwischen Wunsch und Wirklichkeit durch eine Gartner-Umfrage unter IT-Leitern im öffentlichen und privaten Bereich erklären, nach der die Digitalisierung auf Platz eins ihrer Prioritäten steht (Englisch). Doch wenn wir uns auf die Digitalisierung konzentrieren, laufen wir Gefahr, das wahre Gestaltungspotenzial digitaler Technologien zu übersehen. Die Bedeutung der Digitalisierung sollte nicht unterschätzt werden. Der Umstieg von papierbasierten auf digitale Prozesse bietet enorme Vorteile, wenn es um Kosten und Effizienz geht. Deloitte hat in einem Report zu den Bestrebungen zur digitalen Transformation in Australien ermittelt, dass eine papierbasierte Transaktion mehr als das 3.000-fache einer Online-Transaktion kostet (Englisch). Im Juli 2014 unterzeichneten die OECD-Mitgliedsstaaten die Empfehlung, „Regierungen sollten eine Strategie für digitale Behörden entwickeln und umsetzen“. Darin stellte die Organisation eindeutig klar, dass die Digitalisierung nur der erste Schritt sein kann. Wie es ein OECD-Bericht formuliert: „Die Herausforderung besteht nicht darin, digitale Technologien in der öffentlichen Verwaltung einzuführen (Digitalisierung). Sie ist weit transformativer – es geht darum, die Nutzung digitaler Technologien in die Modernisierungsbestrebungen des öffentlichen Sektors zu integrieren (digitale Behörde).“ Digitaler Wandel: Nutzererfahrung vs. Effizienz Aus meiner Sicht besteht die Gefahr bei der Digitalisierung in einer Überbetonung der Bürgererfahrungen zum Nachteil der operativen und prozessualen Verbesserungen, die der digitalen Transformation eigen sind. In diesem Punkt gehe ich mit Rick Howard, VP Research bei Gartner, konform. Er meint: „Die digitale Behörde wird momentan als Erweiterung früherer Initiativen für eGovernment (Englisch) umgesetzt – Stichwort Online-Behördengänge. Dabei werden die bestehenden operativen oder Dienstleistungsmodelle weitgehend beibehalten.“ Namhafte Beispiele für einen digitalen Wandel auf dem öffentlichen Sektor – etwa gov.uk (Englisch) in Großbritannien oder census.gov (Englisch) in den USA – zeigen nur einige der Vorteile eines digitalen Serviceangebots. Je weiter sich eGovernment von der digitalen Bereitstellung von Daten zu einem durchgängigen digitalen Prozess entwickelt, umso mehr steigt der Nutzen für Organisationen aus dem öffentlichen Sektor – etwa durch Kundenbindung, maßgeschneiderte Serviceangebote und effiziente Betriebsabläufe. Großbritannien – derzeit laut UNO weltweit führend im Bereich eGovernment (Englisch) – setzt auf eine „standardmäßig digital“-Strategie (Englisch) für alle neuen Services. Die britische Regierung betrachtet Erfolg als etwas Vielschichtiges und stellt fest: „Wer digitalen Behörden zum Erfolg verhelfen will, muss mehr Menschen dazu bewegen, ihre Behördenwege online zu erledigen. Das wiederum bedeutet mehr und bessere Online-Services anzubieten – beispielsweise einen einzigen, gebündelten Online-Service zur Anmeldung eines Neugeborenen zu schaffen, anstatt von den Eltern zu erwarten, sich in den Zuständigkeiten von lokalen und zentralen Behörden sowie dem National Health Service (NHS) zurechtzufinden. Dabei gilt es auch die Dienste im Hintergrund zu verbessern, damit die manuelle Bearbeitung bald der Vergangenheit angehört. Eine Bearbeitung von Anträgen auf Kindergeld sollte zum Beispiel nicht mehr bis zu zwölf Wochen dauern. Veränderungen dieser Art haben ein großes Einsparungspotenzial – wir rechnen mit 1,3 bis 2 Milliarden Pfund bis 2020.“ Digitaler Wandel: Neue Ansätze für die digitale Transformation Einige der frühen Programme zur digitalen Transformation wurden wahrscheinlich von den Bürgern zur Behörde gestaltet, anstatt von den Ämtern auszugehen. Wir haben also auf die passenden Benutzeroberflächen und Kanäle für gute Interaktion mit den Bürgern geachtet und den Prozessen im Hintergrund nicht genug Zeit gewidmet. Es gibt jedoch Anzeichen dafür, dass die Organisationen des öffentlichen Sektors ihre Aufmerksamkeit vermehrt den zur Unterstützung der digitalen Transformation notwendigen Systemen und Prozessen zuwenden. In der NASCIO-Umfrage unter den IT-Leitern der US-Bundesstaaten zu den technischen Prioritäten 2017 (Englisch) landeten Konsolidierung/Optimierung der Systeme auf dem zweiten und Modernisierung der Altsysteme auf dem fünften Platz. Organisationen der öffentlichen Hand müssen sich von geschlossenen Business-Systemen verabschieden, wollen sie vollständig von den Vorteilen der digitalen Transformation profitieren. Stattdessen sollten sie eine Plattform einführen, die sich über die gesamte Organisation und darüber hinaus erstreckt. Die passende Plattform: EIM als Grundlage für eine effektive Digitalisierung Rick Howard von Gartner fasst es treffend zusammen: „In einer Behörde hat ein Geschäftsmodell die Aufgabe, von den Bürgern unabhängigen Nutzen innerhalb der geltenden Gesetze, bereitgestellten Mittel und Risikotoleranz zu liefern. Im Gegensatz dazu bietet eine Plattform einem Unternehmen die Grundlage, auf der sich Ressourcen vereinen lassen (Englisch) – manchmal sehr schnell und zeitlich begrenzt, manchmal weitgehend standardisiert. Gemeinsam generieren diese Ressourcen eine Wertschöpfung, die über die budgetären und gesetzlichen Grenzen hinausführen kann.“ Mit der Implementierung einer Enterprise Information Management Plattform steht Regierungsbehörden eine solche Grundlage zur Verfügung. Auf dieser Basis lassen sich Geschäftsprozesse neu gestalten. Gleichzeitig wird eine über alle Kanäle sichere Interaktion mit den Bürgern geschaffen, die effektive digitale Behördenwege auszeichnet. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Warum die DSGVO das digitale Marketing auf den Kopf stellt

DSGVO

Marketing ist ein entscheidender Faktor für den Unternehmenserfolg, daran ist im B2C-Bereich nicht zu rütteln. Deutsche B2B-Unternehmen haben das ebenfalls erkannt – laut den Ergebnissen einer Studie des Bundesverbands Industrie Kommunikation (bvik) waren die Marketingausgaben 2016 um 28 Prozent höher als noch 2015. 96 Prozent der Befragten dieser Studie gaben zudem an, digitales Marketing sei das wichtigste Kompetenzfeld der Zukunft. Doch gerade auf das digitale Marketing und die dafür benötigten personenbezogenen Daten kommt eine große Veränderung zu. Wir wissen, dass die Datenschutz-Grundverordnung (DSGVO) den Compliance- und IT-Beauftragten einige Kopfschmerzen bereitet. Sie sind mit den neuen Anforderungen der DSGVO und deren Auswirkungen auf ihre Unternehmen gut beschäftigt. Wahrscheinlich am stärksten betroffen ist jedoch das Marketing – insbesondere das digitale Marketing. In diesem Bereich ist ein kultureller Wandel erforderlich, der Herausforderungen mit sich bringt, intelligent agierenden Organisationen allerdings auch Erfolgschancen bietet. Es geht um Zustimmung Die Tage der impliziten, versteckten und gebündelten Zustimmung sind gezählt. Ab Mai 2018 müssen Marken eine aktive Zustimmung einholen, die „freiwillig, spezifisch, informiert und eindeutig“ ist, um der DSGVO zu entsprechen. Jemand hat seine Email-Adresse für den Download eines Whitepapers angegeben? Wenn keine aktive Zustimmung zur Nutzung dieser Daten für den Versand von Marketing-Emails vorliegt, ist der Eintrag dieser Email-Adresse in Ihre Mailingliste jetzt illegal. Zudem gibt es keine „Bestandsdatenklausel“ für vor dem Inkrafttreten der DSGVO gesammelte Daten. Auf uns kommen also eine Menge „Kampagnen zur erneuten Genehmigung“ zu, um eine eindeutige Zustimmung zur Nutzung der bereits gespeicherten personenbezogenen Daten zu erhalten. Die DSGVO verändert den Einsatz von eingeschränktem Content, der nur über bestimmte Angaben (etwa der Email-Adresse) zugänglich ist, die Leadgenerierung und auch die Funktionsweise von Empfehlungsprogrammen. Mit anderen Worten: Das „wir sammeln die Daten jetzt und entscheiden später, was wir damit tun“-Verfahren wird zur Hochrisiko-Strategie. Marketingexperten stehen also vor der Herausforderung, eine Zustimmung für „jeden einzelnen Zweck“ zu ermöglichen, ohne dabei aufdringlich zu wirken oder der Customer Experience zu schaden. Berechtigtes Interesse ist kein Freifahrtschein Die DSGVO besagt, dass ein „berechtigtes Interesse“ des für die Verarbeitung Verantwortlichen die gesetzliche Basis für eine Nutzung personenbezogener Daten ohne vorherige Zustimmung darstellt (DSGVO Art. 6.1(f)). Diese Klausel sollten Marketingexperten jedoch mit Vorsicht nutzen. Denn sie können sich nur auf berechtigtes Interesse berufen, wenn dies „keine unerwünschten Auswirkungen“ auf die betroffenen Personen hat. Anders formuliert: Will ein Unternehmen personenbezogene Daten nutzen, müssen seine berechtigten Interessen gegen die Interessen und Grundrechte der betroffenen Person abgewogen werden. Die Beweislast (Englisch) für den entsprechenden Nachweis trägt das Unternehmen. Personalisierung … und Datenschutz – die Konsumenten wollen beides Die Ergebnisse einer aktuellen Studie zeigen, dass 90 Prozent (Englisch) der Konsumenten Bedenken zum Datenschutz (Englisch) hegen. Allerdings wünschen sie sich auch einen stark personalisierten und maßgeschneiderten Kundenservice. Denn Personalisierung bildet die Grundlage jeder zeitgemäßen Kundenerfahrung. Heutige Kunden treffen Kauf- und Kundentreue-Entscheidungen anhand der Qualität der persönlichen Kundenservice-Erfahrung. Damit stehen viele Unternehmen und Marketingexperten vor einer echten Herausforderung: Um stark personalisierte Angebote bereitzustellen, müssen sie tieferen Einblick in die Bedürfnisse, bereits getätigten Käufe und das Verhalten ihrer Kunden gewinnen. Das erfordert das Sammeln, Analysieren und Verwalten von Kundendaten über diese Vorlieben und Verhaltensweisen. Andererseits stellt die Studie klar, dass die Konsumenten zunehmend kritisch in puncto Datenschutz (Englisch) und der Nutzung ihrer Daten sind. Marketingexperten müssen also Möglichkeiten finden, die DSGVO einzuhalten und gleichzeitig weiterhin die personalisierten Produkte, Dienstleistungen und Kundenerfahrungen zu bieten, die ihre Kunden erwarten. Pseudonymisierung – die neue Hoffnung des Marketings? Die EU sagt ausdrücklich, dass die DSGVO geschäftliche Innovationen vereinfachen – und nicht verhindern – soll. Tatsächlich nennt die Richtlinie die „Freiheit, ein Unternehmen zu führen“ als ein von ihr geachtetes Grundrecht. Die Aufzeichnung und Auswertung von Verhaltensweisen und Vorlieben der Konsumenten ist eines der Werkzeuge, von denen der Erfolg von Marketing- und Vertriebsmitarbeitern abhängt. Das Verfahren der Pseudonymisierung könnte eine Möglichkeit für Gesetzgeber und Unternehmen bieten, sich auf halbem Wege zu treffen. Die DSGVO definiert Pseudonymisierung als „Verarbeitung personenbezogener Daten in einer Weise, dass die personenbezogenen Daten ohne Hinzuziehung zusätzlicher Informationen nicht mehr einer spezifischen betroffenen Person zugeordnet werden können“. Es handelt sich dabei um eine Maßnahme zur Verbesserung des Datenschutzes. Daten, die sich direkt zuordnen lassen, werden getrennt von den verarbeiteten Daten sicher gespeichert. Das verhindert die Zuordnung dieser Daten zu einer bestimmten Person. Wie sich herausstellt, müssen die für die Verarbeitung Verantwortlichen den betroffenen Personen weder Zugriff, Korrektur- / Löschmöglichkeiten oder Datenübertragung gewähren, wenn sie das Datensubjekt (die betroffene Person) nicht mehr identifizieren können. Unternehmen sollten sich also nach Technologien zur Pseudonymisierung oder Unkenntlichmachung von Konsumentendaten und zur Verschlüsselung personenbezogener Daten umsehen. In Kombination mit der Veränderung von organisatorischen Abläufen sichert das die Compliance. Mai 2018: Wissen Sie, wo Ihre personenbezogenen Daten sind? Ein Großteil der Unternehmen erklärt, sie seien nicht ausreichend auf die DSGVO vorbereitet (Englisch). Einer der Hauptgründe dafür ist die möglicherweise belastende Forderung, personenbezogene Daten dem Datensubjekt auf Anforderung rasch zum Löschen, Korrigieren oder Übertragen zur Verfügung zu stellen. Nach den Ergebnissen einer kürzlich durchgeführten Studie zum Stand der Vorbereitungen auf die DSGVO (Englisch) verfügen derzeit nur 26 Prozent der Befragten über ein aktuelles Verzeichnis der gespeicherten personenbezogenen Daten und deren Verwendungszweck. Wenn es je einen richtigen Zeitpunkt gab, gespeicherte personenbezogene Daten, vorliegende Arten von Zustimmung und notwendige Verwaltungsstrukturen in den Griff zu bekommen, dann jetzt. Modelle zur Datenklassifikation, Methoden zur Datenspeicherung und Datenaufbewahrungsprogramme müssen überprüft werden. Sorgen Sie dafür, dass die Übertragung, Entfernung oder Korrektur von Daten nicht nur möglich, sondern auch effizient ist – wenn und wann immer notwendig. Wie OpenText Sie bei der Umsetzung der DSGVO unterstützt Für digitale Marketingexperten ändert die DSGVO die Spielregeln. Natürlich gibt es Herausforderungen zu bewältigen, das Blatt kann sich jedoch auch zu ihren Gunsten wenden. Ja, die Tage von „Datenmaximierung“ und Generalerlaubnis scheinen vorbei zu sein. Doch genau aus diesen Gründen wird die DSGVO auch neue Chancen eröffnen. Die DSGVO zwingt Unternehmen, durchdachtere Wege für eine genaue Zielgruppenansprache und Leadgenerierung zu entwickeln. Potenzielle Kunden, die ausdrücklich zustimmen, sind qualifizierter, interessierter und wollen etwas verkauft bekommen. Da die Konsumenten mehr Kontrolle über die Verwendung ihrer Daten haben, verbessert sich die Beziehungsqualität zwischen Unternehmen und ihren potenziellen Kunden. OpenText™ Enterprise Information Management (EIM) Lösungen unterstützen Organisationen bei der Erfüllung gesetzlicher Anforderungen. Daher sollten diese zentraler Bestandteil Ihrer DSGVO-Compliance (Englisch) und Datenschutzstrategie sein. Laut Forrester „haben sich 77 Prozent der Konsumenten (Englisch) bereits einmal für eine Marke entschieden, diese empfohlen oder dafür einen höheren Preis gezahlt, weil sie einen personalisierten Service oder eine personalisierte Customer Experience bot“. Unsere Lösungen aus dem Customer Experience Management Portfolio für den optimalen Mitarbeitereinsatz beinhalten Stimmungsanalysen, die es Ihnen erlauben, die Effektivität Ihrer Marketingkampagnen zu messen. Wir bieten Ihnen Orientierungshilfe bei der Kommunikation adäquater Werbemaßnahmen, je nachdem, ob das Einverständnis des Konsumenten vorliegt oder nicht. Hier (Englisch) erfahren Sie mehr über unsere Lösung. Weitere Artikel zum Thema DSGVO finden Sie hier: Fünf Compliance-Herausforderungen für 2017 Die DSGVO und ihre Auswirkungen auf EIM DSGVO: Chance oder Gefahr für B2B-Unternehmen? Wie Sie die Herausforderungen der DSGVO mit Discovery Analytics meistern Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Die vierte industrielle Revolution

Industrie 4.0

Mit der vierten industriellen Revolution steht uns ein radikaler Umbruch bevor. Viele bisherige Geschäftsmodelle sind mit Industrie 4.0 hinfällig. Neue digitale Modelle müssen erst geschaffen werden. Der deutsche ITK-Branchenverband Bitkom veröffentlichte vor kurzem einen Leitfaden, der Anwendungsfälle neuer Geschäftsmodelle in vier wichtigen Industriezweigen vorstellt. Der Fortschritt schafft aber auch neue Probleme. Juristen müssen sich damit auseinandersetzen, wer für die Fehler selbstlernender Maschinen haftet. Dabei ist die Digitalisierung gar nicht so neu. Die Erfindung des Computers beflügelte die dritte industrielle Revolution. Digitale Daten begleiten uns seit einigen Jahrzehnten. Die Automatisierung und der Einsatz von Robotern in der Produktion sind vielfach seit Jahren gesetzt. Mobilfunk und Internet entstanden noch im vorigen Jahrtausend. Bleibt die Frage: Was unterscheidet die vierte von der dritten industriellen Revolution? Nun, im Grunde genommen alles. Die vierte industrielle Revolution ist gekennzeichnet von exponentiellem Denken, wo lineare Lösungen nicht länger ausreichen. Digitale Versionen ersetzen die analogen. Wissen und Erfindungen verstärken sich gegenseitig. Im Endeffekt ist Evolution nur die Neukodierung von Information. Alle Menschen, Kulturen, Branchen und Länder sind betroffen. Jegliche Art von Produktion, Verwaltung, Systemen und Behörden wird sich verändern. Industrie 4.0 der unbegrenzten Möglichkeiten – und Gefahren Die Möglichkeiten sind unbegrenzt: schnellere Entwicklung von Prototypen und Markteinführung dank 3D-Druck als Produktionsmethode. Nanotechnologien zur Erforschung von Krankheiten. Mikrofinanzierung mit Beratungsrobotern und hochentwickelten Algorithmen. Effizientere und erschwingliche vernetzte Häuser. Komfortableres und sichereres Reisen mit selbstfahrenden Autos. Nicht zu vergessen unsere höhere Lebenserwartung und die Verbesserungen in den Bereichen Energie, Materialwissenschaften, Unterhaltung und Verbraucherschutz. Die Liste ist schier endlos. All diese Fortschritte basieren auf der Weiterentwicklung von Künstlicher Intelligenz (KI), maschinellem Lernen, Algorithmen, unendlich großen Datensätzen und Robotik. Doch auch die Gefahren nehmen zu: Identitätsdiebstahl, Cyberkriminalität, Industriespionage, neue Formen von Konflikten und Kriegen, Enthumanisierung, Vergrößerung der digitalen Kluft, Automatisierungsangst, Radikalisierung und Propaganda (Stichwort „Fake News“). 2016 wurde meine Identität gestohlen. Das bemerkte ich nur, weil das Internal Revenue Service (Steuerbehörde der USA) meine Steuererklärung mit der Begründung zurückwies, ich hätte diese bereits eingereicht. Sechzehn Monate später habe ich immer noch mit den Folgen zu kämpfen. Die drei zentralen Konzepte der Industrie 4.0 Drei zentrale Konzepte trennen die vierte von der dritten industriellen Revolution: extreme Vernetzung extreme Rechenleistung und extreme Automatisierung. Extreme Vernetzung Handys verbinden heute fast fünf Milliarden Menschen (Englisch). Im Jahr 2025 sollen es sechs Milliarden (Englisch) sein. Heute belaufen sich die monatlichen Kosten für ein Smartphone auf 150 US-Dollar. 2025 werden sie 150 US-Dollar im Jahr (Englisch) betragen. Es fällt nicht schwer, die nach oben strebende Kurve nachzuvollziehen. Die Prognose von einer Billion über das Internet vernetzter Geräte (Maschinen) ist keineswegs Science Fiction. Bei all den Autos, Handys, Häusern, Produktionsmaschinen, Flugzeugen, LKW, Schiffen, Getränkeautomaten usw. kommt schnell einiges zusammen. Sechs Milliarden vernetzte Menschen, eine Billion vernetzte Maschinen – das ist extreme Vernetzung. Extreme Rechenleistung Sie können schon jetzt extreme Verarbeitungsleistung von Microsoft Azure oder Amazon Web Services mieten. Quantencomputer und Qubit schaffen noch mehr. Mit der vierten industriellen Revolution werden Quantencomputer zur Norm. Menschen können Computer heute nicht mehr beim Schach besiegen. Der Go-Weltmeister ist ebenfalls ein Computer. Der AlphaGo von Google ersetzt in diesem Fall das Alphamännchen. Und das ist nicht noch gar nichts im Vergleich zu den Möglichkeiten von Quantencomputern und Qubit. Die Leistung der Quantencomputer hat mittlerweile fast 128 Qubit Verarbeitungskapazität erreicht. Bei 1.024 Qubit Verarbeitungsleistung könnte ein einziger Quantencomputer alle weltweit existierenden Verschlüsselungscodes beinahe in Echtzeit knacken. Damit würden sofort alle Zugänge geöffnet, von Banken über Tresore und Konten mit persönlichen Daten bis hin zu Waffensystemen. Das Ergebnis wäre eine Welt ohne Zugangsbeschränkungen und Sperren. Das ist extreme Rechenleistung. Extreme Automation Extreme Vernetzung und extreme Rechenleistung legen die unendlichen Möglichkeiten für extreme Automatisierung offen. (Fakten werden offen gelegt, nicht geschaffen): kognitive Systeme, KI, maschinelles Lernen, 3D-Druck (für Prothesen, Kleidung und Maschinenteile), Algorithmen und Produktionsmethoden in enormer Skalierbarkeit. Fünf Milliarden Google-Suchen täglich (Englisch), 200 Millionen Bestellungen pro Tag auf Alibaba (Englisch) und zwei Milliarden Facebook-Nutzer weltweit (Englisch). Automationstechnik wird Autos steuern, Krebs heilen, ganze Belegschaften ersetzen, Versicherungsrisiken reduzieren, Kriege führen und uns unterhalten. Letztendlich entsteht eine neue Spezies empfindungsfähiger Wesen mit künstlichem Bewusstsein. Das ist extreme Automation. Die vierte industrielle Revolution birgt ein Potenzial für Umwälzungen, die uns noch gar nicht bewusst sind. In meinem nächsten Beitrag werde ich näher darauf eingehen, wie sich das auf Unternehmen auswirkt. Einen weiteren Artikel zum Thema Industrie 4.0 finden Sie in meinem Blog. Zum Weiterlesen können Sie The Golden Age of Innovation hier (Englisch) herunterladen. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Machen Sie die Customer Experience anfassbar!

Customer Experience

Eine positive Customer Experience gilt heute als Schlüssel zum Erfolg. Immerhin gaben in einer Studie von Capgemini 81 Prozent der Kunden an, für ein besseres Kundenerlebnis auch mehr bezahlen zu wollen. Im Zuge der digitalen Transformation optimieren daher vor allem Unternehmen im B2C-Bereich ihren digitalen Kundenservice. Investiert wird in Online-Shopping, Online-Serviceportale, Beratung mittels Chatbots oder Möglichkeiten zur Individualisierung von Produkten per Internet. Oft wird jedoch vergessen, dass die Customer Experience nicht nur digital ist. So stellte sich beispielsweise bei einem Test deutscher und Schweizer Online-Lebensmittelshops heraus, dass zu viel Verpackungsmüll bei der Lieferung einige Kunden von einer weiteren Bestellung abhielt. Die reale Welt hatte in diesem Fall einen weitaus größeren Einfluss auf die Kundenzufriedenheit als die digitale. Unternehmen, die sich zufriedene Kunden wünschen, sollten also regelmäßig überprüfen, ob ihre physikalischen Produkte und Dienstleistungen ein ebenso positives Kundenerlebnis bieten wie ihre digitalen Kommunikationskanäle. Ein Tropfen zu viel Alles begann mit einem Wassertropfen. Beim Griff in den Kühlschrank spürte ich einen Tropfen auf der Hand, der dort nichts zu suchen hatte. Ich fand schnell heraus, woher das Wasser kam. Eine Leitung hatte sich gelöst. Zumindest hielt ich das für die Ursache. Ich konnte den Leitungsschlauch wieder befestigen. Es tropfte weniger, hörte aber nicht ganz auf. Was auch immer defekt war, befand sich wohl außerhalb meiner Reichweite tief im Innenleben des Kühlschranks. Kein Problem, der Kühlschrank hatte schließlich noch Garantie. Ich rief die Website des Herstellers auf und füllte dort das Onlineformular für einen Anruf des Reparaturservices aus. So weit, so gut – bis zu der Zeile, in der die Seriennummer des Kühlschranks abgefragt wurde. Wichtig, aber gut versteckt: die Seriennummer Zurück in der Küche öffnete ich jede Tür, beäugte jeden Part des Kühlschranks und notierte mir jede Nummer, die ich fand. Wie sich herausstellte, war die gesuchte Seriennummer nicht dabei. Doch genau diese sollte ich in dem Formular angeben, um mit dem Reparaturdienst Kontakt aufzunehmen. Ich rief bei der Kundenservicehotline an. Die Dame dort erklärte mir, die Seriennummer würde benötigt, damit sie die richtige Information zur Modellnummer für eventuelle Ersatzteile hätten und Kaufdatum und Garantieleistung prüfen könnten. Das klang vernünftig. „Und wo finde ich die Seriennummer?“, fragte ich. „Auf einem Aufkleber am Kühlschrank.“ „Und wo am Kühlschrank befindet sich dieser Aufkleber?“ „Ach so, auf der Rückseite.“ „Auf der Rückseite. Der Rückseite, die zur Wand zeigt, und in einen Schrank unserer maßgefertigten Küche eingebaut ist?“ „Ja.“ Auch die Produkte selbst sind Teil der Customer Experience Das erinnerte mich an meine Zeit in der produzierenden Industrie. Einer meiner Arbeitgeber nutzte die Seriennummer ebenfalls als primäres Identifikationsmerkmal für Geräte im Falle einer Wartung oder für benötigte Ersatzteile. Eine Analyse unseres Online-Serviceportals zeigte, dass sich 70 Prozent der Kunden bei der Angabe der Seriennummer irrten. Sie hatten entweder geraten oder stattdessen meist die Modellbezeichnung des Produkts angegeben (eine hübsche Kombination aus Zahlen und Buchstaben, die auf der Seite in großen Lettern und leuchtenden Farben aufgemalt war). Die tatsächliche Seriennummer befand sich auf einem kleinen Metallplättchen unter einer Abdeckung. Im Benutzerhandbuch war das auch genauso beschrieben. Kein Problem also. Oder doch? Beides sind ausgezeichnete Beispiele für eine durch die Konzentration auf die digitale Kundenkommunikation entstehende Kluft in der Customer Experience. Oft vergessen die Unternehmen dabei das echte Produkt als Teil des Gesamterlebnisses. Customer Experience als Gesamterfahrung Die Kundenerfahrung ist eine ganzheitliche Übung. Unternehmen müssen den Transfer von Prozessen und damit verbundenen Daten von der realen in die digitale Welt, und umgekehrt, vereinfachen. Nehmen wir zum Beispiel Ihr Auto. Falls Sie gerade die FIN (Fahrzeugidentifizierungsnummer) (für Service, Zulassung, Versicherung oder ähnliches) benötigen: Sie steht in Ihrem Fahrzeugschein. Außerdem ist sie mehrfach am Fahrzeug selbst angebracht – meist im Motorraum oder an der rechten Fahrzeughälfte. Sie suchen den korrekten Reifendruck? Sehen Sie einfach auf dem entsprechenden Aufkleber nach. Sie finden ihn entweder bei geöffneter Fahrertür unten am Schweller oder auf der Innenseite des Tankdeckels. Die Automobilindustrie hat im Laufe der Jahre ausgezeichnete Arbeit geleistet und den einfachen Zugang zu wichtigen Informationen standardisiert. Hier könnten sich zahlreiche Hersteller anderer Produkte eine Scheibe abschneiden. Wenn rund um uns das Internet der Dinge zum Leben erwacht, schwinden die Grenzen zwischen physisch und digital rasch. Die Customer Experience sollte ein wichtiger Teil dieser Entwicklung sein. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Maschinengestützte Entscheidungen auf Basis von Big Data? Künstliche Intelligenz vorkonfiguriert und problemlos implementiert – OpenText Magellan macht’s möglich

Big data

Eigentlich leben wir in Zeiten von Big Data doch in einem echten Informationsparadies. Immer leistungsfähigere und erschwinglichere Technologie erlaubt es uns, Daten aus fast jedem Prozess sammeln zu können: von überhitzten Zugbremsen bis hin zu Kommentaren über die Service-Qualität am Flughafen. Und wir streuen diese Informationen breit und in Echtzeit. Mit relativ geringem Aufwand kann ein Unternehmen oder eine Agentur Petabytes an Daten ansammeln – mehr Informationen, als die gesamte Menschheit bis zum 20. Jahrhundert angehäuft hat. Und das Speichern von Informationen ist in der Tat von entscheidender Bedeutung, denn in einer zunehmend wettbewerbsorientierten Wirtschaft müssen Unternehmen alle nur möglichen Erkenntnisse nutzen, um ihr Geschäft zu erweitern und den Mitbewerbern immer einen Schritt voraus zu sein. Das Problem ist jedoch: Wie können Unternehmen diese unendlichen Mengen an Daten verwalten, Muster erkennen und nützliche Erkenntnisse daraus erhalten? Und, wie kann man aus diesen Erkenntnissen zeitnahe und nutzbringende Reports erstellen? Wer in Ihrem Unternehmen ist schon Data Scientist oder hat entsprechendes Know-how im Programmieren? Sie können für diese Dienstleistungen natürlich auch viel Geld bezahlen. OpenText kann Ihnen helfen, Big Data sinnvoll einzusetzen Lernen Sie Magellan (englisch) kennen: die flexible, KI-basierte Analytics-Plattform kombiniert maschinelles Lernen auf Basis von offenen Systemen und Standards mit erweiterten Analysemöglichkeiten, BI und Funktionen, um Big Data und Big Content in Ihrem Enterprise Information Management (EIM) zusammenzuführen, zu verwalten und zu analysieren. Treffen Sie mit Magellan schnellere, skalierbare und intelligentere Entscheidungen Magellan ermöglicht maschinell unterstützte Entscheidungsfindung und hilft Ihnen bei der Automatisierung und Optimierung Ihres Unternehmens. Mit Magellan können Sie Wertschöpfung und Erkenntnisse aus Ihren Datenbeständen gewinnen und die Vorteile von KI-getriebenen Analysen zur schnelleren Entscheidungsfindung und Aufgabenautomatisierung nutzen. Was bedeutet dies im tatsächlichen Geschäftsbetrieb (Video in Englisch)? Sie können jetzt mit Hilfe von Magellan Entscheidungen treffen und Maßnahmen schneller und in größerem Umfang als je zuvor ergreifen. Sie können maschinelles Lernen nutzen, um den Wert der Daten in Ihrer Enterprise Information Management (EIM)-Lösung zu erschließen. Verstehen und analysieren Sie Kunden, Handelspartner, Mitarbeiter, Bestellungen, Rechnungen, Geschäftsfälle, Dokumente und andere Daten, die von Ihren OpenText-Lösungen verwaltet werden. Technische Probleme, die sonst große Analyse-Projekte schachmatt gesetzt haben, stellen jetzt keine Hürde mehr dar. Magellan kann eine Vielzahl von Datentypen (strukturiert oder unstrukturiert) und Formaten leicht verarbeiten. Da Magellan eine einzige, zusammenhängende Infrastruktur mit vorintegrierten Komponenten ist, benötigen Sie weniger Zeit und Know-how, um produktiv zu sein. Dies bedeutet auch eine kürzere Amortisierungszeit! Geben Sie Ihren Mitarbeitern Zugriff auf die Daten Wir haben die Magellan-Plattform entworfen, damit Sie Ihre Daten demokratisieren (englisch) können, indem wir die Zusammenarbeit und den Zugang zu Erkenntnissen aus Daten vereinfacht haben. Mit KI-Fähigkeiten nach dem neuesten Stand der Technik können Data Scientists kundenspezifische analytische und prädiktive Algorithmen erstellen. Diese kann jeder Business Analyst oder jeder andere Anwender nutzen, um nahezu jede relevante Frage zu beantworten. Dies ist nicht beschränkt auf strukturierte Daten (d.h. Zahlen und andere Datenbankinhalte). Magellan kann auch Erkenntnisse aus unstrukturierten Daten wie Text und Social Media liefern, da es leistungsfähige, globale Sprachverarbeitungsfunktionen für Big Data und Big Content beinhaltet, inklusive Themenidentifikation, Kategorisierung, Entity Extraction und Sentimentanalyse. Mit Magellan können Anwender ihre Ergebnisse kontinuierlich verfeinern, denn die leistungsstarke Machine Learning Library von Spark MLlib ist integriert. MLlibs macht angewandtes Machine Learning (ML) einfach und skalierbar. Die vorhandenen Daten werden untersucht, neue Informationen eingegeben und die vorhergesagten Ergebnisse mit den tatsächlich eingetretenen verglichen. So erhalten Sie immer die aktuellsten und vollständigsten Erkenntnisse. Mit Magellan können Sie die Flexibilität, Erweiterbarkeit und Vielfalt eines offenen Product Stacks nutzen und gleichzeitig die vollständige Kontrolle über Ihre Daten und Algorithmen behalten, denn Apache Spark ist auf offenen Systemen und Standards aufgebaut. Für die eigenständige Nutzung konzipiert Magellan erlaubt es der IT, auch nicht-technische Anwender mit einer Self Service-Schnittstelle zu versorgen. Businessanalysten können nun selber anspruchsvolle Algorithmen anwenden und die gefundenen Erkenntnisse verwerten. Die Lösung greift auf OpenText Analytics zu und liefert visuell ansprechende, benutzerfreundliche Analysen und Berichte. Sobald Sie Ihre Magellan-Abfragen eingerichtet haben, können Businessanwender ihre eigenen Schlussfolgerungen ziehen und nützliche Erkenntnisse und Vorhersagen selbst von sehr komplexen Datensätzen ableiten. Diese Fähigkeit ist zum großen Teil auf Magellan Notebook zurückzuführen, einer virtuellen Online-Computing-Umgebung, die auf der Jupyter Notebook-Anwendung basiert. Magellan Notebook ermöglicht es Data Scientists, sogenannte „Notes“ zu erstellen, also Live-Code, Gleichungen, Visualisierungen und erläuternde Texte zu kombinieren, welche benutzerdefinierte Algorithmen und maschinelle Lernroutinen definieren. Diese Notes können ganz einfach mit den anderen Anwendern geteilt werden. Mit diesen Routinen können Sie intelligentere Entscheidungen treffen, ohne dass Sie die Wissenschaft dahinter verstehen müssen. Hochwertige Komponenten für mehr Effizienz und Vielseitigkeit Magellan umfasst Best-of-Breed-Komponenten, sorgfältig aufeinander aufgebaut und integriert. Dies gewährleistet reibungslose Zusammenarbeit und reduziert Setup-Zeit und benötigtes Know-how deutlich. Sozusagen KI-unterstützte Analysen und BI mit wenigen Mausklicks. Magellan baut auf die bewährte OpenText™Analytics Suite (englisch) auf, die bereits Tausende von Unternehmen weltweit und in unterschiedlichen Branchen dabei unterstützt hat, über Erkenntnisse zu Aktionen zu kommen: effizienter, einfallsreicher und profitabler als je zuvor. Magellan fügt zudem die geschätzte Open Source-Plattform und KI-Komponenten wie Apache Spark und die MLlib Machine Learning-Bibliothek hinzu, die regelmäßig von der globalen Open Source Community erweitert und verbessert werden. Die Quintessenz: Magellan macht KI für eine große Anzahl an Business-Anwendern erschwinglich „Einfach zu bedienen“ und „kostengünstig“ sind in der Regel nicht diejenigen Begriffe, mit denen maschinelles Lernen und Business Intelligence-Technologien beschrieben werden. Anders Magellan: Die Plattform bietet deutliche Vorteile im Hinblick auf Geschwindigkeit und Skalierbarkeit. Unternehmen erhalten sofort wichtige Erkenntnisse aus ihrem Big Data-Pool und können entsprechende Maßnahmen ergreifen. Sie können die integrierte, vorkonfigurierte Analytics-Plattform mit Erkenntnissen aus künstlicher Intelligenz schneller in Betrieb nehmen, als Sie es je für möglich gehalten hatten. In den kommenden Wochen und Monaten werden wir bei OpenText weitere Details über Magellan veröffentlichen, unter anderem typische Anwendungsfälle. Wir werden zeigen, wie unterschiedliche Branchen einen Mehrwert erzielen können. Und wir werden tief in die Technik eintauchen. Lassen Sie uns über Big Data, Analytics und Magellan ins Gespräch kommen. In der Zwischenzeit klicken Sie bitte hier, um mehr zu erfahren (englisch). Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen

Digital Asset Management – viel mehr als nur hübsche Bilder für Web-Präsenzen bereitstellen

Digital Asset Management

Digital Asset Management: Die Unternehmenskommunikation mit Kunden, Geschäftspartnern und Mitarbeitern wird zunehmend digital. Nach den Ergebnissen einer Umfrage des Branchenverbandes BITKOM nutzen zum Beispiel 58 Prozent der deutschen Unternehmen das Smartphone zur Kommunikation, 22 Prozent sind in den sozialen Medien aktiv und 34 setzen Portale für Kunden oder Mitarbeiter ein. Allerdings: Damit sich die digitalen Kanäle positiv auf ein Unternehmen auswirken, müssen sie auch richtig genutzt werden. Die Erfahrungen der letzten Jahre zeigen deutlich, dass die Kunden immer anspruchsvoller werden, wenn es um Content geht. Die Optimierung von Inhalten für mobile Anwendungen und die Glaubwürdigkeit als Informationsquelle gehören heute zu den Voraussetzungen für ein erfolgreiches Digital-Marketing. Gerade wenn es um Bildmaterial oder Videos geht, sind professionelle Lösungen gefragt, die höchsten Qualitätsansprüchen genügen. Genau hier kommt das Digital Asset Management ins Spiel. Bilddateien unter Kontrolle Warum würden Sie eine Digital Asset Management (DAM) Plattform beschaffen und installieren? Möglicherweise, weil Sie – wie ich für einen früheren Arbeitgeber – das Content Management-Team leiten. Ich wollte in erster Linie den Datenfluss der genehmigten Bilder auf den Online-Präsenzen des Unternehmens unter Kontrolle bringen. Damals gestalteten wir gerade die Website und E-Commerce-Plattform neu, und ein wichtiger Teil des Projektes drehte sich um die Verwendung besserer Bilder. Außerdem sollte sichergestellt werden, dass das Bildmaterial markenkonform ist und den Sicherheitsrichtlinien entspricht. Die Nachricht, dass wir nun eine zentrale und sichere Quelle für markenkonforme Bilder besaßen, verbreitete sich schnell. Schon nach kurzer Zeit sprachen wir mit anderen Unternehmensbereichen und sogar mit Teilen unseres Händlernetzwerks darüber, wie sie zum DAM beitragen und Zugang dazu erhalten könnten. Anstatt nur jene Bilder vorzuhalten, die zur Verwendung auf der Website vorgesehen waren, speicherten wir bald jedes einzelne Bild aus unseren Produkt-Fotoshootings. Das wiederum erweckte das Interesse des Unternehmensarchivs. Innerhalb von 18 Monaten verfügten wir über eine Million visuelle Assets und mehr als 80.000 Nutzer, die darauf zugriffen. Wirklich interessant für uns war jedoch, dass das DAM zur Quelle für Applikationen und Anwendungsfälle wurde, an die wir nicht im Traum gedacht hätten. Digital Asset Management: Vielfältige Nutzungsmöglichkeiten Wir hatten zum Beispiel eine Möglichkeit entwickelte, leichte 3D-Modelle unserer Produkte anzufertigen. Die Quelldateien dafür speicherten wir ebenfalls im DAM. Plötzlich wurde das DAM zur Datenquelle für VR-Machbarkeitsstudien unserer Innovationen. Das digitale Leitsystem in den Ausstellungsräumen unserer Händler wurde ebenso eingepflegt wie Schulungen oder die Planung von Anlagen, Messen, Kunstbildbände, Kalender, lizensierte Waren und vieles andere. Als ich das Unternehmen verließ, hatten wir sechzehn verschiedene Anwendungsfälle für die im DAM gespeicherten Inhalte erfasst, und ich bin mir sicher, dass es heute noch mehr sind. Ich bin sicherlich nicht der Einzige, der bezeugen kann, wie vielseitig und effektiv sich eine leistungsfähige Digital Asset Management Plattform einsetzen lässt. Seit ich bei OpenText arbeite, sind mir noch weitere Nutzungsmöglichkeiten begegnet, zum Beispiel: Medienunternehmen erzeugen mit Hilfe von DAM DVD-Verpackungen und Werbebanner, die automatisch ihre Größe ändern und passend zum Zielmarkt und Vertriebskanal die entsprechenden Logos und Texte einfügen. Getränkefirmen nutzen ihr DAM als zentralen Bestandteil hochkarätiger Sponsorenprogramme zur Sportförderung. Eine Bahngesellschaft setzt DAM zur Verwaltung der Videos zur Schienenkontrolle ein, die von den am Bug der Lokomotiven montierten Kameras aufgezeichnet werden. Ein Hersteller von Flugzeugmotoren speichert und analysiert mit Hilfe des DAM Bilder von allen Maschinenteilen, die an einem Unfall beteiligt waren. Und wie setzen Sie Ihre Digital-Asset-Management-Plattform ein? Weiterführende Informationen vermittelt Ihnen unser Webinar vom 15. Februar: „Neues Potenzial (und ROI) für Ihr DAM erschließen“ (Englisch). Hier können Sie sich für den Zugang zur Webinaraufzeichnung anmelden. Dieser Artikel wurde aus dem Englischen übersetzt.

Weiterlesen