#1 2020-09-13 14:22:01

Norriszot
Member
From: Trinidad and Tobago
Registered: 2020-09-13
Posts: 1

Wie Sie mit Ihren Daten auf Reisen gehen

Zertifikatsstudium „ Data Science  and Big Data“ 2021 an der TU Dortmund.
June 25, 20200 Comments in Certification / Training, Data Science News, Education / Certification, Sponsoring Partner Posts  by Redaktion     Anzeige  Komplexe Daten aufbereiten und analysieren, um daraus zukünftige  Entwicklung en abzulesen: das lernen Sie im berufsbegleitenden Zertifikatsstudium „Data Science and Big Data“ an der TU Dortmund.
Jetzt bewerben.
Data Science & Big Data 2021  Die Zielgruppe sind Fachkräfte, die sich in ihrer Berufspraxis mit  Fragestellung en zum Thema Datenanalyse und Big Data befassen, jedoch nun tiefergehende Kenntnisse in dem Themenfeld erhalten möchten.
Von der Analyse über das Management bis zur zielgerichteten  Darstellung  der Ergebnisse lernen die Teilnehmenden dabei Methoden der Disziplinen Statistik, Informatik und Journalistik kennen.
Renommierte Wissenschaftlerinnen und Wissenschaftler vermitteln den Teilnehmerinnen und Teilnehmern die neuesten datenwissenschaftlichen  Erkenntnisse  und zeigen, wie dieses Wissen praxisnah im eigenen Big-Data Projekt umgesetzt werden kann.
Die nächste Studiengruppe startet im Februar 2021, der Bewerbungsschluss ist am 2.
November 2020.
Die Anzahl der verfügbaren Plätze ist begrenzt, eine rechtzeitige Bewerbung lohnt sich daher.
Nähere  Information en finden Sie unter: http://www.zhb.tu-dortmund.de/datascience             https://data-science-blog.com/wp-content/uploads/2020/06/Frontbild_5.
Studiengruppe_Data-Science_TU-Dortmund.jpg        720        1280          Redaktion          Redaktion  2020-06-25 09:13:58 2020-06-12 22:31:50 Zertifikatsstudium „ Data Science  and Big Data“ 2021 an der TU Dortmund     Was Kunden von Business-Transformation-Lösungen erwarten.
February 5, 20200 Comments in Sponsoring Partner Posts  by      Unabhängig davon, in welcher Branche Sie tätig sind, steht die  Kundenzufriedenheit  an erster Stelle.
Denn ohne Kunden kann es kein Geschäft geben.
Daher hat die Kundenzufriedenheit für viele  Unternehmen  oberste Priorität.
So drehen sich zahlreiche Studien, Artikel und Berichte um die Frage, was Kunden erwarten und wie Unternehmen diese Erwartungen erfüllen können.    Read this article in English: What Customers Want from Business  Transformation  Solutions   Aus Sicht des Prozessmanagements gibt es bereits eine Technologie, um die Interaktion von Kunden mit Ihrem Unternehmen zu verstehen: Customer Journey Mapping (CJM).).
Mithilfe von Customer Journey Mapping können Sie genau nachvollziehen, wie Kunden mit Ihrem Unternehmen agieren und wie ihre Erlebnisse dabei sind.
Es hilft bei der Beantwortung von Fragen wie:    Haben Kunden ein positives oder negatives Gefühl, wenn sie mit bestimmten Prozessen Ihres Unternehmens in Berührung kommen?.
Gibt es Punkte, an denen Kunden nicht weiterkommen oder weiter ziehen oder weitere Informationen wünschen?.
Wie reagieren die Kunden tatsächlich auf Ihre Kundenserviceoptionen.
Neben der internen Beantwortung dieser Fragen gibt es jedoch noch ein wichtigeres und zugleich ganz einfaches Instrument, die Kundenzufriedenheit und -bindung zu verbessern: Fragen Sie einfach Ihre Kunden!    Was Business-Transformation-Kunden erwarten Dank Technologie können Unternehmen ihre Kunden einfacher als je zuvor direkt zu Produkten und Dienstleistungen befragen.
Dabei besteht jedoch die Gefahr, dass Kunden zu häufig kontaktiert werden und sie genau das Gegenteil von dem erreichen, was sie wollten.
Darüber hinaus können Einschränkungen bei der Erfassung und Verwendung von Kundendaten dazu führen, dass die tatsächliche Kontaktaufnahme mit Kunden zu einer Herausforderung wird.
Eine Möglichkeit, um diese Hürden zu überwinden, sind online verfügbare technische Bewertungsservices.
Diese Websites bieten eine Fülle von Informationen darüber, was Kunden in den unterschiedlichsten Branchen schätzen.
Signavio verwendet beispielsweise  IT Central Station , um Aufrufe von Kunden zu Business-Transformation-Software zu verfolgen.
Wenn wir diese Aufrufe in ihrer Gesamtheit betrachten, fällt auf, dass immer wieder zwei Themen auftauchen: Zusammenarbeit und Benutzerfreundlichkeit.
Dies spiegelt sich auch in den Kommentaren von Benutzern wider:   „Aus meiner Sicht bietet der Collaboration Hub definitiv die wertvollsten Funktionen.
Immer mehr Benutzer nutzen ihn und machen sich damit vertraut.“.
„Nach meiner Erfahrung ist eine der besten Funktionen von Signavio der Collaboration Hub, über den Benutzer aus verschiedenen Abteilungen ständig auf ihr TO-BE-Prozessdesign zugreifen können.“.
„Als wir nach Lösungen suchten, war die Benutzerfreundlichkeit eines der wichtigsten Kriterien.
Die Benutzerfreundlichkeit hatte einen großen Einfluss auf die Akzeptanz in unserer Organisation.
Wenn die Mitarbeiter mit der Lösung ihre Probleme gehabt hätten, dann hätten sie sie nicht benutzt.
Ich würde sagen, die Benutzerfreundlichkeit ist ein ziemlich wichtiger Faktor bei der Entscheidung für eine Lösung.“.
„Eines der wichtigsten Merkmale der Lösung ist die Benutzerfreundlichkeit.
Eine wirklich gute Investition.
Mitarbeiter wollen Tools, die sie einfach und sofort nutzen können.“.
„Die Oberfläche ist sehr intuitiv.
Ich modelliere viele Prozesse und mit diesem Tool ist es für mich ganz einfach.“.
Ein letzter Tipp Um die Bedürfnisse Ihrer Kunden erfüllen und so eine dauerhafte Kundenbeziehung aufbauen zu können, müssen Sie Ihre Kunden verstehen.
Und wie so oft spielen auch hier Gefühle eine große Rolle.   Gleiches gilt für die Business Transformation, wie der Lead Business Analyst eines Medienunternehmens mit über 10.000 Mitarbeitern betonte: „Sie haben ein Gefühl dafür, was Sie tun möchten, und dann schauen Sie sich die verfügbaren Tools an und können Ihre Entscheidung umso leichter treffen.“  Sind Sie bereit, sich für die richtige Business-Transformation-Lösung zu entscheiden.
Dann registrieren Sie sich noch heute für eine  kostenlose 30-Tage-Testversion  bei Signavio.
2020-02-05 14:51:15 2020-03-06 09:35:53 Was Kunden von Business-Transformation-Lösungen erwarten       Wie künstliche Intelligenz hilft, Krankheiten zu bekämpfen.
January 28, 20200 Comments in Artificial Intelligence, Sponsoring Partner Posts,   by netapp     Die Herausforderungen im Gesundheitswesen sind gewaltig.
Die Kosten steigen, das Geld ist knapp und die Margen sinken.
Gleichzeitig fehlt es an Pflegepersonal, die vorhandenen Fachkräfte sind überarbeitet.
Kliniken müssen effizient wirtschaften, um Patienten die bestmögliche Versorgung zu gewährleisten – und gleichzeitig Datensicherheits- und Compliance-Anforderungen bei der Verarbeitung der anfallenden Daten sicherstellen.
Der Einsatz von künstlicher Intelligenz (KI) kann dabei helfen, dieses Dilemma zu lösen.
Algorithmen werden immer besser in dem, was sie tun – und sie arbeiten exakt, schnell und günstig.
KI unterstützt in der Medizin und Forschung dabei, Patienten besser zu versorgen, indem beispielsweise Krankheiten früher erkannt werden können.
Mit ihrer Hilfe könnten unter anderem die Gesundheitsausgaben in Europa in den kommenden zehn Jahren um einen dreistelligen Milliardenbetrag gesenkt werden, so das Ergebnis der PwC-Studie „Sherlock in Health – How artificial intelligence may improve quality and efficiency, whilst reducing healthcare costs in Europe“.
Des Weiteren haben die meisten Patienten keine Berührungsängste: 54 Prozent wären demnach schon heute bereit, sich auf KI und Robotik in der Medizin einzulassen.
KI, ML und DL als medizinische Unterstützung Algorithmen können in der Medizin auf unterschiedliche Weisen genutzt werden.
KI beschäftigt sich mit Methoden, bei denen Computertechnologien es ermöglichen, menschliches Verhalten zu imitieren.
Im Rahmen der medizinischen Bildgebung kann KI beispielsweise schnell Anomalien identifizieren, die für das menschliche Auge zu winzig erscheinen – oder große Datenmengen durchforsten.
Ein Computertomograph erzeugt bis zu 640 Schnittbilder bei einem einzigen Scan.
Wenn ein Radiologe sie ansehen und bewerten müsste, wäre das mit einem sehr hohen Zeitaufwand verbunden.
Eine spezielle KI-Applikation kann die Bilder dagegen schnell analysieren und diejenigen markieren, welche Anomalien aufweisen.
Die Radiologen können sich damit auf ihre Hauptaufgaben konzentrieren – Diagnose und Heilung.    Ein weiteres Anwendungsgebiet von künstlicher Intelligenz innerhalb der Medizin ist der Einsatz von Intelligent Agents (IA), zum Beispiel für die Überwachung von Vitalwerten von Patienten oder als Kontrollmechanismus für die Arbeit des Pflegepersonals, der Ärzte oder Apotheker.
Die Anwendungen überprüfen dann automatisch, ob die verschriebenen Medikamente und Therapien zum Krankheitsbild und zu den Werten des Patienten passen.   Anwendungen aus dem Teilbereich der KI „Maschinelles Lernen (ML)“ lernen eigenständig dazu, je mehr Daten erfasst werden.
Chirurgen können ML beispielsweise als Unterstützung verwenden, um den richtigen orthopädischen Eingriff nach einer Sportverletzung vorzubereiten.
Die Technologie analysiert Patientendaten und kann die Unterschiede bei Knieverletzungen unterschiedlicher Sportarten sichtbar machen.
So stehen dem Arzt detaillierte Informationen zur Verfügung, auf deren Basis er die Behandlung fortsetzt.
Deep Learning (DL) wiederum gilt als Teilbereich von ML und geht noch einen Schritt weiter, indem die Algorithmen nicht nur in der Lage sind, selbständig dazuzulernen, sondern sich auch kontinuierlich zu verbessern.
So werden große Datenmengen verarbeitet, aus denen Wissenschaftler mögliche neue Erkenntnisse für Behandlungserfolge gewinnen können.
Mit Hilfe von DL lassen sich beispielsweise bisher unbekannte Verbindungen zwischen bestimmten demografischen oder genetischen Indikatoren und unterschiedlichen Krankheiten aufdecken.
Ebenso gibt es DL-Algorithmen, die mithilfe großer Datenmengen so trainiert werden, dass sie kleinste Veränderungen in der Zellstruktur erkennen können, die beispielsweise zu Brustkrebs führen.
Die Fehlerquote bei der Brustkrebserkennung kann damit um bis zu 85 Prozent sinken, so eine Untersuchung von NVIDIA.
Komplexe KI-Projekte benötigen eine passende IT-Infrastruktur Damit KI, ML und DL im Gesundheitswesen effektiv eingesetzt werden können, gibt es einige Grundvoraussetzungen.
Zunächst einmal sind große Datenbestände notwendig.
Diese werden genutzt, um die Algorithmen zu trainieren, damit sie akkurat und autonom arbeiten sowie Muster erkennen und genaue Vorhersagen treffen können.
Dabei gilt es so viele Daten wie möglich zu berücksichtigen, unabhängig ob sie über verschiedene Systeme verteilt sind, aus unterschiedlichen Quellen stammen oder von mehreren unterschiedlichen Sensoren gesammelt wurden.
Jedoch sollten sie eine hohe Datenqualität aufweisen.
Darüber hinaus kann es sich um verschiedene Typen von Daten handeln (strukturiert, semi-strukturiert, unstrukturiert), die sich dynamisch entwickeln und verändern.   Damit Daten überall dort verfügbar sind, wo sie gebraucht werden, gilt es Datensilos aufzulösen und miteinander zu verknüpfen.
KI-Projekte stellen somit hohe Anforderungen an die IT-Infrastruktur hinsichtlich Datenverfügbarkeit und Datenqualität, Skalierbarkeit, Informationssicherheit sowie Genauigkeit mit hohen Ansprüchen an die Performance.
Eine solch komplexe KI-Umgebung selbst zu planen, zu implementieren und zu unterhalten stellt viele Unternehmen vor große Herausforderungen.
Es gibt jedoch schon umfassende Lösungen am Markt.
Beispielsweise bietet NetApp zusammen mit NVIDIA und Cisco eine Lösung für die genannten Herausforderungen: ONTAP AI.
Diese Architektur vereinfacht das komplette Datenmanagement: Informationen werden über das System sicher erfasst, weitergeleitet und verarbeitet, zum Training verwendet und analysiert.
ONTAP AI basiert auf einer verifizierten Architektur, die NVIDIA DGX-1 GPU‘s mit NetApp All Flash FAS Storage und Cisco Netzwerken zusammenführt und die Effizienz Ihrer KI-/DL-Umgebungen steigert.
Herzstück von ONTAP AI ist die NVIDIA DGX-1, ein vollständig integriertes und sofort einsatzbereites Hardware- und Softwaresystem, das speziell für DL entwickelt wurde.
Die DGX Plattform nutzt den Deep-Learning-Software-Stack der NVIDIA GPU Cloud, der für maximale GPU-beschleunigte DL-Performance optimiert wurde.
Mit dem schnellen All-Flash-Storage und den weltweit ersten End-to-End NVMe-Technologien sorgen NetApp All Flash FAS Systeme für einen kontinuierlichen Datenfluss.
So wird sichergestellt, dass die DGX-GPUs optimal mit Daten zur Verarbeitung versorgt werden und somit ein Flaschenhals hinsichtlich Datenbereitstellung durch die Storage-Systeme vermieden wird.   Schnelle Diagnose ONTAP AI kommt beispielsweise bei „BacillAi“ zum Einsatz, einem System zur Behandlung von Tuberkulose der Technologieberatungsfirma Cambridge Consultants.
Tuberkulose ist die zweithäufigste Todesursache in Entwicklungsländern, da die Krankheit mit einer aufwendigen Diagnose verbunden ist: Zellen einer Speichelprobe müssen unter dem Mikroskop gezählt werden.
Doch dafür gibt es nur wenig ausgebildetes medizinisches Personal.
BacillAi vereinfacht diesen Schritt – und liefert zudem genauere und schnellere Ergebnisse.
Ein Smartphone nimmt die Bilder der Speichelprobe von einem Standardmikroskop auf.
Der DL-Algorithmus identifiziert Tuberkulose-Zellen, zählt sie und bestimmt das Stadium der Krankheit.
Die Diagnose erhält der medizinische Mitarbeiter über eine App – somit ist das Ergebnis der Untersuchung zudem digitalisiert.
Fazit  Künstliche Intelligenz kann das Gesundheitswesen revolutionieren.

Unternehmen müssen dafür große Datenmengen aus unterschiedlichen Quellen erfassen

vorbereiten, verschieben, auf sie zugreifen und sie schützen.
Damit KI, ML und DL-Projekte erfolgreich sind, brauchen Unternehmen aber eine effiziente Daten-Pipeline und eine Architektur, die eine hohe Performance, Sicherheit und Skalierbarkeit ermöglicht.
Weiter Informationen zum Thema finden Sie HIER.
https://data-science-blog.com/wp-content/uploads/2020/01/Brand-Site-Banner-720x164.jpg-Original-File.jpeg        164        720          netapp          netapp  2020-01-28 15:20:30 2020-01-30 09:16:23 Wie künstliche Intelligenz hilft, Krankheiten zu bekämpfen     What Customers Want from Business Transformation Solutions.
January 13, 20200 Comments in Sponsoring Partner Posts  by      No matter what industry you work in, customer satisfaction is paramount.
After all, in most cases,  there can be no business without customers.
As such, keeping customers happy is a driving force for many organizations.
All sorts of studies have been conducted, articles and reports have been drafted and re-drafted, and consumers bombarded with market research questions, all in search of understanding what customers want, and how businesses can offer it to them.    Read this article in German:  Was Kunden von Business-Transformation-Lösungen erwarten    From a process management perspective, the technology to track the way customers interact with your business already exists, in the form of customer journey mapping (CJM).
Customer journey mapping helps you to understand exactly how customers engage with your business, and what their experience is like when they do.
It helps answer questions like:    Do customers have positive or negative feelings when they interact with specific touchpoints within your organization’s processes?.
Are there points where customers stall, or disengage, or want more information?.
How do the people you’re trying to reach really respond to your customer service options.
Asking these questions internally is essential.
However, an even more vital tool in building customer satisfaction and loyalty is a very simple one: just ask!   What business transformation customers want Technology enables businesses to ask customers directly about products and services more easily than ever, but there is an associated risk of consulting customers too much.
Rather than letting customers know you care, this can instead make them feel the opposite.
In addition, restrictions on the collection and use of customer data means actually contacting customers can be a challenge.
One way to overcome this is to make use of one of the technical review services available online.
Browsing any of these sites reveals a wealth of information about what customers value in all sorts of industries.
For example, Signavio uses  IT Central Station  to track customer views on business transformation software.
When we consider these views in aggregate, we can see two common threads emerge over and over: collaboration and ease of use.
Comments from real users return to these points often:   “For me, the features I find most valuable are definitely in the Collaboration Hub.
We are getting more users on there and becoming more familiar with it.”.
“Based on my experience, one of the best features offered by Signavio is its simple Collaboration Hub functions, where users from various departments can constantly refer to their TO-BE process design.”.
“One of the important things for us, when we were looking at solutions, was the ease of use.
The ease of use affected the adoption in our organization massively.
If it had not been easy to use and people were struggling with it, then they just would not have used it.
So I’d say it’s quite a high factor in making a choice.”.
“One of the most valuable features is ease of use, which has really been a good thing to put into the business.
People like tools that they can just pick up and use straight-away.”.
“The interface is quite intuitive.
I am modeling a lot of processes, so for me, it’s quite easy.”.
A final piece of advice Knowing where customers find value is crucial to understanding how to meet their needs best, and thus creating ongoing and meaningful customer relationships.
As with many customer-focused issues, feelings play a large role.   The same can be said for business transformation, as the Lead Business Analyst at a media company with over 10,000 employees pointed out: “You will have a gut feel of what you want to do and when you actually look at the tools that are out there it is easier to make your decision.”  If you’re ready to make your decision about the right business transformation solution for you, register for a free 30-day trial with Signavio today.
2020-01-13 14:43:50 2020-03-06 09:35:31 What Customers Want from Business Transformation Solutions     Das Gesamtbild im Fokus: Enterprise Architecture und Prozessmanagement verbinden.
December 9, 20190 Comments in , , , Sponsoring Partner Posts  by      Haben Sie jemals versucht, einen 3D-Film ohne 3D-Brille zu schauen.
Zwei Stunden undeutliche Bilder zu sehen, ist alles andere als ein Vergnügen.
Doch mit der richtigen Ausrüstung genießen Sie ein beeindruckendes Erlebnis mit realistischen, klaren und scharfen Aufnahmen.
Auf die gleiche Weise rückt die richtige Enterprise Architecture die komplexe Struktur einer Organisation in den Mittelpunkt des Geschehens.
Die IT-Umgebungen moderner Unternehmen bestehen aus einer wachsenden Anzahl hochkomplexer, miteinander verbundener und oft schwierig zu verwaltender IT-Systeme.
Und so scheint es häufig eine unüberwindliche Herausforderung zu sein, eine Balance zwischen Kundenservice und Effizienzanforderungen herzustellen.
Dies gilt insbesondere im Zusammenhang mit Social-, Mobile-, Cloud- und Big-Data-Technologien und effektiven täglichen IT-Funktionen und -Support.
Die Unternehmensarchitektur kann Organisationen dabei helfen, dieses Gleichgewicht herzustellen und zugleich Risiken zu handhaben, Kosten zu optimieren und Innovationen einzuführen.
Hier steht vor allem die erfolgreiche Umsetzung von Reform- und Transformationsprogrammen im Fokus.
Dabei stützt sich die Unternehmensarchitektur auf die Genauigkeit der komplexen Datensysteme eines Unternehmens.
Zugleich berücksichtigt sie      die sich ändernden Standards, Vorschriften und strategischen Geschäftsanforderungen.
Komponenten einer effektiven Enterprise Architecture Im Allgemeinen bestehen Unternehmensarchitektur-Frameworks aus vier voneinander abhängigen Disziplinen:  Geschäftsarchitektur.
Der Blueprint des Unternehmens, der ein allgemeines Verständnis der Organisation vermittelt und dazu dient, strategische Ziele und taktische Anforderungen aufeinander abzustimmen.
Ein Beispiel hierfür ist die Abbildung von Geschäftsprozessen mithilfe von Business Process Management Notation.
Datenarchitektur.
Die Domäne, die die Abhängigkeiten und Verbindungen zwischen den Daten, Richtlinien, Modellen und Standards einer Organisation aufzeigt.
Anwendungsarchitektur.
Die Ebene, die alle Softwarelösungen eines Unternehmens und ihre Beziehungen untereinander aufzeigt.
Infrastrukturarchitektur.
Diese Komponente befindet sich auf der untersten Architekturebene und zeigt die Beziehungen und Verbindungen der vorhandenen Hardwarelösungen eines Unternehmens auf.
Eine effektive EA-Implementierung bedeutet, dass Unternehmensmitarbeiter ein klares Verständnis dafür entwickeln, wie die IT-Systeme ihres Unternehmens die spezifischen Arbeitsprozesse ausführen und in welcher Verbindung sie zueinanderstehen.
Sie ermöglicht Benutzern, die Anwendungs- und Business-Leistung zu analysieren und leistungsschwache IT-Systeme schnell und effizient in Angriff zu nehmen.
Kurz gesagt: EA hilft Unternehmen bei der Beantwortung von Fragen wie:  Welche IT-Systeme werden von wem wo genutzt?.
Welche Geschäftsprozesse stehen mit welchem IT-System in Verbindung?.
Wer ist für welche IT-Systeme verantwortlich?.
Wie gut werden die Datenschutzanforderungen eingehalten?.
Auf welchem ​​Server werden die jeweiligen Anwendungen ausgeführt?.
Dieselben Fragen können auch auf die Geschäftsprozesse angewandt werden und bestimmen in diesem Fall das Business Process Management auf Unternehmensebene.
Kein Wunder also, dass die beiden Disziplinen zusammenpassen wie Popcorn und ein guter Film, oder.
Enterprise Architecture und Prozessmanagement verbinden Für die erfolgreiche Ausrichtung von Business und IT müssen die IT-Lösungen eines Unternehmens effektiv genutzt werden.
So können sie die Unternehmensziele und -Anforderungen erfüllen.
Standardisierte Sprache und Bilder (wie Flussdiagramme und Grafiken) sind oftmals hilfreich, um eine gemeinsame Brücke zwischen dem Fachbereich und der IT zu schaffen.
Auf die gleiche Weise sorgt die Kombination aus EA und kollaborativem Business Process Management für eine gemeinsame Sprache im gesamten Unternehmen.
Eine solche Basis ermöglicht es, Missverständnisse zu vermeiden und organisatorische oder technische Transformationsziele effektiv zu verfolgen.
Eine stärkere Verknüpfung von Management, IT und einer prozessorientierten Belegschaft führt dazu, dass fundiertere Entscheidungen zur Norm werden.
Eine erfolgreiche Kombination aus Prozessmanagement, Unternehmensarchitektur und IT gibt nicht nur Aufschluss darüber, wie sich Änderungen in einem Bereich auf die anderen Gebiete auswirken, sondern sorgt letztendlich auch für ein besseres Verständnis der tatsächlichen Funktionsweise des Unternehmens.
Dies führt wiederum zu einer leichteren Optimierung der Geschäftsprozesse und einer damit einhergehenden höheren Kundenzufriedenheit.
Eine effektive Unternehmensarchitektur bietet IT-Teams mehr Transparenz und ermöglicht eine effiziente Verwaltung der IT-Systeme und ihrer jeweiligen Schnittstellen.
Neben der Planung der kontinuierlichen Entwicklung der IT-Landschaft unterstützt EA – ebenso wie das Process Management – auch die strategische Entwicklung der Organisationsstruktur.
Mit der Kombination aus Enterprise Architecture und Process Management profitieren Sie von neuen Maßstäben in den Bereichen effiziente  IT-Systeme und Geschäftsprozesse sowie synchrone Optimierung und kontinuierliche Verbesserungen.
Die Nutzung eines Tools für Enterprise Architecture und Business Process Management bringt Business und IT näher zusammen und erzeugt Synergien, die unmittelbaren Mehrwert schaffen und positive Veränderungen im gesamten Unternehmen vorantreiben.
Möchten Sie mehr erfahren.
Setzen Sie auf 3-D-Ansichten und verleihen Sie Ihren EA-Initiativen mehr Tiefe mit Signavio.
Registrieren Sie sich noch heute für eine kostenlose 30-Tage-Testversion der Business Transformation Suite.
2019-12-09 08:04:33 2019-11-20 20:07:54 Das Gesamtbild im Fokus: Enterprise Architecture und Prozessmanagement verbinden     Process Mining als Radar: So spüren Sie Optimierungspotenziale auf.
September 21, 20190 Comments in , Sponsoring Partner Posts,   by      Unklare Prozesse können den Erfolg einer digitalen Transformation schnell behindern.
Process Mining  kann an dieser Stelle der Initiative zum Erfolg verhelfen.   Process Mining, funktioniert wie ein Radar.
Mithilfe dieser Methode lassen sich Prozesse überwachen und Schwachstellen identifizieren.
Dabei werden Prozessoptimierung und Data Mining kombiniert.
Unternehmen sind so in der Lage, bessere und faktenbasierte Entscheidungen zu treffen.
Dadurch erhalten Sie einen beispiellosen „Zugriff“ auf den versteckten Mehrwert in Ihren Prozessen.
Es ist, als ob Sie auf Schatzsuche sind und genau wissen, wo Sie suchen müssen – mit einem „Bodenradar“ als Vorteil.
Die Technologie bietet wertvolle, detaillierte Erkenntnisse für Ihre  Entscheidungsfindung  und zeigt zugleich verborgene Schätze und Möglichkeiten zur Umsatzsteigerung bei bisher unentdeckten Transformationsinitiativen auf.
Prozesse für geschäftliche Erkenntnisse in Echtzeit Die Ermittlung von Prozessen basierend auf Ihren Daten kann über die Standards Ihrer Mitbewerber hinausgehen, sodass Sie diesen einen Schritt voraus sind.
Mithilfe von Process Mining können Sie in digitalen Transformationsprojekten genau nachvollziehen, was in Ihrem Unternehmen vor sich geht.
Die umfangreichen digitalen Daten zu tatsächlichen Ereignissen, Entscheidungen und Prozesspfaden zeigen Ihnen auf, was initiiert oder bereits realisiert wurde.
Aus den Analysen lassen sich anschließend konkrete Ansätze ableiten, wie etwa Maßnahmen zur Kosteneinsparung oder einem genau definierten ROI.
Dies kann sogar auf ein ganzheitliches digitales Managementsystem für die dynamische und kontinuierliche Nutzung von Erkenntnissen aus einem Unternehmen ausgeweitet werden.
Process Mining ist die Grundlage der digitalen Transformation und der erforderlichen neuen Strategien, um zu verstehen, wie ein Unternehmen funktioniert.
Ticktack: Zeit, den Ist-Zustand des Prozesses zu ermitteln Mit einem expansiven Process-Mining-Ansatz wird die Optimierung zu einem Kernelement der DNA Ihres Unternehmens.
Durch das Aufspüren spezifischer Abläufe, die mit herkömmlichen Methoden in der Regel unentdeckt bleiben, erleichtert Process Mining das Steuern der Prozesspfade.
Dies bedeutet, dass die Funktionsweise eines Unternehmens besser analysiert und gesteuert werden kann, sodass die Prozessentwicklung und -optimierung zum Wegweiser von Unternehmen wird.
Der erste Schritt zur kontinuierlichen Verbesserung besteht darin, die besten Prozesse zu ermitteln, die gemeinsam in einem Unternehmen genutzt werden können, oder die Engpässe und Ineffizienzen zu ermitteln, die sich negativ auf Ihr Unternehmensergebnis auswirken.
Neue (Prozess-) Landschaften entdecken  Im Wesentlichen ist Process Mining der nächste Baustein für den Aufbau eines effizienten  Prozessmanagements  sowie für Prozessoptimierungsprojekte, die Mehrwert schaffen.
Es kombiniert auf innovative Weise bewährte Methoden aus Prozessmodellierung und Business Intelligence.
Process Mining verbessert die Effizienz und reduziert Risiken, sodass Sie von einem signifikant höheren Mehrwert profitieren können.
Was Process Mining für Initiativen zur digitalen Transformation jedoch noch spannender macht, ist die Möglichkeit, durch unentdeckte Bereiche der Prozesslandschaft zu navigieren.
Auf diese Weise können Sie den Prozesswildwuchs reduzieren und genau die Prozesse und Zusammenhänge untersuchen, die bisher auf der Strecke geblieben sind.
Hierzu zählen beispielsweise unterschiedliche Abläufe, Extremfälle, Ineffizienzen, Schwachstellen und ähnliches.
In der Tat müssen im Rahmen von Initiativen zur Prozessoptimierung und -transformation genau diese Prozessarten am häufigsten ermittelt und analysiert werden.
Denn am Ende ist ein Unternehmen nur so stark wie sein schwächster Prozess.
Nur, wenn wir Prozesse über ihre Grenzen hinweg genau analysieren, können wir Engpässe und Schwachstellen aufdecken und die Gründe hierfür verstehen.
Ist das Problem beispielsweise ein Mitarbeiter, der Standort oder der Prozess selbst.
Oder sind Prozesse immer durch den geschäftlichen Kontext gerechtfertigt  – sollten  Fertigungsmaschinen ununterbrochen auch ohne Auftrag anlaufen oder sollten Mitarbeiter die Arbeitsabläufe diktieren.
Versteckter Mehrwert: Verbessern Sie Ihr Kundenerlebnis Denken Sie daran, dass nicht nur das Datenvolumen wichtig ist, sondern auch, wie Unternehmen diese Daten nutzen.
Unternehmen müssen die gewonnenen Informationen zur Verbesserung des Kundenerlebnisses einsetzen, z. B.
mithilfe von  Customer Journey Mapping (CJM),  um die tägliche Entscheidungsfindung zu optimieren und um kontinuierlich Innovationen zu entwickeln.
Damit Unternehmen in der Digital Economy von heute wettbewerbsfähig bleiben und gleichzeitig den zukünftigen Erfolg sicherstellen können, müssen sie Prozesse effektiv nutzen und steuern.
Jetzt.
Zum Beispiel:   Sie sorgen für mehr Transparenz und Sichtbarkeit Ihrer operativen Abläufe, überwinden Abteilungssilos und fördern die Kommunikation und Zusammenarbeit.
Sie standardisieren bestimmte Aktivitäten in Ihrer Organisation, sodass alle Mitarbeiter/innen sich an verbindliche Abläufe halten und Verantwortlichkeiten wirklich geklärt sind.
Sie bringen das ganze Team an einen Tisch und bieten Ihrem Team die Möglichkeit, Teilaufgaben zu automatisieren.
Unternehmen, die der technologischen Entwicklung immer einen Schritt voraus sind, können agile Abläufe aufbauen, um unterschiedliche und anspruchsvollere Kundenerwartungen zu erfüllen.
Zugleich können sie die Effizienz der operativen Lieferkette durch bessere Strategien für die Zusammenarbeit und Einbeziehung der Lieferanten gewährleisten.
Prozesse für das neue digitale Transformationszeitalter (DTx) Ob Ihr Unternehmen bereit ist oder nicht, das digitale Transformationszeitalter ist da und die Konvergenz von Mobilität und Cloud-Speicher hat zu einer wahren Explosion an digitalen Daten geführt.
Benutzer haben jederzeit, überall und auf unzähligen Geräten Online-Zugriff und generieren jede Minute Unmengen an Informationen.
Einer der führenden IT-Marktanalysten, International Data Corporation (IDC), prognostiziert, dass die Welt bis 2025 rund 160 Billionen Gigabyte an Daten erzeugen wird.
Um mit der verbesserten digitalen Kohärenz Schritt zu halten, können Experten für Digitale Transformation und Excellence mithilfe von Process-Mining-Daten faktenbasierte Entscheidungen treffen und schnell auf Veränderungen reagieren.
Hierzu zählen eine leichtere Integration transformativer digitaler Technologien, bessere operative Agilität und Flexibilität, optimierte Unternehmensführung und -kultur sowie die Mitarbeiterförderung.
Solch ein selbsttragender Ansatz führt zu nachhaltigen Ergebnissen und schafft eine Prozesskultur innerhalb des gesamten Unternehmens.
Aufbau einer Prozesskultur in Ihrem Unternehmen Process Mining bietet weit mehr als Erkennen, Visualisieren, Analysieren: Anhand Ihrer vorhandenen Daten können Sie die Ausführung von Prozessen automatisch in Echtzeit überwachen.
Diese einfache Bewertung per Mausklick ermöglicht ein sofortiges Verständnis komplexer Prozesse.
Innerhalb von Transformationsprojekten, die aufgrund ihrer Natur tiefgreifende Änderungen in geschäftlichen und organisatorischen Aktivitäten, Prozessen, Kompetenzen und Modellen erfordern, liefert Process Mining die visuelle Übersicht und ermöglicht sofortige Maßnahmen.
Mit diesen Einsichten gewinnen Sie wertvolle Gesichtspunkte zu Fragen wie:   Wie können Sie digitale Datenspuren nutzen, um fundiertere Entscheidungen auf Ihrem Weg der Prozessverbesserung zu treffen.
Wie kann die Prozessleistung überwacht und der Soll- mit dem Ist-Zustand verglichen werden.
Wie können überflüssige Prozesse beseitigt werden, während die Prozesse erhalten bleiben, die einen echten Mehrwert bieten.
Die Zukunft des Prozesses verstehen  Je weiter die Globalisierung voranschreitet, desto mehr ist von Führungskräften die Bereitschaft gefordert, Prozesse ganzheitlich zu verstehen und sich neuen Denkweisen zu öffnen.
Eine Investition in Systeme, Verfahren, Menschen und Technologien wird nur dann erfolgreich sein, wenn es eine progressive Führung und die Offenheit für Veränderungen gibt.   Process Mining zeichnet sich nicht nur durch umfassende Vorteile aus, sondern auch durch komplexe Möglichkeiten.
Der Zugriff auf Prozesse kann jedoch einfach sein.
Das Verständnis und die Anpassung an sich schnell ändernde Umstände muss über einmalige, kopflastige Prozesskorrekturen hinausgehen.
Stattdessen müssen kontinuierlich Verbesserung stattfinden.
Dies bedeutet jedoch auch, dass sich die DNA eines Unternehmens ständig verändert, um für neue Herausforderungen gewappnet zu sein.
Ein Entwicklungsprozess, so revolutionär, dynamisch und kontinuierlich wie die konstante Veränderung des Geschäfts … und des Lebens selbst.
Starten Sie Ihre eigene Schatzsuche.
Schöpfen Sie mit  Signavio Process Intelligence  das Potenzial von Process Mining voll aus und erfahren Sie.

Wie Ihr Unternehmen den versteckten Mehrwert von Prozessen für sich nutzen

neue Ideen generieren und Zeit und Geld sparen kann.
2019-09-21 08:41:19 2019-09-02 08:42:49 Process Mining als Radar: So spüren Sie Optimierungspotenziale auf.
Body and Soul: Software-Roboter und datenbasierte Prozessauswertung.
August 27, 20190 Comments in , , , Sponsoring Partner Posts  by      Software-Roboter liegen im Trend.
Immer mehr Unternehmen aus unterschiedlichen Branchen setzen auf Robotic Process Automation (RPA), um zeitintensive manuelle Tätigkeiten zu automatisieren, effizienter zu gestalten und von den Schultern ihrer Belegschaft zu nehmen.
Doch so vielversprechend diese Ambitionen auch klingen: Noch heute scheitern viele RPA-Projekte an der Vorbereitung.
Ein Prozessschritt lässt sich  schnell automatisieren, doch wurde der Prozess vorher nicht optimiert, resultiert dies oft in hohen Kosten und frustrierten Mitarbeitern.
In diesem Beitrag erfahren Sie, wie Sie eine RPA-Initiative richtig angehen, ihren Erfolg messen und langfristige Erfolge erzielen.
Lernen Sie.

Wie Sie Process Mining gewinnbringend einsetzen

um RPA vorzubereiten.
Anhand eines Service-Prozesses zeigen wir auf, warum eine Prozessoptimierung das entscheidende Erfolgskriterium für Ihre RPA-Initiative ist.
1.
Die Digitalisierung der Unternehmen: RPA und Process Mining gehen Hand in Hand.
Process Mining und Robotic Process Automation (RPA) zählen zu den wichtigsten Werkzeugen für Unternehmen, die auf Digitalisierung setzen, so eine Befragung des deutschen Wirtschaftsmagazins „Computerwoche“ (2019).
Rund die Hälfte der deutschen Unternehmen hat bereits mit der Analyse von Geschäftsprozessen begonnen, während 25% der Unternehmen dem Thema RPA einen hohen Stellenwert beimessen.
Innovative Unternehmen verknüpfen beide Methoden miteinander: Sie setzen Software-Roboter als leistungsstarke Automatisierungstechnologie ein; die Richtung gibt die datengestützte Prozessauswertung an.
2.
Anwendungsfall: Wie ein Service-Prozess optimiert und automatisiert wird.
Unternehmen aller Branchen stehen vor der Herausforderung, ihre Prozesse zu digitalisieren und effizienter  zu gestalten.
Signavio unterstützt mehr als 1.000 Organisationen aller Größen und Branchen bei diesem Ziel.
Die cloudbasierte Software-Lösung ermöglicht Prozessverantwortlichen und Führungskräften, ihre Prozesse zu verstehen, zu analysieren und bessere Geschäftsentscheidungen zu treffen.   Wie sich die Prozessoptimierung gestaltet, wird im Folgenden an einem Anwendungsbeispiel gezeigt: Ein Unternehmen der Telekommunikationsindustrie verfügt über zahlreiche Service-Prozesse, darunter auch die Problembehebung im Falle einer gestörten Internetverbindung.
Der Prozess gestaltet sich wie folgt: Sobald sich ein Kunde über eine gestörte Internetverbindung beschwert, wird im Unternehmen ein Service-Prozess ausgelöst.
Dieser Prozess besteht aus verschiedenen Teilschritten: Ist das Problem nach mehreren Schritten der internen Prüfung nicht behoben, ist ein Vor-Ort-Besuch eines Service-Mitarbeiters beim Kunden vorgesehen.
Dieser Service-Prozess führte im Unternehmensalltag des Telekommunikationsanbieters in der Vergangenheit regelmäßig zu internen Diskussionen.
Die Prozessverantwortlichen äußerten die Vermutung, dass der Service zu viel Zeit benötige und intern hohe Kosten verursache.
Im Rahmen einer Prozessinitiative wollten sie dieser Vermutung nachgehen und neue Möglichkeiten der Prozessoptimierung erarbeiten.
Die folgenden Fragen waren dabei relevant:  Wie identifizieren wir den aktuellen Ist-Zustand des Prozesses.
Auf welchem Wege stoßen wir Verbesserungen an.
Wo lassen sich Service-Roboter einsetzen, um den Arbeitsalltag des Teams zu erleichtern.
Signavios Technologie bot den Prozessverantwortlichen die Möglichkeit, den kritischen Serviceprozess datenbasiert auszuwerten, zu optimieren und die Automatisierung von Teilschritten durch den Einsatz von Software-Robotern vorzubereiten.
Im Kontext dieses Fallbeispiels erhalten Sie im Folgenden einen Einblick in die innovative SaaS-Lösung.   2.1   Den Service-Prozess im Kontext der Customer Journey verstehen: Operative Abläufe und die Customer Experience visualisieren.
Die Bearbeitung einer Kundenanfrage ist nur einer von Hunderten oder sogar Tausenden alltäglichen Prozessen in einer Organisation.
Die Signavio Business Transformation Suite ermöglicht Unternehmen aller Branchen, die gesamte Prozesslandschaft zu betrachten und konstant weiterzuentwickeln.
Anhand der unterschiedlichen Komponenten dieser Technologie erarbeiteten die Prozessverantwortlichen des Telekommunikationsunternehmens eine 360°-Grad-Sicht auf alltägliche operative Abläufe:  Modellierung, Dokumentation und Visualisierung von Geschäftsprozessen im Kontext der Customer Journey (Signavio Process Manager).
Automatisierung von Prozessschritten (Signavio Workflow Accelerator).

Datengestützte Auswertung von Prozessen (Signavio Process Intelligence)

Teamübergreifende Prozesssicht entlang der gesamten Value Chain (Signavio Collaboration Hub).
Die Mitarbeiter des Telekommunikationsunternehmens sehen im Signavio Collaboration Hub die gesamte Wertschöpfungskette ihres Unternehmens mitsamt allen Management-, Kern- und Serviceprozessen.
Mit Blick auf die Prozesslandkarte navigieren sie die Ansicht auf den jeweils gesuchten Prozess: In unserem Beispiel besteht der Prozess in der Prüfung der Internetverbindung über das Glasfaserkabel.
Im Signavio Process Manager kann dieser Prozess entlang der gesamten Customer Journey eingesehen werden: Eine Persona symbolisiert den Kunden mit dem Problem der gestörten Internetverbindung.
So wird seine gesamte Reise entlang unterschiedlicher Prozessschritte bis zur Lösung des Problems visualisiert.
Ein weiterer Klick auf den jeweiligen Prozessschritt führt zum hinterlegten Prozessmodell: Dort sind alle operativen Abläufe hinterlegt, die zur Lösung des Problems beitragen.
Durch die integrierte Möglichkeit der Prozesssimulation gelingt es, den Prozess anhand verschiedener Datensätze zu prüfen und die Kosten, Durchlaufzeiten und Bottlenecks im Voraus zu berechnen.
Dies ist bereits ein guter erster Schritt, um herauszufinden, wie effizient ein Prozess tatsächlich verläuft.
Doch um die Ursachen der bestehenden Probleme zu ergründen, bedarf es einer datengestützten Methode der Prozessauswertung.
2.2   Von der datenbasierten Auswertung zur Prozessverbesserung: Process Mining.
Die Methode des Process Minings ermöglicht Prozessverantwortlichen einen akkuraten Einblick in alltägliche operative Abläufe: Anhand datenbasierter Auswertungen gelingt es, Schwachstellen in Geschäftsprozessen sowie Optimierungspotenziale zu erkennen und herauszufinden, welche Prozesse sich tatsächlich für die Automatisierung eignen.
In unserem Beispiel wenden die Prozessverantwortlichen des Telekommunikationsunternehmens Process Mining an, um herauszufinden, an welchen Stellen der Prozess der gestörten Internetverbindung dysfunktional ist.
Sie möchten herausfinden, ob sich Teilschritte durch den Einsatz von Software-Robotern automatisieren lassen.
Dafür nutzen die Prozessverantwortlichen Process Intelligence, das Analysemodul der Signavio Business Transformation Suite.
In einer sogenannten Investigation erhalten sie einen detaillierten Einblick in den kritischen Prozess und können die Erfolgskennzahlen anhand unterschiedlicher Faktoren auswerten: Performance, Time, Occurrence, Variants, Loops usw.
So sehen sie beispielsweise, welche Prozessvarianten im Unternehmensalltag auftreten und auf welche Ursachen sie zurückzuführen sind.

Sie greifen auf die Daten aus den ERP-Systemen der Organisation zu

um beispielsweise die Durchlaufzeiten des Prozesses zu bestimmen.
Dabei sehen die Prozessverantwortlichen den tatsächlichen Ablauf eines Prozesses – und finden heraus, ob er wirklich funktioniert, wie gewünscht.
In unserem Beispiel zeigt die Datenauswertung etwa: Der Service-Prozess tritt in mehr als 240 Varianten auf – und weicht im Unternehmensalltag somit deutlich von seinem modellierten Idealzustand ab.
In der Signavio Business Transformation Suite können die erhobenen transaktionalen Daten als Overlay direkt auf das Prozessmodell gelegt werden, um die realen Zeiten für einzelne Prozessschritte anzuzeigen.
Diese Visualisierung zeigt auf: Obwohl zunächst eine interne Prüfung der Störung vorgesehen ist, wird dieser Schritt im Unternehmensalltag häufig übersprungen: Dies führt dazu, dass zumeist sofort ein Außendienst-Mitarbeiter zu den Kunden fährt und eine Vor-Ort-Analyse durchführt.
Dieser Schritt erweist sich häufig als unnötig und verursacht somit regelmäßig Kosten und Prozessverzögerungen.

Mit Blick auf die Ergebnisse der Datenanalyse schlussfolgern die Prozessverantwortlichen

dass Teilschritte der internen Prüfung durch Software-Roboter automatisiert werden können.
2.3    Soul meets Body: Die RPA-Implementierung planen.
Die operativen Daten aus den ERP-Systemen des Unternehmens wurden mit der Prozessdokumentation zusammengebracht.
Auf diesem Wege konnte das Telekommunikationsunternehmen wertvolle Erkenntnisse zur Prozessoptimierung gewinnen und herausfinden, an welchen Stellen sich die Automatisierung durch Robotic Process Automation als sinnvoll erweist.
Im Collaboration Hub kann nun die RPA-Implementierung geplant und das hinterlegte Prozessmodell angepasst werden:   Im geänderten Prozessmodell ist nun zu sehen: Prozessschritte wie „Netzwerkverbindung prüfen“ werden nicht mehr manuell durchgeführt.
Ein Software-Roboter wurde so programmiert, dass er die Aktivität automatisiert anhand von vorgegebenen Eingabeinformationen übernehmen kann.
Um zu prüfen, ob die Automatisierung dieser und weiterer Teilschritte sinnvoll ist, kann eine Simulation im Signavio Process Manager gestartet werden und als Testlauf mit den Daten aus Process Intelligence durchgeführt werden.
So werden diese Fragen beantwortet:  Ist die Automatisierung sinnvoll.
Wie verändern Software-Roboter die Performance.
Wie hoch sind die Kosten, Durchlaufzeiten und der Ressourcenbedarf.
Erhöht sich der Return on Investment.
3.
Signavio bringt die Prozessdokumentation mit den operativen Daten zusammen.
Mit der Signavio Business Transformation Suite ist es dem Telekommunikationsunternehmen gelungen, den Prozess der gestörten Internetverbindung zu analysieren, zu optimieren und durch den Einsatz externer Software-Roboter zu automatisieren.
Im Rahmen der Auswertung wurden zudem weitere Aktivitäten gefunden, die perspektivisch von Software-Robotern übernommen werden können: zum Beispiel ein Funktions-Check der Devices oder einzelne Kommunikationsaufgaben wie Bestätigungen.
Somit ist der Prozess digitaler und effizienter geworden.
Das Besondere an diesem Anwendungsfall: Erst durch die Visualisierung des Prozesses in der Customer Journey und die folgende Auswertung der ERP-Daten konnte das bestehende Problem identifiziert und eine Lösung gefunden werden.
Daher erwies sich der Einsatz der RPA-Technologie erst nach der Untersuchung des Ist-Zustandes als wirklich sinnvoll.
Sie möchten mehr erfahren.
Hier erhalten Sie unser kostenloses Whitepaper  zum Thema „Process Mining“!                                                2019-08-27 08:00:19 2019-08-27 09:18:13 Body and Soul: Software-Roboter und datenbasierte Prozessauswertung       Whitepaper „Data-Management“: Wenn Daten auf Reisen gehen.
July 13, 20190 Comments in , Data Warehousing, , Sponsoring Partner Posts  by Redaktion     Datenmanagement ist heutzutage ein komplexes Thema und schon lange nicht mehr nur die Aufgabe der Abteilung „EDV“.
Unstrukturierte Daten von Sensoren, Maschinen und Anlagen haben einen langen Weg durch das Unternehmen, bevor sie Mehrwerte liefern.
Innovative, digitale Kundenservices erfordern neue Infrastrukturen und Cloudanwendungen in der Umsetzung.
Wie Sie mit Ihren Daten auf Reisen gehen, ohne unnötige Risiken einzugehen, zeigt Ihnen das gut gelaunte Autorenteam in der praktischen Sommerausgabe dieses Whitepapers.
Erfrischend geschrieben, konstruktiv beispielhaft und mit einer optischen Aufmachung, die auch am Strand einen guten Eindruck macht.
Die gut umgesetzte Idee der Autoren können Sie sich als Download oder sogar als Taschenbuch kostenlos zuschicken lassen.
Auf der Website www.pack-die-daten-ein.de werden Sie fündig.
Wer sich schnell auf die Datenreise begibt, wird belohnt.
Das Autorenteam bedankt sich bei den ersten 25 Lesern für ihr Interesse mit einer Original OGIO-Reisetasche.
Ob Download oder Taschenbuch, es ist ein sehr angenehmer Service und Bereicherung für die Sommerreise.
https://data-science-blog.com/wp-content/uploads/2019/07/whitepaper-pack-die-daten-ein-header.png        568        1260          Redaktion          Redaktion  2019-07-13 09:13:58 2019-07-13 09:13:58 Whitepaper „Data-Management“: Wenn Daten auf Reisen gehen       Interview: Profitiert Business Intelligence vom Data Warehouse in der Cloud.
June 14, 20190 Comments in , , Sponsoring Partner Posts, Tool Introduction  by Benjamin Aunkofer     Interview mit Ross Perez, Senior Director, Marketing EMEA bei Snowflake  Read this Article in English: “Does Business Intelligence benefit from Cloud Data Warehousing?” Profitiert Business Intelligence vom Cloud Data Warehousing.
Ross Perez ist Senior Director Marketing EMEA bei Snowflake.
Er leitet das Snowflake-Marketingteam in EMEA und ist damit beauftragt, die Diskussion über Analysen, Daten und Cloud-Data-Warehousing in EMEA voran zu bringen.
Vor Snowflake war Ross Produkt Marketer bei Tableau Software, wo er die Iron Viz Championship gründete, den weltweit größten und aufwändigsten Wettbewerb für Datenvisualisierung.
Data Science Blog: Ross, Business Intelligence (BI) ist kein wirklich neuer Trend.
In 2019/2020 sollte es kein Thema mehr sein, Daten für das ganze Unternehmen verfügbar zu machen.
Stimmt das soweit.
BI ist definitiv ein alter Trend, denn Berichterstattung gibt es schon seit 50 Jahren.
Die Menschen sind es gewohnt, Statistiken und Daten für das gesamte Unternehmen und sogar für ihre Geschäftsbereiche zu erhalten.
Die Verwendung von BI zur Bereitstellung von Analysen für alle Mitarbeiter im Unternehmen und die Ermutigung zur Entscheidungsfindung auf der Grundlage von Daten für den jeweiligen Bereich ist jedoch relativ neu.
In vielen Unternehmen, mit denen Snowflake zusammenarbeitet, gibt es eine neue Gruppe von Mitarbeitern, die gerade erst den Zugriff auf Self-Service-BI- und Visualisierungstools wie Tableau, Looker und Sigma erhalten haben und nun auch anfangen, Antworten auf ihre Fragen zu finden.
Data Science Blog: Bi jetzt ging es im BI vor allem darum Dashboards für Geschäftsberichte zu erstellen.
Und dabei spielte das Data Warehouse (DWH) die Rolle des Backends.
Heute haben wir einen noch viel größeren Bedarf an Datentransparenz.
Wie sollten Unternehmen damit umgehen.
Da immer mehr Mitarbeiter in immer mehr Abteilungen immer häufiger auf Daten zugreifen möchten, steigt die Nachfrage nach Back-End-Systemen – wie dem Data Warehouse – rapide.
In vielen Fällen verfügen Unternehmen über Data Warehouses, die nicht für diese gleichzeitige und heterogene Nachfrage gebaut wurden.
Die Erfahrungen der Mitarbeiter mit dem DWH und BI sind daher oftmals schlecht, denn Endbenutzer müssen lange auf ihre Berichte warten.
Und nun kommt Snowflake ins Spiel: Da wir die Leistung der Cloud nutzen können, um Ressourcen auf Abruf bereitzustellen, können wir beliebig viele Benutzer gleichzeitig bedienen.
Snowflake kann zudem unbegrenzte Datenmengen sowohl in strukturierten als auch in halbstrukturierten Formaten speichern.

Data Science Blog: Würden Sie sagen

dass das DWH der Schlüssel dazu ist, ein datengetriebenes Unternehmen zu werden.
Was sollte noch bedacht werden.
Absolut.
Ohne alle Ihre Daten in einem einzigen, hoch-elastischen und flexiblen Data Warehouse zu haben, kann es eine große Herausforderung sein, den Mitarbeitern im Unternehmen Einblicke zu gewähren.
Data Science Blog: So viel zur Theorie, lassen Sie uns nun über spezifische Anwendungsfälle sprechen.
Generell macht es einen großen Unterschied, welche Daten wir speichern und analysieren wollen, beispielsweise Finanz- oder Maschinendaten.
Was dürfen wir dabei nicht vergessen, wenn es um die Erstellung eines DWHs geht.
Finanzdaten und Maschinendaten sind sehr unterschiedlich und liegen häufig in unterschiedlichen Formaten vor.
Beispielsweise weisen Finanzdaten häufig ein relationales Standardformat auf.
Daten wie diese müssen mit Standard-SQL einfach abgefragt werden können, was viele Hadoop- und noSQL-Tools nicht sinnvoll bereitstellen konnten.
Zum Glück handelt es sich bei Snowflake um ein SQL-Data-Warehouse nach ANSI-Standard, sodass die Verwendung dieser Art von Daten problemlos möglich ist.
Zum anderen sind Maschinendaten häufig teilstrukturiert oder sogar völlig unstrukturiert.
Diese Art von Daten wird mit dem Aufkommen von Internet of Things (IoT) immer häufiger, aber herkömmliche Data Warehouses haben sich bisher kaum darauf vorbereitet, da sie für relationale Daten optimiert wurden.
Halbstrukturierte Daten wie JSON, Avro, XML, Orc und Parkett können in Snowflake zur Analyse nahtlos in ihrem nativen Format geladen werden.
Dies ist wichtig.

Da Sie die Daten nicht reduzieren müssen

um sie nutzen zu können.
Beide Datentypen sind wichtig und Snowflake ist das erste Data Warehouse, das nahtlos mit beiden zusammenarbeitet.
Data Science Blog: Zurück zum gewöhnlichen Anwendungsfall im Business, also der Erstellung von Verkaufs- und Einkaufs-Berichten für die Business Manager, die auf Daten von ERP-Systemen – wie etwa von Microsoft oder SAP – basieren.
Welche Architektur könnte für das DWH die richtige sein.
Wie viele Layer braucht ein DWH dafür.
Die Art des Berichts spielt weitgehend keine Rolle, da Sie in jedem Fall ein Data Warehouse benötigen, das alle Ihre Daten unterstützt und alle Ihre Benutzer bedient.
Idealerweise möchten Sie es auch in der Lage sein, es je nach Bedarf ein- und auszuschalten.
Das bedeutet, dass Sie eine Cloud-basierte Architektur benötigen… und insbesondere die innovative Architektur von Snowflake, die Speicher und Computer voneinander trennt und es Ihnen ermöglicht, genau das zu bezahlen, was Sie verwenden.
Data Science Blog: Wo würden Sie den Hauptteil der Geschäftslogik für einen Report implementieren.
Tendenziell eher im DWH oder im BI-Tool, dass für das Reporting verwendet word.
Hängt es eigentlich vom BI-Tool ab.
Das Tolle ist, dass Sie es frei wählen können.
Snowflake kann als Data Warehouse für SQL nach dem ANSI-Standard ein hohes Maß an Datenmodellierung und Geschäftslogik-Implementierung unterstützen.
Sie können aber auch Partner wie Looker und Sigma einsetzen, die sich auf die Datenmodellierung für BI spezialisiert haben.
Wir sind der Meinung, dass es am besten ist, wenn jedes Unternehmen für sich selbst entscheidet, was der individuell richtige Ansatz ist.
Data Science Blog: Snowflake ermöglicht es Organisationen, Daten in der Cloud zu speichern und zu verwalten.
Heißt das aber auch, dass Unternehmen ein Stück weit die Kontrolle über ihre eigenen Daten verlieren.
Kunden haben die vollständige Kontrolle über ihre Daten und Snowflake kann keinen Teil ihrer Daten sehen oder ändern.
Der Vorteil einer Cloud-Lösung besteht darin, dass Kunden weder die Infrastruktur noch das Tuning verwalten müssen.
Sie entscheiden, wie sie ihre Daten speichern und analysieren möchten, und Snowflake kümmert sich um den Rest.
Data Science Blog: Wie groß ist der Aufwand für kleinere oder mittelgroße Unternehmen, ein DWH in der Cloud zu errichten.
Und bedeutet es auch, dass damit ein teures Langzeit-Projekt verbunden ist.
Das Schöne an Snowflake ist, dass Sie in wenigen Minuten mit einer kostenlosen Testversion beginnen können.
Nun kann der Wechsel von einem herkömmlichen Data Warehouse zu Snowflake einige Zeit in Anspruch nehmen, abhängig von der von Ihnen verwendeten Legacy-Technologie.
Snowflake selbst ist jedoch recht einfach einzurichten und sehr gut mit historischen Werkzeugen kompatibel.
Der Einstieg könnte daher nicht einfacherer sein.
https://data-science-blog.com/wp-content/uploads/2019/06/interview-ross-perez-snowflake-deutsch-header.png        390        1030                    2019-06-14 15:04:21 2019-06-14 15:05:25 Interview: Profitiert Business Intelligence vom Data Warehouse in der Cloud.
Von der Datenanalyse zur Prozessverbesserung: So gelingt eine erfolgreiche Process-Mining-Initiative.
June 6, 20190 Comments in , , Sponsoring Partner Posts, Tool Introduction, Use Cases  by      Den Prozessdaten auf der Spur: Systematische Datenanalyse kombiniert mit Prozessmanagement Die Digitalisierung verändert Organisationen aller Branchen.
In zahlreichen Unternehmen werden alltägliche Betriebsabläufe softwarebasiert modelliert, automatisiert und optimiert.
Damit hinterlässt fast jeder Prozess elektronische Spuren in den CRM-, ERP- oder anderen IT-Systemen einer Organisation.
Process Mining gilt als effektive Methode, um diese Datenspuren zusammenzuführen und für umfassende Auswertungen zu nutzen.
Sie kombiniert die systematische Datenanalyse mit Geschäftsprozessmanagement: Dabei werden Prozessdaten aus den verschiedenen IT-Systemen einer Organisation extrahiert und mit Hilfe von Data-Science-Technologien visualisiert und ausgewertet.
Read this article in English: From BI to PI: The Next Step in the Evolution of Data-Driven Decisions   Professionelle Process-Mining-Lösungen erlauben, die Ergebnisse dieser Prozessauswertungen auf Dashboards darzustellen und nach bestimmten Prozessen, Transaktionen, Abteilungen oder Kunden zu filtern.
So ist es möglich, die Performance, Durchlaufzeiten und die Kosten einzelner Betriebsabläufe zu erfassen.
Prozessverantwortliche werden auf diesem Wege auf Verzögerungen, ineffiziente Abläufe und mögliche Prozessverbesserungen aufmerksam.
Praxisbeispiel: Einkaufsprozess – Prozessabweichungen als Kosten- und Risikofaktor Ein Beispiel aus dem Unternehmensalltag ist ein einfacher Einkaufsprozess: Ein Mitarbeiter benötigt einen neuen Laptop.
Im Normalfall beginnt der Prozess mit der Anfrage des Mitarbeiters, die durch seinen Manager bestätigt wird.
Ist kein Laptop vorrätig, löst das für den Einkauf zuständige Team die Bestellung aus.
Zu einem späteren Zeitpunkt wird der Laptop dem Mitarbeiter übergeben und das Unternehmen erhält eine Rechnung.
Diese Rechnung wird geprüft und fristgemäß gemäß den vorgegebenen Konditionen beglichen.
Obwohl dieser alltägliche Prozess nicht sehr komplex ist, weicht er im Unternehmensalltag häufig vom modellierten Idealzustand ab, was unnötige Kosten und möglicherweise auch Risiken verursacht.
Die Gründe sind vielfältig:  Freigaben fehlen.
Während des Bestellprozesses sind Informationen unvollständig.
Rechnungen werden aufgrund von unvollständigen Informationen mehrfach korrigiert.
Process Mining ermöglicht, den gesamten Prozessverlauf alltäglicher Betriebsabläufe unter die Lupe zu nehmen und faktenbasierte Diskussionen zwischen den Fachabteilungen, Prozessverantwortlichen sowie dem Management in einer Organisation anzuregen.
So werden unternehmensweite Prozessverbesserungen möglich – vorausgesetzt, die Methode wird richtig angewandt und ist strategisch durchdacht.
Doch wie gelingt eine erfolgreiche unternehmensweite Process-Mining-Initiative über Abteilungsgrenzen hinaus.
Wie sich eine erfolgreiche Process-Mining-Initiative auf den Weg bringen lässt Jedes Unternehmen ist einzigartig und geht mit unterschiedlichen Fragestellungen an eine Process-Mining-Initiative heran: ob einzelne Prozesse gezielt verbessert, Prozesslebenszyklen verkürzt oder abteilungsübergreifende Abläufe an unterschiedlichen Standorten miteinander verglichen werden.
Sie alle haben etwas gemeinsam: Eine erfolgreiche Process-Mining-Initiative erfordert ein strategisches Vorgehen.
Schritt 1: Mit Weitsicht planen und richtig kommunizieren.
Wie definiere ich die Ziele und den Umfang der Process-Mining-Initiative.
Die Anfangsphase einer Process-Mining-Initiative dient der Planung und entscheidet häufig über den Erfolg eines Projektes.
In erster Linie kommt es darauf an, die Ziele des Projektes zu definieren und die Erfolgsfaktoren zu bestimmen.
Die Ziele einer erfolgreichen Process-Mining-Initiative sind SMART definiert: spezifisch, messbar, attainable/relevant, reasonable/umsetzbar und zeitgebunden/time-bound.
Mögliche Ziele für das Projekt lassen sich zum Beispiel wie folgt formulieren:  Prozessdauer auf 25 Tage reduzieren.
Hauptunterschiede zwischen zwei Ländern hinsichtlich bestimmter Prozesse identifizieren.
Prozessautomatisierung um 25% steigern.
Unter diesen Voraussetzungen lässt sich auch der Rahmen der Process-Mining-Initiative festlegen: Sie halten fest, welche Prozesse, konkret betroffen sind und wie sie mit den IT-Systemen und Mitarbeiterrollen in Ihrer Organisation verknüpft sind.
Welche Rollen und Verantwortlichkeiten gibt es.
Die Ziele Ihrer Process-Mining-Initiative sollten unternehmensweit geteilt werden: Dies erfordert neben einer klaren Strategie eine transparente Kommunikation in der gesamten Organisation: Indem Sie Ihren Mitarbeitern das nötige Wissen an die Hand geben, um die Initiative erfolgreich mitzugestalten, sichern Sie sich auch ihre Unterstützung.
So verstehen sie nicht nur, warum dieses Projekt sinnvoll ist, sondern sind auch in der Lage, das Wissen auf ihre individuelle Rolle und Situation zu übertragen.
Im Rahmen einer Process-Mining-Initiative sind verschiedene Projektbeteiligte in unterschiedlichen Rollen aktiv: Während Projektträger verantwortlich für die Prozessanalyse sind (z.
B.
Chief Procurement Officer oder Process Owner), wissen Prozessexperten, wie ein bestimmter Prozess verläuft und kennen die verschiedenen Variationen.

Sie nutzen Methoden wie Process Mining

um ihr Wissen zu vertiefen und Diskussionen über die gewonnenen Daten anzustoßen.
Sie arbeiten eng mit Business-Analysten zusammen, die die Prozessanalyse vorantreiben.
Datenexperten wiederum verfolgen die einzelnen Spuren, die ein Prozess in der IT-Landschaft einer Organisation hinterlässt und bereiten sie so auf, dass sie Aufschluss über die Performance eines Prozesses geben.
Wie gestaltet sich die Zusammenarbeit.
Diese unterschiedlichen Rollen gilt es im Rahmen einer erfolgreichen Process-Mining-Initiative an einen Tisch zu bringen: So können die gewonnen Erkenntnisse gemeinsam im Team interpretiert und diskutiert werden, um die richtigen Veränderungen anzustoßen.
Die daraus gewonnen Prozessverbesserungen spiegeln das Know-how des gesamten Teams wider und sind das Ergebnis einer erfolgreichen Zusammenarbeit.
Schritt 2: Die technischen Voraussetzungen schaffen.
Wie werden Prozessdaten systemübergreifend aggregiert und aufbereitet.
Nun wird es Zeit für die technischen Vorbereitungen: Entscheidend ist es, alle Anforderungen an die beteiligten IT-Systeme zu durchdenken und die IT-Verantwortlichen so früh wie möglich einzubeziehen.

Um valide Daten für Prozessverbesserungen zu generieren

sind diese drei Teilschritte nötig:   Datenextraktion: Relevante Daten aus unterschiedlichen IT-Systemen werden aggregiert (Datenquellen sind datenbasierte Tabellen aus ERP- und CRM-Lösungen, analytische Daten wie Reports, Logdateien, CSV-Dateien usw.).
Datenumwandlung gemäß den Anforderungen für Process Mining: Die extrahierten Daten werden in Cases (Abfolge verschiedener Prozessschritte) umgewandelt, mit einem Zeitstempel versehen und in Event-Logs gespeichert.
Datenübertragung: Die Process-Mining-Software greift auf die gespeicherten Event-Logs zu.
Welche Rolle spielen Konnektoren.
Diese Teilschritte werden erfahrungsgemäß mittels eines Software-Konnektors durchgeführt und in regelmäßigen Abständen wiederholt.
Ein Software-Konnektor hat die Aufgabe, die Daten aus der IT-Landschaft eines Unternehmens nach den Anforderungen der Process-Mining-Lösung zu übersetzen.
Er wird speziell für die Kombination mit bestimmten IT-Systemen wie SAP, Oracle oder Salesforce entwickelt und steuert die gesamte Datenintegration von der Extraktion über die Umwandlung bis zur Datenübertragung.
Process-Mining-Lösungen wie Signavio Process Intelligence verfügen über Standardkonnektoren sowie über eine API für individuell entwickelte Konnektoren.
Im Rahmen der technischen Vorbereitungen gilt es, mit Blick auf das jeweilige Szenario über die Möglichkeiten der Umsetzbarkeit zu entscheiden und andere technische Lösungen zu evaluieren.
Schritt 3: Von der Prozessanalyse zur Prozessverbesserung.
Wie lassen sich die ermittelten Daten für Verbesserungen nutzen.
Sind die umgewandelten Daten in der Process-Mining-Lösung verfügbar, beginnt die Prozessauswertung.

Durch IT-gestütztes Process Mining erhalten Prozessexperten die Möglichkeit

alle vorliegenden Daten zu visualisieren und einzelne Prozesse detailliert auszuwerten.
Die vorliegenden Prozesse werden nun hinsichtlich unterschiedlicher Faktoren untersucht, etwa mit Blick auf Durchlaufzeiten, Performance und den Prozessfluss.
Im direkten Vergleich lässt sich auf diesem Wege ermitteln, welche Faktoren sich auf die Erfolgskennzahlen auswirken und an welchen Stellen Verzögerungen oder Abweichungen auftreten.
Die so gewonnen Erkenntnisse bilden eine wichtige Grundlage für faktenbasierte Diskussionen zwischen den verschiedenen Stakeholdern der Process-Mining-Initiative.
Doch erst die konkreten Schritte, die aus dieser Datenbasis abgeleitet werden, entscheiden über den Erfolg des Projektes: Entscheidend ist, wie diese Erkenntnisse in die Praxis umgesetzt werden.
Eine Process-Mining-Lösung, die nicht als reines Analysetool zur Verfügung steht, sondern in eine umfassende Lösung für die Modellierung, Automatisierung und Analyse professioneller Geschäftsprozesse integriert ist, erleichtert den Schritt von der Business Process Discovery zur Prozessverbesserung.
Schließlich gilt es, konkrete Prozessverbesserungen und Änderungen zu planen, in den Unternehmensalltag zu integrieren und die Ergebnisse auszuwerten – auch über das Ende der Process-Mining-Initiative hinaus.
Warum ist ein Process-Mining-Projekt nie vollständig abgeschlossen.
Wer einmal mit der Prozessverbesserung beginnt, wird feststellen: Viele weitere Stellen in den Prozessen warten nur darauf, verbessert zu werden.
Daher lohnt es sich, einige Wochen nach der initialen Prozessverbesserung neue Daten zu extrahieren, um herauszufinden, welche Veränderungen nachweislich zu mehr Effizienz geführt haben.
Eine kontinuierliche Messung und Auswertung erleichtert einen umfassenden Blick auf die eigene Organisation:  Funktionieren die überarbeiteten Prozesse wie geplant?.
Haben Prozessveränderungen unvorhersehbare Effekte?.
Treten Schwachstellen in anderen Prozessen auf?.
Haben sich die Prozesse verändert, seitdem sie überarbeitet wurden?.
Wie lässt sich ein bestimmter Prozess weiter verbessern?.
Somit lässt sich zusammenfassen: Wem es gelingt, die Datenspuren in den IT-Systemen der eigenen Organisation zu verfolgen, ist auf dem richtigen Weg zur kontinuierlichen Verbesserung.
Davon profitieren nicht nur die Prozesse und IT-Systeme, sondern auch die Mitarbeiter in den Organisationen.
2019-06-06 08:34:18 2019-07-03 14:52:51 Von der Datenanalyse zur Prozessverbesserung: So gelingt eine erfolgreiche Process-Mining-Initiative   Page 1 of 3 1 23.
Sponsoring Partner Posts.

Offline

ibet888

Board footer

Powered by FluxBB