Heise Consulting Services GmbH
images/Logo3-trans.png

Das Thema „Big Data“ führt zum Nachdenken über bisherige und zukünftige Business Intelligence (BI) Strategien. Komplexe Fragenstellungen und Vorhersageerwartungen an eine BI Lösung machen den weiteren Ausbau einer Data Warehouse Infrastruktur erforderlich zum anderen sind Kosten und enge IT Budgets zu managen.

BI Anbieter überarbeiten ihre Angebote und es entstehen erste BI Cloud Infrastruktur Services. Auch Firmen wie Amazon, die früh analytische Infrastrukturen aufgebaut haben, bieten BI Cloud Infrastruktur Services an und liefern gleich WAN Anbindungen mit. 

Themen des Artikels:

  • BI Cloud Anbieter
  • Nutzen von BI Cloud Services
  • Integration BI Cloud Services in eine bestehende BI Infrastruktur
  • Fertigungstiefe von BI Lösungen managen
  • Transformationen & Transitionen bei der Einführung von BI Cloud Services
  • „Data Science“ als neues (Cloud) Servicemodell für analytische Fragestellungen
  • Schutzbedarf von Daten und Anwendungen prüfen

Verschiedene Service-Modelle im Cloud Kontext

Es ist zwischen Private-Cloud-Angeboten, die nur einem bestimmten Nutzerkreis wie Angehörigen der gleichen Firma offensteht und Public-Cloud-Lösungen, die alle Interessierten verwenden können, zu unterscheiden. Für Business Inteligence (BI) Lösungen werden primär Private-Cloud Angebote in Frage kommen, so dass ausgewählte Nutzer Zugriff auf Daten und Anwendungen erhalten.
Es sind verschiedene Service-Modelle im Cloud Kontext im  Einsatz:

  • Infrastructure-as-a-Service (Iaas) stellt dem Anwender Infrastruktur wie virtuelle Maschinen oder Speicherplatz zur Verfügung
  • Platform-as-a-Service (PaaS) offeriert eine Ausführungs- und Entwicklungsumgebung
  • Bei Software-as-a-Service (SaaS) schließlich bietet der Cloud-Provider eine Software-Komplettlösung an, die der Anwender beispielsweise über den Webbrowser bedient. Gängigstes Beispiel für SaaS-Angebote sind Office-Suiten.

Eine Business Intelligence (BI) Lösung besteht aus Architektur und Prozesskomponenten. Diese Komponenten lassen sich zu Services zusammenfassen. Diese BI spezifischen Services (Data Warehouse-as-a-Service, Data Management-as-a-Service und Data Analytics-as-a-Service) lassen sich als Zusammenstellung von Cloud Service-Modellen verstehen: 

Business Intelligence (BI) Infrastructure-as-a-Service Platform-as-a-Servicey  Software-as-a-Service
 Data Warehouse-as-a-Service  (X)  X X
 Data Management-as-a-Service  X X X
 Data Analytics as-a-Service  X X X


Reine Infrastruktur Services wird es im Data Warehouse Kontext selten geben, da Softwarekomponenten und Hardwarekomponenten unter Performancegesichtspunkten häufig aufeinander abgestimmt werden. Wird für ein Data Warehouse ein Hadoop Ökosystem verwendet oder nur in Ergänzung zu einem bestehenden Data Warehouse zum speichern und analysieren von unstrukturierten Daten genutzt oder erscheinen Daten für eine Speicherung in klassischen Datenbanken wirtschaftlich uninteressant, so kann eine Standard Cluster Infrastruktur als reiner Infrastruktur Service gewählt werden. Den meisten Unternehmen wird die Expertise, Zeit und Budget fehlen, eigene Cluster zu optimieren bzw. für Hadoop angepasste Infrastruktur Services einzukaufen. Es ist daher wahrscheinlich, dass die Unternehmen aus einer Vielzahl von Anbietern einen Hadoop as-a-Service (Plattform-as-a-Service) wählen wird.

Was spricht für den Einsatz?

Kurzfristiges Aufsetzen einer Standard BI Umgebung

Jungen Unternehmen oder Unternehmen, die bislang keine BI Engagements unternommen haben, erhalten die Möglichkeit, eine BI Lösung aufzubauen, ohne (lokal) zuvor eine Infrastruktur erstellen zu müssen, sondern diese von einem BI Cloudanbieter zu beziehen. Offeriert der Cloudanbieter Standard Branchen Datenmodelle und Reportingfunktionen, so ist nach dem Aufbau der Datenversorgung ein initiales Berichts- und Analysewesen rasch aufgebaut und operativ.  Durch die Reduktion der Fertigungstiefe kann das Unternehmen auf Aufbau und Vorhaltung eigener (technischer) BI Rollen verzichten.  Der Übergang zum Outsourcing/Outtasking der BI Lösung ist damit geschaffen.
Auch für Software- und/oder Provider-Evalutionen bietet die BI Cloud spannende Optionen – der interessierte Kunde erhält vor der Transition & Transition einer bestehenden BI Umgebung in eine neue Zielumgebung oder der Transition von Serviceinhalten die Möglichkeit zu prüfen und zu testen, ohne hierzu lokal eine BI Infrastruktur aufbauen zu müssen. 

Vereinfachter Zugriff von Informationen für Außendienstmitarbeiter oder Kunden

BI Cloudanbieter müssen die Netzwerk- und Sicherheitsinfrastruktur bereitstellen, damit Kunden  auf Daten und Funktionen einer BI Lösung zugreifen können. Der Zugriff von ausgewählten Personen auf einzelne Funktionen und Daten ist daher nur ein Folgeschritt.
Bereits seit Jahren gewähren Unternehmen ausgewählten Mitarbeitern Zugriff auf ausgewählte BI Reportingwerkzeuge. Mit diesen Maßnahmen sind notwendige Aspekte einer Sicherheitsinfrastruktur bereits vorhanden, so dass der Zugriff auf Anwendungen und Daten für ausgewählte Anwender oder Geschäftspartner ebenfalls ein Folgeschritt ist. Die lokale BI Lösung erhält Cloud Funktionen. 

Informations- und Daten- Serviceangebote als Geschäftsmodell

Eine zentrale Größe bei der finanziellen Kalkulation von BI Cloud Lösungen ist das Datenvolumen. Liegen Daten und Anwendungen in der Cloud, so kann die Sicherheitsinfrastruktur auf Anforderungen erweitert werden, um ausgewählte Daten und Anwendungen gezielt Personen und Gruppen verfügbar zu machen. Sollen spezielle Daten oder Auswertungen Kunden verfügbar gemacht werden, so sind die (laufenden) Kosten für ein neues Serviceangebot im wesentlichen durch das zusätzliche Datenvolumen  begründet (zzgl. der Einmalkosten für die Etablierung des Services). 

Storage für „Cold Data“ und historische Daten

Die Begriffe „Cold Data“ und „Hot Data“ wurden vor Jahren in BI Architekturen eingeführt, um mit unterschiedlichen Speicherkonzepten Anforderungen zur Geschwindigkeit der Verfügbarkeit von Daten zu differenzieren. Near Realtime Anforderungen oder im stetigen Zugriff stehende Daten sind „Hot Data“ und werden weniger häufig genutzten oder im Rahmen von Batchauswertungen genutzten „Cold Data“ gegenübergestellt. Erfahrungen zeigen, dass die Eigenschaft der Daten sich verändern. Üblicherweise werden im Rahmen der Historisierung der Daten „Hot Data“ zu „Cold Data“. Ein Ansatz ist, diese „Cold Data“ auf Bänder oder simplen Storage Lösungen auszulagern und im Extremfall nur bei Bedarf in das DataWarehouse einzulesen oder durch Aggreationen, Komprimierungen und Selektionen das historische Datenvolumen zu reduzieren. Probleme entstehen durch große Datenvolumen beim Einlesen von ausgelagerten Daten in das DataWarehouse, stetig weiterentwickelte Datenmodelle bei nicht aktualisierten Datenarchiven oder durch den Verlust von Detaildaten für analytische Zwecke bei Reduktionsansätzen.  Ein Ausweg kann sein, DataWarehouse Cloud Storage in die BI Infrastruktur zu integrieren. Die lokale BI Infrastruktur wird für „Hot Data“ genutzt und die BI Cloud für „Cold Data“, die transparent den Anwendungen verfügbar gemacht wird.   

Sharing Analytischer Werkzeuge und Infrastruktur

Die Nutzung von Host Rechenzentrumskapazitäten ist nicht neu und wurde bereits vor der Existenz von Client-/Server Umgebungen in den 80er Jahren genutzt. Jeder Anwender erhielt Rechen- und Storagekapazität von einem Zentralen Hostsystem – die Vertraulichkeit der Daten wurde bereits damals von Sicherheitsfunktionen unterstützt.  „Verbrauchte“ Hostkapazität wurde nach einem Schlüssel aus Rechenzeit, CPU Auslastung und Storage Verbrauch abgerechnet. BI Cloudanbieter können diese etablierten Modelle für Angebote von „Storage and Analytic computing capacity“ adaptieren.  Die  meisten heutigen DataWarehouse Umgebungen lassen sich für Mandatenlösungen konfigurieren, so dass die Vertraulichkeit von Daten unterstützt wird.  Rechenleistungen von Datenbanken pro Nutzergruppe oder die Nutzung von virtuellen Rechnern, auf denen analytische Applikationen laufen, lassen sich bei vielen BI Softwarekomponenten auf der Ebene Anwender/Anwendergruppe konfigurieren (Kapazitätsmanagement).
Der vor über 10 Jahren etablierte DataMining Ansatz, analytische Modelle an ausgewählten Daten zu entwickeln und die fertigen Modelle auf den gesamten Datenbestand anzuwenden, wird heute ergänzt, indem Modelle bereits auf dem Gesamtbestand der Daten entwickelt werden. Die Notwendigkeit, Vorhersagemodelle kontinuierlich zu verifizieren, bleibt damit erhalten, jedoch wird die Stichprobenbildung vereinfacht oder entfällt. Die Analysen finden mit diesen Verfahren an mitunter weitaus größeren Datenbeständen statt als bisher.
Sollen nicht-strukturierte oder semi-strukturierte Daten ausgewertet werden, bedarf es (in der Regel) einer Vorverarbeitung mit analytischen Verfahren, um strukturierte Daten zu erhalten.  Die Anforderungen an Rechen- oder Speicherkapazität können lokale Kapazitäten der Unternehmen übersteigen, so dass BI Cloud Kapazitäten eine Alternative bei der rechenintensiven Analyse darstellen können – die Unternehmen werden entlastet, eigene Infrastrukturen aufzubauen oder auszubauen. 

Nutzung von spezialisierten „Data Scientists“ als Service  durch Business Analysten

Das Phänomen „Big Data“ beschreibt eine zunehmende Anzahl von Daten, Datenquellen sowie die Integration von unstrukturierten bis strukturierten Daten. Auswertungen und Analysen sollen einer zunehmenden Anzahl von Personen verfügbargemacht werden und in immer kürzeren Zyklen Entscheidungen beeinflussen oder automatisieren. 
Die Rolle des „Data Scientists“ beschreibt das Tätigkeitsfeld eines Statistikers mit einem breiten Erfahrungsspektrum von klassischen varianzanalytischen bis hin zu konnektionistischen Verfahren, der sowohl Datenmodelle versteht, Algorithmen mit Script und Hochsprachen erstellen kann sowie eine Vielzahl heutiger analytischer Werkzeuge kennt und anwenden kann, mit dem Ziel, Vorhersagemodelle und Wirkzusammenhänge aus dem Phänomen „Big Data“ zu entwerfen.  Meistens sind „Data Scientists“ auf ausgewählte Verfahren spezialisiert, so dass mitunter ein Team von „Data Scientists“ für ausgefallene Fragestellungen ideal ist. BI Cloud Anbietern bietet sich die Möglichkeit, spezialisierte „Data Scientists“ als Serviceleistung zum Erstellen von Vorhersagemodellen und Prognosen ihren Kunden anzubieten. Business Analysten und Branchenexperten der Kunden können Dienstleistungen der „Data Scientists“ nutzen, um Analysen durchführen zu lassen, die diese vor dem jeweiligen Geschäftshintergrund bewerten und für den Einsatz im Unternehmen vorbereiten können.  Kunden sind dann davon befreit, eigene Teams von „Data Scientists“ vorzuhalten.
Der Ansatz von statistischen Dienstleistungen ist nicht neu, so werden an Universitäten seit Jahren Abteilungen der Medzinischen Informatik unterhalten, in denen Mathematiker und Statistiker Analysen für klinische Fragestellungen erarbeiten.  Auch Fachbereiche der Sozial- und Politikwissenschaften nutzen Experten der Statistik und Mathematik zur Erstellung empirischer Analysen.  Die Gemeinsamkeit dieser interdisziplinären Arbeit ist, dass die Mathematiker/Statistiker die statistischen Methoden und Verfahren kennen und anwenden, die Auftraggeber analytische Fragestellungen formulieren und die analytischen Ergebnisse nutzen. Die Verfahrenswahl findet häufig in Abstimmung zwischen Auftraggeber und Mathematiker/Statistiker statt.  

Reduktion der Fertigungstiefe bzgl. Infrastruktur, Softwaremanagement oder Asset-Management

Werden BI Cloud Lösungen der Provider genutzt, so entfällt für den Kunden die Notwendigkeit, die Infrastruktur für diese Komponenten selber vorzuhalten. Befindet sich die Infrastruktur beim Provider, so sind auch keine Räumlichkeiten vorzusehen. In der Regel erfolgen die Abrechnungen auf Basis des genutzten Storagevolumens, so dass ein Datenservice eingekauft wird, der als Kosten bilanziert werden kann; die genutzten Infrastrukturkomponenten sind keine Anlagegüter. Es entfällt das Assetmanagement für eigene BI Infrastrukturkomponenten. 
Der Betrieb einer BI Infrastruktur kann in die Verantwortung des Providers übertragen werden. Liegen DataWarehouse Quellsysteme nicht in der Verantwortung des BI Providers werden Aufgaben der Befüllung von Schnittstellen und Job-Steuerungen vom Kunden zu leisten sein. Er behält damit die Hoheit über die zugehörigen Quelldaten und kann erkannte Datenfehler kontinuierlich in den Quellsystemen korrigieren.

Kosteneinsparungen bzw. Kostentransparenz durch Nutzung von Storage in der Cloud

Ein wesentlicher Bestandteil einer BI Lösung ist das DataWarehouse mit seinen strukturierten Daten. Wird das DataWarehouse um unstrukturierte Daten ergänzt, so werden diese üblicherweise, in „shared nothing clustern“ gespeichert (> 50 GB), die das parallele Ausführen von Analysen über diese Cluster hinweg ermöglichen. Hadoop cluster werden hierzu häufig verwendet, weil sie komplexe Analysen schnell ausführen lassen. Hadoop cluster sind skalierbar: Wird mehr Speicherplatz für Daten oder Rechenleistung benötigt, können weitere Cluster Knoten hinzugefügt werden. Der Parallelisierungsgrad der Auswertungen steigt.
Auch kleinvolumige BI Installationen (Datenvolumen < 50 GB) benötigen ein Mindestmaß an Infrastruktur mit Software, um ein DataWarehouse und eine Storage Plattform für Analysen und unstrukturierte Daten 7x24 verfügbar zu machen. Hierzu gehören auch Maßnahmen zur Datensicherheit, Backup & Recovery sowie Monitoring. Ferner wird ein Betriebsteam für die Datenbank und das Cluster benötigt. Werden diese Fixkosten auf Kosten pro GB Storage umgerechnet, so können Angebote von BI Cloud Providern mitunter günstiger sein.

Kehrseite der Medaille?
Latenzzeiten, wenn Storage in der Cloud für Daten mit Near Realtime Bezug genutzt wird

Finanzhandelsplattformen werden in der Nähe der Rechner von Börsen aufgebaut, um gerade Vorteile im Bereich von Milli- oder Microsekunden  zu nutzen. Auswertungen, Kauf und Verkauf von Finanzprodukten müssen Near-Realtime durchgeführt werden – ein Transfer der Daten und die nachfolgende Analyse in Cloud Umgebungen enthält zu hohe Latenzzeiten. Dies gilt auch wenn Langzeitmodelle in der Cloud erstellt werden, um diese dann lokal auf den Handelsplattformen einzusetzen.
Web-Analysen werden vermehrt dazu genutzt, Kunden  auf ihrem „Click Stream“ mit individuellen Web-Content zu Antworten. So werden auf Shop Plattformen beispielsweise individuelle Angebote zum Cross- oder Upselling angeboten.  Ein Transfer der Daten in die Cloud mit der Rücklieferung von individualisierten Web-Inhalten erhöht die Latenzzeiten, so dass der Kunde die betroffene Seite bereits verlassen haben kann bzw. Antwortzeit der Shoppingseiten unbefriedigend sind.

Sicherheitsausrüstung der Provider muss Schutzbedürfnis der Kunden erfüllen

Sicherheit ist nicht nur die Verschlüsselung der Daten zwischen Provider und Kunden. Einzelne Branchen erheben Mindeststandards an Authentizität sowie die Vertraulichkeit der Daten. So stellt die Finanzdienstleistungsaufsicht (Bafin) Anforderungen an die Mindestanforderungen für das Risikomanagement (MaRisk) im Bankenumfeld. Deutsche Behörden verlangen bei vielen Projekten mit Dienstleistern aus der Privatwirtschaft die Umsetzung des IT-Grundschutzes und richten auch sich selbst danach aus. International ist dies der Standard ISO 27001. Aus diesem Standard leiten sich  Anforderungen an die Infrastruktur, die Datenhaltung, Backup& Recovery, Monitoring, Intrusion Prevention und Detection etc. ab. Ein professioneller BI Cloud Provider wird diese Elemente etablieren können, die Kunden benötigen die Gewissheit und das Vertrauen, dass diese  IT Sicherheitsstandards vom Provider erfüllt werden. 

Notwendige Anwendungen, die für einen Remotezugriff nicht das Schutzbedürfnis der Kunden erfüllen

Kunden haben mitunter in Ihrer BI Infrastruktur Applikationen, z.B. betagte Client/Server Applikationen, individuell erstellte Anwendungen die keine ausreichende Autorisierung und Vertraulichkeitsschutz bieten. Verschlüsselte dedizierte Netzwerkverbindungen oder Tunnelmechanismen zwischen Provider und Kunden lösen mitunter nicht alle Sicherheitsrisiken. Die Transformation solcher schutzbedürftigen Anwendungen ist dann der Ausweg, wenn Daten aus der Cloud genutzt werden sollen oder die Anwendung selber als SaaS vom Kunden genutzt werden soll.

Hohes (tägliches) Ladevolumen in den Storage bei begrenzter Netzwerk Infrastruktur

Bei der Transformation & Transition eines Data Warehouse in die Cloud sind neben der täglichen Datenintegration der Initial Load der bestehen historischen Daten zu berücksichtigen.  Die maximale Bandbreite mit Amazon AWS Direct Connect beträgt gegenwärtig 10 Gb/s und ist geeignet, rechnerisch 4,5 TB/h Daten zu transferieren.  Cloud Lösungen außerhalb von Amazon werden wahrscheinlich andere WAN Stecken nutzen. Die Kunden müssen in Ihren Rechenzentren diese dedizierte WAN Verbindung in ihr Netzwerk integrieren und ggf. eine Verbindung zwischen AWS Direct Connect-Standort und dem Kundenrechenzentrum bei Ihrem lokalen Netzwerkprovider beauftragen.  Für den täglichen Load sollte diese Bandbreite reichen. Die Mehrzahl der derzeitigen DataWarehouse besitzen ein Datenvolumen von bis zu  100 TB. Nur wenige heutige Implementierungen haben einen Datenbestand im Petabereich. Der initiale Datenbestand kann daher bei den meisten Implementierungen über WAN Verbindungen übertragen werden und bei Bedarf über den Versand von Datenträgern.  Einschränkungen können an Standorten von Kundenrechenzentren entstehen, die nicht mit der notwendigen Bandbreite an AWS Direct Connect-Standorte angebunden sind.    

Bestehende Infrastruktur zur Integration verteilter Daten

Die meisten BI Lösungen sind über Jahre gewachsen. Das DataWarehouse erhält von zahlreichen Quellsystemen strukturierte Daten. Meistens sind dies kundeneigene Systeme wie ERP, Produktionssteuerung, Shop-Lösungen, Kampagnenmanagement, Call Records etc.  Die Schnittstellen und das Datenmanagement sind in ausgeklügelte Job-Steuerungen eingebunden. Auch automatisierte Entscheidungen mit Hilfe analytischer Applikationen sind häufig in operative Anwendungen integriert.  Eine Transition einer lokalen DataWarehouse Umgebung in die Cloud hat daher eine Transformation innerhalb der Schnittstellen und Job Steuerung des Kunden zur Folge.  Die Kosten und die Komplexität solcher Projekte für eine Transition & Transformation werden umso höher ausfallen, umso mehr datengetriebene Entscheidungen bereits beim Kunden etabliert sind.

Provider unterstützt nicht alle Applikationen der Kunden

Der Markt für BI Software hat sich seit den 90er Jahren dramatisch konsolidiert. So haben beispielsweise SAP oder IBM ihr Softwareprotfolio durch den Zukauf etablierter BI Suiten oder analytischer Applikationen in den letzten Jahren erweitert. In den Unternehmungen bestehen z.T. über Jahre gewachsene individuelle BI Anwendungen; auch wenn beispielsweise hierzu ein Framework wie von SAS für Dashboards oder das Datenmanagement verwendet wurde. Ferner sind ausgereifte OpenSource BI Anwendungen entstanden, die Kunden in ihre BI Lösungen integriert haben.  Die Cloud Anbieter können ihrerseits nicht alle BI Anwendungen unterstützen, so dass zu entscheiden ist, ob die Transformation einer Anwendung auf eine vom Cloudanbieter unterstützte Anwendung sinnvoll oder möglich ist.
Befindet sich die Plattform des Cloudanbieters im Ausland ist gem. der Bestimmungen im Bundesdatenschutzgesetz (BDSG) eine Prüfung notwendig, ob schutzwürdige Daten, z.B. personenbezogene Daten,  übermittelt werden dürfen. Der Cloudanbieter kann durch spezielle Registrierungen, z.B. beim US-Handelsministerium gem. Safe-Harbour-Abkommen, die Sicherheitslücke zum übertragen personenbezogener Daten in die USA schließen. (Nachtrag: Diese Möglichkeit ist nach dem Inkraftreten des EU-DSGVO 2018 nicht mehr möglich) Soll die Datenübertragung in Drittländer erfolgen, kann dieser Datentransfer zu weitreichenden Änderungen auch in Vertragsklauseln mit (End-)Kunden und Geschäftspartnern münden. Einzelprüfungen können zur Folge haben, dass ausgewählte Anwendungen gar nicht in der Umgebung des Cloudanbieters ausgeführt werden können,  wenn das Schutzbedürfnis nicht erfüllt werden kann.

Fazit

Für Unternehmen, die bislang kein BI Engagement mit Enterprise DataWarehouse Strategien umgesetzt haben und deren DataWarehouse unter 100GB liegen wird bieten BI Cloud Lösungen eine gute Möglichkeit, rasch eine Standard BI Lösung zu etablieren. Da die BI Cloud Lösung räumlich getrennt sind von operativen Anwendungen wie beispielsweise Shop-Lösungen, sind Near Realtime Automatisationen basierend auf datengetriebenen Analysen im DataWarehouse wegen Latenzeiten limitiert. Ein angenehmer Nebeneffekt ist das TCO (total cost of ownership) Berechnungen einfach sind, da primär Fixkosten insbesondere für das genutzte Datenvolumen zu berücksichtigen sind. 
Für Unternehmen, die bereits ein BI Engagement mit einem Enterprise Warehouse umgesetzt haben, kann die Möglichkeit der Erweiterung das DataWarehouse um analytische Funktionen zur Auswertung unstrukturierter Daten ein spannender Ansatz sein. Auch die Auslagerung von „cold data“ auf eine BI Provider kann eine Alternative sein, sofern dieser die DataWarehouse Plattform des Kunden unterstützt.
Reichen Kapazitäten der lokalen Rechenzentren der Kunden aus, so können auch Ansätze betrachtet werden, bei denen der BI Provider die Infrastruktur stellt und remote für den Kunden betreibt – der Kunden das DataWarehouse, Datenmanagement und Analysen als Serviceleistung erhält.
Kunden können durch die BI Cloud Lösungen ihre (technische) Fertigungstiefe reduzieren. Gerade die Rolle eines „data scientists“ die derzeit für analytische Auswertungen von Kunden gesucht wird, bietet sich als Serviceleistung für BI Cloudanbieter an, deren Serviceangebot analytische Funktionen umfasst. Ein Business Analyst, der Fragestellungen aus Sicht der Kunden formuliert, kann als Bindeglied zwischen Kunde und „data scientist“ auf Providerseite fungieren.
Kunden sollten ihren Schutzbedarf prüfen und dem BI Provider diesen als Anforderung stellen. Der Provider muss Zusagen zum Schutzbedürfnis der Kunden erfüllen und die Einhaltung sicherstellen. Kunden sollten Serviceleistungen in Form von Service Level Agreements mit dem Provider fest vereinbaren und den Provider verpflichten, deren Einhaltung mit Monitoring Werkzeugen zu überwachen und regelmäßig Performanceberichte über die Erfüllung der Service Level dem Kunden zur Verfügung zu stellen. Erwartete Serviceleistungen und nicht explizit formulierte Leistungen sind häufig ein Auslöser für Streitigkeiten während der Nutzung.