4 voordelen van public cloud voor BI & Analytics
Tenzij je onder een steen hebt geleefd de afgelopen jaren is de volgende stelling voor elke ondernemer of IT-professional bekend: cloud IT-services hebben een centrale plek in het IT-landschap ingenomen. Cloud IT biedt bedrijven de mogelijkheid om IT-oplossingen sneller, stabieler en flexibeler in te zetten voor het behalen van doelen. Het speelt een rol in het sneller realiseren van nieuwe services en biedt perspectief op kostenreductie zodat er onder de streep meer overblijft.
Naast de traditionele ‘on-premise’ IT-oplossingen kunnen ‘full cloud’ of ‘hybride’ cloud-strategieën ervoor zorgen dat je de concurrentie voorblijft of in ieder geval bijblijft. Grote kans dat jouw directe concurrent gebruik maakt van diverse public cloud-oplossingen om klanten onderscheidender te bedienen want 77% van alle bedrijven gebruikt al in meer of mindere mate cloud-oplossingen, vaak ook voor BI & Analytics-toepassingen (bron: Forbes).
In een moderne datagedreven organisatie, waarin BI & Analytics kunnen worden toegepast op één datafundament, is het inzetten van public cloud-services een ‘game changer’.
BI & Analytics op een public cloud biedt diverse voordelen ten opzichte van een private cloud of on-premise-oplossing. Vier belangrijke voordelen wil ik hier graag uitlichten.
1. Public cloud biedt de mogelijkheid snel te kunnen op- en afschalen
BI- en Analyticsomgevingen hebben de eigenschap veel dataopslag en rekenkracht nodig te hebben. Dat gold altijd al voor datawarehousing- en BI-oplossingen en is met een factor veel toegenomen met de komst van Big Data en Machine Learning (ML) toepassingen. Wanneer rekenkracht onvoldoende is of opslag tegen grenzen aanloopt, neemt de kwaliteit van dienstverlening van deze omgevingen vaak snel af. Dit is geen issue meer in een public cloud-omgeving. Het uitbreiden van clusternodes in je datawarehouse-omgeving om sneller queries te kunnen verwerken, kan binnen een paar uur of soms zelfs ad-hoc geregeld worden. In een on-premise-omgeving kan dit zomaar weken of maanden in beslag nemen. Heb je meer capaciteit nodig om een spontane toename van bezoekers op je website van realtime-aanbevelingen te voorzien? Servercapaciteit ten behoeve van ML-microservices kan hiervoor automatisch worden op- en afgeschaald.
De uitdagingen van de 4 V’s van data (volume, velocity, variety en veracity) zijn goed te ondersteunen met verschillende opslagmogelijkheden in de cloud. Data lakes kunnen worden gebouwd met onbegrensde opslagcapaciteit, ondersteunen elk type bestand en de kans op dataverlies is nagenoeg nihil. De meeste database-types zijn beschikbaar om als PaaS-dienst af te nemen en bieden direct toepasbare scale-up- of scale-out-mogelijkheden. Dit geldt ook voor datawarehouse (MPP) toepassingen. De verschillende dataopslagmogelijkheden integreren steeds beter met elkaar om een optimale kosten/performance-afweging te kunnen maken. Datawarehouses kunnen een groot deel van hun data bijvoorbeeld in een (veel goedkoper) data lake wegschrijven en diezelfde data nog steeds virtueel via het datawarehouse aanbieden voor BI-doeleinden.
2. Nieuwe innovaties zijn snel uit te proberen
Public cloud maakt het mogelijk snel nieuwe BI, datawarehouse-technologie, Artificial Intelligence (AI) of dataverwerkingsconcepten te testen. Een Linux- of Windows-server is binnen vijf minuten opgestart, een datawarehouse of Hadoop-omgeving binnen tien. Daarnaast bieden diverse public cloud-providers standaard oplossingen van software-vendoren aan in hun marktplaats, zoals Tableau, Matillion, Informatica, SAP HANA en Snowflake, die met een paar clicks al draaien in jouw virtual private cloud. Wil je onderzoeken wat Graph-databasetechnologie voor jouw fraudedetectie of website-recommendation-engines kan betekenen? Start dan een Graph-database op. Ook out-of-the-box Machine Learning-algoritmes voor beeldherkenning, speech-to-tekst-conversie en vele andere algoritmes, al getraind op grote datasets, staan klaar om te gebruiken.
3. Het is goedkoper
In een on-premise of private cloud-omgeving is het vaak nodig om vooraf grote IT-investeringen te doen, nog voordat een nieuw businessmodel of technologie zich echt bewezen heeft. Door gebruik te maken van on-demand-services in combinatie met pay-per-use-pricing is het mogelijk klein te beginnen en geleidelijk te groeien met IT. Je betaalt per seconde voor een server of gebruikt datavolume. Wanneer je servers uitstaan betaal je daar niets voor. Wil je toch voor meerdere jaren een bepaalde configuratie afnemen? Dan is het vaak mogelijk deze te contracteren met hoge korting ten opzichte van on-demand-pricing.
Ook is het bijvoorbeeld mogelijk om een door een cloud-provider beheerde database af te nemen en deze te integreren met jouw applicaties. De cloud-provider voert patches en back-ups uit op de database en bij eventuele uitval wordt deze automatisch weer gestart. Dat hoef je dus allemaal niet meer zelf te doen en die tijd kun je steken in wat er echt toe doet: producten ontwikkelen en je klanten beter bedienen.
Voor Analytics is het mogelijk om rekenkracht te scheiden van data. Die rekenkracht gebruik en betaal je alleen wanneer je deze nodig hebt. Bij het uitvoeren van dataverwerking (ETL) of complexe berekeningen bijvoorbeeld, kun je op piekmomenten bijschalen om deze sneller uit te voeren. In een traditionele on-premise-omgeving vergt het voorspellen en beschikbaar krijgen van deze pieken een complexe capaciteitsplanning en een grote investering. Door gebruik te maken van elastische rekenkracht bespaar je kosten, terwijl de dienstverlening aan afnemers van BI & Analytics verbetert. Berekeningen met complexe algoritmes op terabytes aan data kunnen in minuten in plaats van dagen worden uitgevoerd met elastische rekenclusters op data die in een data lake in de public cloud zijn opgeslagen. Deze data kan vervolgens geladen worden in een datawarehouse, BI-oplossing of als input dienen voor applicaties.
4. Het is veiliger dan eigen infrastructuur
Hoe veilig denk je dat jouw on-premise omgeving is? Beantwoord onderstaande vragen eens voor jezelf:
- Zijn al jouw systemen en databases altijd automatisch en op tijd op het laatste patchniveau, werken deze met de laatste beveiligingsstandaarden en worden deze automatisch geback-upt?
- Maak je gebruik van realtime-monitoring van dataverkeer op jouw netwerk en datamutaties?
- Is er een extra derde partij die ook continu jouw omgeving monitort om deze nog veiliger te maken?
- Heb je, naast de beheerkwaliteiten die een team van dedicated support-engineers al kan bieden, de expertise achter de hand van bijvoorbeeld Microsoft, Amazon Web Services en Google die infra- en platformservices aanbieden aan duizenden klanten en continue optimalisaties doorvoeren of aanbevelen?
Indien je alle vragen met ‘ja’ kunt beantwoorden: gefeliciteerd, jij bent een van de weinigen die dit allemaal op orde heeft!
Hoe dan ook geldt: met het goed inrichten van een virtual private cloud, fail-over-architectuur over meerdere regio’s, identity- en access-management, realtime-monitoring en altijd geëncrypte dataopslag is jouw BI & Analytics omgeving in de public cloud heel veilig, zo niet veiliger dan wat je on-premise gebruikt.