ODC Appreciation Day 2017 – The Oracle BI Server

It’s that time of year again. After last year’s OTN Appreciation Day this year there is another ODC Appreciation Day (“since Oracle Technology Network (OTN) has now been renamed to Oracle Developer Community (ODC) there is a name change for the event this year, but the idea is the same.”) powered by Tim Hall.

Last year I decided to vote for the Dual Table. This year I would like to give my shout out to the Oracle BI Server. The reason why I like this server so much, I explain here.

Thanks to Tim for organising this event. Looking forward to all the different contributions. Curious what other people have to share on ODC Appreciation Day, check here.



RittmanMead BI Forum 2011 – Day I

John Minkjan kicks of Day I of the RittmanMead BI Forum. He’s subject is Oracle BI EE on mobile devices. Very appropriate to the discussion last night during Oracle’s Keynote. Mobile is hot and the audience is very eager to see Oracle BI EE in action on Mobile Devices (Ipad / Galaxy Tab). Before going to the demonstration, John shows us a lot of things you should bare in mind when developing mobile applications. I will not go into the XXX-details or better DDDD.

Oracle BI EE on mobile is not only about nice and fancy dashboards but also about:

  • Equipment
  • Antenna’s
  • Environment
  • Security
  • Usage
  • Cost
  • Health
  • Type (Wifi, Bluetooth, Cellular)
  • Content Control
  • Operating System
  • Device
  • Patching

You have to think about dashboards which are firstly built for a laptop/desktop. Now you should redesign to fit the dashboard into the device. You could use some kind of landing page to navigate to the different dashboards, depending on where you are coming from.

Next up is Adam Bloom. Adam is opening the lid on Oracle BI 11g security. He has a lot to open!! First he shows us the architecture of a Weblogic deployment. The best thing is try to use the Fusion Middleware (FMW) Security. Although 10g  Security via Init Blocks is supported you should make a choice between the two. Another thing is you should stick to whatever is certified, because of the limitations of the Oracle Platform Security Services (OPSS).

Adam also demystified some of the GUID issues. There are some issues when you login with the weblogic-user in different RPD’s. When you set the following parameter; FMW_UPDATE_ROLE_AND_USER_REF_GUIDS in the NQSConfig-file to ‘YES’, the problem is solved. You refresh the GUID’s only when you are moving the indentity stores to a new server. Also when a RPD hasn’t been used on a server yet.

Unfortunately this topic is so new and so complex, some other subjects could not be covered. We shortly addressed configuration and logging but according to Adam; “There are no bugs, only bad configuration”.

On to Andreas Nobbmann, who is going to; “Script for a Jester’s tear” referring to a song of Marillion. Andreas is scripting fanatic and he warns us not to exaggerate the scripting. Scripting could make your life easier and can be used for;

  • repeating tasks
  • deployment
  • configuration
  • backups
  • starting / stopping / status

Downside of scripting is the lack of logging.

Andreas cover various elements of scripting:

If it comes to migrating security check here.

After lunch, Mike Brooks did his ‘Warts and All’-presentation about his real-life experiences when implementing Oracle BI 11g. It turns out that a major release like Oracle 11g is, is not that easy. Not even for experienced people like Mike, supported by the RittmanMead guys. Over at Play.com, they tried to do a one week POC. Based on advice and documentation plans could be made, but due to later experiences the had to switch plans every once and a while.

Implementing the BI part of Oracle BI 11g is no rocket science, but the Weblogic Server is a whole new ballgame. That needs additional skills and training.

Now follows a panel discussion about the following subject; “Was it worth the wait”, My personal opinion is; Yes!! Of course we have been waiting very long and of coures not everything is running as smoothly as we would like it to. On the other hand, the product looks fantastic and it gives us a lot of new opportunities, both technically as well as functionally. I guess we should focus on the good things and let Oracle work on the rest to improve the product.

A few highlights of the discussion;

  • focus on security issues instead of improved BI capabilities
  • sexy Front-end
  • early access, release dates
  • data lineage
  • versioning
  • MUD
  • charting like BI Publisher
  • Oracle OLAP vs Essbase
  • Essbase (Front-end Yes!!, Back-end No!!)
  • Stability
  • Integrated

Was it worth the wait or was worth the technical change? In the end, I guess it was a cautious yes.

Michael Wilcke finished the day with a presentation about why the Oracle BI Server is the ultimate choice for a BICC. BI is a circular process which never stops. When BI stops it is finished. Michael features on two subjects;

  • Business versus IT
  • Process and Organization

There is ‘always’ tension between business and IT. The Oracle BI Server offers the ability to separate these two (logical sql versus physical sql). This way you can de-couple the Front-end from the Back-end.

Requirement engineering can be done via prototyping in Excel and de-coupling. The requirement process is all about understanding the user instead of believing you know what he/she wants. You should define, establish and review. Top-down DWH vs. Bottom-up DWH.

In the end it turned out that Michael did a great job. He was elected by the audience as the Best Speaker. Therefor Mr. Wilcke went home with the most prestigious Brighton #biforum Best Speaker Award. Congratulations Michael.

It was a very interesting day. I think the speakers of this day have taken this event to a higher level (again!)

RittmanMead BI Forum 2011 – Masterclass (Part II)

After the lunch, which was excellent by the way, Mark continued the Masterclass. Next on is the OBIEE11g – Server & RPD New Features. There are new features in the RPD which you should try yourself (including me), before you really can understand what is happening. The guys over at RittmanMead are decompiling .jar-files to make anything more clear! I guess I will start with the Admin-tool. A few highlights;

  • Column Descriptors –> Use the description to show, while in the background you use an Id (indexed) to ‘fire’ a query (Oracle Discoverer functionality)
  • Lookups Tables & Functions –> Interesting functionality Venkat already blogged about
  • Hierarchies (Ragged & Skip Level) –> Only use Ragged and Skip Level when you really need it, because it will generate complex queries to identify and it will be giving problems with generating MDX for Essbase.
  • Parent Child Hierarchies –> PC Aggregation is only aggregating for the member by default. You should do some extra modeling to bring the closure table into the model.
  • Oracle OLAP Option –> The BI Server now can manage navitve Oracle OLAP. As Mark mentioned; “A cautious welcome”

Tony closes the Masterclass whit the OBIEE11g – SOA Integration. New in Oracle BI 11g is the Action Framework. The Action Framework makes it possible to integrate your Business Intelligence System with your business process. Either by navigating through an url or by integrating with Web Services. Calling Web Services opens a whole new world for me. Now you see a further integration of Oracle BI 11g and Oracle Fusion Middleware. On the one end this Action Framework gives us a lot of new possibilities. On the other end it gets more and more complex. You should get to know a few of the following and more:

  • SOA Concepts
  • JDeveloper
  • BPEL Workflows
  • Oracle SOA

This way you should be able to integrate with external applications by building and deploying web services and invoke them from Oracle BI EE.

Thanks to Mark and Tony, they did a great job with this Masterclass. Although it seems like an information overload, both guys have presented a lot of information in such a way we do not have to be bored in the coming months.

BI Dutch sessie – Data Delivery Platform (Dutch)

Gisterenavond ben ik aanwezig geweest bij een sessie georganiseerd door Johan van der Kooij van BI Dutch bij Sogeti. Johan is in staat geweest om Rick van der Lans van der Lans te strikken, om te komen vertellen over het Data Delivery Platform (DDP). Rick heeft al eerder artikelen geschreven over het Data Delivery Platform.

Rick heeft een prettige manier van presenteren. Al direct in het begin weet hij een ieder te boeien met een aantal interessante stellingen en uitspraken. Wat ik persoonlijk een hele leuke vind om over na te denken;

Een Datawarehouse is een middel en géén doel op zich. Een klant vraagt in eerste instantie alleen maar om (snelle) toegang tot zijn of haar bedrijfsgegevens.

Gartner spreekt over Datawarehouses van Terra- en wellicht wel Zettabytes. Nigel Pendse daarentegen heeft aan een paar Gigabytes al voldoende. Het verschil tussen de Bruto en de Netto dataopslag in een Datawarehouse. De Bruto dataopslag kan vele male hoger uitvallen doordat de data op verschillende plekken gedupliceerd en opgeslagen wordt. Interessant kan zijn om eens uit te rekenen wat het dubbel opslaan van data kost in termen van licenties, ontwikkeling ETL, beheer, etc. Uiteraard zullen er legio redenen te bedenken zijn waarom er gekozen wordt voor de traditionele DWH structuren. Toch kan het géén kwaad om een naar alternatieven te kijken. Zet de traditionele DWH structuur eens af tegen de (nieuwe) mogelijkheden op het gebied van In Memory Analytics en Datawarehouse Appliances. De huidige hardware is er klaar voor.

Terug naar het DDP. Het Data Delivery Platform is een architectuur. Een archictectuur waarbij de applicatie losgekoppeld wordt van de opslagstructuur. Er wordt een ‘Metalaag’ tussen de applicatie en de opslag geplaatst. In deze Metalaag wordt de vertaalslag gemaakt van applicatie naar data, er wordt intelligentie uit de BI Tool vastgelegd en in het ideale geval metadata vastgelegd. Doormiddel van een aantal viewlagen worden diverse fysieke tabellen aan diverse gebruikers(groepen) gepresenteerd. Tools welke dit verzorgen worden Federation Server genoemd. Het verschil tussen DDP en een Federation Server zit hem de Architectuur versus de Tool. Een Federation Server zal veelal deel uitmaken van een DDP.

Een eindgebruiker kan met een willekeurige BI Tool aansluiten op het DDP. Ook hoeft hij/zij zich géén zorgen meer te maken over waar de dat vandaan komt. Dit wordt allemaal afgehandeld binnen het DDP. Intelligentie en specificaties zijn voor meerdere toepassingen en gebruikersgroepen bruikbaar. Het DDP moet uiteindelijk leiden tot een flexibele, uitgeklede omgeving. Uitgekleed in de zin van het beperken van dupliceren van data.

Mijn interesse voor deze sessie werd bij gewekt vanwege de overeenkomsten tussen DDP en de Oracle BI Server. Leander van Dongen heeft hier vorig jaar al een en ander over geschreven. De Oracle BI Server moet worden gezien als een Federation Server. Wanneer we kijken naar Oracle’s Enterprise Performance Management System, dan kunnen we de overeenkomsten zien.

Ook Oracle gaat in haar architectuur van een gelaagde architectuur. Er kunnen diverse bronnen gekoppeld worden en via allerhande tooling ontsloten worden. De Oracle BI Server zorgt via het Common Enterprise Information Model voor de koppeling, integratie en structurering van de informatie uit de fysieke databronnen.

Zowel bij de Federation Servers in een DDP architectuur als in de Oracle BI Server is er sprake van een virtuele ‘kijk’ naar physieke data. Data wordt niet gedupliceerd, maar gemodelleerd.

Aan het slot van de sessie is Rick onder leiding van Johan ingegaan op een aantal zeer kritische vragen. Het aanwezige publiek leek zich niet zomaar zonder meer te willen laten overtuigen. Ogenschijnlijk zonder problemen behandelde Rick de vragen. Een kleine greep:

Een DDP sluit traditionele Datawarehousing met Datamarts niet uit. Er wordt echter wel kritisch gekeken of het dupliceren van data nodig is (bijv. in het geval van Periode sluitingen). Ook Data Vault structuren staan een DDP niet in de weg. Een Data Vault is echter meestal niet ideaal om op te querien. Dit zal echter binnen de views van de Federation Server opgelost kunnen worden. Cleaning kan via profiling logica, on-demand, geïntegreerd worden. Voorstellen voor opgeschoonde daten kunnen dan zelfs ter beoordeling aan de eindgebruiker aangeboden worden.

Ik ben benieuwd hoe het Data Delivery Platform zich in de toekomst gaat ontwikkelen. Wanneer het publiek van gisteren een afspiegeling is van de ‘BI Samenleving’, dan heeft het DDP nog wel een lange weg te gaan. ‘Het lijkt erop dat tools, die ‘In Memory Analytics’ ondersteunen, en Data Warehouse Appliances meer kans van slagen hebben.

Al met al een interessant event, met dank aan Johan van der Kooij en Rick van der Lans. Hier is het laatste woord nog niet over geschreven.