SAVE THE DATE: BERLINER EXPERTENSEMINAR MIT DANI SCHNIDER

Beschreibung:

Ein DWH mit Oracle-Technologie zu erstellen, ist einfach. Doch ein effizientes und erweiterbares Data Warehouse zu entwickeln und über Jahre zu betreiben, ist nicht ganz trivial. Das DWH muss ändernden fachlichen Anforderungen, steigenden Datenmengen und hohen Performanceanforderungen gerecht werden. Dazu sind eine saubere Architektur, ein geeignetes Datenbankdesign sowie der geeignete Einsatz der vorhandenen Datenbank-Features notwendig. Dieses Seminar bietet zahlreiche Praxistipps aus mehr als 20 Jahren DWH-Erfahrung und zeigt, wie man mit den aktuellen Oracle-Versionen moderne DWH-Systeme entwickeln und betreiben kann.

Agenda:

 

  1. Positionierung
    – Warum brauchen wir (noch) ein Data Warehouse?
    – OLAP versus OLTP
    – Data Warehouse versus Data Lake
  2. DWH-Architektur
    – Typische DWH-Architektur, DWH-Layers
    – Verschiedene Architekturvarianten
    – Persistente und virtuelle DWH-Layers
  3. Datenmodellierung im Data Warehouse
    – Dimensionale Modellierung
    – Head/Version Modeling
    – Data Vault Modeling
  4. Effiziente ETL-Prozesse
    – ETL-, ELT- und DWA-Tools
    – Mengenbasierte Verarbeitung
    – Parallel DML und Direct-Load Insert
    – Partition Exchange im ETL-Prozess
    – Optimizer-Statistiken im Ladeprozess
    – Generelle Performancetipps zu ETL
  5. Abfrageoptimierung in Data Marts
    – Bitmap Indexes und Star Transformation
    – Materialized Views und Query Rewrite
    – Oracle Database In-Memory
  6. Physisches Datenbankdesign für Data Warehouses
    – Indexierung im Data Warehouse
    – Das Dilemma von Constraints
    – Geeigneter Einsatz von Partitionierung
    – Data Compression
    – Crashkurs für Nicht-DBAs: Datenbankkonfiguration im DWH
  7. Cloud Data Warehousing
    – Cloud oder On-Premises? Anwendungsfälle im DWH-Umfeld
    – Oracle Autonomous Data Warehouse
  8. Analytische Abfragen
    – Analytische Funktionen
    – SQL Pattern Matching
    – Analytic Views

 

 

Zielgruppe:

DWH-Architekten, Datenmodellierer, ETL-Entwickler, BI-/Reporting-Entwickler

Vorkenntnisse:

SQL-Kenntnisse, DWH-Grundlagen, Grundkenntnisse der Oracle-Datenbank

CFP – DOAG 2021 KONFERENZ + AUSSTELLUNG ONLINE

Die DOAG 2021 Konferenz + Ausstellung findet vom 16. bis 18. November 2021 als moderierte Online-Konferenz statt. Der Ticketverkauf hat begonnen! Bei Buchungen bis zum 30. September sparen Sie mit unserem günstigen Early-Bird-Rabatt bares Geld!

Der Call for Papers ist geöffnet und läuft bis zum 7. Juli 2021. Wir freuen uns auf Ihre Einreichungen!
Das Vortragsprogramm veröffentlichen wir Anfang September.

DOAG DEV TALK ZUM THEMA “PL/SQL VS. JAVASCRIPT”

NEU: “DOAG Dev Talk”-Reihe

Thema: PL/SQL vs. JavaScript

Referenten: Kai Donato & Moritz Klein

Moderation: Niels de Bruijn, Leiter der Dev-Community

Einen Link zur Anmeldung stellen wir zeitnah zur Verfügung!

SAVE THE DATE: BERLINER EXPERTENSEMINAR MIT RANDOLF EBERLE-GEIST

Beschreibung:

Um große Datenmengen so schnell wie möglich zu verarbeiten und die Fähigkeiten moderner Hardware entsprechend einzusetzen bietet Oracle als Teil der Enterprise Edition das “Parallel Execution” Feature an. Allerdings, wie bei den meisten Features gibt es keinen einfachen “go_faster = true”-Schalter, und “Parallel Execution” ist hier keine Ausnahme. Es gibt viele Fälle, in denen ein einfaches Hinzufügen von Parallelverarbeitung nicht die erwartete Verringerung der Laufzeit ergibt. Es ist daher wichtig zu verstehen, wie Oracle “Parallel Execution” funktioniert, was seine Bestandteile sind, welche Diagnosemöglichkeiten für eine systematische Performance Analyse geboten werden und wie entsprechende Maßnahmen basierend auf einer solchen Analyse aussehen können.

Sie sind generell interessiert, das Oracle Parallel Execution Feature für SQL einzusetzen und möchten deshalb mehr davon verstehen? Oder Sie verwenden es bereits regelmäßig, zum Beispiel im Data Warehouse Umfeld, oder im Rahmen von Batch-Prozessen?

Haben Sie sich dabei schon immer einige der folgenden Fragen gestellt:

 

  • Wie lese ich einen Ausführungsplan richtig? Gibt es besondere Regeln für parallele Ausführungspläne? Und falls ja, wie sehen diese aus?
  • Wie führt Oracle so einen Ausführungsplan zur Laufzeit aus?
  • Was machen diese ganzen Operationen, die mit PX anfangen, in einem parallelen Ausführungsplan? Was sagen mir die zusätzlichen Spalten, die es nur in einem parallelen Ausführungsplan gibt?
  • Wie funktioniert diese automatische parallele Ausführung von SQL Statements zur Laufzeit? Was wird parallelisiert, und wie wird die Arbeit automatisch aufgeteilt? Was kann dabei schiefgehen? Falls etwas schiefgeht, kann ich es beeinflussen, und falls ja, wie?
  • Warum sind manchmal parallele Ausführungen nicht viel schneller als serielle, oder sogar langsamer, und warum verbrauchen parallele Ausführungen teilweise so viel mehr PGA-Speicher und/oder TEMP-Speicherplatz wie vergleichbare serielle Ausführungen?
  • Wie kann ich eine SQL Statement-Ausführung analysieren, um zu verstehen, warum sie länger braucht als erwartet? Wie setze ich die Diagnostics- und Tuning-Pack License Features optimal in diesem Zusammenhang ein?
  • Wie kann ich speziell parallele SQL-Ausführungen analysieren, um zu verstehen, ob Parallel Execution hier überhaupt effizient eingesetzt wird? Warum sind die für serielle Ausführungen bekannten Analyse-Methoden dafür größtenteils ungeeignet?
  • Wie kann ich parallele Ausführungen schon beim physischen Datenbank-Design schneller machen?
  • Welche neuen Parallel Execution Features sind in Oracle 12c dazugekommen?

 

 

Der Workshop vermittelt ausführliche Antworten zu diesen Fragen. Darüber hinaus bietet es Ihnen zu einem großen Teil exklusives Wissen, das von mir selbst erarbeitet wurde. Dieses Wissen werden Sie woanders – auch nicht in den offiziellen Unterlagen und Schulungen von Oracle – finden.

Wenn Sie schon über eine solide Grundlage für das Verständnis von SQL-Ausführungen verfügen,

… wenn Sie also grundsätzlich wissen, was ein Ausführungsplan ist, sich aber zum Beispiel nicht ganz sicher sind, wie er genau zu lesen und verstehen ist…

… wenn Sie exklusive Informationen über das Parallel Execution Feature erfahren wollen,

… dann besuchen Sie diesen Workshop!

Zielgruppe:

Das Seminar richtet sich an erfahrene Datenbank-Entwickler und DBAs, die Interesse / Erfahrung mit Datenbank-Entwicklung und dem „Parallel Execution“ Feature haben.

Vorkenntnisse:

Solide Kenntnisse in SQL, Datenbank-Entwicklungserfahrung mit „Parallel Execution“ und eine gute Kenntnis der Oracle Architektur / Features werden vorausgesetzt.

Welche Fähigkeiten erlangen die Teilnehmer:

– Tiefgreifendes Verständnis des Oracle “Parallel Execution” Features

– Erlernen geeigneter Analysemethoden für das Troubleshooting von “Parallel Execution”

Dozent:

Randolf Eberle-Geist, oracle-performance.de

Randolf Eberle-Geist führt seit vielen Jahren regelmäßig Schulungen und Workshops sowohl für Kunden als auch für Veranstalter durch. Die Rückmeldungen der Teilnehmer sind durchweg positiv.

Die Anmeldmöglichkeit für Teilnehmer stellen wir asap zur Verfügung!

Wir freuen uns auf Ihre Teilnahme

Ihre DOAG

 

DOAG DEV TALK ZUM THEMA “JAVASCRIPT IN APEX?”

NEU: “DOAG Dev Talk”-Reihe

Thema: JavaScript in APEX?

Referenten: Kai Donato & Carolin Hagemann

Moderation: Niels de Bruijn, Leiter der Dev-Community

Einen Link zur Anmeldung stellen wir zeitnah zur Verfügung!

Berliner Expertenseminar: Postgres Backup & Recovery, Migration und Replikation

Aufgrund der großen Nachfrage wird dieses Thema (Seminar vom September 2020) in diesem Jahr wiederholt.

Tag 1.

Installation und Architektur der Postgres Datenbank

Wichtige Verzeichnisse und deren Bedeutung

PG_WAL Konzept, Tablespaces, Prozessbeschreibung, Verwaltungsviews

Unterschiede und Gemeinsamkeiten zu Oracle

Postgres Cluster Konzept, mehrere Postgres Cluster auf dem Server

Konfigurationsdateien (postgresql.conf, pg_hba.conf)

Postgres Benutzer, Rechte und Rollen im Vergleich zu Oracle

Postgres Administration

Tag 2:

Postgres Backup & Recovery unter Windows und Linux

Postgres Foreign Data Wrapper für Oracle

Migrationstechniken von Oracle zu Postgres

Physical und Logical Replikation von Postgres zu Postgres

Einstellungen für Logging und Auditing

PG_ADMIN als Werkzeug für Administration und Entwicklung

Import und Export von Daten

Interessante Extensions

Ziellevel (an wen richtet sich das Seminar):

DBA / Developer / It EntscheiderInnen die planen Postgres Datenbank einzusetzen

Vorkenntnisse der TN:

gute Grundkenntnisse in Oracle, für Postgres werden keine Kenntnisse vorausgesetzt.

Die TN benötigen für das Seminar einen eigenen, W-LAN-fähigen Laptop, idealerweise mit einer bereits installierten Oracle und Postgres Datenbank.

Dozent:

Marco Patzwahl, Muniqsoft Training GmbH

Die Anmeldmöglichkeit für Teilnehmer stellen wir asap zur Verfügung!

Wir freuen uns auf Ihre Teilnahme

DOAG DAC WebSession: Oracle Machine Learning: Overview, What’s New? Customers and ML Apps

Das Online-Event wird in Englisch gehalten

Thema: Oracle Machine Learning: Overview, What’s New? Customers and ML Apps

Referent: Charlie Berger, Oracle

Oracle Machine Learning is now no license required feature in Oracle Databases (on-premises, Cloud and Autonomous). As part of Oracle’s Converged Database strategy, OML “moves the algorithms; not data” processing data where it resides. Oracle Machine Learning extends Oracle Database(s) delivering 30+ ML algorithms and AutoML functionality via SQL (OML4SQL) and integration with open source languages: Python, OML4Py and R, OML4R. This OML presentation and demonstration(s) highlights existing and new OML features: AutoML, AutoML UI, new algorithms in 21c, OML4Py and OML Services. Now Oracle DBAs, users and application developers can leverage OML’s ML algorithms to discover new insights, make predictions and deploy ML models enterprise wide via APEX, Oracle Analytics Cloud and embedded in Applications. Come learn how to get started taking immediate advantage of these free and powerful in-database ML capabilities.

DOAG 2021 DATENBANK ONLINE

Die DOAG 2021 Datenbank begrüßt Sie am 17. und 18. Mai zum virtuellen Wiedersehen der Community! Freut euch auf ein breitgefächertes Online-Konferenzprogramm mit den Streams Datenbank und Exadata!