Willkommen zum jährlichen SuperX-Treffen bei der HueF NRW (Zoom-Konferenz).
10:00-11:00
11:00-12:00
13:00-14:00
14:00-15:00
Allgemein
Managementmodul
Unsere Produkte wollen wir gemeinsam mit Ihnen gestalten.
Da zum Outfit eines jeden Produktes auch das Logo gehört, haben wir Gedanken darüber angestellt, ob das Logo, das für SuperX steht, überhaupt noch zeitgemäß ist. Dieser Frage möchten wir gemeinsam mit Ihnen nachgehen und stellen Ihnen dazu einige Layoutentwürfe vor.
Die abgebildeten Entwürfe haben wir gleichzeitig in eine Online-Abstimmung eingebettet, zu der Sie hier gelangen. Mit Ihrer Teilnahme können Sie uns Ihre Meinung mitteilen und die zukünftige Prägung unserer Produkte mitgestalten.
Das SuperX-Modul VIZ erweitert die graphischen Möglichkeiten von SuperX / HISinOne-BI mit Hilfe der OSS-Grafikbibliotheken
Ziele
Roadmap:
Ziele
Roadmap:
Realisierung
Wir können per Remote Desktop regelmäßig sog. "Themen-Sessions" zu SuperX veranstalten, wo sich Hochschulen zu speziellen Themen treffen können. Das Spektrum reicht von Laderoutinen zu Auswertungen und Technologien. Der vorgeschlagene Rahmen:
Zu möglichen Themen hier eine Umfrage.
Im Folgenden wird erläutert wie Excel-Dateien genutzt werden um Datenbanktabellen zu manipulieren. Hierfür wird zunächst das Anwendungsbeispiel Stellenbewirtschaftungsbericht (STBB), welcher für das Land Sachsen entwickelt wurde, vorgestellt. Im Weiteren werden an diesem Beispiel mit Blick auf die verwandte Software, diverse technische Details erläutert.
Die Werte der Spalte 4 (Soll lt. HHPL) sollen bei Bedarf durch Upload einer Excel-Datei (Excel-Template) angepasst werden können.
imgsrc stbb_hhpl_1.png width 600 caption
Die Datenbasis für die Spalte Soll lt. HHPL liefert die Tabelle kenn_stelle_hhpl, deren Inhalt über den Bericht "Stellen lt. HH-Plan" abgefragt wird.
imgsrc stbb_hhpl_2.png width 600 caption
Die Maske bietet die Möglichkeit das sogenannte "Template für die manuelle Schnittstelle des STBB" als XSLX-Datei herunterzuladen.
imgsrc stbb_hhpl_3.png width 600 caption
Das Template enthält alle Zeilen des Stellenbewirtschaftungsberichtes (STBB), sowohl diejenigen, welche mit Daten gefüllt sind, als auch jene, welche keine Daten enthalten.
imgsrc stbb_hhpl_4.png width 600 caption
Im Template wird die Anzahl der Prorektoren auf 5 und die Anzahl der Leitenden Direktoren auf 11 erhöht. Das Template wird anschließend gespeichert.
imgsrc stbb_hhpl_5.png width 600 caption
Um das Template hochzuladen wird der Bericht "Grunddaten und Kennzahlen hinzufügen (Datei)" genutzt. Es wird der Job "Stellen lt. HH-Plan manuell einlesen" ausgewählt, das Template angehängt und der Bericht abgeschickt.
imgsrc stbb_hhpl_6.png width 600 caption
Anschließend erscheinen die Änderungen im Stellenbewirtschaftungsbericht.
imgsrc stbb_hhpl_7.png width 600 caption
Der Ladejob wird mit Pentaho Data Integration (Kettle) erstellt. Im ersten Schritt "tmp_kenn_stelle_hhpl" wird per SQL eine temporäre Tabelle erstellt. Es folgen zwei Transformationsschritte (excel_into_tmp_kenn_stelle_hhpl und get_kapitel.ktr). Diese führen beide jeweils eine Transformation aus. Abschließend wird ein SQL-Skript ausgeführt (Update kenn_stelle_hhpl). Folgend wird der Transformationsschritt excel_into_tmp_kenn_stelle_hhpl näher betrachtet, welcher den Inhalt des Templates in die zuvor angelegte temporäre Tabelle schreibt.
imgsrc stbb_hhpl_kettle_1.png width 600 caption
Die Transformation excel_into_tmp_kenn_stelle_hhpl besteht aus zwei Schritten. Dem "Microsoft Excel Input" und dem "Table output". Zunächst wird der "Microsoft Excel Input"-Schritt betrachtet.
imgsrc stbb_hhpl_kettle_2.png width 600 caption
Im Reiter "Files" wird der Pfad zur Exceldatei angegeben. In diesem Falle handelt es sich um Die Variable ${PATH_TO_UPLOADFILE}, welche beim Abschicken der Maske "Grunddaten und Kennzahlen hinzufügen (Datei)" gefüllt wird.
imgsrc stbb_hhpl_kettle_3.png width 600 caption
Um den Ladejob zum Test lokal ausführen zu können, wird die Variable mit einem Default gefüllt. Das geschieht unter "Edit-->Settings..." im Reiter "Parameters".
imgsrc stbb_hhpl_kettle_3_2.png width 600 caption
Im Reiter Sheets des "Microsoft Excel Input"-Schrittes wird der Name des Tabellenblattes der Excel-Datei angegeben, aus welchem gelesen wird. Dazu gehört eine Angabe der Zeile und Spalten, ab welcher Daten gelesen werden. Es wird bei 0 begonnen, das bedeutet in diesem Beispiel wird ab Zeile 6 und Spalte B ausgelesen.
imgsrc stbb_hhpl_kettle_4.png width 600 caption
Da im Beispieltemplate in Zeile 6 die Kopfzeile der Tabelle beginnt wird Header angeklickt, um zu signalisieren, dass die eingelesene Tabelle eine Kopfzeile enthält.
imgsrc stbb_hhpl_kettle_4_2.png width 600 caption
Im Reiter Fields werden die einzulesenden Spalten definiert. Wichtig ist, das bei führende 0-en (Nullen) auch bei Strings entfernt werden. Dies sollte bei Feldern, welche beispielsweise Schlüssel enthalten, unbedingt vermieden werden. Dazu wird unter Format für das jeweilige Feld eine Raute # eingetragen.
imgsrc stbb_hhpl_kettle_5.png width 600 caption
Im zweiten Schritt der Transformation wird der zuvor eingelesene Inhalt in eine Datenbanktabelle geschrieben.
imgsrc stbb_hhpl_kettle_6.png width 600 caption
Wichtig ist die Connection eduetl zu nennen, damit der Ladejob auf den BI-Systemen läuft. Die Zieltabelle ist tmp_kenn_stelle_hhpl. Zudem kann beispielsweise ein Haken bei "Truncate Table" gesetzt werden, falls bei jedem Laden des Templates, die Zieltabell zunächst gelöscht werden soll. Um die Zielfelder der Zieltabelle näher zu definieren wird "Specify database fields" aktiviert und in den Reiter "Database fields" gewechselt.
imgsrc stbb_hhpl_kettle_7.png width 600 caption
Dort werden die Tabellenfelder ausgewählt und die dazugehörigen "Stream fields", aus welchen die Daten in die Tabellenfelder der Zieltabelle geschrieben werden. Bei den "Stream fields" handelt es sich um jene Felder, welche im "Microsoft Excel Input"-Schritt im Reiter fields benannt wurden.
imgsrc stbb_hhpl_kettle_8.png width 600 caption
Bevor der Job im System läuft, wird die Connection gelöscht. Hierzu ist der gesamte Tag sowohl im Job, als auch in den Transformationen zu löschen.
imgsrc kettle_integration_1.png width 600 caption
Die Connection-Information in den einzelnen Schritten bleibt jedoch enthalten.
imgsrc kettle_integration_2.png width 600 caption
Um den Job im System bekannt zu machen wird ein Eintrag in der Tabelle sx_jobs angelegt.
Feld Beschreibung tid
tid
uniquename
Unique Name
caption
Bezeichnung
filepath
Pfad zur Datei
sachgebiete_id
Sachgebiet
kenn_profil
Optional: Kenn-Profil
hs_nr
Optional: Hochschulnummer
modus_supported
Modus unterstützt?
params
optionale Parameter
check_sql
optionaler Prüf-SQL
Für das Beispiel sieht der Datensatz wie folgt aus:
tid uniquename caption filepath ... check_sql 1450
nhs_stbb_hhpl_manuell
Stellen lt. HH-Plan manuell einlesen
kenn/etl/nhs_stbb_manuell/stbb_hhpl_manual_upload.kjb
...
select count(*) from kenn_stelle_hhpl
Das Ergebnis des Prüfprotokolls erscheint nach Ausführen des Jobs im Ladeprotokoll. Hier wird die Anzahl Datensätze in der Zieltabelle gezählt.
Die Masken, welche Ladejobs ausführen benötigen zwingend das Feld dokettlejob. Anhand dieses Feldes wird dem System mitgeteilt, dass ein Kettle-Job auszuführen ist. Das Feld darf versteckt werden.
imgsrc kettle_integration_3.png width 600 caption
Um die auswählbaren Kettle-Jobs zu definieren wird auf die Tabelle sx_jobs zugegriffen.
imgsrc kettle_integration_4.png width 600 caption
... falls auch mal die Köpfe rauchen und Sie schnelle Hilfe brauchen, dann schauen Sie doch, ob die Memtext Academy ein Video-Tutotrial zur Ihrem Thema bereithält, das Sie in weniger als 10 Minuten auf einen neuen Wissenstand bringt und Ihre Fragen löst.
Video-Auswahl der Memtext Academy
Schauen Sie andernfalls in unseren Info-Wegweiser. Wo finde ich was? der Sie gezielt zur benötigten Detaildoku führt. Zum Beispiel zum neuen Leitfaden Kettle-Grundlagen