Humboldt-Universität zu Berlin - Mathematisch-Naturwissenschaftliche Fakultät - Willkommen bei SOAMED

Die Forschungsbereiche des Graduiertenkollegs

Modellierungstechniken

Um Modell-basiertes Service Engineering zu betreiben, benötigt man formale und aussagekräftige Modelle. Dazu sind folgende Fragen zu untersuchen:

 

  • „vertikal": Die Frage des passenden Abstraktionsniveaus der Modellierung ist essenziell; sie entscheidet über die Detaillierungsgrad der Modelle.
  • „horizontal": Die Anzahl der verfügbaren Modellierungsdimensionen bestimmt gleichfalls die Nähe zur Realität.
  • „adäquat": Balancierung der Ausdrucksbequemlichkeit des Modellierungsformalismus und der Verfügbarkeit von Werkzeugen zur Analyse der Modelle.
  • „verifizierbar": Balancierung der Ausdrucksstärke des Modellierungsformalismus und der Verfügbarkeit von Werkzeugen zur Verifikation der Modelle.
  • „implementierbar": eine Modell-getriebene Implementierung oder gar automatische Code-Generierung hängen wesentlich von der konzeptionellen Implementierbarkeit ab; manche Modellierungstechniken geben diese Garantie nicht.
  • „universell": Domänenspezifische Modellierungsformalismen sind präziser und bequemer, müssen oft aber erst individuell erforscht werden. Allgemeine Modellierungsformalismen bieten häufig etablierte Techniken off-the-shelf.
  • „geschützt“: Modellierung von Datenschutzanforderungen und -präferenzen und von Verfahren zu deren Einhaltung in SOA-basierten Systemen.

Integrationsverfahren

Um Servicekomposition unter Berücksichtigung von Verhaltens- und Datenaspekten kosteneffektiv und flexibel zu erreichen, muss man

 

  • die verhaltens- und datenorientierte Semantik von Services mit adäquaten Mitteln beschreiben,
  • Privacy-Verletzungen bei der Datenintegration und dem Datenzugriff in SOAbasierten Systemen erkennen und verhindern oder kompensieren,
  • Verfahren zur Integration der technischen Gerätewelt mit prozessorientierten IT-Systemen im Sinne von Cyber Physical Systems etablieren,
  • Datenintegration und -analyse eng koppeln, da komplexe Integrationsprobleme nicht ohne eine intensive und detaillierte Charakterisierung der zu integrierenden Daten gelöst werden können,
  • komplexe und vielschichtige Integrationsverfahren als Prozesse von Einzelschritten verstehen und entsprechend managen, beschreiben und überwachen,
  • Adapter / Konnektoren soweit als möglich automatisch aus Spezifikationen und Modellen ableiten,
  • den semantischen Kontext, in dem Services laufen, angemessen modellieren und bei ihrer Orchestrierung beachten.

Ausführungsumgebungen 

Um gegebene Services koordiniert, effektiv und effizient auszuführen, benötigt man:

 

  • Mechanismen für die Einhaltung nicht-funktionaler Eigenschaften von Services und Prozessen, wie beispielsweise Laufzeitgrenzen (bis hin zur Realzeitunterstützung), Kostengrenzen oder Privacy-Constraints,
  • Verfahren für die dynamische Auswahl passender oder auch optimal passender Services und für die Organisation der Komposition komplexer Prozesse, die Datenschutzaspekte verifizierbar berücksichtigen,
  • das aktive Management von Services und deren Konfiguration und Beschreibung zur Laufzeit, um sie nach Bedarf zu instanziieren, im Ablauf zu kontrollieren, im Zugriff zu sichern, und sie in vorhandene Gefüge von Services zu integrieren oder auch aus diesen wieder zu entfernen,
  • Netzwerke, die die erforderliche Dienstgüte (Datenraten, Latenzen etc.) zur Verfügung stellen können und die sich flexibel an die Erfordernisse anpassen,
  • Abstraktionen von verteilt vorliegenden Ressourcen (Rechner, Speicher, Netzwerk, Anwendungen etc.), die das transparente und ökonomische Management verteilter Anwendungen gestatten und
  • Metriken zum Monitoring und zur Verhaltenskontrolle von Diensten innerhalb verteilter Ausführungsumgebungen, die Mechanismen zur Systemkontrolle (Restart, Migration, Austausch etc. von Diensten) steuern können.

Datenanalyseprozesse

Um komplexe Datenanalyseprozesse optimal zu unterstützen benötigt man:

 

  • Algorithmen zur Optimierung komplexer Analyseprozesse über sehr große Datenmengen auf verteilten Rechnerressourcen,
  • Kommunikationsprotokolle, die den effizienten Transfer der benötigten Rohdaten und Zwischenergebnisse für diese verteilten Analyseprozesse ermöglichen,
  • Verfahren und (domänenspezifische) Sprachen zur Unterstützung von Benutzern in der Gestaltung und dem Monitoring von Analyseprozessen,
  • Modelle und Mechanismen, die Datenschutzanforderungen bei der integrativen Datenanalyse sicherstellen,
  • Repositorien zum Management großer Mengen heterogener Prozessmodelle, die auch eine intuitive, modellübergreifende Suche erlauben und Mechanismen zur Wiederverwendung oder Parametrisierung von Modellen bieten und
  • Techniken zur konzisen Beschreibung des Entstehungsprozesses von Analyseergebnissen im Sinne einer bruchlosen Reprozierbarkeit und Erklärbarkeit aller Ergebnisse eines Workflows