Humboldt-Universität zu Berlin - Mathematisch-Naturwissenschaftliche Fakultät - Institut für Informatik

Termine der Ringvorlesung Sommersemester 2007

Selbstorganisierende Systeme“ [link]

Donnerstags 15 - 17 Uhr im großen Hörsaal des Johann von Neumann-Hauses


Datum Thema Dozent
19.04.2007
Einführung in die Ringvorlesung
Prof. Joachim Fischer Humboldt-Universität zu Berlin
26.04.2007
Funksensornetze – von der Forschung zum realen Einsatz (Kurzfassung)
Prof. Jochen H. Schiller
Freie Universität Berlin
03.05.2007
Semantische Interoperabilität jenseits von Ontologien (Kurzfassung)
Prof. Werner Kuhn
Universität Münster
10.05.2007
Stochastic model checking for performance and dependability evaluation (Kurzfassung)
Prof. Boudewijn R. Haverkort
University of Twente
24.05.2007
Herausforderungen und Ansätze für Kontextmodelle (Kurzfassung)
Prof. Bernhard Mitschang
Universität Stuttgart
31.05.2007
Model-based design of provably fault-tolerant systems (Kurzfassung)
Prof. András Pataricza
Budapest University
07.06.2007
Smart Earth: Networked Information Management in a Wireless World (Kurzfassung)
Prof. Karl Aberer
EPF Lausanne
14.06.2007
Vom mobilen zum pervasiven Lernen in einer selbstorganisierenden Umgebung (Kurzfassung)
Prof. Djamshid Tavangarian
Universität Rostock
21.06.2007
CSP - neue Einsichten in ein altes Paradigma (Kurzfassung)
Prof. Markus Roggenbach,
University of Wales Swansea
28.06.2007
Context-based services - a basis for self-organizing systems (Kurzfassung)
Prof. Schahram Dustdar
Technische Universität Wien
05.07.2007
Time Synchronization in Wireless Ad-Hoc Networks (Kurzfassung)
Prof. Reinhard Gotzhein
Technische Universität Kaiserslautern
12.07.2007
Service Oriented Architectures: A Technical Overview (Kurzfassung)
Prof. Mike P. Papazoglou
Tilburg University
19.07.2007
Adaptionsmechanismen zur qualitätsgarantierenden Datenstromanalyse (Kurzfassung)
Prof. Wolfgang Lehner
Technische Universität Dresden

Kurzfassungen



Prof. Jochen H. Schiller – Funksensornetze – von der Forschung zum realen Einsatz

Seit einigen Jahren wird weltweit an Funksensornetzen geforscht. Anfänglich rein militärisch oder sehr visionär (Stichwort "smart dust") wurden nach und nach Eigenschaften wie Selbstorganisation, Selbstadaption oder auch Selbstmanagement von sich per Funk vernetzenden Kleinstcomputern untersucht. Von Anfang an standen dabei Anwendungsgebiete wie Umweltüberwachung, spontaner Netzaufbau in Katastrophenszenarien oder auch Ersatz von festen Infrastrukturen aus Kostengründen im Vordergrund. Zahlreiche Forschungsprojekte beschäftigen sich mit Medienzugriffsverfahren, Routing-Algorithmen, Datenaggregation etc. - doch die wenigsten Forschungsprojekte sind über das Laborstadium hinausgekommen, viele verharren sogar in einer reinen (oft realitätsfernen) Simulation.

Wie kann also die an sich verlockende Idee der Funksensornetze in die Wirklichkeit umgesetzt werden?

Der Vortrag wird basierend auf der mehrjährigen Erfahrung mit der Funksensornetzplattform ScatterWeb aufzeigen, welche Schritte notwendig sind, um diese neue Technologie in der Industrie zum Einsatz zu bringen. Reale Anwendungen brauchen oft nicht noch ein weiteres Routing-Verfahren, noch eine ausgefeiltere Datenaggregationstechnik, sondern schlicht extrem robuste und zuverlässige Systeme. Hier besteht ScatterWeb derzeit den Dauertest am Matterhorn. Weiterhin muss die neue Technik nahtlos in vorhandene Systeme zur Entwicklung und zum Betrieb integrierbar sein. Der Vortrag wird hier Beispiele für Middleware (LabVIEW, Eclipse und Visual Studio-Integration) und Visualisierungen (Local Live, Google Earth) geben, die Funksensornetze leichter zugänglich machen.


Prof. Werner Kuhn – Semantische Interoperabilität jenseits von Ontologien

Im sogenannten "semantic web" wird versucht, durch Begriffsdefinitionen in Ontologien das Vokabular von Anwendern aufeinander abzustimmen. Dieser Ansatz ist vielversprechend, besonders für "amtliche" Geoinformation und deren semantische Heterogenitäten. Er kann aber bisher nur unzureichend zwischen information communities vermitteln und er vernachlässigt manche kognitiven und sozialen Komponenten der Bedeutung von Information. Der Vortrag zeigt die Rolle von Ontologien und von kognitiver und emergenter Semantik in der Arbeit unserer Forschungsgruppe MUSIL zu semantischen Referenzsystemen.


Prof. Boudewijn R. Haverkort – Stochastic model checking for performance and dependability evaluation

In this presentation I will present the recently developed techniques and algorithms for model checking Markovian models. These techniques bring together elements of traditional verification (model checking) and elements of classical performance and relaibility analysis. In doing so, a unified and versatile framework for the quantitative evaluation of complex systems emerges. Next to outlining the main methodology, example cases studies related to, among others, wireless networking (IEEE 802.11) will be presented.


Prof. Bernhard Mitschang – Herausforderungen und Ansätze für Kontextmodelle

Kontextbezogene Anwendungen, die sich der Situation ihres Benutzers anpassen, werden zunehmend relevant und erfordern neue Konzepte der Datenbereitstellung. Solche Anwendungen benötigen zeitnahen und flexiblen Zugriff auf Umgebungsdaten, sogenannte Kontextmodelle. Diese enthalten sehr heterogene Informationen: eher statische Daten aus digitalen Landkarten, die inzwischen häufig aus detaillierten 3D Modellen der physischen Welt bestehen und sehr umfangreich werden können; dynamischen Kontext wie die Position mobiler Benutzer oder andere durch Sensoren beobachtbare Phänomene wie das Wetter; digitalen Kontext, der durch die Verknüpfung von Informationsräumen wie dem World Wide Web mit der physischen Welt entsteht; und auch technischen Kontext, der Anwendungen die Möglichkeit gibt, sich der konkret vorhandenen Infrastruktur anzupassen, etwa zur Wahl des besten Zugangsnetzes.

Da die Erfassung und Nachführung von umfassenden Kontextmodellen sehr teuer ist, bietet es sich an, diese von vielen Anwendungen nutzen zu lassen. Durch die gemeinsame Verwendung von Kontextmodellen kann auch der räumliche Einsatzbereich kontextbezogener Anwendungen stark ausgedehnt werden, bis hin zu globaler Verfügbarkeit. Wir sprechen von lokalen Kontextmodellen, wenn ein Anbieter die für eine oder mehrere Anwendungen benötigten Informationen zu einem bestimmten Gebiet zur Verfügung stellt. Ziel ist es nun, durch eine Föderation solcher lokalen Kontextmodelle die Vision eines globalen Kontextmodells zu verwirklichen, das sowohl für dynamisch wechselnde Anbieter als auch für neue Anwendungen und Kontextinformationen offen ist.

Der Vortrag stellt vor, wie mit Hilfe eines erweiterbaren Integrationsschemas (dem Augmented World Model) und einer verteilten domänenspezifischen Föderationsarchitektur (der Nexus-Plattform, http://www.nexus.uni-stuttgart.de) diese Vision erreicht werden kann.


Prof. András Pataricza – Model-based design of provably fault-tolerant systems

Model-driven development became the mainstream approach in modern software technologies. In addition to a radical increase in productivity and implementation quality the availability of (semi-) formal models support the formal analysis of the target application all over the design workflow. One of the special fields of activities at BUTE is the dependability analysis of the target system. The main approach relies on the automated generation of dependability models from the model of the target application and the overall technical knowledge on faults formulated at the metamodel level. Automated abstractions help coping with the usual complexity problems in using formal methods. This way, not only the functional correctness can be proven by means of formal methods but the main characteristics of the systems can be analyzed even in the case of anticipated faults, as well.

The presentation of an Eclipse-based tool chain performing model transformations in an automated way concludes the talk.


Prof. Karl Aberer – Smart Earth: Networked Information Management in a Wireless World

We introduce a model for information management in a world where information from the physical environment is gathered through a ubiquitous wireless networks. Thus the Internet information space and the physical environment become increasingly entangled in a tightly connected system, that we call a Smart Earth. We illustrate technical challenges and applications from the work of the Swiss National Competence Centre of Research in Mobile Information and Communication Systems (NCCR-MICS). We identify the three layers of data access networks, semantic overlay networks and social networks as essential building blocks for networked information management and observe that each of these network layers will be largely self-organized. Finally we argue that understanding the interplay among these self-organizing network layers will be an important research challenge for the future.


Prof. Djamshid Tavangarian – Vom mobilen zum pervasiven Lernen in einer selbstorganisierenden Umgebung

Das rechnergestützte Lehren und Lernen (E-Learning) hat aufgrund der technologischen Entwicklungen eine deutliche Beschleunigung erfahren. Die breite Verfügbarkeit drahtloser Netzwerke und mobiler Endgeräte eröffnete völlig neuartige Szenarien – Lernen wann immer und wo immer nötig oder gewünscht wurde möglich. Die streng unidirektionale Vermittlung von Expertenwissen in der Präsenzveranstaltung wurde durch das mobile Lernen um virtuelle, dynamische oder kooperative Lehr- und Lernarrangements über die Grenzen von Stundenplan oder Hörsaal hinaus ergänzt.

Was kommt nach dem M-Learning? Welche technischen Neuerungen und Architekturen werden künftig für das rechnergestützte Lehren und Lernen abverlangt? Welche neuartigen Dienste für das E-Learning werden auf dieser Basis entstehen? Hier zeichnen sich drei eng miteinander verwobene, aktuelle Trends ab:
  • Mit dem Paradigmenwechsel zur Service-Orientierten Architektur (SOA) entsteht eine völlig neue Flexibilität und Durchgängigkeit im E-Learning. Dazu müssen zunächst vorhandene und benötigte Dienste identifiziert, ggf. vervollständigt und um eine SOA-Schnittstelle ergänzt werden. Durch ihre individuelle Komposition – auch über die Grenzen von Bildungseinrichtungen hinweg – können dann erweiterte und neuartige Dienste dem Anwender bedarfsgerecht zur Verfügung gestellt werden.
  • In Weiterführung dieser Ansätze bringt das Pervasive Computing die Allgegenwart von Diensten, ihre vollständige Durchdringung in die alltägliche Umgebung, die nahtlose Integration der physischen und der virtuellen Welt auch in das E-Learning. Dienste werden um eine proaktive Komponente ergänzt. Da die Technik in den Hintergrund zurücktritt, steigt die Nutzerfreundlichkeit.
  • Auf dieser Basis ist die Selbstorganisation der E-Learning-Umgebung, d.h. das automatische kooperative Zusammenwirken ihrer Komponenten, realisierbar. So können sich beispielsweise die Geräte, Netzwerke, Applikationen und Dienste im näheren Umfeld spontan zu Ensembles und Communties formen, die aktuellen Aktivitäten des Nutzers ermitteln und sie gezielt unterstützen.

In ihrer Gesamtheit führen diese Ansätze, auf E-Learning fokussiert, zum Pervasive Learning, das eine weitreichende Unterstützung der eigentlichen Lehr- und Lernprozesse ermöglicht, als es mit mobilen Technologien allein heute bereits realisiert ist. Dies erfordert Grundlagenforschung, angewandte Forschung und Entwicklung sowie begleitende Infrastrukturmaßnahmen. Der Beitrag gibt einen Einblick in die drei genannten Technologien, demonstriert ihr Zusammenwirken in einer Gesamtarchitektur, zeigt ihr Potenzial für das E-Learning auf und stellt erste Ansätze für eine praktische Umsetzung vor.


Prof. Markus Roggenbach – CSP - neue Einsichten in ein altes Paradigma

Verteilte Systeme sind oft mit der Aufgabe konfrontiert, sich selbst zu organisieren. Klassische Beispiele sind das Bestimmen eines ausgewählten Prozesses (leader election) oder Entscheidungs-Protokolle, in denen Mehrheitsentscheidungen getroffen werden sollen.

Die Prozessalgebra CSP ist eine mittlerweile geradezu klassische Methode, mit deren Hilfe verteilte Systeme modelliert und verifiziert werden. So wurde z.B. für die International Space Station ISS die Implementierung eines Byzantinischen Protokolls mittels CSP verifiziert.

Der Vortrag wird sich auf eine die letzten 25 Jahre offene Grundlagenfrage von CSP konzentrieren: Gibt es eine vollständige axiomatische Semantik für CSP? Für das so genannte stable-failures Modell von CSP lässt sich diese Frage neuerdings positiv beantworten.

Motivation für diese Grundlagenfrage lieferte die praktische Arbeit mit dem CSP-Prover, einem mittlerweile etablierten Beweiswerkzeug für die Sprache CSP. Bei der Verifikation von Systemen kommen Fragen auf wie: Kann man annehmen, dass Prozesse in einer bestimmten (Normal)Form vorliegen? Gibt es Grund zu der Annahme, dass entwickelte syntaktische Verifikationsmethoden zu spezialisiert sind?

Dank der neuen Ergebnisse für das CSP stable-failures Modell können nun Beweistaktiken auf Normalformen basieren. Zudem sind rein syntaktische Beweismethoden durch ein Vollständigkeitsresultat abgesichert.


Prof. Schahram Dustdar – Context-based services - a basis for self-organizing systems

In today's systems' landscape devices are increasingly becoming smaller, faster and are always connected to a network. These properties lead to a situation where the information systems have to operate in open dynamic infrastructures.

The constituents of such systems, people and software services, are being integrated into evolving “solutions“. Often they fulfill critical societal missions. In this talk we present some novel mechanisms for managing the interaction dynamics of future self-organizing and context-aware services.

Prof. Reinhard Gotzhein – Time Synchronization in Wireless Ad-Hoc Networks

Time synchronization is a crucial aspect for the operation of distributed systems in general, and of ad-hoc networks in particular. Network-wide accurate time in ad-hoc networks is needed as a prerequisite for many distributed applications (e.g. data fusion in wireless sensor networks, networked control systems), duty cycling in wireless sensor networks, and multi-hop medium slotting in wireless MAC layers. We will address general requirements on time synchronization, including accuracy, convergence delay, complexity, and upper bounds. Next, we will present a selection of traditional and recent protocols for network-wide time synchronization. We will conclude by an assessment and comparison of these protocols.


Prof. Mike P. Papazoglou – Service Oriented Architectures: A Technical Overview

The challenges in automated business integration has driven major advances in technology within the integration software space. As a result new approaches and architectures, such as the Service-Oriented Architecture (SOA), have been developed.

Their purpose is to address the requirements of loosely coupled, standards-based, and protocol-independent distributed computing. SOAs describe a type of infrastructure where IT components can be accessed as services with a defined form of invocation. Typically operations running in an SOA comprise a number of invocations of these different components, often in an event-driven or asynchronous fashion that reflects the underlying business process needs.

This talk will describe the concept of an SOA and place it in context with respect to on open standards such as standards for service description (WSDL) and service composition (BPEL). Of particular interest is the Enterprise Service Bus, which offers a whole range of functions designed to offer a manageable a standards-based IT backbone that extends Messaging Oriented Middleware functionality connecting heterogeneous components and systems. The main characteristic function of the Enterprise Service Bus is an infrastructure that underpins a fully integrated and flexible end-to-end Service Oriented Architecture.


Prof. Wolfgang Lehner – Adaptionsmechanismen zur qualitätsgarantierenden Datenstromanalyse

Insbesondere im Bereich der Produktionskontrolle oder allgemein der Steuerung von Vorgängen basierend auf der Analyse empirisch erfasster Datenbestände (Sensordaten) ist eine garantierte Zusage hinsichtlich ausgehandelter Qualitätskriterien des Dienstes (QoS) notwendig. In diesem Vortrag möchte ich auf die grundlegenden Eigenschaften der qualitätsgarantierenden Datenstromanalyse eingehen und die Auswirkungen auf die Einplanung von Datenstromoperatoren diskutieren. Der Schwerpunkt des Vortrags wird auf den modellinhärenten Anpassungsmechanismen bei schwankenden Umgebungsparametern liegen. Im Wesentlichen wird dabei das Jitter-Constraint-Periodic Stream Model mit Blick auf die Verarbeitung einzelner Datenobjekte (JCP+) und einzuplanender Operatoren vorgestellt; die Darstellung erstreckt sich dabei von Modellbetrachtungen bis zu Aspekten der Implementierung des QStream-Prototypen auf Basis eines echtzeitfähigen Betriebssystems.