Warning: Parameter 1 to Language::getMagic() expected to be a reference, value given in /usr/share/mediawiki/includes/StubObject.php on line 58
Forschungsseminar – GRK-Wiki

Forschungsseminar

Aus GRK-Wiki

Version vom 13:04, 5. Mai 2011 bei Henryk (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu: Navigation, Suche


Das Forschungsseminar ist eine Veranstaltung des Graduiertenkollegs.

Im Forschungsseminar stellen die Teilnehmer ihre Forschungsthemen, aktuellen Arbeiten und Ergebnisse vor. Kollegiaten, Betreuer und Interessierte erhalten so einen Einblick in die einzelnen Arbeiten, können diese kritisch hinterfragen und durch ihre Ideen bereichern. Die anschließenden Diskussionen führen dazu, das Gesamtthema eines Katastrophenmanagementsystems auf Basis dezentraler, selbstorganisierender, drahtloser Netze voranzubringen und sich einer umfassenden Lösung zu nähern.


Termin

donnerstags, 15:15 Uhr
John-von-Neumann-Haus, Raum 4.112
Rudower Chaussee 25
12489 Berlin - Adlershof

Vorträge

13.01.2011, Arif Wider

Bidirectional Transformations for View Synchronization in Domain-Specific Workbenches

My long-term goal is to provide a means for view synchronization in metamodel-based domain-specific workbenches. The underlying problem is the specification of heterogeneous model synchronizations. My approach to this is to provide a language for specifying bidirectional model transformations. This language is based on the existing "lenses"-framework for defining bidirectional tree transformations. I will show some basic tree lenses and will report about my experiences in adapting these lenses for model transformations.

15.04.2010, Andreas Dittrich

Experimental Responsiveness Evaluation of Decentralized Service Discovery

Service discovery is a fundamental concept in service networks. It provides networks with the capability to publish, browse and locate service instances. Service discovery is thus the precondition for a service network to operate correctly and for the services to be available. In the last decade, decentralized service discovery mechanisms have become increasingly popular. Especially in ad-hoc scenarios they are an integral part of auto-configuring service networks. Albeit the fact that auto-configuring networks are increasingly used in application domains where dependability is a major issue, these environments are inherently unreliable. In my talk, I examine the dependability of decentralized service discovery in such domains. Since discovery is a time-critical operation, I evaluate responsiveness - the probability to perform some action on time even in the presence of faults - of domain name system (DNS) based service discovery under influence of packet loss. By showing simulation results I demonstrate that responsiveness decreases significantly already with moderate packet loss and becomes practicably unacceptable with higher packet loss.

18.03.2010, Jens Nachtigall

Wireless Routing Protocols for Earthquake Early Warning Systems

The use case of Earthquake Early Warning Systems (EEWSs) is unique and requires a special approach. Even though P-waves are non-destructive, they can cause slight shaking of a few centimeters for strong (Mw > 6) and nearby (epicentral distance < 40 km) earthquakes at the very moment, when an EEWS would be activated. The sudden small-amplitude P-wave shaking can have an immense impact on the performance of a Wireless Mesh Network (WMN). These swift link quality fluctuations are difficult to handle with today's pro- or reactive unicast routing approaches which infer the current quality of links from past measurements. Optimized flooding schemes as one category of anypath routing can eleviate these effects. By considering multiple opportunities for message propagation these oscillation can be turned into an advantage. In this talk I will present past and current work as well as future ideas on this subject.

18.02.2010, Jan Calta

Formal Analysis of Self-Organizing Systems

In this talk I will present a characterization of self-organizing systems (SOS) and a formal approach to the design and verification of them. First, I'll explain which features of SOS should be exploited in modelling of a real system, which properties should be assured or verified and which characteristics of SOS make the formal analysis of them a challenging task. A SOS is a multi-agent system and its behavior can be defined as a so-called strategy. I will present an algorithm for finding uniform strategies for multi-agent systems. I'll explain the explicit model on which the algorithm runs and discuss modular models proposed for multi-agent systems and their relevance to model checking. Last, I will discuss a possible approach to model a scalable SOS regardless of its size.

17.12.2009, Andreas Dittrich

Responsiveness of Distributed Service Discovery in Unreliable Networks

We have run experiments to evaluate service discovery mechanisms in auto-configuring networks. The focus is on responsiveness: the probability of successful discovery in time. We will give an introduction to the problem area and discuss measurement results that have been gathered so far. As can be seen, the responsiveness of traditional discovery mechanisms degrades significantly in unreliable networks.

13.08.2009, Arif Wider

Domain-specific Multimodeling using Lenses

Describing an experiment in the development of optical nanostructures is divided into different aspects, e.g., the structure itself, the experiment setup and simulation parameters. Thus, an infrastructure for developing nanostructures has to integrate different domain-specific languages (DSLs) reflecting these aspects. Dividing the description of a complex system into different aspects in order to cope with complexity is a usual application of the separation of concern principle. Using different DSLs for modeling one system is sometimes called “domain-specific multimodeling” or just multimodeling.

The different languages in a multimodeling environment can be disjoint or overlapping in respect of the information that can be expressed with them. Especially if two languages overlap, models expressed in these languages have to be kept consistent. This is called model synchronization. There are different approaches to model synchronization. Often, some sorts of bidirectional transformations are involved. Many languages for describing bidirectional transformations are restricted to bijective transformations, which is not feasible for many multimodeling scenarios.

I will introduce “lenses” which are bidirectional transformations that are designed for the special case, in which one of the models that have to be kept consistent is an abstraction of the other model. I will show how this fits into a specific multimodeling approach and how I plan to incorporate this into my infrastructure for the development of optical nanostructures.

18.06.2009, Artin Avanes

Flexible Failure Handling for Cooperative Processes in Distributed Systems

Distributed systems will be increasingly built on top of wireless networks, such as sensor networks or handheld devices with advanced sensing and computational abilities. Supporting cooperative processes executed by such unreliable and dynamic system components poses a various number of new technical challenges.

In terms of recovery, limited resource capabilities have be considered during re-scheduling of failed process activities. Additionally, cooperative processes are not independent from each other, but they access shared, persistent data thus being subject to transactional semantics. Hence, regarding concurrency control, the control flow of cooperative processes is more complex than a flat transaction. Since locking of resources is not acceptable for long-running processes, the challenge is to find the right balance between allowed interaction and parallelism.

This talk is about a failure handling mechanism considering both - transactional semantics (in particular serializability and atomicity) and limited resource capabilties in hierarchical execution systems.

30.04.2009, Christoph Wagner

Verifying Data-Dependent Services

According to the paradigm of Service Oriented Computing (SOC), a service is a unit of interorganizational cooperation that provides functionalities which are accessible to other services via a well-defined interface. Though some services can work in isolation, they are typically coupled and form a larger system. Resources, messages and data are exchanged among different parties and organizations. Naturally, we want to know under which conditions the services of an interorganizational process can interact so that a common goal is reached. Whether each service is able to fulfill its particular task depends not only on the service itself, but also on the behaviour of its environment. In order to check if services interact properly, we need a formal model which allows us to verify, whether a specified correctness criterion is fulfilled. The most fundamental correctness criterion services should fulfill is deadlock-freedom. A service that has reached a deadlock is not able to finish its task. Given a service, it is possible to characterize all deadlock-free partner services of this service. This characterization can be used, for example, in the context of service adaptation, service correction or service synthesis. However, this characterization does not treat data values explicitly. The handling of data values can be introduced easily, but serious drawbacks arise if this is done naively.

In my talk, I will present the formal model currently used for partner generation and show that the current approach does not scale in the case of large data value domains.

23.04.2009, Andreas Dittrich

Self-aware Adaptive Service Networks with Dependability Guarantees

Disasters striking in metropolitan areas pose a significant risk for the development and growth of modern societies. The impact of any disaster -- be it of natural or terroristic origin -- would be severe. In case a disaster strikes, fast and safe mitigation of damages is important. Information and communication technology (ICT) plays a crucial role in helping reconnaissance and first response teams on disaster sites.

Every team brings its own network equipment and uses several IT services. The participating teams and the course of mitigation action are likely to be different on every site. However, several services (e.g.: infrastructure, communication) could be shared between teams, various are critical for operation. Despite being unique in every scenario, described service networks inhibit certain common properties. First of all, they arise spontaneously with administrative configuration only for single teams. Second, depending on the course of action the numbers of nodes and services are subject to high fluctuation. Third, the capabilities of participating nodes and the types of their services are also fluctuating strongly throughout the lifetime of the service network.

A single network for all participating nodes with the possibility to publish and discover services would be of great benefit in described disaster management scenarios. Because of the mentioned properties, it would need to automatically configure all the network layers involved. Not only is there no distinguished central administrative authority, it is impossible to configure in advance what arises ad-hoc. But given an ad-hoc, autoconfiguring service network, how can we guarantee dependability properties such as availability, performability and survivability for critical services? So far there exists no comprehensive evaluation for such a heterogenous and dynamic service network. In this talk I will present how to embed a run time cycle into the service network. Within the cycle, the network is monitored and based on monitoring data, dependability properties are evaluated. If necessary, adaptation measures are triggered. This cycle is the base of a self-aware adaptive service network.

16.04.2009, Jarungjit Parnjai

Analyzing Behavioral Exchangeability of Services

The paradigm of service-oriented computing uses a service as a building block for designing flexible processes by means of service composition. The behavior of a service is subject to changes. Driven by the cost and time to meet the deadline, a new version of a service is hardly reconstructed from scratch. Instead, a new version can be derived from its orginal version by modifying its current functionality or adding in a new functionality. Then, an original service will be exchanged by its new version.

To respond promptly to various changes, a service designer, e.g., a domain expert, requires a systematic approach to rapidly and effectively administrate an exchange of a service.

In this talk, I will present an overview of the service exchangebility problem and address some questions arising from the behavioral aspect of the problem. I will also present current work related to a formal analysis of service exchangeability and discuss future work.


26.03.2009, Arif Wider

Applying Model-Driven Technologies in the Development of Optical Nanostructures

In the current research of optical nanostructures often proprietary tools are used to simulate the properties of nanostructures. These tools are usually specific to a certain simulation method, are not interoperable and provide different front-ends. Because of that, a specific nanostructure has to be described repeatedly with different tools in order to apply different simulation methods. Furthermore most tools do not include any result management. My approach is to address these issues by applying model-driven technologies.

Therefore I work on a “Computing Infrastructure for Model-driven development of Optical Nanostructures” (CIMON). The infrastructure integrates domain-specific languages, e.g. for describing nanostructures and simulation parameters. For these languages editing and transformation tools will be provided. By applying adequate transformations, one nanostructure description then could be used for different simulation methods. Furthermore the infrastructure should support model-based result management as well as result visualization.

In this talk I will go into details about the concepts that are used in the development of optical nanostructures and thus have to be covered by a DSL. I will present the current status of my implementation of such a DSL and I would like to discuss possible directions of my future work.


19.03.2009, Jens Nachtigall

Wireless Routing Protocols for Earthquake Early Warning Systems

The use case of Earthquake Early Warning Systems (EEWSs) is unique and requires a special approach. Even though P-waves are non-destructive, they can cause slight shaking of a few centimeters for strong (Mw > 6) and nearby (epicentral distance < 40 km) earthquakes at the very moment, when an EEWS would be activated. The sudden small-amplitude P-wave shaking can have an immense impact on the performance of a Wireless Mesh Network (WMN). These swift link quality fluctuations are difficult to handle with today's pro- or reactive unicast routing approaches which infer the current quality of links from past measurements.

A different communications approach like opportunistic or anypath routing is worth considering. Here, radio links of erratic qualities can be used on a trial and error basis. While this concept is beneficial for WMNs in general due to its broadcast medium with lossy links, it should so even more for the application of an EEWS. In the same way that antenna diversity is able to mitigate the swift link quality oscillations on the small scale, opportunistic routing as a form of macrodiversity should be able to compensate these fluctuations by employing different neighbor nodes with distinct receive conditions.

In this talk, I will present my past and planned future work. I will highlight the challenges for WMNs imposed by EEWSs and possible solutions.


05.03.2009, Frank Kühnlenz

An Experiment Management Infrastructure Technology

Model-based development often involves the usage of a complex infrastructure starting from a structural and behavioral description and ending with results by an execution of the model with concrete parameters. This includes many artifacts, such as the model description itself, possibly transformators and typically code generators, input data, an execution environment and the model results. At present all these artifacts are mostly loose coupled (e.g. as files in a filesystem) and how they are linked is usually someone’s proprietary knowledge. That is highly intransparent and it will even become worse when different versions of the artifacts occur.

My approach is to use model-based technologies to ensure the consistency of artifacts necessary for an experiment. Such an experiment management infrastructure should be easily applicable for a specific use case domain and provide an abstraction level from a concrete framework executing the managed model. At the end an Experiment Management System (EMS) provides support for the three phases: experiment planning, experiment execution and evaluation of the experiment results.

In my talk I will present an overview about my recent work and future plans. I will mention technology aspects as well as the benefit for the end-users and some concrete examples.


26.2.2009, Dirk Fahland

Formal Semantics of Oclets

In previous talks, I've presented the concept of oclets and explained how oclets can be applied for modeling adaptive processes. One major concern in these talks and in the subsequent discussion were the formal semantics of oclets and how oclets relate to systems, specifically Petri nets.

In this talk, I will present two formal semantics of oclets: A declarative semantics, where a set of oclets specifies a set of satisfying partially ordered runs. Thereby, an oclet makes only statements about a small part of the run while the rest of the run can be arbitrary. For a set of oclets, the satifying runs are the intersection of the satisfying runs of the indiviudal oclets. With this semantics, oclets are a specification language. The second semantics is an operational semantics that constructs partially ordered runs from a set of oclets. Unlike in earlier approaches, the semantical definitions are much simpler. The operational semantics implements the declarative semantics.

These definitions allow to model and to reason about system behavior by calculating with scenarios. I will explain the relationship between Petri nets and scenarios, and sketch how these can be used in defining and refining system behavior.

19.2.2009, Joanna Geibig

Availability of Data in Locality-Aware Unreliable Networks

Because the resources of wireless networks (WN) as bandwidth, memory and battery power are limited, new approaches for ensuring availability of data are required. Data is available, when it is reachable at access time. Such defined data availability depends on networks topology, links states and data placement. In my work, I address the problem of enhancing availability of data in the unreliable, distributed, locality-aware system with multiple constraints, under assumption of spatially correlated nodes crashes.

Survivability of data is undoubtedly a condition for data availability. In the talk, I will present the motivating scenario, corresponding network and data models as well as optimization problem considering survivability of data in the system.

The replication mechanism for enhancing data availability shall disseminate replicas in optimal way to support different data dependability aspects, but should also exhibit other properties:

1) Self-organization - which means self-adjusting behavior of replication in the presence of change and disturbance. Even when quality of links, amount of traffic, number of active nodes and partitions or parameters of disaster (correlated nodes crashes) change, system shall reach its objective.

2) Efficiency - especially in the terms of network communication, which is the most expensive operations in WNs. E.g. for efficiency reasons, replication will not have a global system view.

3) On-line execution - as damage in the network can happen at unknown time, nodes must replicate data items as they appear.

Another important side of replication mechanism is a corresponding to it search mechanism. Search mechanism must be effective in terms of positive discovery and resource usage. Success and costs of search depends on the used replication mechanism.

Structured overlay networks (SONs) exhibit self-organization in the presence of network dynamism and provide a guaranteed mechanism for finding data in O(log n) overlay hops. For these reasons, I analytically evaluated some aspects of the efficacy of replication schemes in SONs for my scenario. In the talk, I will present results of this evaluation.


12.2.2009, Siamak Haschemi

A Hysteresis Based Approach for Dynamic Service Ranking

In service-oriented component platforms, services are provided and used by component instances. Service ambiguity occurs when several service providers fulfill the same service requirement. Service selection mechanism narrow the possible service bindings, but make the service requester consider the remaining possibilities as identical. Thus, a service ranking mechanism is introduced, which globally orders the remaining services by using non-functional service properties.

In this talk, I present the problem of service binding ping-ponging. Binding ping-ponging occurs, when the service ranking is based on noisy service properties (e.g. derived from sensors). It leads to a system, where service bindings fluctuate frequently. I present a solution to this problem, which is based on Hysteresis approaches used by mobile phone protocols (e.g. GSM). In applying Hysteresis to the service ranking mechanism, the service bindings becomes more stable, which results in a more stable system.


29.1.2009, Artin Avanes

Classification-based Recovery of Cooperative Processes

Cooperative processes are a special class of distributed processes. These processes are not executed by a single central execution engine, instead subprocesses are distributed over multiple subsystems. However, these subprocesses are not independent, but cooperate and communicate with each other by accessing shared data and/or exchanging messages. Due to the characteristics of the specific execution environment as envisioned in the METRIK-project, processes are susceptible to a wide variety of failures, including technical as well as user-originated errors.

In this talk, I will investigate requirements for a unified model for concurrency control and recovery for cooperative processes. The idea is to build a realistic (execution) system that supports and guarantees a correct process execution in the presence of both - concurrency and recovery. The main idea is to adapt well-known database theory used for flat transactions to cooperative processes with higher level of semantics. Based on this model, the next steps are to develop different efficient recovery algorithms that not only consider the correctness criteria but also take into account the limited resource capabilities of given resources.


18.12.2008, Andreas Reimer

Theory of Graphics: Graphical Semiology

In my talk, I´ll introduce you to one of the most influential schools of thought in graphical theory. This theory is fundamental to understand how graphics can be constructed and talked about in a rigorous, scientific way. This foundational framework allows to reason about graphics in non-trivial ways. The main components are the definition of graphics themselves, an examination of the scaling level [structure] of data and an examination of the inherent capabilities of specific graphical variables to express these scaling levels.

06.11.2008, Guido Wachsmuth

Embedding Grammarware into Modelware

Grammarware is the technical space concerned with textual languages. It includes specification means and tool support for these languages. Modelware is the technical space concerned with modelling languages. It includes modelling means and a model-driven approach to tool support for these languages. When it comes to textual modelling languages, interoperability between both technical spaces is a common need. Typically, this interoperability is achieved by a technical bridge which allows to switch between the technical spaces at a well-defined point.

In this talk, I show how grammarware can be completely embedded into modelware. The first part is concerned with model-driven features of grammarware. This includes representation of text as models, transformation techniques, meta-languages (e.g. for computation-independent language models or platform-independent language models), and meta-tools offering generative tool support. Actually, grammarware was a model-driven paradigma long before model-driven software engineering emerged.

The second part is concerned with models representing text. Various of these models are used in grammarware, e.g. token models and all kinds of syntax trees. I discuss two strategies to represent these models in modelware. The first strategy relies on generic metamodels for different kinds of text models. The second strategy provides a generative approach where specific metamodels are generated from a language specification. Finally, I will show how both strategies provide various technical bridges between grammarware and modelware.

The last part of the talk is concerned with language models. In grammarware, these models are used to specify a language and to offer generic and/or generative tool support for a language. Based on these models, I present a generative approach to achieve the embedding of grammarware into modelware. First, language models are expressed in modelware. Second, corresponding language models for grammarware are generated by applying modelware technologies. Third, corresponding language tools are generated by applying grammarware technologies. Finally, each generated language tool includes a technical bridge from grammarware to modelware. That is, each tool uses grammarware technologies to deal with text and the results are accessible by modelware technologies.

08.09.2008, Andreas Dittrich

An Architecture for Self-Configuring Services based on Minimal Embedded Systems

Mobile embedded devices pervade areas of computing that used to have fixed environments and help to make them more flexible and dynamic. Because of the plethora of new devices entering traditional computer networks and the differences in their capabilities and non-functional properties such as availability and performance, there is the need for standards to configure the communication layers that are outside of the semantics of the services provided by those devices. Quite a few frameworks - so called service-oriented architectures (SOA) - have emerged that try to define the different layers involved in service communication and offer protocols to automatically configure the layers in decentralized, dynamic networks. For the purpose of connecting cheap and resource restricted systems the technologies used in a SOA need to scale. Only minimal overhead over the requirements for taking part in the network itself is acceptable. Together with Jon Kowal I have shown that the requirements proposed by the Zeroconf working group provide a good compromise between functionality and hardware requirements and can be implemented with very little overhead. We then enhanced the model to also cover the service application layer, thus providing a complete SOA for tiny microcontrollers. This makes it possible to profit from the benefits of SOAs in any networked environment.

04.08.2008, Daniel Sadilek

Continuous TTCN: a Case Study for Agile Language Engineering

TTCN is a successful test specification language mainly used for testing communication systems. In the Fraunhofer FOKUS, there are efforts to extend the language with concepts to test continuous systems, e.g. control systems found in the automotive industry. In conjunction with FOKUS, I developed a prototype of the language extensions. We described the abstract syntax and the runtime configurations with a metamodel. The metamodel was developed following a test-first approach using our metamodel testing tool MMUnit. The concrete textual syntax of the language is described with a grammar mapped to the metamodel. On this basis, Markus Scheidgen's Textual Editing Framework provides a full-featured textual editor. The operational semantics of the language is described with an Abstract State Machine (ASM) expressed in CoreASM. Using our semantics description framework EProvide, the ASM structures are mapped to runtime configurations encoded in models. Thus, the inner workings of the ASM can be animated in the textual editor. This allows language designers and users to experiment with early versions of the language.

14.7.2008, Dirk Fahland

A calculus for formal semantics of adaptive processes

Dynamically modifying process behavior at run-time is practical need in various domains, e.g. disaster management. But changing process behavior invalidates existing process models that are used to predict future actions, to schedule resource and to coordinate multiple partners. To overcome this problem I suggest to use formal models to express processes and their run-time changes.

Defining a generally usable and sufficiently expressive formal language to define such "adaptive processes" is a non-trivial task, as the combination of all expressive means must be consistent. In my talk I will present the current ideas of a formal calculus that allows to develop formal languages for adaptive processes. I will present a wish-list of language concepts motivated by adaptive processes for disaster management and show how an uncautions combination of these concepts yields inconsistencies. I will then point out how my calculus shall help me in deriving consistent semantic.


7.7.2008, Guido Wachsmuth

The Power of Prolog: Model Processing the Old School Way

I present the development of model processors in Prolog. Model processors are language processors for modelling languages. This includes frontends, evaluators, optimisers, and backends. In general, model processing includes any kind of model analysis, model modification, and model transformation. The design of EPromote, an environment for prological model processing, is outlined.

EPromote bridges the technological spaces of modelling and Prolog: a model is accessible via a generic interface or via a specific one that gets automatically derived from the model's metamodel. Model modifications are fully backtrackable. EPromote comes with a small but powerfull library for pattern matching, list processing, parsing, and EBNF expressiveness.

The talk will include several demos. As the running example, I present model processors for the Factorial Language, a functional toy language with a textual concrete syntax.

6.3.2008, Dirk Fahland

Oclets, ein formales Modell für adaptive Systeme

Das Verhalten eines adaptiven Systems ändert sich zur Laufzeit, d.h. während der Ausführung ändert sich die Menge der erreichbaren Zustände und die Menge der ausführbaren Aktionen. Klassische Modelle können derartige Systeme nur in einem begrenzten Umfang korrekt und vollständig beschreiben, was die Aussagekraft der Modelle einschränkt und die Analyse solcher Systeme erschwert.

Im Vortrag stelle ich meinen Oclet-Ansatz, eine Variante von Petrinetzen, vor und präsentiere für eine eingeschränkte Klasse von Oclets ein formales Modell zur Modellierung adaptiver, verteilter Systeme. In kleines Beispiel eines Kommunikationsprotokolls wird meine Ausführungen ergänzen. Am Ende des Vortrags gebe ich einen Ausblick auf mein geplantes, weiteres Vorgehen.


14.02.2008, Daniel A. Sadilek

Testing Metamodels

Metamodels define the abstract syntax of modeling languages. They play a central role in the Model-Driven Architecture. Other artifacts like models or tools are based on them and have to be changed if the metamodel is changed. Consequently, correcting errors in a metamodel can be quite expensive as dependent artifacts have to be adapted to the corrected metamodel. We argue that metamodels should be tested systematically with automated tests. We present a corresponding approach that allows automated metamodel testing based on a test specification. From a test specification, multiple test models can be derived. Each test model defines a potential instance of the metamodel under test. A positive test model defines a potential instance that should be an actual instance of the metamodel; a negative test model defines one that should not. We exemplify our approach with a metamodel for defining a company's structure. Finally, we present MMUnit, an implementation of our approach that builds on the Eclipse platform and integrates the JUnit framework. MMUnit allows to test EMF-based metamodels, which can contain additional constraints, e.g. constraints expressed in OCL. MMUnit ist joint work with Stephan Weißleder.

24.01.2008, Frank Kühnlenz

Model-Driven Prototyping of Earthquake Early Warning Systems (EEWS):
Details on Prototyping the Self-Organizing Seismic Early Warning Information Network (SOSEWIN)

My talk deals with realizing the prototype that we develop in SAFER and call Self-Organizing Seismic Early Warning Information Network (SOSEWIN). I will show how it fits to the Prototyping Cycle and to the Prototyping Infrastructure presented at the last METRIK evaluation workshop. In detail we will have a look on a simulation workflow and certain aspects of the implementation, such as:

  • functional extension of simulation models by composition of SDL-RT models (via code generation to C++) and the simulation library ODEMx
  • usage of the component framework and tool suite netCCM

17.01.2008, Guido Wachsmuth

Modellbasierte Attributgrammatiken

Nachdem ich in meinem letzten Vortrag Ideen zur Syntaxanalyse textueller Modelle vorgestellt habe, werde ich diesmal die theoretische Fundierung dieser Ideen präsentieren. Als Ausgangsbasis dienen mir dabei Attributgrammatiken. Ich werde zunächst die theoretischen Grundlagen für Attributgrammatiken wiederholen. Anschließend werde ich den Zusammenhang zwischen Attributgrammatiken und logischer Programmierung beleuchten. Darauf aufbauend werde ich zeigen, wie sich modellbasierte Attributgrammatiken mit QVT Relations beschreiben lassen. Die Methode bietet einen generischen Ansatz zur Spezifikation von Parsern für textuelle Modelle.

13.12.2007, Artin Avanes

Towards a Workflow Scheduler in Disaster Scenarios

Recent disasters, such as the 2004 Asian tsunami or the 2005 hurricane Katrina showed the shortcomings of existing information systems for disaster rescue and recovery. In particular, an efficient coordination of emergency processes short after a disaster is crucial for a successful disaster management. In this talk, I will explain a multi-stage algorithm to assign workflow activities to nodes of the underlying execution network. The proposed algorithm consists of two steps: (1) a global fragementation step and (2) a local allocation step.

06.12.2007, Stefan Brüning

Drahtlose Sensornetzwerke im Katastrophenmanagement

Drahtlose Sensornetzwerke werden im Katastrophenmanagement zur Erkennung und Überwachung von Katastrophen eingesetzt. Zentrale Aufgabe ist die Messung physikalischer Phänomene und die Weiterleitung dieser Informationen an eine Senke unter möglichst geringen Verbrauch von Energie. Aufgrund des drahtlosen Mediums funktioniert die Kommunikation jedoch nur unzuverlässig. Deswegen ist nötig, Zuverlässigkeit und Verzögerung bei der Kommunikation im Netzwerk zu verbessern und hierfür eventuell auch mehr Energie zu verbrauchen.

22.11.2007, Stephan Weißleder

A Survey of Coverage Criteria and How to Realize Them with the Test Case Tree

Überdeckungskriterien stellen eine Möglichkeit dar, die Qualität von Testfällen quantifizierbar zu machen. Entsprechend ist die Verwendung von Überdeckungskriterien eine wesentliche Voraussetzung für den Testprozess. Wenn darauf verzichtet wird, dann spricht man nicht mehr von Tests, sondern nur noch von unstrukturierten Experimenten. In meinem Vortrag im METRIK-Forschungsseminar werde ich verschiedene Überdeckungskriterien vorstellen und kurz auf Methoden eingehen, wie sie für die Testfallerzeugung genutzt werden können. Weiterhin werde ich meinen Ansatz vorstellen, wie Überdeckungskriterien für automatisch erzeugte Testmengen mit Hilfe meines Testfallbaums erfüllt werden können.

1.11.2007, Katharina Hahn

Supporting Transactional Cooperation in Mobile ad-hoc Networks

As mobile devices become more and more popular, new application fields and, along with those, new challenges arise. The shift of applications from stable, fixed wired to mobile, wireless networks calls for new strategies to cope with mobility and unreliable communication.

While mobile nodes move in public, a direct connection to an access point may not be given. In this case, users want to make use of ad-hoc communication to provide and share the desired functionality. However, users are only willing to take part in such systems, if the probability of successful interaction is high enough. To provide this, transactional support for cooperating devices is needed.

In this talk, bilateral trading transactions in which two devices exchange electronic goods will be further examined. The success of such exchanges is threatened by communication errors on the one hand and unfair behaviour of malicious participants on the other. Both obstacles need to be overcome to achieve a viable system. An integrated approach, which builds a profound basis for bilateral cooperation in such environments, will be presented.

25.10.2007, Dirk Fahland

Case study: Workflow of the Task Force "Earthquakes" of the GFZ Potsdam

During the last year, we have talked several times to the scientific members of the task force "Earthquakes" of the GFZ Potsdam that takes scientific data after major earthquakes at the sites. The aim of these talks is to model the workflow of the task force in a way that is understandable by the experts but formally well-founded. The workflow itself has the expected characteristics in the setting: It is highly complex - currently more than 100 tasks at different abstraction levels and organized in different processes -, it is mainly data- and event driven and requires eventual improvisation and changes to the processes.

In my talk I will present the current state of the model and our process of deriving it. I will emphasize the difficulties that arose in the traditional approach of modeling, and point out how the modeling could be simplified by using concepts for adaptive processes. I then want to discuss how to achieve tool support for this domain-specific model.

This is joint work with Falko Theisselmann and Heiko Woith (GFZ).

18.10.2007, Daniel Sadilek

From DSL to Bytecode -- Compilation for a sensor mote

Virtual machines for sensor motes are promising: safe execution, easy deployment, abstraction from heterogeneous hardware. DSLs for sensor networks are promising, as well: domain-specific concepts, purpose-built concrete syntax, understandable by domain-experts. My idea is to compile DSLs (realized as internal DSLs in Scheme) to bytecode for a VM that runs on a sensor node. In my presentation, I will give an overview of related work: (i) virtual machines and other execution platforms for wireless sensor networks, (ii) compilation techniques for Scheme, and (iii) existing special languages for wireless sensor networks and their compilation. Based on this overview, I want to discuss the feasibility and alternatives of my idea.


27.09.2007, Frank Kühnlenz

Alarmierungsprotokolle in Sensornetzen zur Erdbebenfrühwarnung

Die Akzeptanz von Systemen zur Erdbebenfrühwarnung hängt entscheidend von der zuverlässigen, schnellen Erkennung und Meldung von Erdbeben ab, wobei Falsch- und Fehlalarme möglichst vermieden werden sollen. Zur Erfüllung dieser Forderungen ist ein geeignetes Alarmierungsprotokoll zu spezifizieren, bei dem sich Gruppen von Stationen kooperativ über den Ereignisfall abstimmen. In dem Vortrag werde ich einen gemeinsam mit dem GFZ-Potsdam erarbeiteten, ersten Entwurf eines solchen Alarmierungsprotokolles vorstellen und lade zur Diskussion darüber ein.

20.09.2007, Guido Wachsmuth

Strukturanalyse textueller Modelle

Modelle enthalten oft textuelle Anteile oder liegen vollständig als Texte vor. Beispiele hierfür sind OCL Constraints oder QVT Transformationen. Bei der Analyse textueller Modellbestandteile stehen sich verschiedene Technologien gegenüber: Auf der einen Seite bilden Grammatiken ein wohlverstandenes Beschreibungsmittel für strukturierte Texte und deren Analyse. Auf der anderen Seite sind Metamodelle ein gängiges Beschreibungsmittel für strukturierte Modelle. Die Überwindung der Grenzen zwischen grammatik- und metamodellbasierten Technologien stellt die zentrale Herausforderung bei der Strukturanalyse textueller Modelle dar. Im Vortrag werde ich die grundsätzlichen Probleme bei der Überwindung solcher Technologiegrenzen vorstellen und anschließend verschiedene Lösungsansätze skizzieren. Hierzu gehören die Modellerzeugung mit Hilfe grammatikbasierter Techniken, die Übersetzung zwischen Syntaxbäumen und Modellen, sowie die Strukturanalyse mit Hilfe von Modelltransformationen.

06.09.2007, Artin Avanes

Workflow Scheduling Under Resource Allocation and Spatial Constraints

Das Verteilen bzw. Zuweisen von Workflowaktivitäten im Katastrophenfall stellt eine besondere Herausforderung dar. Die Ressourcen der im Einsatz befindlichen selbst-organisierenden Systeme, wie z.B. mobile Endgeräte und Sensornetzwerke, sind in der Regel batteriebetrieben und somit begrenzt. Nur wenige Workflow Management Systeme (WfMS) betrachten bisher ein Scheduling von Workflowaktivitäten unter Berücksichtigung limitierter Ressourcenkapazitäten.

In diesem Vortrag werden eine Reihe von existierenden WfMS und deren Scheduling-Verfahren kurz ansprechen und sie in unseren Kontext einordnen. Davon ausgehend, stelle ich dann einen verteilten gruppen-basierten Scheduling-Algorithmus vor, dessen Ziel es ist, eine möglichst optimale Zuweisung hinsichtlich der Ressourcen innerhalb von Gruppen zu errechnen. Der Algorithmus basiert auf einer modifizierten Version des „Forwarding Checking“, welcher zu der Klasse von Constraint-Propagation Algorithmen gehört, die eingesetzt werden, um klassische Constraint-Programming Fragestellungen zu lösen.

Im Anschluss würde ich dann gerne über den gewählten Ansatz diskutieren und weitere offene Fragen ansprechen.

30.08.2008, Bastian Quilitz

Auswertung von SPARQL-Anfragen via Web Services

In der Praxis zeigen sich häufig starke Defizite beim Katastrophenmanagement, die oft auf eine mangelnde Bereitstellung von Daten und Informationen zurückgeführt werden können. Wichtig für das Katastrophenmanagement ist ein aktueller Zugang zu Informationen aus unterschiedlichen Systemen von verschiedenen Organisationen.

Mit DARQ existiert ein System, dass einen integrierten Anfrage-Zugriff per SPARQL auf Informationen aus verteilten RDF Datenquellen realisieren kann. Im Geo-Umfeld werden jedoch viele Daten nicht per RDF, sondern über Webservices verfügbar gemacht. In diesem Vortrag werde ich einen generischen Wrapper vorstellen, der dieses Problem lösen soll. Er übersetzt SPARQL Anfragen in Webservice-Aufrufe und macht die Ergebnisse als RDF verfügbar.

16.08.2007, Kai Köhne

Multikanalprotokolle in WiFi-Maschennetzen

Ich werde auf Theorie und Praxis der Verwendung von Multikanalprotokollen in Wifi-Maschennetzen eingehen. Insbesondere werde ich anhand von Messungen mit Hardware des SAFER-Projektes zeigen, dass theoretisch orthogonale Frequenzen in Wifi-Bändern nicht innerhalb eines Knotens parallel genutzt werden können.

9.8.2007, Stefan Brüning

Zuverlässigkeit in drahtlosen Sensornetzwerken

Ich werde den aktuellen Stand meiner Disseratation vorstellen. In meiner Arbeit beschäftige ich mich mit Problemen im Bereich Zuverlässigkeit in drahtlosen Sensornetzwerk (WSNs). Im Gegensatz zu klassischen verteilten Systemen ist Energie in WSNs beschränkt und daher eine wertvolle Resource. Zuverlässigkeit im allgemeinen bedeutet aber vor allem Redundanz, die durch Energieeinsatz erkauft werden muss. Ich werde verschiedene Trade-offs und Modelle vorstellen, die ich im Seminar diskutieren möchte.

2.8.2007, Stephan Weißleder

Ansätze für modellbasiertes Testen und Modellkopplung in der Domäne des Katastrophenmanagements

Ich werde den aktuellen Stand meiner Dissertation vorstellen. Meine Arbeit unterteilt sich in drei Gebiete: die modellbasierte Testerzeugung, die Kopplung sowohl zueinander passender als auch verschiedener Modelle, sowie die Anwendung auf die Domäne des Katastrophenmanagement. Jedes dieser drei Gebiete bietet eine Menge Forschungsmaterial. Ich lade Sie ein, die vorgestellten Ansätze mit mir zu diskutieren.

27.07.2007, Falko Theisselmann

Domänenspezifische Modellierungssprachen: Feuerausbreitung

Ich werde den aktuellen Stand der Entwicklung einer domänenspezifischen Modellierungssprache für Feuerausbreitung präsentieren und aktuelle Fragestellungen diskutieren. Dies betrifft insbesondere die Ausführung von Modellen als Zelluläre Automaten.

20.07.2007, Frank Kühnlenz

Prototyping-Infrastructure for Development of Earthquake Early Warning Systems (EEWS):
From Simulating a Wireless, Ad-hoc, Mesh Sensor Net to a Prototype

An infrastructure to prototype Earthquake Early Warning Systems (EEWS) is presented which follows a model-driven system development paradigm. Executable models of the network in concrete geographic regions coupled with distributed alerting algorithms and synthesized earthquakes form the base for various simulation experiments. The general objective of these studies is to test the functionality of an EEWS and to optimize it under special real-time, reliability and cost-depended requirements of the end-user.

I will present the design of these infrastructure and mention which parts are implemented yet. Current work is based on GIS-technologies for editing and visualizing the station's net.

13.07.2007, Daniel Sadilek

Virtual Machines on Wireless Sensor Networks

Sensor nodes have scarce resources. Moteiv's TmoteSky, for example, has only 32kB Flash and 10kB RAM. The TI MSP430-processor on it has no memory protection unit and typical operating systems for the these devices don't support preemptive multitasking. Deploying binary software on a heterogeneous sensor network consisting of devices with different hardware platforms is an unsolved problem (to the author's knowledge). Virtualizing the hardware with virtual machines can help with these problems. Surprisingly, virtual machines may even help to save energy -- despite their processing overhead.

In my talk, I will give an overview of different virtual machines approaches and present a new approach for energy optimized deployment. I will explain how this fits with my previous work on domain-specific languages and finally give a sensor network demo involving the audience.

06.07.2007, Dirk Fahland

Modellierung adaptiver und flexibler Workflows

Etablierte Methoden zur Modellierung und Analyse von Workflows sind in einigen Domänen, wie etwa dem Katastrophenmanagement, nicht anwendbar, da das Wissen über die ablaufenden Prozesse in z.T. grundsätzlich anderer Form vorliegt und anders gehandhabt wird. Dennoch besteht auch in solchen Fällen der Wunsch oder die Notwendigkeit Prozesse auf der Grundlage formaler Modelle zu analysieren und zu unterstützen.

In meinem Vortrag lege ich meinen Gesamtansatz für eine geeignete Modellierungsmethode dar, die operationelle, deklarative und szenario-basierte Konzepte verwendet, um verteilte Prozesse zu beschreiben.

Zum einen stelle ich einen Mechanismus zur Transformation deklarativer in operationelle Workflow-Modelle vor, der flexible Workflows realisiert. Ein von mir erstelltes Werzeug demonstriert die Nützlichkeit des Ansatzes in der Analyse flexibler Workflows. Zum anderen präsentiere ich einen Ansatz zur Modellierung adaptiver und selbst-stabilisierender Prozesse unter Verwendung szenario-basierter Ausdrucksmittel. Abschließend möchte ich über offene Fragestellungen und den gewählten Ansatz diskutieren.

15.06.2007, Guido Wachsmuth

QVT Relations: Deklarative Modelltransformationen

Die Object Management Group stellt in ihrem Standard Query/View/Transformations drei verschiedene Sprachen zur Modelltransformation vor. In meinem Vortrag widme ich mich QVT Relations, einer deklarativen Sprache dieses Standards. QVT Relations erweitert OCL 2.0 und bietet Beschreibungsmittel, um Transformationen muster- und regelbasiert zu beschreiben.

Im ersten Teil des Vortrags werden zunächst die Konzepte der Sprache erläutert. Im zweiten Teil zeige ich dann, inspiriert von Markus Scheidgens Vortrag im Rahmen des Evaluierungsworkshops, wie sich mit Hilfe von QVT Relations eine strukturelle operationale Semantik eines Sprachmodells beschreiben lässt. Als Beispiel dient eine kleine imperative Programmiersprache. An ihr sollen die generische Beschreibung von Interpretern und Debuggern für modellbasierte Sprachbeschreibungen diskutiert werden.

08.06.2007, Markus Scheidgen

Textual Model Editors

The most visible part of any computer language is its syntax; most people recognise or understand the syntax of a language long before they consciously become aware of its exact semantics. Textual syntax based on context free grammar was and is the dominant syntax type for computer languages. And even all the emerging graphical languages contain a considerable amount of textual elements that should be defined and handled as context free languages.

The tools that realise textual language syntax often become a crucial factor for the success of a language. Thereby, its not enough anymore to provide pure syntactical support, users expect semantical features like highlighting of syntactical and semantical errors, support for context sensitive code completion, navigation along semantics structures, marking of related elements, documentation hovers, etc.

I want to present my ongoing work on a eclipse based framework that can be used to create semantic rich text editors for meta-model based languages. The research questions discussed include the relationship of grammars and meta-models as well as possibilities to combine syntax and well-formedness rules to describe error annotations and code completion for text editors.

25.5.2007, Artin Avanes

Constraint-Programming: Theory meets Practice

Constraint Programming (CP) is a software technology for declarative description and effective solving of large combinatorial problems, especially in the area of planning and scheduling. CP has not only a strong theoretical foundation; it is also used in many real-life problems. In my talk, I will give a survey of CP technology including constraint satisfaction techniques and some selective industrial applications. Additionally, I will discuss how CP can be used for the distribution of workflow activities in a resource-constraint system landscape.

27.04.2007, Stefan Brüning

A Fault Model for Service-Oriented Architecture

Fault models are essential for dependable systems. Only known faults can be tolerated and handled. Fault models exist for hardware, software, and network but these categories do not cover all faults that may occur in service-oriented architectures (SOA). In my presentation, I will give a definition of service-oriented architecture first, then describe the process of how services are invoked and finally give a taxonomy of faults for SOA.

20.04.2007, Kai Köhne

Quality of Service in 802.11 Networks

Die Sicherstellung einer bestimmten Dienstgüte (engl. Quality of Service) ist in drahtlosen Netzwerken eine große Herausforderung. In meinem Vortrag werde ich einen Überblick über Ansätze geben, die Dienstgüte durch Priorisierung sicherzustellen. Auf der Ebene der Sicherungsschicht stelle ich die Erweiterung e des ISO-Standards 802.11 vor. In der Vermittlungsschicht gehe ich auf Routingprotokolle ein, die das Ziel haben, Echtzeitanforderungen in drahtlosen Sensornetzen zu erfüllen.

05.04.2007, Stephan Weißleder

Kombination verschiedener Analysetechniken im Kontext der Testfallerzeugung

Im Bereich der Qualitätssicherung von Soft- und Hardware haben sich verschiedene Verfahren etabliert, die jeweils unterschiedliche Analysetechniken verfolgen. Eine erste Unterscheidungsmöglichkeit stellt die Aufteilung in statische und dynamische Verfahren dar. Zu den statischen Verfahren werden u.a. Model Checking, Static Slicing und die statische Analyse gezählt. Auf der anderen Seite werden die Simulation und das Testen der dynamischen Analyse zugeordnet. Nach anfänglichen separaten Entwicklungen gehen die Bestrebungen dahin, die einzelnen Techniken gemeinsam zu verwenden und deren Vorteile zu kombinieren.

Gemäß meines Promotionsvorhabens steht in diesem Vortrag die Kombination verschiedener Analysetechniken mit Testtechniken im Vordergrund. Hier wurden für die Verbesserung von Testfällen bereits einige Kombinationsmöglichkeiten konkret umgesetzt. In meinem Vortrag werde ich einen Überblick über die aktuellen Ansätze geben und darauf eingehen, wie diese oder ähnliche Ansätze für mein Vorhaben genutzt werden können.

29.3.2007, Falko Theisselmann

Modellierung und Simulation für das Katastrophenmanagement

Modellierung und Simulation spielen eine zunehmend wichtige Rolle in den Umweltwissenschaften. Mit der wachsenden Anwendung von Simulationsmodellen wurde festgestellt, dass ähnliche und gleiche (Teil-) Modelle in Forschung und Anwendung redundant implementiert wurden und werden. Modellierungsframeworks sollten dieses verhindern und den Modellierungsprozess erleichtern. Obwohl gezeigt wurde, dass diese Frameworks tatsächlich die Implementierung und Verwendung einzelner Modelle erleichtern können, besteht ein Problem weiterhin fort: Die Wiederverwendung und Kombination von Modellen über Framework- und Disziplingrenzen hinweg, wie sie im Anwendungsfeld des Katastrophenmanagements notwendig sind.

Modellgetriebene Entwicklungsansätze wurden entwickelt, um Probleme dieser Art zu verringern und werden v.a. im Bereich der Software und Systementwicklung eingesetzt.

In dem Vortrag werde ich vorstellen, mit welchen Ansätzen bereits versucht wurde die oben skizzierten Probleme anzugehen und wie ein modellgetriebener Ansatz darüber hinaus dazu beitragen könnte.

22.03.2007, Timo Mika Gläßer

Data Management for Wireless Sensor Networks

Datenbank Management Systeme (DBMS) haben heute Ihren festen Platz in vielen client/server-basierten IT-Architekturen. Sie realisieren Datenhaltung und Verarbeitung für große Datenmengen und stellen ihren Benutzern i.d.R. eine deklarative Schnittstelle zur Verfügung, die es erlaubt Daten mengen-basiert zu Verarbeiten. Auch im Bereich Publish/Subscribe - dem Verarbeiten von Abonnements auf Ereignisströmen - bietet die Nutzung eines Datenbank Management Systems viele Vorteile.

Die beiden oben skizzierten Aufgaben erscheinen wie geschaffen für die oftmals datenzentrierte Sicht auf drahtlose Sensornetzwerke. Paradoxerweise haben sich jedoch entsprechende Lösungen hier nicht im breiten Maße durchsetzen können.

Ich möchte Ihnen in meinem Vortrag verschiedene Ansätze und Plattformen aus der Literatur vorstellen, die versuchen das Datenmanagement für drahtlose Sensornetzwerke zu realisieren und anhand einiger ausgewählter Beispiele mögliche Gründe für das oben genannte Paradoxon - der Abwesenheit einer Datenmanagementschicht - aufzeigen sowie einen Ausblick in die Zukunft des Datenmanagements für drahtlose Sensornetzwerke bieten.

15.03.2007, Daniel Sadilek

Sminco — Model-driven development with interpretable and compilable semantics definition

Bei der Entwicklung von Software für drahtlose Sensornetze, die in ein Katastrophenmanagement-Informationssystem integriert werden sollen, müssen zwei wichtige Anforderungen berücksichtigt werden: Zum Einen sind an der Entwicklung Experten unterschiedlicher Domänen beteiligt, die jeweils eigene Modellsichten auf das zu entwickelnde System benötigen. Zum Anderen machen die technischen Rahmenbedingungen das Testen von Software auf dem Zielsystem mühsam bis nahezu unmöglich, so dass Entwicklungsprozess und -werkzeuge die einfache Simulation von modelliertem Systemverhalten ermöglichen müssen.

Mit Metamodellierungstechnologien erzeugte domänenspezifische Sprachen können die geforderten Modellsichten liefern. Für die Simulation ist weiterhin die Definition der Sprachsemantik in computerausführbarer Form nötig. Ich werde in meinem Vortrag

  • auf den Begriff Ausführungssemantik eingehen;
  • vorstellen, welches Problem ich im Lichte obiger Anforderungen bei den üblichen Ansätzen zur Definition von Ausführungssemantik sehe;
  • begründen, warum ich eine Lösung dieses Problems für möglich halte;
  • einen möglichen Ansatz zur Lösung präsentieren und
  • den ersten Prototyp eines Werkzeugs vorführen, das den Ansatz realisiert.

8.3.2007, Dirk Fahland

Deklarative Workflows

Workflows sind per definitionem formale Beschreibungen von Arbeitsabläufen. Operationelle Ausdrucksmittel stellen hierfür die geeigneten Konzepte wie Arbeitsschritt, Resource, Entscheidung, Parallelisierung, Synchronisation und Wiederholung bereit und werden erfolgreich, beispielsweise in Aktivitätsdiagrammen, Petrinetzen oder BPEL, eingesetzt. Die Beschränkung auf derartige Konzepte ist in der Workflowmodellierung dann problematisch, wenn Arbeitsabläufe flexibel an eine jeweils gegeben Situation angepasst werden müssen.

Wird der Raum der möglichen und sinnvollen Arbeitsabläufe zu groß, gibt es keine kompakte und verständliche, formale Darstellung in operationellen Konzepten. Es gibt mehrere Ansätze, flexibel anzupassende Arbeitsabläufe kompakt zu notieren. In meinem Vortrag präsentiere ich einen Ansatz basierend auf der temporalen Logik LTL. Ich werde beleuchten, inwiefern eine Darstellung in temporaler Logik einer operationellen Darstellung mit Petrinetzen entspricht und diskutieren ob ein derartiger Ansatz geeignet ist, Arbeitsabläufe adäquat zu fassen.

01.03.2007, Frank Kühnlenz

Erdbebenfrühwarnung: EU-Projekt SAFER

Das Ziel der Erdbebenfrühwarnung ist es, möglichst viel Vorwarnzeit zwischen dem Erdbebenereignis (Herdvorgang) und dem Eintreffen der zerstörerischen seismischen Wellen an einem bestimmten Ort zu ermöglichen. Dabei wird ausgenutzt, dass Schäden an der Infrastruktur hauptsächlich durch Scherwellen bzw. S-Wellen verursacht werden. Das „S“ bedeutet „Sekundär“ – die vorangehenden P(rimär)-Wellen breiten sich longitudinal, d. h. in Laufrichtung aus und verursachen vergleichsweise weniger Schäden. Ihre Ausbreitungsgeschwindigkeit (5 bis 8 km/s) ist höher als die der S-Wellen (3 bis 4 km/s), so dass bei einer korrekten Detektion der P-Welle eine gewisse Zeitspanne für eine Frühwarnmeldung zur Verfügung steht (abhängig von der Entfernung zum Epizentrum).

Im Juni 2006 startete das von der Europäischen Union geförderte Projekt "Seismic eArly warning For EuRope" (SAFER). 23 internationale Partner arbeiten darin interdisziplinär zusammen und verfolgen das gemeinsame Ziel, die Qualität der Erdbebenfrühwarnung zu verbessern und Technologien, wie z.B. im Kern der Bemühungen, ein dezentrales, wireless, ad-hoc Sensornetzwerk zu entwickeln und prototypisch zu testen. Der Beitrag der Humboldt-Universität wird von den Lehrstühlen Systemarchitektur (Knotenhardware, Routing) und Systemanalyse (Simulation) kooperativ erbracht. Ein wichtiger Partner ist das GeoForschungsZentrum Potsdam, mit dessen Hilfe u.a. Algorithmen zur P-Wellenerkennung entwickelt werden. Zum Test dieser Algorithmen entstehen am Lehrstuhl Systemanalyse Simulatoren zur Evaluierung eines modellierten Knotennetzes mit entsprechenden Sensorstationen.

Ziel des Vortrages ist es, SAFER als praktisches Projekt im METRIK-Kontext dem Graduiertenkolleg vorzustellen. Dabei wird zunächst ein Überblick des Gesamtprojektes gegeben. Im Detail wird auf die Simulation des Sensornetzes eingegangen. Die getroffenen Abstraktionen und die konkrete Modellierung werden vorgestellt. Bewertungskriterien, aufgetretene Probleme und ein Ausblick auf zukünftige Arbeiten bilden den Schlussteil des Vortrages.

Weiterführend:

22.2.2007, Guido Wachsmuth

Schrittweise Anpassung von Metamodellen

Sprachspezifikationen sind Software. Sie werden entworfen, umgesetzt, getestet und gewartet - genau wie andere Software auch. Das klassische Software Engineering versucht, die Qualität von Software und die Produktivität in der Software-Entwicklung zu erhöhen. Language Engineering überträgt diesen Ansatz auf Sprachen und die Entwicklung von Sprachen. Neben grammatikbasierten Ansätzen werden immer häufiger Metamodelle zur Spezifikation von Sprachen eingesetzt.

In dem Vortrag wird ein Verfahren zur schrittweisen Anpassung von Metamodellen vorgestellt. Dabei werden Ideen aus dem Grammar Engineering und dem objektorientierten Refactoring aufgegriffen. Im Gegensatz zum Refactoring, geht der Ansatz über reine Semantikerhaltung hinaus. So lassen sich drei Arten von Anpassungen unterscheiden: Konstruktion erhöht die Ausdruckskraft eines Metamodells, Refactoring erhält eben diese und Destruktion vermindert diese. Für jede dieser Arten werden verschiedene Operatoren vorgestellt, welche fundamentale Anpassungsschritte realisieren. Aus diesen lassen sich dann kompliziertere Anpassungen zusammensetzen.

Es wird erläutert, wie sich diese Operatoren mit Hilfe des Language Toolkits umsetzen und in Eclipse integrieren lassen. Ziel einer so entwickelten Operatoren-Bibliothek ist es, eine schrittweise Entwicklung von Metamodellen zu unterstützen. Dadurch sind die Auswirkungen einer Änderung wohldefiniert und bekannt. Desweiteren lassen sich Instanzen des Metamodells auf generische Art an das neue Metamodell mitanpassen.

15.2.2007, Markus Scheidgen

Menschenverständliche und maschinenverarbeitbare Definitionen von operationaler Semantik

Sprachspezifikationen, besonders die von Sprachsemantik, sind üblicherweise entweder informal oder mathematisch. Solche Spezifikationen sind menschenlesbar, auch wenn sie unpräzise sein können oder mathematisches Verständnis erfordern. Dennoch ist es nur selten möglich Sprachwerkzeuge automatisch aus solchen Spezifikationen abzuleiten. Wir wollen auf Sprachmodellen basierende Sprachdefinitionen schaffen, welche zugleich dem Menschen als auch der Maschine verständlich sind. In dem Vortrag wird eine Methode zur Definition von operationaler Semantik basierend auf Meta-Modellen vorgestellt. Hierfür werden die existierende (Meta-)Modellierungssprachen MOF, OCL, und Activities verwendet. Sprachspezifikationen die so modelliert werden, sind formal genug, um sie mit einem generischen Modellinterpreter zu verarbeiten. Dieses Werkzeug erlaubt es Modelle anhand einer entsprechenden Sprachbeschreibung auszuführen. Diese Methode wurde an der existierenden Modellierungssprache SDL getestet. Im Vortrag werden wir sie anhand von Petri-Netzen demonstrieren.

Persönliche Werkzeuge
Sprache