next up previous contents
Next: 4 Veröffentlichungen Up: Tätigkeitsbericht 1999 Previous: 2 Drittmittel

Subsections

3 Darstellung der Forschungsvorhaben

3.1 Projekte

``Qualitative Repräsentation von Bewegungsverläufen: Kognitive und Psychophysische Grundlagen'' , Projekt BR 609/9-2 im DFG-Schwerpunktprogramm ``Raumkognition''.

(Antragsteller: Brauer , Schill (LMU) ; Mitarbeiter: Musto , Eisenkolb (LMU) (bis Mitte 1999) , Röhrbein )

In dem insgesamt auf 6 Jahre ausgelegten Projekt sollen in interdisziplinärer Zusammenarbeit Aussagen über die Repräsentation und Verarbeitung von Bewegungsverläufen sowie ihrer Prädiktion gewonnen werden. Dazu soll u.a. untersucht werden, welche Zusammenhänge zwischen der Speicherung und Verarbeitung von Bewegungsverläufen im visuellen System und einer geeigneten qualitativen Beschreibung auf sprachlicher Ebene existieren. Grundlage der psychophysischen Untersuchungen ist ein spatio-temporales Gedächtnismodell, das notwendige Voraussetzungen für die Verarbeitung von sich örtlich-zeitlich verändernden Situationen definiert und mit dem bereits wichtige Resultate zur Kurzzeitspeicherung von visueller Information hergeleitet wurden. Darauf aufbauend sollen u.a. Untersuchungen zur Erkennung, Kategorisierung und Prädiktion von Bewegungverläufen, sowie der Integrationsfähigkeit von zusammengesetzten Bewegungssegmenten und den Regeln ihrer Kombination und schließlich auch zum Einfluß aktiver Exploration auf die Bewegungswahrnehmung durchgeführt werden. Experimente zu Diskriminationsschwellen bezüglich der Richtungsunterscheidung von geradlinig-gleichförmigen Bewegungen ergaben, daß Richtung und Position nicht unabhängig voneinander gespeichert werden, sondern eine spatio-temporale Einheit ergeben. Bei gekrümmten Bewegungsspuren scheint die Diskriminationsschwelle umso höher, je gleichmäßiger die Krümmung ist. Die qualitative spatio-temporale Repräsentation hat zwei Schichten, von denen eine den Bewegungsverlauf durch qualitative Bewegungsvektoren (QMV's) repräsentiert und relativ genau ist, während die zweite den Bewegungsverlauf durch eine Abfolge von Bewegungsformen (``motion shapes'') charakterisiert, die ein Entdecken von Perdiodizität und Mustern vereinfachen. Dies ermöglicht die Vorhersage von Bewegungsverläufen. Die zweite Schicht wird mittels Generalisierung, Segmentierung und Klassifizierung der QMV-Sequenz generiert. Die entwickelte Repräsentation soll nicht nur kognitive Prozesse erklären, sondern auch für Anwendungen geeignet sein, z.B. in der Robotik (Bewegungsplanung), Verkehrsüberwachung oder Indizierung von Bildfolgen in Multimediadatenbanken. Bei einer Kooperation mit dem Bremer Robotikprojekt ``Bildfolgenbasierte semilokale 3D Landmarken zur Navigation in dynamischen Umgebungen'' wurden die entwickelten Repräsentationen und Algorithmen zur Navigation mittels aufgezeichneter Eigenbewegung sowie zur Navigation mittels grober qualitativer Routenbeschreibungen eingesetzt.


ACON -``Adaptive Control'' , BMBF Verbundprojekt im Förderrahmen ``Intelligente Systeme''
Adaptive Modellbildung zur Optimierung, Planung und Regelung
(Teilprojektleitung: Brauer ; Mitarbeiter: Brychcy , Kirchmair , Sturm , Ungerer ;
Partner: Kratzer Automatisierung GmbH, Unterschleißheim; Michael Zoche Antriebstechnik, München ; Lehrstuhl für Elektrische Antriebstechnik, Prof. Schröder, TU München ; Institut für Elektrische Energietechnik - Antriebstechnik, Prof. Theuerkauf, GH Kassel )

Im Rahmen des BMBF-Verbundprojektes ``Adaptive Control'' ACON sollen durch Kombination und Erweiterung adaptiver, datengetriebener Verfahren zur Modellbildung die Grundlagen für das Ziel ``intelligente Prüfstandsautomatisierung'' erarbeitet werden. Zur Modellierung komplexer Systeme werden, auf der Basis neuronaler Methoden, Verfahren entwickelt, die gegebenenfalls durch Fuzzy-Logic bzw. Fuzzy-Control, Evolutionsstrategien sowie Multi-Agenten-Systeme zu ergänzen sind. Es ist geplant, auch Erkenntnisse aus dem Teilgebiet ``Verteilte Systeme'' der traditionellen Informatik einfließen zu lassen. Der Schwerpunkt der bisherigen Arbeiten lag in der Modellbildung mit neuronalen Netzen. In Zusammenarbeit mit den Projektpartnern wurde das Problem der Modellbildung der Prozesse Verbrennungsmotor, Elektromotor und Prüfstand als Lernproblem für künstliche Neuronale Netze erarbeitet und in Teilprobleme modularisiert. Es wurden zunächst künstliche Beispielfunktionen erarbeitet, welche die charakteristischen Schwierigkeiten von solchen Teilproblemen enthalten, wie etwa Hysteresen, Totzeiten, systeminterne Nichtlinearitäten und Nichtstetigkeiten bei Zustandsübergängen. Die Modellierung dieser Beispiele mit geeigneten neuronalen Netzen wurde untersucht und dabei wurden, wo nötig, erweiterte und neue neuronale Verfahren entwickelt. Verfahren zur Integration von Teilmodellen zu Gesamtmodellen wurden entwickelt - wobei einerseits eine Aufteilung auf Teilmodelle für verschiedene Systemzustände und andererseits eine Aufteilung für verschiedene physikalische Komponenten berücksichtigt wurde. Um dies zu ermöglichen, wurde eine allgemeine Modellierungssoftwareumgebung geschaffen, welche Schnittstellen zu wichtigen Softwaretools wie Matlab enthält. Nach Verfügbarkeit durch die Projektpartner wurde von der Bearbeitung von künstlichen Beispielen zu Untersuchungen an Hand von realen Daten übergegangen.

``Mobile Systeme und Systeme höherer Ordnung''
(Teilnehmer: Esparza , König , Röckl )

Mobile Systeme sind verteilte Systeme mit Zustandsvariabilität, die in der Lage sind, ihre Kommunikationsstruktur während der Laufzeit dynamisch zu verändern. Dies wird dadurch erreicht, daß sie Port-Adressen oder ganze Prozesse verschicken und empfangen können.

Mobilität bietet neue Möglichkeiten für die Spezifikation von verteilten Systemen, bringt aber auch neue Herausforderungen mit sich, insbesondere, was die Verifikation von mobilen Prozessen und Prozessen höherer Ordnung angeht. Ein prominenter Vertreter mobiler Prozeßkalküle ist der pi-Kalkül.

Wir sind vor allem an folgende Themen interessiert:

- Generische Typsysteme für mobile Prozesse, d.h. Typsysteme, die instanziiert werden können, um bestimmte Eigenschaften zu analysieren

- Mechanisierung von Prozeßverifikation:

+ Vollständige, aber semi-automatische Techniken für Bisimulation (mit dem Theorembeweiser Isabelle/HOL)

+ Automatische, aber unvollstandige Methoden unter Einsatz generischer Typsysteme

URL: http://wwwbrauer.informatik.tu-muenchen.de/gruppen/theorie/mob/

Finanzierung: Sonderforschungsbereich 342 ``Werkzeuge und Methoden für die Nutzung paralleler Rechnerarchitekturen'', DAAD-Projekt `Verifikationstechniken für imperative parallele Sprachen höherer Ordnung'' mit dem INRIA Institut zu Sophia Antipolis.

Zusammenarbeit mit: INRIA-Institut zu Sophia-Antipolis (Dr. Davide Sangiorgi, Dr. Gérard Boudol).


``Verifikation von Systemen mit unendlichen Zustandsräumen''
(Teilnehmer: Esparza , Kiehn , König , Kucera , Röckl , Rossmanith , Schwoon )

Bei der Untersuchung verteilter Systeme ist man oft auch an Fragestellungen interessiert, die den Austausch von Daten beinhalten, oder die von der Anzahl der Teilkomponenten des Systems abhängen. In diesem Fall erhält man in der Regel Systeme mit unendlichen Zustandsräumen. Aber auch bei der Analyse rekursiver Berechnungen, sowohl in sequentiellen als auch in verteilten Systemen, ergeben sich unendlich viele Zustände. Klassische automatische Beweis- und Analyseverfahren sind auf diese Systeme nicht anwendbar, da sie auf einer vollständigen Analyse sämtlicher erreichbarer Zustände des untersuchten Systems basieren. Es besteht also die Notwendigkeit, Verfahren zu entwickeln, um auch derartige Systeme mit unendlichen Zustandsräumen zumindest teilweise automatisch untersuchen zu können. Hierfür entwickelte Verfahren können allerdings auch für Systeme mit endlichen Zustandsräumen interessant sein; diese weisen oft derart große Zustandsräume auf, daß herkömmliche Techniken wegen ihrer hohen Platz- und Zeitkomplexitäten für sie ungeeignet sind. Unterschiedliche Modellierungsansätze bedingen dabei unterschiedliche Verifikationstechniken. Im zurückliegenden Forschungszeitraum wurden drei Methodologien betrachtet:

In den Bereichen der Pushdown-Systeme und graphbasierten Kalküle wurde an automatischen Verifikationsverfahren gearbeitet, während im Fall der Prozeßalgebren beweiserunterstützte Verifikationsmethoden betrachtet wurden.

URL: http://wwwbrauer.informatik.tu-muenchen.de/gruppen/theorie/inf/

Finanzierung: Sonderforschungsbereich 342 ``Werkzeuge und Methoden für die Nutzung paralleler Rechnerarchitekturen'', DAAD-Projekt `Verifikationstechniken für imperative parallele Sprachen höherer Ordnung'' mit dem INRIA Institut zu Sophia Antipolis, Humboldt-Stiftung, Graduiertenkolleg ``Kooperation und Ressourcenmanagement in verteilten Systemen''.

Zusammenarbeit mit: Universität Paris VII (Prof. Ahmed Bouajjani, Dr. Richard Mayr), Masaryk Universität, Brno (Dr. Antonín Kucera).


``Einsatz von linearen- und Constraint-Programming Techniken in Verifikationsproblemen verteilter Systeme''
(Teilnehmer: Esparza , Schroeter )

Constraints (lineare und nicht-lineare) werden benutzt um die Menge der erreichbaren Zustände eines Systems symbolisch zu charakterisieren oder wenigstens zu approximieren. Dadurch lassen sich Verfahren für die Lösung von Constraint-Systemen anwenden, mit oft überrraschenden Effizienzsteigerung gegenüber konventionellen Suchverfahren in Graphen. Die Verfahren werden angewendet um Systeme, die aus einer endlichen aber beliebig großen Menge von identischen Prozessen bestehen (z.B. cache-coherence-Protokolle), zu verifizieren. Zusammenarbeit mit: École Normal Superiéure de Cachan (Prof. Alain Finkel), Max-Planck-Institut für Informatik, Saarbrücken, (Prof. Andreas Podelski), Universität Genua (Dr. Giorgio Delzanno).

Finanzierung: Sonderforschungsbereich 342 ``Werkzeuge und Methoden für die Nutzung paralleler Rechnerarchitekturen''.


3.2 Weitere Forschungsvorhaben


Bartmann
Identifikation eines Tastaturbenutzers durch Analyse des Tippverhaltens

Dieses Projekt beschäftigt sich mit einem neuartigen Authentifikationssystem, das auf dem psychometrischen Merkmal ``Tippverhalten'' basiert. Durch Analyse von Schreibrhythmus, Anschlagfolge und anderen Aspekten des Tippverhaltens soll es damit möglich sein, auf Grund eines ca. 100 Zeichen langen, beliebigen Eingabestrings, eine Person mit Hilfe gewöhlicher Hardware zu identifizieren. Dazu werden klassische statistische Verfahren mit Methoden aus dem Bereich der KI kombiniert. Das Einsatzgebiet reicht von der einmaligen Identifikation bei der Zutrittskontrolle über elektronische Unterschrift und Textautorisierung bis hin zur ständigen Identitätsüberwachung im laufenden System.

Gilsdorf
Optimierung von Routingalgorithmen in Telekommunikationsnetzen mit Hilfe von Fuzzy Logik und Neuronalen Netzen

Die Bedeutung von Telekommunikations Netzen hat in den letzten Jahren stark zugenommen. Öffentliche und privatwirtschaftliche Abhängigkeit von diesen Netzen verlangt von ihnen eine hohe Verfügbarkeit und große Zuverlässigkeit. Andererseits zwingt der Wettbewerb die Betreiber zur maximalen Ausnutzung ihrer Netze. Die Zeitspanne für die Schaltaktionen in den Festnetzen wird immer kürzer. Wird die Routenauswahl nicht auf die richtige Weise getroffen, so wird die Qualität der Netze sehr schnell vermindert. Die Kombination von Fuzzy Logik und Neuronalen Netzen bietet eine ausgezeichnete Möglichkeit die unterschiedlichen Aspekte zu berücksichtigen, die bei der Bewertung eine Rolle spielen. Es werden verschiedene Architekturen untersucht um die automatische Routenauswahl in Festnetzen so zu gestalten, dass die Qualität des Festnetzes erhalten bleibt. Die Realisierung einer reinen Fuzzy Logik Lösung zeigt bereits gute Ergebnisse.

Diese Arbeit wird von der Firma SBS unterstützt.



Kiehn
Formale Semantiken reaktiver Systeme

Formale Modelle zur Beschreibung reaktiver Systeme wurden hinsichtlich der Beschreibbarkeit zeitlichen Verhaltens untersucht: In der Literatur gibt es zahlreiche Ansätze, in denen Prozeßalgebren und Automaten um zeitkritische Operatoren bzw. zeitabhängige Zustandsübergänge erweitert werden. Genauer studiert wurden die Zeitautomaten von Alur und Dill.



Kiehn
Formale Semantiken von Multiagentensystemen

Im Vergleich zu herkömmlichen, in der Regel aus mehreren Komponenten bestehenden reaktiven Systemen besitzen die Komponenten von Multiagentensystemen eigene Planungs- und autarke Entscheidungsmöglichkeiten. Die Literatur aus dem Bereich der formalen Modelle reaktiver Systeme wurde bzgl. derartiger Erweiterungen sondiert, als auch die Literatur aus dem Bereich der Verteilten KI auf entsprechende Modelle hin durchgesehen.


König
Methoden zur Modellierung und Analyse von mobilen Prozessen

Mobile Prozesse können während ihrer Laufzeit ihre Kommunikationsstruktur verändern, indem sie beispielsweise Adressen oder sogar ganze Prozesse verschicken.

Neben der Möglichkeit, Prozesse durch eine lineare Syntax (wie z.B. im pi-Kalkül) zu modellieren, kann man Prozesse auch durch Graphen beschreiben, wobei die operationelle Semantik durch Graphtransformationen gegeben wird. Es wurde ein solcher Kalkül entwickelt und untersucht, wie man ihn zur Analyse von Prozessen einsetzen kann.

Für Prozeßgraphen kann man besonders elegant Typsysteme angeben, mit denen man bestimmte Eigenschaften von Prozessen - insbesondere solche, die mit der Struktur des Prozesses zu tun haben - analysieren kann. Dabei ist es auch möglich generische Typsysteme zu entwickeln, die - geeignet instanziiert - verschiedene Eigenschaften analysieren können und nicht auf bestimmte Eigenschaften festgelegt sind. Solche generische Typsysteme kann man - unabhängig von Graphen - auch für klassische Kalküle, wie z.B. den pi-Kalkül angeben.


Pompl
MELDOQ

(http://www.imse.med.tu-muenchen.de/mi/derma/index.html)
Die Neuerkrankungsrate des malignen Melanoms der Haut, der bösartigsten Hauterkrankung des Menschen, hat sich in den letzten Jahren dramatisch erhöht. Gute Heilungschancen bestehen nur bei frühzeitiger Erkennung, da die Sterblichkeitsrate in späteren Stadien sehr hoch ist. Die leistungsfähigste klinische diagnostische Methode ist die Dermatoskopie und die dazugehörige dermatoskopische ABCD-Regel. Die Anwendung dieses semiquantitativen Verfahrens erfordert allerdings viel Erfahrung. Deshalb wird in dem von der DLR geförderten Projekt ein Bildanalysesystem entwickelt, das Dermatologen durch eine quantitative und nachvollziehbare Abbildung der dermatoskopischen Kriterien auf Parameterskalen bei der Diagnose unterstuetzen soll. Mit dem System konnte eine Klassifikationsrate von über 90% erreicht werden.


Röckl
Beweiserunterstützte Verifikation von Prozeßäquivalenzen

Eine im Tätigkeitsbericht 1998 vorgestellte Fallstudie hat die Vorteile der beweiserunterstützten Verifikation verteilter Systeme unter Verwendung der Beobachtungsäquivalenz demonstriert. In einer weiteren Untersuchung wurde nun mit der schwachen Bisimilarität bis auf Expansion eine Variante dieser Äquivalenz betrachtet, mit der der Beweisaufwand erheblich reduziert werden konnte.

Verifiziert wurde ein Protokoll zur Sicherstellung der Speicher-Cache-Kohärenz. Das System ist über die Anzahl der beteiligten Prozessoren parametrisiert. Der daraus resultierende unendliche Zustandsraum verhindert die Anwendung vollautomatischer Methoden. Es wurden zwei Bisimulationsbeweise in Isabelle/HOL formalisiert, wobei einmal nach dem Standardmuster vorgegangen wurde und im zweiten Durchgang eine Bisimulation bis auf Expansion angegeben wurde. Mit letzterer konnte eine erhebliche Reduzierung des Beweisaufwands erzielt werden.

Auf der Grundlage der in den Fallstudien erzielten Ergebnisse entsteht derzeit eine Formalisierung des $\pi$ -Kalküls in Isabelle/HOL. Diese erlaubt die im Tätigkeitsbericht 1997 anvisierte Semiautomatisierung von Bisimulationsbeweisen in mobilen Kalkülen. Die Formalisierung folgt dem Prinzip des shallow embedding. Dadurch können beweiserinterne Mechanismen ausgenutzt werden, um den Umgang mit den Bindungsstrukturen im $\pi$ -Kalkül zu erleichtern.


Römer
Entwicklung und Implementierung von Verifikationstechniken auf der Basis von Netzentfaltungen

Themengebiete dieses Forschungsbereichs sind die Entwicklung und Umsetzung effizienter Datenstrukturen und Algorithmen zur Darstellung und Manipulation von Petrinetzen. Schwerpunkt der Arbeiten bilden Model-Checking-Verfahren zur Verifikation nebenläufiger Systeme mit Hilfe von Netzentfaltungen. Es werden Implementierungen und Optimierungen rechenzeitkritischer Programmprototypen vorgenommen, sowie deren Einbindung in das Analysewerkzeug PEP (Programming Environment based on Petri nets).


Rossmanith
Exakte Algorithmen fuer NP-harte Probleme

(in Zusammenarbeit mit Rolf Niedermeier, Uni Tübingen)
Es wurden exakte Algorithmen für NP-vollständige Probleme entworfen, welche zwar exponentielle Laufzeit haben, aber durch moderate Konstanten im exponentiellen Term doch praktikabel sind. Für verschiedene Probleme konnten die bisher schnellsten Verfahren entwickelt werden, zum Beispiel für maximum satisfiability , vertex cover und three hitting set .

Rossmanith
Algorithmische Lerntheorie

In der Theorie der induktiven Inferenz wurde ein Modell entwickelt, welches Fragen nach der Geschwindigkeit des Lernens in diesem Modell unter bestimmten, realistischen stochastischen Annahmen zuläßt. Dabei konnten Aussagen über die Lerngeschwindigkeit für verschiedene Strategien bewiesen werden und mit dem gewöhnlichen Modell verglichen werden. Da die beiden Modelle für die meisten Strategien dieselbe Aussagekraft haben, sind die Ergebnisse auch im üblichen Rahmen gültig. Es zeigt sich insbesondere, daß alle Konzepte die überhaupt lernbar sind, sogar mit exponentiell abnehmender Fehlerwahrscheinlichkeit lernbar sind und daß dies für alle rearrangement-independent Funktionen automatisch gilt.



Runkler
Information Mining

Information Mining umfaßt den Prozess der Extraktion von ,,Wissen`` aus großen Datenmengen. Zu den wichtigsten Datenquellen gehören industrielle Prozess- und Netzwerksysteme sowie betriebswirtschaftliche Datenbanken, die meist rein numerische Daten enthalten. Zur Extraktion relevanter Informationen aus solchen numerischen Datensätzen werden (neben konventionellen statistischen Verfahren wie Korrelation und Regression) Methoden der Clusteranalyse, Fuzzy-Logik, Neuroinformatik und Machine Learning angewandt. Insbesondere die alternierende Clusterschätzung hat sich als universelles Werkzeug zur Datenanalyse etabliert. Durch die wachsende Verbreitung automatischer Bilderfassungssysteme stehen über rein numerische Datensätze hinaus umfangreiche Bild-, Video- und Multimediadaten zur Verfügung. Durch die zunehmende Nutzung von E-Mail und Internet spielen nicht zuletzt auch Textdaten eine immer größere Rolle. Für die Analyse solcher nichtnumerischer Daten wurden relationale und merkmalsorientierte Algorithmen entwickelt. Die genannten Methoden haben sich in realen Anwendungsprojekte aus Prozeßtechnik, Netzwerktechnik, Bildverarbeitung und Marketing bewährt.



Schröter
Verifikation von Systemeigenschaften auf Netzentfaltungen

Für die Untersuchung von Erreichbarkeitsfragen auf Netzentfaltungen gibt es verschiedene Ansätze. Das Erreichbarkeitsproblem kann auf andere Problemstellungen reduziert werden, wie zum Beispiel SAT, CLIQUE oder das Lösen eines linearen Ungleichungssystems. Es wurde ein Verfahren implementiert, welches das Erreichbarkeitsproblem auf CLIQUE reduziert. Dieses Verfahren wurde dann anhand von Testreihen mit anderen Verfahren verglichen, die zum Beispiel auf linearer Programmierung oder regelbasierter Constraint-Programmierung beruhen.



Stein (Graduiertenkolleg ``Kooperation und Ressourcenmanagement in verteilten Systemen'')
Qualitative Raumrepräsentation
Bewegungen von Fahrzeugen, beweglichen Robotern aber auch Menschen und Tieren können in Form von Trajektorien (also Spuren oder Routen) beschrieben werden. Autonome Fahrzeuge können anhand vorgegebener Routen navigieren und die selbstgefahrenen Wege zum Aufbau einer ,,Landkarte`` benutzen. Hierzu müssen die Routeninformationen mehrfach bearbeitet werden: Die gemessenen Routen werden geglättet (generalisiert), verglichen (,,matching``) und segmentiert. Landmarken dienen als Fixpunkte der Navigation und müssen folglich in die Routenbeschreibungen integriert werden. Für eine einfache Interaktion mit dem Benutzer ist eine Umwandlung in eine qualitative Darstellung hilfreich, ebenso wie umgekehrt die Möglichkeit, qualitative Eingaben (Z.B. Wegbeschreibungen) des Benutzers verarbeiten zu können.

Zu diesen Punkten wurden in Zusammenarbeit mit Alexandra Musto und den anderen Mitarbeitern des Projektes Qualitative Repräsentation von Bewegungsverläufen: Kognitive und psychophysische Grundlagen (DFG-Schwerpunktprogramm Raumkognition) bereits Algorithmen (vor allem zur Generalisierung) entwickelt. Der nächste Schitt ist nun die Entwicklung von Matching-Algorithmen und die Nutzung von Landmarkeninformation für Matching und Segmentierung, sowie die Untersuchung der Eigenschaften der unterschiedlichen Algorithmen bei verschiedenen Parametersätzen und in verschiedenen Kontexten.

Da sich die Verarbeitung von Bewegungsdaten für unterschiedliche Referenzrahmen (egozentrisch vs. allozentrisch) vor allem in Hinblick auf Fehlerakkumulation stark unterscheidet, mßsen die Algorithmen gerade in dieser Hinsicht gut untersucht werden, ebenso wie die Frage, inwiefern sich hier Landmarken zur Fehlerkorrektur und -vermeidung einsetzen lassen.



Weiß
Lernen und Planen in Multiagentensystemen
Entwicklung und Untersuchung von hybriden Lern- und Planungsverfahren für Multiagentensysteme, wobei der Schwerpunkt auf der Zusammenführung von reaktiven und deliberativen Problemlösungsstrategien lag.



Weiß , Brandt
Automatisierte Auktionsverfahren
Entwicklung und Untersuchung von Verfahren zur automatisierten Aufgabenverteilung, welche die Prinzipien der Versteigerung (in verschiedenen bekannten Varianten, z.B. English und Dutch) und der variablen Vertragsbindung (Vertragsauflösung gegen Strafe) kombinieren.


next up previous contents
Next: 4 Veröffentlichungen Up: Tätigkeitsbericht 1999 Previous: 2 Drittmittel
Felix Brandt, Montag, 9. Oktober 2000, 11:26:28 Uhr MET DST