Im ersten Teil dieser Blogreihe bin ich auf den Segen der Technologie eingegangen, die uns genauere Ergebnisse liefern kann, und den Fluch, dass wir diesen scheinbar genaueren Ergebnissen zu viel Vertrauen schenken. In diesem Teil werde ich darauf eingehen, dass uns das Wissen darum dabei helfen kann, bessere Optimierungsmodelle zu entwickeln.

Eine individuelle Netzwerkoptimierung

Betrachten wir dazu folgendes Beispiel: Wir möchten ein Netzwerk optimieren, in dem uns die einzelnen Standorte bekannt sind. Auch die Fahrtzeiten zwischen den Standorten liegen uns minutengenau vor. Ein Anwendungsfall könnte beispielsweise sein, das Autobahnnetz als Modell abzubilden.
Wir möchten nun eine Autofahrt von Berlin nach Köln modellieren und optimieren. Die Abfahrtszeit in Berlin ist bekannt, sowie die Fahrtzeiten von einer Abfahrt zur nächsten. Ziel ist es selbstverständlich, möglichst früh in Köln anzukommen.
Ein möglicher Ansatz ist nun, auf die Graphentheorie zurückzugreifen. Wir sehen die Kombination aus Standort und Zeitpunkt als Netzwerkknoten an und verknüpfen sie mit entsprechenden Bedingungen, z.B. für den Fall, dass die erste Fahrtstrecke drei Minuten dauert: Wenn wir in Minute 0 in Berlin losfahren, sind wir in Minute 3 an der ersten Ausfahrt; wenn wir in Minute 1 in Berlin losfahren, sind wir in Minute 4 an der ersten Ausfahrt, usw. All diese Kombinationen sind möglich, und diese müssen selbstverständlich für alle in Frage kommenden Standorte und Zeitpunkte zwischen Berlin und Köln eingepflegt und berücksichtigt werden, um später wirklich das Optimum berechnen zu können.

Jede mögliche Genauigkeit ausnutzen: Vorteil oder Nachteil?

Der Vorteil dieses Ansatzes liegt auf der Hand: Dadurch, dass wir alle Kombinationsmöglichkeiten abgedeckt haben, kommen wir so zum optimalen Ergebnis.
Wirklich?
Erinnern wir uns an den ersten Teil dieser Blogreihe: Ist diese Genauigkeit, mit der wir hier rechnen, wirklich sinnvoll? In diesem Anwendungsfall haben wir zwar eine scheinbar minutengenaue Optimierung, doch sie wird in der Praxis nie umzusetzen sein: Eine einzige Verzögerung aufgrund eines Staus (und davon wird es auf dieser Strecke genug geben) lässt unser Modell schon unbrauchbar werden. Dazu kommt natürlich der enorme Rechenaufwand, der sich durch die minutengenaue Taktung aller Netzwerkknoten ergibt.
Sinnvoller ist es da, mit Näherungswerten zu arbeiten. Rechnen wir beispielsweise mit Zeitwerten, die jeweils auf 5 Minuten genau gerundet wurden, ergeben sich zwei Vorteile: Bei geschickter Rundung lassen sich so Pufferzeiten miteinbeziehen, die mögliche Staus ausgleichen können. Außerdem sinkt der Rechenaufwand des Modells auf einen Bruchteil, da die Anzahl der Knoten im Modell auf ein Fünftel gesunken ist.

Fazit

Wir haben somit also in zwei Ebenen einen besseren Realitätsbezug hergestellt: Zum einen ist das Ergebnis deutlich brauchbarer als die erste Variante. Zum anderen erhalten wir das Ergebnis deutlich schneller und können somit auch in einem operativen Betrieb darauf zurückgreifen.
Natürlich spielen Aggregationen, in diesem Fall zeitliche Aggregationen, nicht nur bei der Betrachtung der Rechengenauigkeit eine wichtige Rolle. Selbst wenn es keine rundungsbedingten Ungenauigkeiten gibt und Verzögerungen im Ablauf keine Rolle spielen, können sie helfen, einen schnellen Einstieg in eine Problemstellung zu finden, welcher dann nach und nach zur erforderlichen Genauigkeit ausgebaut wird. Solche Verfahren sind in der Optimierung üblich und sinnvoll. Bitte sprechen Sie uns bei Fragen zu einem sinnvollen Einstieg in Optimierungsthemen also gerne an und vereinbaren Sie einen individuellen Beratungstermin.