Datenmanagement

Automatisierung der Bedarfsprognose

Automatisierte Bedarfsprognose

Automatisierte Bedarfsprognose

Wie viel Material müssen wir in den nächsten Wochen kaufen? Wann müssen wir ein bestimmtes Produkt produzieren? Verfügen wir über genügend Kapazitäten, um die Nachfrage zu bedienen? Das sind einige der Fragen, die Unternehmen täglich zu beantworten versuchen. Die Vorhersage der Nachfrage nach den Produkten ist für eine effiziente Unternehmensplanung sehr wesentlich und kann die optimale Antwort auf diese Fragen liefern. In der Regel befinden sich Hunderte von Produkten auf Lager, deren aktuelle Nachfrage man zumindest monatlich kennen sollte. Selbst wenn nur eine geringe Anzahl von Prognosen erforderlich ist, verfügt möglicherweise niemand über ausreichende Fähigkeiten in der Verwendung von Vorhersagemodellen. In solchen Fällen kann ein automatischer Prognose-Algorithmus ausgesprochen wertvoll sein.

Die prädiktiven Algorithmen

Im Allgemeinen gibt es zwei Arten von Verfahren zur Vorhersage: qualitative und quantitative Verfahren. Während die qualitativen Verfahren – wie z. B. Delphi – auf den Kenntnissen und Meinungen von Fachleuten basieren, nutzen quantitative Verfahren vergangene Daten in mathematischen Modellen, um Vorhersagen zu treffen. Bei neuen Produkten, für die noch keine Daten vorliegen, oder bei strategischen Projekten mit vielen wichtigen Faktoren liefern qualitative Verfahren eventuell bessere Ergebnisse. Dessen ungeachtet werden angesichts mehr verfügbarer Daten und immer höherer Rechenkapazitäten quantitative Verfahren zunehmend verwendet. Darüber hinaus lassen sich diese Verfahren automatisieren und hängen nicht von Expertenkenntnissen ab. Daher beschreiben wir im Folgenden einige quantitative Verfahren ausführlich.

Prognosen sind ein traditionsreicher Forschungsbereich; im Laufe der Zeit wurden viele Modelle und Algorithmen entwickelt. Dennoch gibt es viele Unterschiede zwischen der Nachfrage nach unterschiedlichen Produkten. So existiert kein Modell, das sich für die Prognose aller Produkte perfekt eignet. Aus diesem Grund setzt LIS Solutions unterschiedliche prädiktive Algorithmen ein, um eine gute Vorhersagequalität zu gewährleisten. Die Verfahren lassen sich in folgende Kategorien einteilen:

  • „Naive“ Verfahren.
  • Exponentielle Glättungsverfahren.
  • ARIMA-Verfahren.
  • Andere Verfahren.

Bei allen diesen Verfahren dient ausschließlich die Nachfragehistorie zur Berechnung der Prognosen. Eine automatisierte Anpassung der Prognosen an jedes Produkt ist möglich. Somit sind diese Verfahren ideal zur Automatisierung von Vorhersagen.

Die sogenannten „naiven“ Verfahren sind sehr einfach und berechnen Prognosen anhand der Historie. Eines dieses Verfahren ist das „grundlegende naive“ Verfahren: Demnach dient der zuletzt festgestellte Wert als Prognosewert. Das sogenannte saisonabhängige „naive“ Verfahren übernimmt den Vorjahreswert aus demselben Zeitraum (derselben Saison) als Prognose. Obwohl diese Verfahren oftmals nicht sehr genau sind, kann ihre Verwendung in bestimmten Situationen angemessen sein. Beispielsweise kommen sie im Finanzsektor häufig zur Anwendung.

 

Die sogenannten exponentiellen Glättungsverfahren basieren auf Zeitreihen-Komponenten. Dieses Modell unterteilt eine Zeitreihe in einen Trend, eine jahreszeitliche- und eine Fehlerkomponente. Die Extrapolation dieser Komponenten ergibt die Prognose. Rekursive Formeln kombinieren den jeweils letzten Wert mit einem gleitenden Mittelwert der vergangenen Werte und berechnen so die zukünftigen Werte. Diese Verfahren kommen sehr häufig zum Einsatz und eignen sich insbesondere für die Vorhersage der Nachfrage, die von klaren Tendenzen und Saisonabhängigkeiten abhängt.

Prophet ist ein Algorithmus, der auf diesen Grundideen basiert. Facebook-Ingenieure entwickelten diesen Algorithmus. Wie die exponentielle Glättung unterteilt dieses Verfahren die Zeitreihe in Komponenten. Das gestattet auch die Berücksichtigung der Einflüsse von Urlaub und Jahreszeiten auf unterschiedlichen Zeitskalen. Diverse Funktionen (logistisches Wachstum, Fourier-Reihe, Autoregressionen) dienen zur Modellierung der verschiedenen Komponenten. Algorithmen dieser Art gestatten Nachfrageprognosen mit überlagerten jahreszeitlichen Mustern und mit Trends auf Stunden-, Tages- und Wochenskalen (Vorhersage der Webseiten-Besuche).

Wie auch die exponentiellen Glättungsverfahren haben die ARIMA-Modelle eine lange Tradition in der Vorhersage von Zeitreihen und Nachfragewerten. Diese Modelle kombinieren autoregressive Komponenten (AR) mit gleitenden Mittelwerten (MA) und integrierten Daten (I). Autoregressive Modelle einer Zeitreihe sind Vorhersagen mittels Linearkombinationen ihrer vergangener Werte. Modelle der gleitenden Durchschnitte kombinieren die vergangenen stochastischen Fehlerkomponenten. Damit dieser Ansatz ordnungsgemäß funktioniert, müssen diese Daten stationär sein. Um mögliche Trends und jahreszeitliche Schwankungen zu entfernen, integriert man die Daten. Am Ende fügt man diese Faktoren der Vorhersage wieder hinzu. ARIMA-Modelle eignen sich für Zeitreihen mit signifikantem Einfluss der kurzfristig vergangenen Werte.

Mit diesen unterschiedlichen Verfahren lassen sich Nachfragen jeder Art auf Tages-, Monats- oder Jahresbasis vorhersagen. Automatisierte Algorithmen gestatten regelmäßige Prognosen ohne manuelle Interaktion.

Wahl des optimalen Verfahrens

Alle diese Verfahren haben ihre Stärken und Schwächen. Die Verwendung eines einzigen Algorithmus würde kein zufriedenstellendes Ergebnis liefern. So stellt sich die Frage: Wann sollten wir welches Verfahren verwenden? Die Antwort ergibt sich manchmal durch Beobachtung der Nachfrage-Zeitreihe und ihrer Merkmale. Jedoch ist das nicht möglich, wenn Tausende von Prognosen erforderlich sind. In solchen Fällen können wir mithilfe von Algorithmen des maschinelles Lernens ein Klassifizierungsmodell erstellen. Die Algorithmen für maschinelles Lernen (Beispiel: Support Vector Machine (Stützvektormethode) oder Klassifizierungsbäume) werden mit historischen Metadaten gespeist. Diese umfassen einerseits die Eigenschaften der Zeitreihe (Stärke des Trends, Jahreszeiten, Autokorrelation, Entropie etc.) und andererseits das optimale Verfahren für jede Zeitreihe. Die Algorithmen des maschinelles Lernens erkennen Zusammenhänge zwischen den Eigenschaften der Zeitreihe und dem optimalen Verfahren und erstellen so ein Klassifizierungsmodell. Dieses Klassifizierungsmodell kann auf jede Zeitreihe und ihre Eigenschaften angewendet werden. Daraus ergibt sich das für die Prognosen zu verwendende Verfahren.

Auswertung der Prognosen

Durch den Einsatz mehrerer Vorhersageverfahren und die Wahl des jeweils am besten geeigneten Verfahrens können Sie die Prognosen optimieren und ihre Fehler minimieren. Dennoch können Sie die Fehler nicht vollständig eliminieren. Somit ist es wichtig, den Prognosefehler zu berechnen, damit der Benutzer die Prognose und ihre Zuverlässigkeit beurteilen kann. Mithilfe einer Kreuzvalidierung des gewählten Vorhersageverfahrens lässt sich sein Vohersagefehler abschätzen. Zur Berechnung des Vorhersagefehlers berechnet man Testprognosen anhand der Verlaufsdaten (Historie). In einem Vergleich der mit den verfügbaren echten Daten berechnet man den Fehler der geschätzten Prognosewerte.

Anhand festgelegter Fehlergrenzwerte beurteilt man, ob die Prognose zuverlässig ist oder nicht. Darüber hinaus berechnen die Vorhersagealgorithmen Konfidenzintervalle, die Aufschluss über die Zuverlässigkeit der Prognose liefern.

Baitech Data entwickelt automatisierte Systeme mit unterschiedlichen Prognoseverfahren zur regelmäßigen Vorhersage der Nachfrage nach Tausenden von Produkten. Diese Prognosen bieten minimalen Prognosefehler und übermitteln ihre Zuverlässigkeit auf transparente Weise. Mithilfe dieser Informationen wissen wir, wann wir was produzieren müssen und wie viel Material einzukaufen ist. Letztlich optimieren wir die Planung, steigern ihre Effizienzsteigerungen und senken ihre Kosten.

Weitere Informationen erhalten Sie unter  willkommen@baitechdata.de