Hallo,

Menge ist kein Argument für gute oder schlechte Programmierung! Ich habe das extra so hart formuliert, weil ich weiß, dass dieser Unfug halt gemacht wird. Mit immer derselben Folge: ein Job wird aufgerufen, gekillt oder stirbt freiwillig und der Mechanismus hat sich fest gefressen. Das darf ja wohl nicht wahr sein, Jahrzente nach der Erfindung der Lochkarte.


Zitat Zitat von Rincewind
Tztztztz..

Sowas haben wir auch zuhauf Man hat halt Programme die nur einmal gleichzeitig laufen dürfen (Ich weiss ja wir regeln das auch meistens mit Jobqueues, aber manchmal muss man eben zu sowas greifen)


Schön kann man das auch nutzen für Gesplittete Nachtverarbeitung, man macht sich eine Datei mit dem Wert: Anzahl an aktiv erlaubten Jobs und in diese Zahl splittet man dann. Hat man Power über kann man die Zahl hochdrehen, wirds eng geht sie wieder runter

Wichtig ist nur die anständige Dokumentation (und passende Fehlermeldungen *gg*)

Rince
Richtig macht man sowas über Sperrobjekte, ein ALCOBJ, oder eine Satzsperre in einer Datei verschwindet, wenn der Job verschwindet.
Das mit der Parallelisierung ist ein guter Hinweis, aber solche Dinge sollten dann Transaktions sicher und Wiederanlauf fähig sein, ohne dass da manuell gefummelt werden muss. Bei bester Dokumentation brechen solche Kartenhäuser zusammen, sobald man eben die falsche DTAARA, oder die richtige zur falschen Zeit killt.

mfg

Dieter Bender