Hallo,

bei einem SQL-Cobol-Programm welches Daten aus einer sequentiellen Datei liest und auf die Datenbank schreibt, scheint dies mit der Zeit immer lansamer zu werden.

Obwohl in dem Programm nach einem vorgegebenen Zeitintervall ein COMMIT abgesetzt wird und auch alle(!) nötigen Indizes angelegt wurden.

Die sequentielle Datei hat eine Größe von knapp 150000 Sätzen und diese werden von einer Root-Datei mit ca. 3700 Root-Sätzen auf zwei abhängige Tabellen verteilt.

Lohn es sich eigentlich das Journaling auszuschlalten bei einem solchen Batchlauf und geht das überhaupt?