Zitat Zitat von Fuerchau Beitrag anzeigen
Da ist es immer schwer eine Vorhersage zu machen.
Fakt ist, dass die Anzahl der Writes sich mindestens halbieren muss, da sie ja verteilt werden.
Nun hängt es von weiteren Faktoren ab, wie sich die IO's verteilen.
- Satzlänge und damit die Anzahl gepufferten Writes
- Speicherort auf dem Plattenarray (ggf. sind beide Dateien physisch auf derselben Disk)

Aber immherhin ist das nicht Faktor 60 sondern nur 7.

Und wie sieht die Aufgabenstellung aus?
Muss die Kopie bei Masseninsert durchden Trigger erfolgen oder reicht ein folgender "insert into ... select from ..."?
Letzteres kann durchaus effektiver sein, da nur blockweise gelesen werden muss während beim Insert mehrere Aktionen stattfinden:
- Satznummer aus der Kette der gelöschten ermitteln
- Falls keine gelöschten, ggf. Datei erweitern
- Satz schreiben
Bulk Operationen haben unter günstigen Bedingungen einen erheblich höheren Durchsatz wie satzweise Operationen. Zur Blockung beim lesen kommen noch Blockung beim schreiben, geändertes Sperrhandling, Optimierung beim Zugriff. Der Trigger erzwingt satzweise Verarbeitung, die mit ca 500 Operationen/sec durchaus plausibel erscheint.
Ähnliche Leistung wie bei Bulk Operationen erzielt man bei satzweiser Verarbeitung allenfalls bei massiver Parallelisierung.

D*B