[NEWSboard IBMi Forum]
Seite 1 von 2 1 2 Letzte

Thema: SETOBJACC

Hybrid View

  1. #1
    Registriert seit
    Dec 2014
    Beiträge
    310
    .. und ganz grundsätzlich zu *FIXED, QPFRADJ und SHRPOOL:

    Steht der Systemwert QPFRADJ auf >0, so werden alle SHARED Pools automatisch angepasst, also auch der hier verwendete "*SHRPOOL1".
    Möchte man einen Pool definieren, der NICHT vom OS verändert wird, so muss man den selbst definieren (aber NICHt als SHR- sondern als Userpool, also beim CHGSBSD einen tatsächlichen Wert bei "Speichergröße" angeben!).

    Nun zum "*FIXED": Das wird oft falsch interpretiert, hat nichts mit fixer Größe oder sonstetwas zu tun.
    Anzeigen u. verändern geht in WRKSYSSTS (ASTLVL(*ADVANCED)), dann mit F11 die Anzeige umschalten.
    Rechts wird dann der aktuelle Wert angezeigt - und kann auch verändert werden.
    Damit kann man nun den "Expert Cache" ein- u. ausschalten.
    Standard=*FIXED (also AUSgeschaltet). Stellt man auf "*CALC", so ist der Expert Cache eingeschaltet.
    Damit versucht das OS, die Einlesevorgänge zu optimieren - kann besonders bei sequentieller Verarbeitung zu verbesserungen führen.
    Hat aber - wie gesagt - absolut NICHTS mit Größenangaben zu tun.

    Fazit:
    In einen SHARED-Pool mit SETOBJACC etwas hineinzustellen, macht nicht viel Sinn, weil da sofort der PfrAdjuster (QPFRADJ) wieder hineingreift!

  2. #2
    Registriert seit
    Feb 2001
    Beiträge
    20.785
    Und wenn sowieso genügend Speicher für sowas zur Verfügung steht dann wird der Standardcache des OS sicherlich schon ausreichen.
    Ich hatte das früher mal (V2R2) verwendet als die Platten noch sehr langsam waren und konnte damit Performance gewinnen. Allerdings hatten wir das ausschließlich auf die Indizes beschränkt.
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  3. #3
    Registriert seit
    Mar 2002
    Beiträge
    5.389
    ... nur so am Rande vermerkt; bei sequentieller Verarbeitung wird alles nur einmal gelesen, da bringt ein cache nix...
    AS400 Freeware
    http://www.bender-dv.de
    Mit embedded SQL in RPG auf Datenbanken von ADABAS bis XBASE zugreifen
    http://sourceforge.net/projects/appserver4rpg/

  4. #4
    Registriert seit
    Dec 2014
    Beiträge
    310
    Da irren Sie sich, Hr. Bender!

    Die Funktion "Expert Cache" funktioniert nämlich so:
    Das OS "beobachtet", ob ein Job Daten aus einer Datei in sequentieller Reihenfolge liest.
    Ist dies der Fall, dann liefert der Expert Cache den nächsten Datenpuffer von Platte in den Hauptspeicher, noch bevor(!!) der entsprechende READ vom jeweiligen Pgm kommt.
    (daher sollte man den Expert Cache auch nur in den Pools einschalten, in denen vorwiegend Batchverarbeitung stattfindet, also *BASE).

    Bei den heutigen Platten-Zugriffszeiten rückt dieser "Booster" natürlich immer weiter in den Hintergrund, kann in bestimmten Fällen aber immer noch Einiges bringen.

  5. #5
    Registriert seit
    Mar 2002
    Beiträge
    5.389
    ... das ist prefetching, nicht caching und wann und wie das passiert, m.W. nicht wirklich dokumentiert. Davon ab bringt das wenig, da ja grundsätzlich Blöcke geholt werden und das dann maximal pro Block einen synchronous read zum asynchronous read macht. Caching kann erheblich was bringen für Daten, die mehrfach in kurzer Zeit gebraucht werden, für Indexe z.B. aber auch da ist die Wahrscheinlichkeit durch Eingriffe Verschlechterungen zu produzieren nicht aus dem Auge zu verlieren.

    D*B
    AS400 Freeware
    http://www.bender-dv.de
    Mit embedded SQL in RPG auf Datenbanken von ADABAS bis XBASE zugreifen
    http://sourceforge.net/projects/appserver4rpg/

  6. #6
    Registriert seit
    Feb 2001
    Beiträge
    20.785
    Sobald ich Dateien als I-Dateien verarbeite und einen READ statt Chain verwende wird sowieso geblockt gelesen. Somit kann ich durchaus viele 1000 Sätze pro Sekunde verarbeiten.
    Schau mal bei WRKACTJOB auf die CPU-Zeit im Verhhältnis zur Anzahl IO's.
    Wenn es immer am IO läge müsste ich in 1 Sekunde schon mehrere 1000 IO's gemacht haben.
    Meist (wie oben schon gesagt) wird eher lange rungerechnet als großartig IO durchgeführt oder es werden Daten gelesen die auf grund eines Filters nicht relevant sind.
    Hier hilft dann eher eine LF mit dem passenden Schlüssel (von mir auch Select/Omit) um diese Sätze gar nicht erst zu lesen.
    Manchmal könnte bei solchen Programmen tatsächlich SQL helfen.
    Dienstleistungen? Die gibt es hier: http://www.fuerchau.de
    Das Excel-AddIn: https://www.ftsolutions.de/index.php/downloads
    BI? Da war doch noch was: http://www.ftsolutions.de

  7. #7
    Registriert seit
    Nov 2007
    Beiträge
    371
    @hel400

    man sollte also ein subsystem anlegen mit wert Paging Option USRDFN und sollte dann z.b. im cl mit chgsbsd eine grösse die man benötigt anlegen . danach den pool clearen und das subsystem wieder beenden . habe ich das so halbwegs richtig zusammengefasst ?

    wie gesagt evtl bringts was ?!??.

  8. #8
    Registriert seit
    Nov 2007
    Beiträge
    371
    @fuerchau

    ja man könnte sehr viel rausholen wenn man diesen Monsterjob redesignen würde . aber a habe ich die zeit nicht und b bekomme ich sie auch nicht dieses monster komplett neu zu programmieren . that's the big problem .. mit minimalsten aufwand versuchen irgendwas zu zaubern . ich habe nur mit einem sehr kleinen teil gestet (laufzeit 30 min) die komplette laufzeit und die anzahl reads willst du gar nicht wissen ). hab sowas noch nie gesehen ...

  9. #9
    Registriert seit
    Dec 2014
    Beiträge
    310
    Zitat Zitat von BenderD Beitrag anzeigen
    ... das ist prefetching, nicht caching und wann und wie das passiert, m.W. nicht wirklich dokumentiert. Davon ab bringt das wenig, da ja grundsätzlich Blöcke geholt werden und das dann maximal pro Block einen synchronous read zum asynchronous read macht. Caching kann erheblich was bringen für Daten, die mehrfach in kurzer Zeit gebraucht werden, für Indexe z.B. aber auch da ist die Wahrscheinlichkeit durch Eingriffe Verschlechterungen zu produzieren nicht aus dem Auge zu verlieren.

    D*B
    Zitat Zitat von Fuerchau Beitrag anzeigen
    Sobald ich Dateien als I-Dateien verarbeite und einen READ statt Chain verwende wird sowieso geblockt gelesen. Somit kann ich durchaus viele 1000 Sätze pro Sekunde verarbeiten.
    Schau mal bei WRKACTJOB auf die CPU-Zeit im Verhhältnis zur Anzahl IO's.
    Wenn es immer am IO läge müsste ich in 1 Sekunde schon mehrere 1000 IO's gemacht haben.
    Meist (wie oben schon gesagt) wird eher lange rungerechnet als großartig IO durchgeführt oder es werden Daten gelesen die auf grund eines Filters nicht relevant sind.
    Hier hilft dann eher eine LF mit dem passenden Schlüssel (von mir auch Select/Omit) um diese Sätze gar nicht erst zu lesen.
    Manchmal könnte bei solchen Programmen tatsächlich SQL helfen.

    Da irrt Ihr beide!
    (oder anders gesagt "da unterschätzt Ihr beide diese Funktion"!)
    Nochmals:
    Der "Expert Cache" macht genau das, was ich oben beschrieb habe, nämlich die Analyse der Zugriffe im laufenden Betrieb und - wenn möglich - eine Optimierung der Plattenzugriffe.

    Wer's nicht glauben mag, kann direkt beim Erfinder nachlesen:
    http://www-01.ibm.com/support/docvie...d=nas8N1015953



    Zitat Zitat von woodstock99 Beitrag anzeigen
    @hel400

    man sollte also ein subsystem anlegen mit wert Paging Option USRDFN und sollte dann z.b. im cl mit chgsbsd eine grösse die man benötigt anlegen . danach den pool clearen und das subsystem wieder beenden . habe ich das so halbwegs richtig zusammengefasst ?

    wie gesagt evtl bringts was ?!??.
    Ja, so in etwa. Also SBS nicht mit *SHRPOOLn sondern mit Größenangabe anlegen (oder mit CHGSBSD, genau), in diesen Pool kann man dann mit SETOBJACC die gewünwchten Objekte reinstellen.
    Nach ENDSBS ist der Platz automatisch wieder freigegeben.

  10. #10
    Registriert seit
    Mar 2002
    Beiträge
    5.389
    ... angegebene Quellen immer selber sorgfältig lesen!!! Der Haupteffekt von expert cache ist die dynamische Steuerung der Blockgrößen, sprich: wenn Ressourcen CPU und I/O frei sind, werden größeren Blöcke reingeholt, in der (vagen) Hoffnung, dass damit synchronous reads gespart werden.
    Bei angenommenen Tausend Sätzen pro Block liegen die erreichbaren Verbesserungen bei sequentiellen Zugriffen unter 1%, wenn denn die Trefferrate optimal ist.
    Die einfache Gegenstrategie, segmentieren und parallelisieren ist da ungleich effektiver (auf Mehrprozessor Maschinen allemal), erfordert allerdings software technische Eingriffe.

    D*B
    AS400 Freeware
    http://www.bender-dv.de
    Mit embedded SQL in RPG auf Datenbanken von ADABAS bis XBASE zugreifen
    http://sourceforge.net/projects/appserver4rpg/

  11. #11
    Registriert seit
    Dec 2014
    Beiträge
    310
    Zitat Zitat von BenderD Beitrag anzeigen
    ... angegebene Quellen immer selber sorgfältig lesen!!! Der Haupteffekt von expert cache ist die dynamische Steuerung der Blockgrößen, sprich: wenn Ressourcen CPU und I/O frei sind, werden größeren Blöcke reingeholt, in der (vagen) Hoffnung, dass damit synchronous reads gespart werden.
    Bei angenommenen Tausend Sätzen pro Block liegen die erreichbaren Verbesserungen bei sequentiellen Zugriffen unter 1%, wenn denn die Trefferrate optimal ist.
    Die einfache Gegenstrategie, segmentieren und parallelisieren ist da ungleich effektiver (auf Mehrprozessor Maschinen allemal), erfordert allerdings software technische Eingriffe.

    D*B
    Ach gottchen Hr. Bender, was soll denn das?

    In meinem Beitrag #10 schreibe ich, dass der Expert Cache versucht, die Lesevorgänge zu optimieren.
    Das hat Ihnen nicht gefallen (obwohl das zu 100% mit der IBM-Beschreibung übereinstimmt).

    Daher habe ich das in meinem Beitrag #13 so präzisiert, dass "der nächste Datenpuffer gelesen wird, noch bevor er angefordert wird".
    Sie zitieren nun die IBM-Beschreibung, dass (bei freien Ressourcen CPU u. IO) größere Blöcke reingeholt werden.
    Das ist ja genau das, was ich (anders formuliert) geschrieben habe ...

    Warum der OS-Entwickler die möglichen Performanceverbesserungen als "particularly impressive" bezeichnet und Sie diese aber nur mit "unter 1%" bewerten, möchte ich nicht diskutieren.
    Weiters möchte ich darauf hinweisen, dass ich auch nicht behauptet habe, dass der Expert Cache das Allheilmittel ist sondern (ursprünglich) nur erklärt habe, was die Angaben *FIXED und *CALC bewirken, nämlich genau das von mir Beschriebene!!

  12. #12
    Registriert seit
    Mar 2002
    Beiträge
    5.389
    Zitat Zitat von hel400 Beitrag anzeigen
    Standard=*FIXED (also AUSgeschaltet). Stellt man auf "*CALC", so ist der Expert Cache eingeschaltet.
    Damit versucht das OS, die Einlesevorgänge zu optimieren - kann besonders bei sequentieller Verarbeitung zu verbesserungen führen.
    ... auch die eigenen Beiträge sollte man genau lesen...
    das ist halt schnöde falsch!!! bei sequentieller Verarbeitung bringt das wenig (max. 1 Prozent), die "impressive improvements" kann man nur bei Daten erwarten, die häufig gelesen werden.

    In dem Sinne war auch der Denkansatz des OP falsch: wenn ich was mit SETOBJACC Speicher resident mache (das ist die Strategie von expert cache an den logischen Endpunkt gebracht!!!), dann nehme ich nicht die größte Datei und keine, die sequentilell verarbeitet wird, sondern suche die mit der höchsten Lesehäufigkeit!!!

    D*B
    AS400 Freeware
    http://www.bender-dv.de
    Mit embedded SQL in RPG auf Datenbanken von ADABAS bis XBASE zugreifen
    http://sourceforge.net/projects/appserver4rpg/

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • You may not post attachments
  • You may not edit your posts
  •