Ich habe folgendes Problem. Ich habe einen Socket Server (Java) laufen, der auf Requests wartet und diese dann ausführt. Wenn ich z.B. von der iSeries solche Requests hinschicke, werden diese auch ausgeführt. Das Problem dabei ist, dass wenn längere Zeit (vielleicht ein paar Minuten) kein Request geschickt wurde, dann dauert die Ausführung des nächsten Requests ca. 15 Sekunden. Werden die Requests relativ schnell hintereinander geschickt, dann werden sie sofort ausgeführt. Das gleiche Phänomen habe ich auch beim STRPCCMD, hinter dem vermutlich das gleiche Problem liegt. Kann es sein, dass der Aufbau der Socket-Verbindungen so lange dauert und die dann nach einer gewissen Zeit wieder beendet werden ? Kann man da irgendwas einstellen, damit die Verbindungen nicht so schnell wieder beendet werden ?

Wie würde das aussehen, wenn ich anstatt Sockets DTAQs benutzen würde ? Hätte ich da auch so lange Wartezeiten ?

Gruß,
KM