LabVIEWForum.de - Network Stream -> Allocated Memory steigt dauerhaft

LabVIEWForum.de

Normale Version: Network Stream -> Allocated Memory steigt dauerhaft
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Hallo zusammen,
ich habe mal wieder ein kleines Problem.

Ich habe ein Programm für ein RT System "geschrieben", wenn
dieses läuft und keine Daten an den Host via Network Stream sendet.
Bleibt das Niveau des allokierten Speichers des RT Systems bleibt in einem gewissen Band.

[attachment=49905]

Werden die Daten nun per Netzwerk Streams an den Host PC übertragen,
steigt der allokierte Speicher stetig an. Ich habe es ein paar Stunden laufen lassen,
und es ist immer noch keine Ende des Anstiegs in Sicht.
Wird der Netzwerk Stream wieder deaktiviert, dann pendelt sich der allokierte Speicher wieder in einem
gewissen Band ein.

[attachment=49904]

Daher liegt die Ursache des steigenden "Speicherbedarfs" in meinen Augen im Zusammenhang mit den Netzwerk Streams.
Aber wo?

[attachment=49906]
Da hast du Glück, ein Kollege hat sich erst letzte Woche mit Network Streams auf RT rumgeärgert.
Da gibt es wohl ein Memory-Leak: http://digital.ni.com/public.nsf/allkb/8...670047DC17
Empfehlung

Und noch was: Alles, was nicht echtzeitfähig ist (also Netzwerk oder File I/O) hat in einer Timed Loop nichts verloren! Parallele Programmierung bringt ebenfalls nichts in einer Timed-Loop. Das wird zu einem Single-Thread, alles wird seriell hintereinander ausgeführt, selbst wenn du es parallel programmierst.

Gruß, Jens
Hy,
danke erstmal für die schnelle Antwort.

Werde mich gleich ans Testen machen. Construction
Also das war die Lösung.

Kann mir jetzt noch jemand erklären, was dieses Verhalten verursacht Smile

Weil 2D Array übertragen aber mit 1D Typ initialisieren macht doch wenig Sinn in meinen Augen Smile
kA, Bug von NI! Augen zu und durch.

Gruß, Jens
Referenz-URLs