LabVIEWForum.de
große Daten abspeichern - Druckversion

+- LabVIEWForum.de (https://www.labviewforum.de)
+-- Forum: LabVIEW (/Forum-LabVIEW)
+--- Forum: LabVIEW Allgemein (/Forum-LabVIEW-Allgemein)
+--- Thema: große Daten abspeichern (/Thread-grosse-Daten-abspeichern)



große Daten abspeichern - dommae - 03.05.2010 14:15

Tach an alle,
als völliger newbie meine ersten Fragen. Gleich mal vorweg, ich hab schon einige Tage bei google in diversen Foren und Tutorials nachgeschaut, aber keine zufriedenstellende Antwort gefunden. Deswegen nun mein Schritt hier ins Forum.

Also: Ich möchte eine Anwendung in LabVIEW schreiben, die mir 4 unterschiedliche Gleichspannungen (0-3V) über einen längeren Zeitraum (bis zu 8 Stunden) mit einer Abtastrate von etwa 5000 Samples pro Sekunde abspeichert.
Es handelt sich hierbei um eine Überwachung eines Schleifringes, über den Daten übertragen werden. Da die Bürsten oft abheben und damit fehler bei der Datenübertragung erzeugt werden, soll nun eine Bürstenüberwachung erstellt werden.

Da die Bürsten immer nur ganz kurz abheben bzw. die Impedanz zwischen Schleifring und Bürsten sich nur ganz kurz ändert, is diese hohe Abtastrate von Nöten.

Aber: Mit welchem LabVIEW Tool speicher ich diese großen Datenmengen ab? Ich habe es mit dem "Messwert in Datei schreiben"-VI probiert, funktioniert eigentlich soweit ganz gut. Gibt es dazu alternativen?

Ein anderes Problem noch: Die Anzeige in meinem Signalverlaufsdiagramm ist abgehackt. Ich denke, das rührt daher, dass der DAQ Assistent die Daten immer Packetweise (zB 1000 Samples) ausspuckt. Wie kann ich die Daten kontinuierlich anzeigen? (Im Anhang ist ein Screenshot von der Abgehackten Messung)

Bisher sind das meine Fragen, weitere werden folgenSmile

Baibai und danke,

Thomsen


große Daten abspeichern - BsaiboT - 03.05.2010 14:43

Ein Grund keine ExpressVI zu benutzen.

Versuch mal die Datenerfassung "zu Fuß" zu erstellen, bzw mit Rechtsklick-> Code erstellen (oder so ähnlich), das ExpressVI in "richtigen" Code umformen zu lassen. Dann kann man dem Problem schon eher auf den Grund gehen, da man dann genau sehen kann was denn eigentlich passiert.

Des Weiteren wäre es schön, wenn du uns mitteilst welche HW zum Einsatz kommt.

Vom "Messwert in Datei schreiben"-VI kann man ebenfalls nur abraten, da es den ganzen Quatsch jedesmal wiederholt und in jedem Zyklus die Datei öffnet, beschreibt und schliesst. Auch hier solltest du evtl mal die Hilfe konsultieren und nach TDMS gucken.

Grüße,

Edit: Verdammte Tastatur. Schreibfehler korrigiert.


große Daten abspeichern - dimitri84 - 03.05.2010 14:44

' schrieb:Aber: Mit welchem LabVIEW Tool speicher ich diese großen Datenmengen ab? Ich habe es mit dem "Messwert in Datei schreiben"-VI probiert, funktioniert eigentlich soweit ganz gut. Gibt es dazu alternativen?
Ja unbedingt. Such mal nach "TDMS" mit der Suchfunktion hier im Forum.

Zitat:Ein anderes Problem noch: Die Anzeige in meinem Signalverlaufsdiagramm ist abgehackt. Ich denke, das rührt daher, dass der DAQ Assistent die Daten immer Packetweise (zB 1000 Samples) ausspuckt. Wie kann ich die Daten kontinuierlich anzeigen? (Im Anhang ist ein Screenshot von der Abgehackten Messung)
Erstmal ist da da Problem mit den Express VIs. http://www.LabVIEWforum.de/index.php?showt...p;hl=Express+VI

Deine Vermutung mit den 1000er Blöcken ist wohl auszuschließen. Diese Vorgehensweise, dass die Samples in Blöcken gelesen werden, ist ganz normal und keine explizite Schwäche des DAQ Assistenten. (Außerdem würden (gibt eigentlich keinen Grund dafür) diese bei einer Abtastrate von 5 kHz im 0.2 Sekunden Takt auftreten.)

Aus dem Bild deines Blockdiagramms kann man wenig schließen, da man nicht sehen kann wie der Assistent konfiguriert ist. Mir fällt grad auch keine Ursache ein, die diese Lücken produzieren könnte.:hmmBig Grina müssten sich ja NaN-Werte in dein DDT-Signal geschmuggelt haben, wie auch immer.



Gruß dimitri


große Daten abspeichern - dommae - 03.05.2010 14:53

Alles klar.. ich schau gleich mal nach TDMS und dem DAQ Assistent werd ich auch nochmal auf die Pelle rücken...

Ich werd mich wieder rühren!

Grüße,
Thomsen