LabVIEWForum.de - NI 9219 liest nur mit ca. 2 Hz ein

LabVIEWForum.de

Normale Version: NI 9219 liest nur mit ca. 2 Hz ein
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Hallo zusammen,

egal, welche Frequenz ich beim Einlesen vorgebe, die Werte ändern sich bei der NI 9219 immer mit ca. 2 Hz (angepasste Spannung mit Erregung, Vollbrücke).
Ich erhalte bei bsp. 1 kHz schon 1000 Werte pro Sekunde, nur sind diese Werte fast alle identisch (sie ändern sich eben im 2-Hz-Rythmus).

[attachment=27383]

Ich habe bisher nur versucht, das Rauschen selbst einzulesen. Oder kann es sein, dass in dem Bereich der AD-Wandler an seine Auflösungsgrenze kommt?
Könnte schon sein, dass du das BitRauschen des AD-Wandlers siehst. Rechne es dir halt einfach mal aus. Dein Eingangsbereich geteilt durch 10^24.

Außerdem kann deine Karte max. 100S/s, 1kHz wirst du da nie auflösen:
[attachment=27384]

Gruß, Jens
Hallo Jens,

stimmt, danke für die Info.
Ich habe nun einen Sensor angeschlossen, aber dennoch sind die Werte stufig. Auch hier erhalte ich immer ca. 2 Werte pro Sekunde (Abtastfrequenz = 50 Hz):

[attachment=27389]

Zum Test habe ich auch den DAQ-Assistenten probiert. Dort ist es das gleiche und standardmäßig hat dieser eine Abtastfrequenz von 1,95 Hz eingestellt.
Diesen Wert kann ich zwar erhöhen, aber dennoch erhalte ich pro Sekunde max. 2 unterschiedliche Werte.

Grüße, Matze

Nachtrag: Hier steht etwas dazu. Mal sehen, ob es mir weiterhilft.
Meinst du nicht das Blockdiagramm wäre hilfreicher als das Frontpanel?

Edit: Oh, du hast wohl die Erklärung selbst gefunden.
Nein, das Blockdiagramm würde nicht helfen, denn der AD-Wandler arbeitet standardmäßig im Timing-Modus "Hohe Auflösung".
Dort arbeitet er mit ca. 2 Hz.
Ich habe den Timing-Modus nun auf "Hohe Geschwindigkeit" gestellt und erhalte 50 (unterschiedliche) Werte pro Sekunde.
Sowas muss man aber wissen ... ;-)

Ich hoffe, die Wandlung ist jetzt nicht zu ungenau, denke aber nicht.

Dennoch danke für die Hilfe.
Evtl. hilft das Thema anderen bei ähnlichen Problemen.
Ist denn irgendwo dokumentiert, was genau beim Timing-Modus "schnell" passiert?

In der Anleitung (Seite 22) steht nur, dass die Wandlungszeit dann 10 ms dauert und nicht mehr 500 ms, aber wie viele Bits der AD-Wandler dann noch nutzt, konnte ich nicht finden. Und das ist meiner Meinung nach eine wichtige Information.
' schrieb:Ist denn irgendwo dokumentiert, was genau beim Timing-Modus "schnell" passiert?

In der Anleitung (Seite 22) steht nur, dass die Wandlungszeit dann 10 ms dauert und nicht mehr 500 ms, aber wie viele Bits der AD-Wandler dann noch nutzt, konnte ich nicht finden. Und das ist meiner Meinung nach eine wichtige Information.
Was genau passiert, weis ich auch nicht.

Die Auflösung ist in allen vier Modes gleich, also 24Bit. D.h. bei MaxValue (z.B. +60V) kommt immer +MaxADC heraus (also nominal 0x007FFFFF). Die 24Bit beziehen sich also immer auf den aktual range. Was sich halt ändert, ist die Genauigkeit: Bei Fast ist die Auflösung halt ca. 10mal schlechter als bei Highresolution (Delta-sigma-Wandlung). Die effektive Auflösung in Bit kannst du also aus den 24Bit verrechnet mit der Genauigkeit bestimmen.
Hallo IchSelbst,

vielen Dank für deine Erklärungen.
Nur ganz nachvollziehen kann ich das noch nicht. Wie kann ich denn die effektive Bit-Anzahl ausrechnen und woher weißt du, dass die Genauigkeit um Faktor 10 sinkt?

Mich würde interessieren, was intern grob passiert und wie ich die Auflösung berechnen kann (= effektive Bit-Anzahl).
Ich konnte auch keine Formel o.ä. dazu finden.

24 Bit * 0,9 = ca. 21 Bit wird vermutlich nicht stimmen.Wink

Freundliche Grüße
' schrieb:Nur ganz nachvollziehen kann ich das noch nicht. Wie kann ich denn die effektive Bit-Anzahl ausrechnen und woher weißt du, dass die Genauigkeit um Faktor 10 sinkt?
Na, ab Seite 21.

Highresolution: Auflösung 0.5ppm (ca. 1ppm) - bezogen auf den Range (guckst du Überschrift von Tabelle, Seite 26).
MaxSpeed: Auflösung ca. 10ppm (je nach Mode) - bezogen auf den Range
Also allgemein: MaxSpeed eine Zehnerpotenz schlechter.

ppm (parts per million, also 10e-6 = 0,0001 %) - Das Messergebnis ist also auf die 6ste Nachkommastelle genau. Das macht ungefähr genau 20 Bit (2^20 = 1048576). D.h.: Durchschnittlich (also über mehrere Samples des selben Wertes) müssen mindestens die 20 oberen Bits gleich sein. Die unteren 2 Bit dürfen schwanken (die zwei restlichen schlagen wir dort hin, wo's gerade passt).
Wenn da also steht, dass das Modul eine "Bitanzahl" von 24 hat, sagt das zuerst nur was aus über die Breite des Ergebnisses (man kann auch eine "12-Bit-AD-Wandung" als "24-Bit-Ergebnis" übertragen). Ankucken musst du die Auflösung (Seite 26): Half-Bridge, 0.2ppm => na, 22 oder 23 Bit (schätze ich jetzt mal, hab nicht nachgerechnet). Hier lohnt sich das 24BitErgebnis. Current, ±25 mA, 1ppm => 20Bit.

Wenn du eine Verschlechterung der Auflösung von Faktor 10 hast, bedeutet das, dass (ca.) 3 Bit (2^3=8 - ca. 10) in den Rauschbereich abfallen. D.h. die Anzahl der genauen Bits fällt von 20 auf 17 ab. Brauchst du denn diese Genauigkeit?

Zitat:Mich würde interessieren, was intern grob passiert
Hast du mal bei Wikipedia gelesen über Delta-Sigma-Wandlung?
Vorteil dieses Verfahrens ist eben die hohe Auflösung (0.2ppm bei Half-Bridge). Beachte, dass bei (z.B.) 0.2µV das Grundrauschen kleiner sein muss als 0.2µV - wie sonst willst du eine genaue Messung machen? Und diese Stabilisierung (über einen Kondensator?) kosten eben viel Zeit (R*C; abgesehen von der seriellen, rauscharmen Wandlung) => 2Hz. Soll die Messung schneller gehen, leidet die Genauigkeit => eine Zehnerpotenz schlechter. So einfach geht das.
Hallo Ich Selbst,

herzlichen Dank für die ausführlichen Infos. Ich sehe mir das in der Anleitung genauer an und versuche es nach zu vollziehen.
Ich wusste nicht, dass die Auflösung auch im schnellen Modus so hoch ist. Daher reicht das locker aus. Es wäre etwas anderes gewesen, wenn man nur noch bsp. 8 Bit effektiv nutzen könnte.

Einen schönen Abend wünscht
Matze
Referenz-URLs