INFO: Dieses Forum nutzt Cookies...
Cookies sind für den Betrieb des Forums unverzichtbar. Mit der Nutzung des Forums erklärst Du dich damit einverstanden, dass wir Cookies verwenden.

Es wird in jedem Fall ein Cookie gesetzt um diesen Hinweis nicht mehr zu erhalten. Desweiteren setzen wir Google Adsense und Google Analytics ein.


Antwort schreiben 

Binär-String deserialisieren



Wenn dein Problem oder deine Frage geklärt worden ist, markiere den Beitrag als "Lösung",
indem du auf den "Lösung" Button rechts unter dem entsprechenden Beitrag klickst. Vielen Dank!

11.02.2013, 16:21 (Dieser Beitrag wurde zuletzt bearbeitet: 11.02.2013 16:28 von Kiesch.)
Beitrag #2

Kiesch Offline
LVF-Stammgast
***


Beiträge: 401
Registriert seit: Mar 2009

2019, 2018, 2016
2009
DE

04519
Deutschland
RE: Binär-String deserialisieren
Ich nehme mal an dass die Datenquelle keinen serialisierten Labview Cluster übermittelt sondern eben einfach serialisierte Daten nach dem von dir angegebenen Muster.

Heist: Das kannst du so nicht zwingend einfach über nen Labview - Cluster modellieren.

Soweit ich weist musst du wirklich den String entsprechend zerteilen (selbst) und dann die Typecasts machen die du brauchst (ergo: Wenn die ersten 6 Bytes 3 U16 entsprechen, dann trennst du die ab und castest die auf U16, wenn danach nen String kommt der 5 zeichen Lang ist, dann musst du die 5 zeichen abtrennen und casten auf nen String etc. pp.).

Denke mal hauptsächlich bricht das bei dir weil labview vermutlich ne Angabe zur String länge erwartet die nicht kommt (könnte mir vorstellen die wird als I16 / I32 abgelegt und das würde in deinem Fall nen negativen Wert ergeben - das ist aber nur geraten).

Simpel gesagt: Woher soll Labview denn "wissen" dass dein String an der Stelle 5 zeichen lang ist?

Bottom Line:

Wenn du nicht einen serialisierten Cluster als Datenquelle hast, dann musst du den selbst parsen.

*edit*
Achja, dass vielleicht auch nochmal: Du kannst mehrere Aufeinanderfolgende identische (Typ z.B. U16) Elemente FESTER LÄNGE natürlich auch gleichzeitig abtrennen und dann auf nen Array casten. Wenn du das mit deserialisieren machst musst du darauf achten, dass "Array / String Länge anhängen" auf False ist (da der sonst die erste Zahl als länge des Arrays interpretiert). Aber wie gesagt nochmal: Das zerlegen des Strings musst du selbst übernehmen (nach den dir bekannten Vorgaben).

Zitat:Märchen und Geschichten werden erzählt am Lagerfeuer, technischen Fakten werden mitgeteilt (oder so). (Genauso wie Software nicht auf einem Server "herumliegt", die ist dort installiert.)
*Zitat: IchSelbst*
Alle Beiträge dieses Benutzers finden
Diese Nachricht in einer Antwort zitieren to top
Antwort schreiben 


Nachrichten in diesem Thema
RE: Binär-String deserialisieren - Kiesch - 11.02.2013 16:21
RE: Binär-String deserialisieren - jg - 12.02.2013, 15:21

Möglicherweise verwandte Themen...
Themen Verfasser Antworten Views Letzter Beitrag
  Dezimalzahl in Binär darstellen Natalie1984 3 3.873 01.07.2019 19:08
Letzter Beitrag: Natalie1984
  Gray Code in Binär - SSI Encoder Nullstrom 11 11.395 19.12.2014 11:42
Letzter Beitrag: Nullstrom
  Int > binär >cluster BCG 10 8.366 14.03.2014 13:26
Letzter Beitrag: rolfk
  16 bit binär String mit 0 Danyang 3 4.255 24.04.2013 12:32
Letzter Beitrag: Danyang
  Zahl to binär String Napoleon 4 10.195 26.12.2010 14:08
Letzter Beitrag: Napoleon
  Little/Big Endian Flag in Binär Datei Oleg 4 5.293 10.02.2010 11:48
Letzter Beitrag: Oleg

Gehe zu: