![]() |
511-Bit-Pattern erzeugen - Druckversion +- LabVIEWForum.de (https://www.labviewforum.de) +-- Forum: LabVIEW (/Forum-LabVIEW) +--- Forum: LabVIEW Allgemein (/Forum-LabVIEW-Allgemein) +---- Forum: Instrument IO & VISA (/Forum-Instrument-IO-VISA) +---- Thema: 511-Bit-Pattern erzeugen (/Thread-511-Bit-Pattern-erzeugen) |
511-Bit-Pattern erzeugen - skywalker - 15.11.2007 06:54 Hallo zusammen, ich benötige ein 511-Bit-Pattern, welches ich über COM1 schicke. Zur Zeit erzeuge ich einen String mit 511 Einsen (11111111111111111111...) Dies ist nicht sehr elegant, weiß aber leider nicht, wie ich das besser lösen kann. Kann mir jemand auf die Sprünge helfen? Evtl. erst eine numerische Konstante erzeugen und dann in String konvertieren? Vielen Dank Stefan 511-Bit-Pattern erzeugen - Lucki - 15.11.2007 08:38 Als Formatierungsmöglichkeit für Zahl in String gibt es auch das das Binärformat. Da es keine 512 bit-Zahl gibt, mußt Du als Ausgangswert ein Array von Zahlen mit 8*U64, 16*U32, 32*U16 oder 64*U8 verwenden. Nach der Konvertierung alles zu einem einzigen String verknüpfen: [attachment=9736] 511-Bit-Pattern erzeugen - jg - 15.11.2007 18:24 Lucki's Antwort ist natürlich, wie üblich, komplett richtig. Was ich mich aber frage: was erwartet die Empfängerseite? Wie bisher, 511 ASCII-Zeichen, wobei jedes Zeichen dann halt ein Bit repräsentiert, dann ist deine Methode komplett richtig und es spricht auch nichts dagegen, Oder, wie Lucki vorschlägt, wirklich ein Bit-Muster. Dann siehe oben. MfG, Jens 511-Bit-Pattern erzeugen - Lucki - 16.11.2007 08:28 ' schrieb:Was ich mich aber frage: was erwartet die Empfängerseite? Wie bisher, 511 ASCII-Zeichen, wobei jedes Zeichen dann halt ein Bit repräsentiert, dann ist deine Methode komplett richtig und es spricht auch nichts dagegen, Oder, wie Lucki vorschlägt, wirklich ein Bit-Muster. Dann siehe oben. Ich habe zwar so gut wie ich konnte geantwortet, aber ich habe mir dabei gedacht, was dieser Sch... eigentlich soll. Denn zum Zweck des Sendens über die ohnehin langsamen COM-Ports jedes Bit noch zu einem ASCII-Byte aufzublähen ist ja wohl das Dämlichste was man machen kann. Man soll aber die Hoffnung nicht aufgeben, und Du deutest es an: Vielleicht ist alles nur eine unglücke Formulierung von "skywalker", er hat es anders gemeint und die gegebene Antwort entspricht nicht dem was er gemeint hatte. |