LabVIEWForum.de - GPU number crunching?

LabVIEWForum.de

Normale Version: GPU number crunching?
Du siehst gerade eine vereinfachte Darstellung unserer Inhalte. Normale Ansicht mit richtiger Formatierung.
Hallo

http://decibel.ni.com/content/docs/DOC-6064

finde ich toll - hat das jemand von Euch propiert?

Gottfried
Schon probiert, aber keinen sinnvollen Nutzen daraus ziehen können. CUDA von Nvidia und Stream von ATI sind ja jetzt seit einigen Jahren auf dem Markt. Aber vor allem Nvidia unternimmt in dem Bereich enorme Anstrengungen, um ihren Karten neue Einsatzmöglichkeiten anzugedeihen und das auch richtig zu vermarkten. Gibt Konferenzen und viele Veröffentlichungen zu dem Thema. GPU macht allerdings nur Sinn, wenn sich Berechnungen massiv parallelisieren lassen. Meistens existieren die Algorithmen für so etwas schon in C, C++ oder Matlab, und daraus lässt sich bequem C for CUDA erstellen. Ist das nicht der Fall, entwickle ich das lieber in Matlab als in LV. Vllt aber auch, weil ich nur noch 64Bit Maschinen habe, mit denen die LV-Bib nicht umgehen kann.
Hallo,

gibt es hier jetzt schon ein paar Erfahrungswerte in Sachen GPU und Vision ?
Ich denke da speziell an den Einsatz um Filterberechnungen ggf. auf die GPU auslagern zu können...

Müsste mir dazu natürlich einen entsprechenden PC mit NVIDIA Karte aufbauen... Smile
Referenz-URLs