OpenCL
-
Morgen,
Habe ich das Richtig verstanden, dass man mit OpenCL Berrechnungen auf so ziemlich allen Grafikkarten anstellen kann, also die GPU für Rechenoperationen nutzen?Wenn ja, was haltet ihr davon? Habt ihr schon bessere Libs benutzt? Möchte mich eventuell in diese Lib einarbeiten, da ja auf Mathematischer Ebene immer mehr mit GPU's gearbeitet wird.
MFG ReduX
-
auf http://www.macresearch.org/opencl gibt es ein Videotutorial zu opencl. Ich würde dir einfach mal empfehlen dir die erste Episode anzusehen, auch wenn du keinen mac nutzt. Geht dabei eigentlich kaum um den Mac, außer das opencl darauf läuft. (Also in der 1. Episode)
-
opencl ist keine sprache um GPUs zu programmieren, sondern eine um compute programme zu schreiben die hardware unabhaengig sind. opencl programme kannst du auf verschiedenen platformen laufen lassen. das mandelmaenchen was ich portiert habe skaliert in etwa
x86 - 100%
cell - 10x (1000%)
gtx260 - 100xum es auf x86 laufen zu lassen kannst du das streamsdk von amd ausprobieren
fuer cell gibt es bei ibm libs
fuer geforce kannst du dir das nv-sdk ziehenalle haben opencl samples dabei.
-
Müsste letztendlich egal sein, mit welchem SDK du kompilierst, da OpenCL plattformunabhängig ist.
Bei Nvidia gibt's übrigens ab GeForce 8 auch CUDA, mit dem man auch Berechnungen auf der GPU durchführen kann.
Aber das wird vermutlich nur auch Grafikkarten von Nvidia funktionieren...
-
Habe schon in der Uni gelernt, wie man auf Kerne parallelisiert. Z.B. beim Berechnen der Zahl Pi, bei der man auch kritische Bereiche beachten muß.
Aktuell versuche ich den Übergang vom Hobbyprogrammierer zum professionellen Programmierer zu schaffen. Bei mir ist Microsoft C++ Visual Studio 2010 Express bereits installiert und ich habe ein Projekt, das ich darin parallelisieren möchte.
Was muß man nachinstallieren und wie, um OpenCl darunter nutzen zu können?
-
Du brachst das entsprechende SDK deines Grafikkartenherstellers...
-
Danke, probiere ich aus.
1. Ist es richtig, daß sowohl GPUs und CPUs, je nach vorliegender Technik, genutzt werden?
2. Was ist, wenn ich jetzt SDK runterlade? Also ich habe eine NVIDIA GEFORCE* GT 540M CUDA TM . 2GB in meinem Profiprogrammiernotebook. Würde das fertige Programm bei anderen Grafikkarten wenigstens noch die CPU-Kerne alle berücksichtigen?
3. Kann man durch Herunterladen einiger weiterer SDKs das eigene Programm so ausstatten, daß es entsprechend vielseitiger funktioniert?
-
Vernunftmensch schrieb:
1. Ist es richtig, daß sowohl GPUs und CPUs, je nach vorliegender Technik, genutzt werden?
Du kannst beide nutzen, aber das musst du selber machen, implementieren und vor allem eine kluge Möglichkeit finden, wie man die Arbeit am besten auf diese verteilt.
Vernunftmensch schrieb:
2. Was ist, wenn ich jetzt SDK runterlade? Also ich habe eine NVIDIA GEFORCE* GT 540M CUDA TM . 2GB in meinem Profiprogrammiernotebook. Würde das fertige Programm bei anderen Grafikkarten wenigstens noch die CPU-Kerne alle berücksichtigen?
Musst du dafür sorgen. OpenCL ist Herstellerunabhängig, wenn du es richtig umsetzt, wird es auch eine AMD Graphikkarte mitverwenden, falls eine oder mehrere vorhanden sind.
Vernunftmensch schrieb:
3. Kann man durch Herunterladen einiger weiterer SDKs das eigene Programm so ausstatten, daß es entsprechend vielseitiger funktioniert?
Nein, du benötigst nur die entsprechenden Treiber auf dem Zielcomputer. OpenCL hat das ICD (Installable Client Driver) Konzept:
http://www.khronos.org/registry/cl/extensions/khr/cl_khr_icd.txtDie Graphikkarten installieren ihre OpenCL Treiber heutzutage automatisch und registrieren sie korrekt. Daher musst du da nichts machen, nur die Plattform (oder mehrere) auswählen und die Devices ansprechen, bzw. ihnen was zum Arbeiten geben.
Bei den CPUs sieht das anders aus, da sind die OpenCL Treiber meistens nicht vorhanden auf dem Zielcomputer. Die Frage ist allerdings sowieso, ob es sich überhaupt lohnt die CPU miteinzubeziehen. Die GT 540M kann, glaub ich, 96 Threads physisch parallel verarbeiten. Ein Intel i7 mit HyperThreading dagegen maximal nur 8. Eine gute Desktopgraphikkarte kann sogar bis zu 512 und mehr Threads physisch parallel verarbeiten.
Und warum buddelst du so alte Threads raus, statt einen neuen zu eröffnen?
Grüssli
-
Dravere schrieb:
Eine gute Desktopgraphikkarte kann sogar bis zu 512 und mehr Threads physisch parallel verarbeiten.
Seit die GTX 680 heraußen ist, stehen wir bei 1536 Threads
-
dot schrieb:
Dravere schrieb:
Eine gute Desktopgraphikkarte kann sogar bis zu 512 und mehr Threads physisch parallel verarbeiten.
Seit die GTX 680 heraußen ist, stehen wir bei 1536 Threads
Und ich musste für meine Arbeit noch zwei GTX 560 Ti mit je 384 Cores verwenden - schweinerei. Ich will zwei GTX 680!
Der Aktuelle Code ist 50x schneller als auf der CPU (i7 2600), ich frage mich, wie schnell er mit zwei GTX 680 wäreGrüssli
-
Dravere schrieb:
Ich will zwei GTX 680!
Falsch, du willst eine 690 (zwei 680 auf einer Karte -> 3072 CUDA Cores) :p
Abgesehen davon, hat die 680 leider einige Issues, die sie für Compute Anwendungen unter Umständen nicht ganz so attraktiv machen. Aber die demnächst kommenden Kepler Karten, werden da gewaltig Abhilfe schaffen
-
dot schrieb:
Dravere schrieb:
Ich will zwei GTX 680!
Falsch, du willst eine 690 (zwei 680 auf einer Karte -> 3072 CUDA Cores) :p
Oder zwei GTX 690
2x 1150 CHF = 2300 CHF ~ 1916 €
Kein Problem, zahlt ja der SteuerzahlerUnd die Dinger haben noch 4 GB Videospeicher. Danke für den Hinweis, werde ich in meine kommende Präsentation einbauen.
Grüssli
-
Schone den Steuerzahler noch bis die GK110 Chips kommen, dann zahlt sich's wirklich aus. Die Dinger sind erst richtig awesome. Die 690 ist dagegen nur ein Appetithäppchen
-
SDK installiert.
1. Wo finde ich einigen Beispielcode für OpenCl?
2. Gibt es ein Tool, welches mir anzeigt, wieviele GPUs aktuell aktiv sind?
-
Vernunftmensch schrieb:
1. Wo finde ich einigen Beispielcode für OpenCl?
Vermutlich in dem SDK, oder sonst im Internet...
Vernunftmensch schrieb:
2. Gibt es ein Tool, welches mir anzeigt, wieviele GPUs aktuell aktiv sind?
Was genau meinst du damit?
-
*hust* 2013 soll doch schon Maxwell kommen, die sollen laut Nvidia acht mal effizienter werden.
-
Quellcode gefunden.
Beim Compelieren der Projektmappe gibt es bei jedem Projekt Probleme mit der Konvertierung. Ich benutze Microsoft Visual C++ 2010 Express.
1. Woran liegt das?
2. Gibt es ein Tool, das die Auslastung aller GPUs anzeigen kann?
-
-
Danke.
1. Warum habe ich Schwierigkeiten, den OpenCl-Quellcode in Microsoft Visual Studio c++ 2010 Express zu konvertieren? (Immerhin heißt die Projektmappe Microsoft Visual Studio Solution (.sln) )
2. Ich habe hauptsächlich Skalarprodukte und andere Vektoroperationen vor. Habt ihr ganz einfache Beispiele?
-
Vernunftmensch schrieb:
1. Warum habe ich Schwierigkeiten, den OpenCl-Quellcode in Microsoft Visual Studio c++ 2010 Express zu konvertieren? (Immerhin heißt die Projektmappe Microsoft Visual Studio Solution (.sln) )
Wenn du darauf wirklich eine Antwort haben willst, dann solltest du uns vielleicht zumindest mal verraten, was genau für "Schwierigkeiten" du eigentlich hast...
Vernunftmensch schrieb:
2. Ich habe hauptsächlich Skalarprodukte und andere Vektoroperationen vor. Habt ihr einfache Beispiele?
"Skalarprodukte und andere Vektoroperationen" ist ein wenig zu allgemein, als dass man da jetzt irgendwas konkretes drauf sagen könnte...
-
zu 1: http://www.occultusactus.de/Screenschots/Konvertierungsproblem.jpg
zu 2:
// Cut off sphere. void euclidianpointcloud::unmarksphere (cadcam::mwTPoint3d<double> msphere, double r) { int x,y,z; //Arraypoint. cadcam::mwTPoint3d<double> realpoint;//Real point. //What to calculate? cadcam::mwTPoint3d<double> c; cadcam::mwTPoint3d<double> m_gew;//Rel. point cloud vector; cadcam::mwTPoint3d<double> m_gew2;//Rel. point cloud vector; m_gew=msphere-ref; m_gew=m_gew/grid_delta; double r_gew=r/grid_delta; m_gew2=m_gew+r_gew*einsvektor+einsvektor; if (m_gew2.x()>nx) m_gew2.x(nx); if (m_gew2.y()>ny) m_gew2.y(ny); if (m_gew2.z()>nz) m_gew2.z(nz); x=(int) (m_gew.x()-r_gew-1); if (x<0) x=0; while (x<m_gew2.x()) { y=(int) (m_gew.y()-r_gew-1); if (y<0) y=0; while (y<m_gew2.y()) { z=(int) (m_gew.z()-r_gew-1); if (z<0) z=0; while (z<m_gew2.z()) { //Calculate actuall rel. cloude-vector. c.x(x);c.y(y);c.z(z); //All points are c to check. realpoint=ref+c*grid_delta; if (~(realpoint-msphere)<=r) mark (realpoint); z++; }; y++; }; x++; }; };