<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Abfrage von GL_SHADING_LANGUAGE_VERSION für zu Segfault (Core dump) bei SUN Maschine]]></title><description><![CDATA[<p>Folgendes Problem.</p>
<p>Wenn ich mit</p>
<pre><code>printf(&quot;GL_Shading_Language_Version: \t%s\n\n&quot;, glGetString(GL_SHADING_LANGUAGE_VERSION));
</code></pre>
<p>Nach der GLSL Version frage, dann kriege ich unter der SUN Maschine einen Segfault (Core Dump).<br />
Auf meinem x86 funktioniert die Abfrage aber.</p>
<p>Bemerkenswert ist auch, daß auf der SUN OS Maschine GL_SHADING_LANGUAGE_VERSION in gl.h definiert ist, während dies auf meiner Linux NVIdia Maschine nur in glext.h definiert ist.</p>
<p>Meine Frage ist nun, warum führt diese einface Abfrage zu einem Segfault, obwohl das gleiche Programm unter Linux auf einer x86 Maschine funktioniert?</p>
]]></description><link>https://www.c-plusplus.net/forum/topic/269574/abfrage-von-gl_shading_language_version-für-zu-segfault-core-dump-bei-sun-maschine</link><generator>RSS for Node</generator><lastBuildDate>Mon, 20 Apr 2026 18:48:11 GMT</lastBuildDate><atom:link href="https://www.c-plusplus.net/forum/topic/269574.rss" rel="self" type="application/rss+xml"/><pubDate>Sun, 27 Jun 2010 19:40:41 GMT</pubDate><ttl>60</ttl><item><title><![CDATA[Reply to Abfrage von GL_SHADING_LANGUAGE_VERSION für zu Segfault (Core dump) bei SUN Maschine on Sun, 27 Jun 2010 19:40:41 GMT]]></title><description><![CDATA[<p>Folgendes Problem.</p>
<p>Wenn ich mit</p>
<pre><code>printf(&quot;GL_Shading_Language_Version: \t%s\n\n&quot;, glGetString(GL_SHADING_LANGUAGE_VERSION));
</code></pre>
<p>Nach der GLSL Version frage, dann kriege ich unter der SUN Maschine einen Segfault (Core Dump).<br />
Auf meinem x86 funktioniert die Abfrage aber.</p>
<p>Bemerkenswert ist auch, daß auf der SUN OS Maschine GL_SHADING_LANGUAGE_VERSION in gl.h definiert ist, während dies auf meiner Linux NVIdia Maschine nur in glext.h definiert ist.</p>
<p>Meine Frage ist nun, warum führt diese einface Abfrage zu einem Segfault, obwohl das gleiche Programm unter Linux auf einer x86 Maschine funktioniert?</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1918110</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1918110</guid><dc:creator><![CDATA[SUN Solaris]]></dc:creator><pubDate>Sun, 27 Jun 2010 19:40:41 GMT</pubDate></item><item><title><![CDATA[Reply to Abfrage von GL_SHADING_LANGUAGE_VERSION für zu Segfault (Core dump) bei SUN Maschine on Mon, 28 Jun 2010 06:48:22 GMT]]></title><description><![CDATA[<p>Hallo SUN Solaris,</p>
<p>das legt die Vermutung nahe, dass sich die GL-Versionen unterscheiden. Übernimm doch mal die Version von deinem Linux-Rechner.</p>
<p>Viele Grüße,<br />
MaBa</p>
]]></description><link>https://www.c-plusplus.net/forum/post/1918218</link><guid isPermaLink="true">https://www.c-plusplus.net/forum/post/1918218</guid><dc:creator><![CDATA[MaBa]]></dc:creator><pubDate>Mon, 28 Jun 2010 06:48:22 GMT</pubDate></item></channel></rss>