Eigene OOP-Sprache



  • Programmiererer schrieb:

    Aber das mit dem '=' finde ich schon mal gut.

    Das wird in Genesys auch anders aussehen.

    Programmiererer schrieb:

    Auch nervt mich ständig, dass ich prinft, printf und nochmal printf für die konsole eingeben muss. Viel cooler würde ich so z.B. finden:

    < "&a"  // eine art scanf
    > "Text ... blub"  // printf
    > "%a inhalt von a"
    

    Gut, dass ist jetzt villeicht schlecht durchdacht, aber trotdem is ist kürzer 😃

    Schau Dich doch einfach in anderen Sprachen um.

    Auf Commodore Basic konnte statt print auch '?' nehmen, was später vom Computer zum PRINT aufgeblasen wurde.

    10 ? "Hallo Welt"
    

    PHP kanns noch einfacher, vermutlich so einfach, dass man es nicht mehr unterbieten kann 😉

    Hallo Welt
    

    alternativ auch:

    <? print "Hallo Welt"; ?>
    
    <? 
       $a = 4;
       print "Inhalt von a: $a"; 
    ?>
    

    Lösungen gibt es viele... Passt das ganze ins Sprachkonzept ist eher die Frage...



  • //edit ... ne, doch nicht 😞



  • man kann ja natürlich jeden scheiss in einen ASCII-Zeichen codieren.
    wieso nicht gleich if als ? schreiben ?
    In C++ habt ihr cout < "blaaa" und cin > c das ist doch kurz genug ?
    Konsole ist sowieso sowas von out-of-date...

    das Problem ist das es eine Sprache gibt, die eines ganz gut kann, aber dann wieder was anderes fehlt.
    Java: Generics, aber keine Templates, keine Operatorenüberladung
    C++ : umgekehrt zur java
    C# : auch keine Templates
    (waren nur Beispiele)



  • zafiro schrieb:

    Jo, sehr vielen Danke Xin. Sowas suche ich halt. Wie weiß muss ich eigentlich mit der "Sprach-Überlegung" gehen. Muss ich echt jede überdenken, oder würde eine grobe richtung reichen. So wie das hier halt:

    < "&a" // eine art scanf
    > "Text ... blub" // printf
    > "%a inhalt von a"

    (is ja uch erst eine grobe idee)

    Wenn Du eine problemorientierte Sprache schreibst, nimmst Du Dir das Hauptproblem und definierst es so, dass es sinnvoll, eindeutig, verständlich, lesbar und leicht zu lernen ist.
    Die Aufgabe von PHP war Text zu produzieren. Darum ist ein Hallo Welt in PHP extrem einfach. Ein XML Parser ist nicht schön, aber in PHP machbar. Einen Compiler würde ich eher nicht in PHP schreiben - was nicht bedeutet, dass es nicht möglich wäre, ich würde lediglich andere Sprachen vorziehen, die zum Thema Datenstrukturen etwas besser gerüstet ist.

    Wenn Du eine nicht problemorientierte Sprache schreiben möchtest, hast du es etwas komplizierter. Du musst sehr viele Sprachkonstrukte unterstützen und die so definieren, so dass sie sinnvoll, eindeutig, verständlich, lesbar und leicht zu lernen sind. Und das ist alles andere als einfach, den die bekannten Sprachen sind da auch nicht zufriedenstellend. C/C++ ist sinnvoll, meistens eindeutig, aber eben nicht immer, verständlich wenn man die Regeln gelernt hat, lesbar, wenn man die Regeln beherrscht und Ergebnisse sind in C/C++ nicht ohne einen gewissen Aufwand zu erzielen. Man sieht, dass C/C++ von Leuten entwickelt wurde, die eine Sprache schaffen wollten, die für ihre Bedürfnisse geschaffen ist. In damliger Zeit erfüllte sie auch die Kriterien verständlich und leicht zu lernen.
    Heute sind wir 20-30 Jahre weiter und die Bedürfnisse liegen so, dass alle programmieren wollen, aber keiner mehr Zeiger lernen möchte.

    Wenn Du Deinen Schwerpunkt da anlegst, kommt vielleicht etwas wie Java raus. Sobald Du rausfindest, dass die Idee ohne Zeiger zu arbeiten nicht so klever war, wirfst Du C# ins Rennen.
    Überhaupt scheint mir, dass jeder es als wichtig anlegt binnen 20 Minuten einen Prototyp zeigen zu können, der zwar nix kann außer ein, zwei Fenster zu öffnen. Hier liegen derzeit offenbar Bedürfnisse. Visuelle Programmiersprachen genannt. Sowas ist praktisch, wenn man in 20 Minuten irgendein Ergebnis braucht. Bei einem ernstzunehmenden Projekt interessiert die GUI wohl am wenigsten.

    Letztenendes musst Du also auch Schwerpunkte setzen, wie wichtig etwas für Dein Problem ist. Eine Sprache ist nicht nur eine Lösung, sondern auch ein Statement. Ich halte Zeiger für wichtig, also werde ich Zeiger anbieten und vom Entwickler verlangen, dass er weiß, was ein Zeiger ist. Ich halte 'Garbage Collection' für Müll und habe mich aus mehreren Gründen dagegen entschieden, obwohl ich auch die Vorteile einer Garbage Collection sehe. Bleibt die Frage, wie man die Vorteile retten kann, ohne den Unsinn einer Garbage Collection zu starten und das ganze in ein Sprachkonzept zu gießen. Da kann man schon einige Zeit mit verbringen.
    Wie kann ich garantieren, dass ich keine Meldungen bekomme wie bei JavaScript (IE6) "Zeiger auf nicht mehr existierendes Objekt". JavaScript (IE6) interessiert mich nicht, wenn ich als Entwickler da stehe und nichts mehr machen kann, weil die GarbageCollection meine Objekte wegwirft.

    Die Frage lautet immer, wo liegen Nachteile in Bezug auf ein bestimmtes Problem? Warum hat man etwas erfunden, um eine Arbeit zu erleichtern? Erleichtert es die Arbeit wirklich? Welche Nachteile hat diese Erfindung. Welche Alternativen gibt es? Hat die Alternative Vorteile für meine Sprache? Kann ich die Alternative bei mir sinnvoll einbauen? Kann ich das sinnvoll umsetzen? Wenn ich das nicht kann, dann heißt es erst lernen, dann umsetzen und es im Zweifelsfall lassen. Ich nutze lieber eine kleine Sprache, die funktioniert als eine große Sprache, die mir alles abnimmt, aber leider Mienenfeld aus Bugs ist.

    Hier mal ein Beispiel, wo C nicht eindeutig ist:

    int a = 8, b = 2;
    int *p = &b;                           // Zeiger p zeigt auf Variable b
    
    if( a/*p == 4 ) printf( "Yepp\n" );    // Wenn a geteilt durch das, worauf p zeigt gleich 4 ist, also 8/2 == 4
    else            printf( "Nopes\n" );
    

    Entsteht hier ein Programm, dass "Yepp" ausgibt oder kompiliert der Compiler das Programm gar nicht erst und bricht mit Fehlermeldung ab?!
    Man weiß es nicht, es ist nicht eindeutig. Ich würde sagen das Programm wird in der Regel nicht kompiliert.
    Dieses Problem tut C oder C++ keinen Abbruch, da es nicht kompilierbar ist, also leicht zu finden. PHP leistet sich da schon ganz andere Dinge
    (die mir aufgefallenen Sachen sind aber mit V4.3 behoben worden).

    Aus solchen Mißgeschicken kann man aber lernen. Könnte man zumindest.
    Dass ein derartiger Wurm nicht auch in Genesys steckt, kann ich nicht garantieren. Sowas findet man in der Regel erst später.
    Aber wenn man das Problem identifiziert, findet sich eine einfache Standardlösung, auf die man achten muss.
    Man muss bekannte Fehler ja nicht um jeden Preis wiederholen.



  • Xin schrieb:

    Hier mal ein Beispiel, wo C nicht eindeutig ist:

    int a = 8, b = 2;
    int *p = &b;                           // Zeiger p zeigt auf Variable b
    
    if( a/*p == 4 ) printf( "Yepp\n" );    // Wenn a geteilt durch das, worauf p zeigt gleich 4 ist, also 8/2 == 4
    else            printf( "Nopes\n" );
    

    Entsteht hier ein Programm, dass "Yepp" ausgibt oder kompiliert der Compiler das Programm gar nicht erst und bricht mit Fehlermeldung ab?!
    Man weiß es nicht, es ist nicht eindeutig. Ich würde sagen das Programm wird in der Regel nicht kompiliert.

    Ich würde noch weiter gehen und sagen, du beginnst mit /* nen Kommentar und kriegst deshalb n Haufen Probleme 😃 😃



  • GPC schrieb:

    Xin schrieb:

    Hier mal ein Beispiel, wo C nicht eindeutig ist:

    if( a/*p == 4 ) printf( "Yepp\n" );    // Wenn a geteilt durch das, worauf p zeigt gleich 4 ist, also 8/2 == 4
    

    Entsteht hier ein Programm, dass "Yepp" ausgibt oder kompiliert der Compiler das Programm gar nicht erst und bricht mit Fehlermeldung ab?!
    Man weiß es nicht, es ist nicht eindeutig. Ich würde sagen das Programm wird in der Regel nicht kompiliert.

    Ich würde noch weiter gehen und sagen, du beginnst mit /* nen Kommentar und kriegst deshalb n Haufen Probleme 😃 😃

    Nimm den Leuten doch nicht den Spaß, ich habe extra dahinter geschrieben, was passieren sollte, damit nicht gleich die Warnlampen angehen, wenn man /* liest. 😉 */



  • hrhrhr, alter Halunke 😃 😉



  • das topic ist im falschen forum und bittet um verschiebung 😡



  • Programmiererer schrieb:

    Also eine Idee wäre es von mir schon mal die ganzen variablentypen wegzulassen, dass es php ähnlich wird.

    Ganz schlechte Idee. Damit nimmst du der Sprache einen Teil des anwendbaren Spektrums und machst daraus eine limitierte Sprache. Das würde sich wohl kein (zumindest C++) Programmierer wünschen. Aber du hast Recht, wenn es um Typ Automatisierung geht. Da gibt es durchaus noch Spielraum für Verbesserungen und solche werden im nächsten C++ Standard wohl auch kommen.

    thordk schrieb:

    ich sehe eigentlich keinen trifftigen grund, der gegen schwache typisierung spricht.

    Ich schon. Dann würden wohl noch mehr Dummies C++ programmieren, ohne auch nur die leiseste Ahnung von Softwareentwicklung zu haben. Die Welt würde zugrunde gehen und das Armageddon kommen. Gute Nacht! 🙄

    thordk schrieb:

    c++ ist steinzeit.

    Naja, höchstens Antike, wenn wir mal die Entstehungszeit betrachten.

    thordk schrieb:

    um jeden scheiss muss man sich selbst kümmern, nicht mal der müll wird einem vor die tür gebracht!

    Und warum ist das die Schuld von C++, wenn du nicht vernünftig damit umgehen kannst?
    In C++ musst du sicherlich mehr machen, als in einigen anderen Sprachen. Allerdings ist vieles davon einfach eine Frage der Routine.

    volkard schrieb:

    thordk schrieb:

    es erschwert natürlich die analyse und ist fehleranfällig. aber mal ehrlich, wieviele speicherlecks und potentielle segmentation fault quellen hat das durchschnittliche c++ programm?

    keine.

    Aber auch nur deine Programme. 😃 Die Realität sieht leider anders aus. Grundsätzlich hast du aber Recht, ein C++ Programm muss keine Speicherlecks oder Segfaults haben.
    Deinen Wunsch mit den Compilezeitfunktionen habe ich mir übrigens auch schon manchmal gewünscht. Eigentlich müsste die Sprache es lediglich ermöglichen, dass man Compilezeitkonstanten als Parameter und Rückgabewert definieren kann. const reicht dafür ja nicht aus.

    Grundsätzlich glaube ich nicht, dass ein Nachfolger von C++ Sinn machen würde (tut ja eigentlich auch D schon nicht wirklich). Warum? Nun, der eine definiert es zu low-level, der andere zu high-level. Letztendlich ist keiner damit wirklich zufrieden. Ist ja jetzt auch schon nicht anders. Warum gibt es denn so viele Programmiersprachen? Weil jeder andere Anforderungen hat, und jeder glaubt, seine Sprache könnte das am besten. Deshalb gibt es auch nicht _die_ eierlegende Wollmilchsau bei den Programmiersprachen. Und wie Xin schon sagte, was die Zukunft bringt, können wir sowieso nicht voraussagen. Also bleibt uns nur, mit dem zu leben was wir haben (im Grunde gibt es ja auch alles). Und wer das am besten kann, anstatt jedes belanglose Detail im Einzelnen niederzumachen (nein, ich nenne keine Namen 🙂 ), hat einfach die grössten Chancen, was auf die Reihe zu bekommen. Der Rest fällt früher oder später einfach durchs Sieb.

    Zudem würde ich diese Diskussion nur für sinnvoll halten, wenn man sie in zwei Bereiche teilt. Die einen definieren ihre OOP Sprache für low-level, die anderen für High-level. Beides gleichzeitig ist in einfacher Form einfach nicht möglich.

    Wenn ich einen Nachfolger von C++ dennoch entwickeln würde, dann wäre das wohl C++ ... mit vielen Verbesserungen im Detail (Kontrollstrukturen, dynamische Speicherreservierung, Literale, builtin Container, etc.pp) und Erweiterungen (zB hat aspektorientierte Programmierung einige gute Ideen). Den Kern würde ich trotzdem beibehalten, wie OO, strikte und statische Typisierung, kein GC (höchstens optional), native Binaries, usw.



  • Xin schrieb:

    Hier mal ein Beispiel, wo C nicht eindeutig ist:

    int a = 8, b = 2;
    int *p = &b;                           // Zeiger p zeigt auf Variable b
    
    if( a/*p == 4 ) printf( "Yepp\n" );    // Wenn a geteilt durch das, worauf p zeigt gleich 4 ist, also 8/2 == 4
    else            printf( "Nopes\n" );
    

    Entsteht hier ein Programm, dass "Yepp" ausgibt oder kompiliert der Compiler das Programm gar nicht erst und bricht mit Fehlermeldung ab?!
    Man weiß es nicht, es ist nicht eindeutig. Ich würde sagen das Programm wird in der Regel nicht kompiliert.

    Wer sauber formatiert codet länger (anstatt fehler zu beheben) 🙂



  • groovemaster schrieb:

    Wenn ich einen Nachfolger von C++ dennoch entwickeln würde, dann wäre das wohl C++ ... mit vielen Verbesserungen im Detail (Kontrollstrukturen, dynamische Speicherreservierung, Literale, builtin Container, etc.pp) und Erweiterungen (zB hat aspektorientierte Programmierung einige gute Ideen). Den Kern würde ich trotzdem beibehalten, wie OO, strikte und statische Typisierung, kein GC (höchstens optional), native Binaries, usw.

    Zitier bitte mal kurz, wo vorgeschrieben sein soll? (ich beziehe mich auf das fett markierte).



  • Wozu? Ausserdem habe ich solch eine Sprache ja nirgendwo spezifiziert, also kann ich dir auch schlecht Textstellen zitieren.



  • Du hast geschreiben, dass wenn du einen C++-Nachfolger erfinden würdest du den Kern beibehalten würdest. Da nichts anderes genannt wurde, war der Kern von C++ gemeint. Dann hast du das aufgezählt, was für dich den Kern von C++ ausmacht und darunter befand sich unter anderem "native Binaries". Für dich sind native Binarys also ein Teil des Kerns von C++. Da ich das nicht wusste, bzw. sogar für falsch halte, wollte ich, dass du mir sagst, wie du darauf kommst, dass es ein Teil des Kerns von C++ ist.

    So, noch ausführlicher kann ich das jetzt aber nicht mehr ausführen. Sollte es immer noch Missverständnisse geben, gebe ich auf.



  • OK, dann akzeptiere ich deine Aufgabe. Ausser du kannst uns nachweisen, dass C++ eine rein interpreterbasierte Sprache ist.

    Aber mal Spass beiseite. Verwechsel mal das, was ich unter "Kern" meinte, nicht mit dem was im Standard geschrieben steht. Damit war das komplette Spektrum von C++ gemeint. Eben nicht nur die reine Sprachspezifikation, sondern auch die Merkmale von C++. Wenn es dem OP nur um das Erste geht, dann vergiss den Punkt einfach. Aber ich würde mir dennoch Gedanken darum machen, wie der Quellcode letztendlich auch ausgeführt werden kann. Und da muss es in erster Linie Build Tools geben, die den Quellcode in Maschinensprache (oder andere "native" Sprachen, wie zB C) übersetzen können. Wenn du dir darüber hinaus einen Interpreter selber basteln willst, dann kannst du das gerne machen. Das darf aber keine Voraussetzung für die Lauffähigkeit der Anwendungen sein.



  • Dr. Prof schrieb:

    Xin schrieb:

    Hier mal ein Beispiel, wo C nicht eindeutig ist:

    int a = 8, b = 2;
    int *p = &b;                           // Zeiger p zeigt auf Variable b
    
    if( a/*p == 4 ) printf( "Yepp\n" );    // Wenn a geteilt durch das, worauf p zeigt gleich 4 ist, also 8/2 == 4
    else            printf( "Nopes\n" );
    

    Entsteht hier ein Programm, dass "Yepp" ausgibt oder kompiliert der Compiler das Programm gar nicht erst und bricht mit Fehlermeldung ab?!
    Man weiß es nicht, es ist nicht eindeutig. Ich würde sagen das Programm wird in der Regel nicht kompiliert.

    Wer sauber formatiert codet länger (anstatt fehler zu beheben) 🙂

    Dem stimme ich zu, aber das Programm ist sauber formatiert und kann trotzdem nicht kompiliert werden.



  • Xin schrieb:

    Dr. Prof schrieb:

    Xin schrieb:

    Hier mal ein Beispiel, wo C nicht eindeutig ist:

    int a = 8, b = 2;
    int *p = &b;                           // Zeiger p zeigt auf Variable b
    
    if( a/*p == 4 ) printf( "Yepp\n" );    // Wenn a geteilt durch das, worauf p zeigt gleich 4 ist, also 8/2 == 4
    else            printf( "Nopes\n" );
    

    Entsteht hier ein Programm, dass "Yepp" ausgibt oder kompiliert der Compiler das Programm gar nicht erst und bricht mit Fehlermeldung ab?!
    Man weiß es nicht, es ist nicht eindeutig. Ich würde sagen das Programm wird in der Regel nicht kompiliert.

    Wer sauber formatiert codet länger (anstatt fehler zu beheben) 🙂

    Dem stimme ich zu, aber das Programm ist sauber formatiert und kann trotzdem nicht kompiliert werden.

    Ist es nicht, sauber formatiert ist:

    int a = 8;
    int b = 2;
    int* p = &b;                           // Zeiger p zeigt auf Variable b
    
    if( a / *p == 4 ) 
       printf( "Yepp\n" );    
    else  
       printf( "Nopes\n" );
    


  • Und in echtem Code, sollte man noch die If- und Else-Zweige Klammern.



  • int a = 8;
    int b = 2;
    int* p = &b;                           // Zeiger p zeigt auf Variable b
    
    if( a / *p == 4 )
       printf( "Yepp\n" );    
    else  
       printf( "Nopes\n" );
    

    ist es nicht:

    int     a =  8;
    int     b =  2;
    int*    p = &b;
    
    if( a / *p == 4 ) {
        printf( "Yepp\n" );    
    } else {
        printf( "Nopes\n" );
    }
    

    @Mods: Könnte mal jemand diesen unsinnigen Thread schließen 😉



  • Swordfish schrieb:

    int a = 8;
    int b = 2;
    int* p = &b;                           // Zeiger p zeigt auf Variable b
    
    if( a / *p == 4 )
       printf( "Yepp\n" );    
    else  
       printf( "Nopes\n" );
    

    ist es nicht:

    int     a =  8;
    int     b =  2;
    int*    p = &b;
    
    if( a / *p == 4 ) {
        printf( "Yepp\n" );    
    } else {
        printf( "Nopes\n" );
    }
    

    @Mods: Könnte mal jemand diesen unsinnigen Thread schließen 😉

    Dr. Prof schrieb:

    Und in echtem Code, sollte man noch die If- und Else-Zweige Klammern.



  • Wohlwissend, dass ein Reply hier sinnlos ist... ich probier's trotzdem mal für diejenigen, die den Unsinn hier noch lesen.

    Was "sauber formatiert" bedeutet ist eine Auslegungssache. Hier gibt es Unmengen an Richtlinien - an die man sich richten kann - nicht muss, es gibt aber kein Gesetz und es gibt keine Festlegung.
    Auch gilt das Bild-Zeitungs-Prinzip nicht: Wenn's häufig genug geschrieben wird, wird es wahr. Wer das glaubt, möge ich fragen, warum auch neuere Sprachen wie Java oder C# die Klammerung nicht verlangen - vielleicht lasen die Entwickler andere Blätter.

    Es gibt kein Gesetz, das besagt, dass Zweige mit einem Statement geklammert werden müssen. Es gibt Leute (mich eingeschlossen), die auf Klammerung weitestgehend verzichten möchten, solange die Aussage eindeutig ist.
    Ich klammere möglichst wenig, aber ich klammere auch dann, wenn es für die Aussage an den Compiler überflüssig ist, aber den Code lesbarer macht.
    Die Formatierung, die ich in dem Beispiel benutzt habe, benutze ich ebenso in "richtigem" Code.

    Der Hinweis, Klammern grundsätzlich zu nutzen, geht in der Regel an Anfänger, die nicht automatisch Klammern setzen, wenn sie in einen ungeklammerten Anweisungsblock mit nur einer Anweisung einen Befehl einsetzen.

    Folgendes

    if( true )
      do_this();
      do_that();
    
    do_something_else()
    

    ist ein Fehler, der einem erfahrenen (C/C++)-Entwickler nicht passieren kann (auch das ist kein Gesetz... ich weiß).
    Mir ist auch bewußt, dass das Risiko für Python-Prgrammierer hier höher ausfällt. Wenn ein Python-Programmierer grundsätzlich klammert, um einen Fehler durch Gewöhnung auszuschließen, dann finde ich das vollkommen in Ordnung. Denn die Klammern machen den Quelltext auch nicht falscher. Es ist also allgemein vollkommen in Ordnung zu klammern.
    Es wird dadurch nicht sauberer oder richtiger oder in irgendeiner Weise besser - der Quellcode hat lediglich mehr Klammern.

    Formatierung sollte nicht starren Linien folgen, sondern die Formatierung sollte so sein, dass der Quelltext und vor allem der Algorithmus leicht lesbar und nach Möglichkeit erkennbar ist, wenn man den Code durchgeht. Ähnlichkeiten und Unterschiede sollten im Code durch die Formatierung hervorgehoben werden. Die Unterschiede sollen einem regelrecht ins Auge springen, damit man weiß, worauf man seine Konzentration zu lenken hat. Es geht nicht darum den Parserbaum optimal im Code darzustellen, sonst würden wir statt Quellcodes Parserbäume schreiben.

    if( foo ) bar = new Object( "neues Objekt",       1, "kleine Zahl" );
    else      bar = new Object( "neues Objekt", 1000000,  "große Zahl" );
    

    Man kann und sollte Richtlinien aufstellen. Aber keine davon sollte zwingend angewendet werden, wenn sie den Code nicht wirklich leserlicher macht.
    Man kann bei der Formatierung auch überlegen, was an dieser Stelle wichtig ist - aber auch das ist kein Gesetz, sonst hätten wir weniger Brute-Force-Programmierer.


Anmelden zum Antworten