Wie alles begann..



  • Mein Compiler wurde von einem Compiler kompiliert, der wiederum auch, usw usw.., dann kommen wahrscheinlich ein paar Assembler, dann Byteketten.
    Ob mein Compiler urspruenglich wohl von einer Lochkarte abstammt?



  • Das mit den Lochkarten ist mir bewusst, nur wie konnt die Maschine damals selber entscheiden ?
    Das das heute mit Transistoren und deren High - Lowpegeln leicht geht ist mir klar.



  • Wenn ich mal an meinen alten PC (400 Mhz P2) komme ueberspiele ich dir mein referat zu dem thema (das ist schon ewig her)

    im grossen und ganzen kam das ganze in der besagten reihenfolge

    erst computer deren programme gesteckt wurden, dann lochkarten und damit stappelverarbeitung (da kommt das wort her), dann wurden die programme mit assemblern gemacht und einfachen editoren, und dann kamen schon die ersten hoeheren sprachen - die reihenfolge weiss ich nicht mehr - ich glaub 58 COBOL, 54 Fortran, 7x C, 82 oder wars 89-- C++ (damals genannt "C with Objects),
    usw usf - wichtigste neuerung war dann Java - 95 - (ich glaub das oak projekt war 93), vb weiss ich nicht, web script sprachen erst ab 96-97 (asp, jsp, php),
    fehlt sonst noch was wichtiges? C# ist ja gerade neu.

    wichtig anzumerken ist noch das die meisten sprachen weiterentwickelt werden. Sogar COBOL und Fortran erfahren überarbeitungen, C++ sowieso
    auch C (das keine komplette submenge von C++ ist) wird ständig erweitert

    aber die letzten jahre gibt es ja einen wahren wildwuchs verschiedenster sprachen - und auf sprachen aufsetzenden frameworks



  • Die ersten Zuse Rechner waren vollstaendig mechanisch. Und die Lochbaender mit den Programmen drauf hat man mit einem Stanzgeraet programmiert.



  • lol, stellt euch mal vor, ihr startet ein Programm. Die einzelnen Befehle
    kann man dann direkt auf der Lochkarte sehen. Es war bestimmt ein Heidenlärm,
    da die Lochkarten in die Maschiene hineingezogen werden mussten.



  • interessant find ichs eher, wie schnell sich das entwickelt hat. man betrachte unsere heutigen rechner mit ihren damals futuristischen inhalten.
    was meint ihr, wird das in 20 weiteren jahren aussehen? 😕



  • is auf jedenfall noch viel raum für weiterentwicklung
    meist muss man sich ja immernoch um viel lowlevel kram kümmern



  • Naja, mit handelsüblichem Silizium in Keramik verpackt ist nicht mehr allzu viel zu holen... Zu hoch wird langsam die Abwärme, zu hoch die Leck- und Fehlströme...



  • gabs da net mal eine gesetzmäßigkeit, die besagt, dass sich alle 3 jahre die leistung der prozessoren vervierfacht?



  • Gesetzmäßigkeit != Prognose



  • Zyrian schrieb:

    gabs da net mal eine gesetzmäßigkeit, die besagt, dass sich alle 3 jahre die leistung der prozessoren vervierfacht?

    Du meinst Moore's Gesetz. Die genaue Aussage dieser "Prognose" ist, dass sich alle 18 Monate die Anzahl der Transistoren pro Fläche verdoppelt. Mit heutigen Techniken ist allerdings damit zu rechnen, dass dieses Gesetz in etwa 10-15 Jahren seine Gültigkeit verliert.



  • fehlt sonst noch was wichtiges?

    LISP? Keine Ahnugn, wann es genau kamm. Irgendwann in den 50ern oder 60ern. Smalltalk Anfang der 80er.



  • @ gomberl
    Kannst du mir das bitte überspielen falls du rankommst?
    danke



  • Gregor schrieb:

    Du meinst Moore's Gesetz. Die genaue Aussage dieser "Prognose" ist, dass sich alle 18 Monate die Anzahl der Transistoren pro Fläche verdoppelt. Mit heutigen Techniken ist allerdings damit zu rechnen, dass dieses Gesetz in etwa 10-15 Jahren seine Gültigkeit verliert.

    Das habe ich vor 10 Jahren schon mal gehört.



  • Marc++us schrieb:

    Das habe ich vor 10 Jahren schon mal gehört.

    jup. und vor 15 jahren war man bereits so dicht an der grenze des physikalisch möglichen, daß man vor 10 jahren das maximum der packdichte erreicht gehabt haben würde haben.
    aber zum glück werden wir entschädigt durch die denkenden maschinen, wie sie seit 1960 alle sraßen bevölkern.



  • Fargt nicht wie die compiler gebaut worden sind sagt nur danke!. Im vorherigen semester hate ich eine aufgabe wo wir ein programm schrieben musste auf eine lochkarte ich sag nur eins, oh gott danke !!!. Nun das intresannte war das man damals die erfindung von zusse nicht anerkannt hatt man sagte sie were zu minderwertich!. Es gab auch vor zusse pc z.b. der laplas rechner der nur + un * hatte dan später von pascal aufgemotzt worden war mit - und /. vor innen gab es noch den abakus der haute noch vor den japaner benutzt wird.



  • Deshalb steht da ja auch "mit heutigen Techniken".



  • Marc++us schrieb:

    Gregor schrieb:

    Du meinst Moore's Gesetz. Die genaue Aussage dieser "Prognose" ist, dass sich alle 18 Monate die Anzahl der Transistoren pro Fläche verdoppelt. Mit heutigen Techniken ist allerdings damit zu rechnen, dass dieses Gesetz in etwa 10-15 Jahren seine Gültigkeit verliert.

    Das habe ich vor 10 Jahren schon mal gehört.

    Ja, ich weiß, dass das immer wieder gesagt wird.

    ...aber rechnen wir mal: Wenn man 15 Jahre ansetzt, dann ist man bei Strukturgrößen von etwa 3nm. Wenn man bedenkt, dass ein Atomdurchmesser etwa ein Zehntel davon ist, dann ist da nicht mehr so viel Platz nach unten. Nun, so genau kenne ich mich physikalisch auf dem Gebiet nicht aus, aber vermutlich wird man ein paar Atomlagen brauchen, damit alles funktionieren kann. Es wird mit der jetzigen Technik also in jedem Fall nicht viel weiter gehen können.

    ...naja, vielleicht kommt danach ja irgendwas mit Kohlenstoff-Nanoröhrchen oder so, aber selbst die haben mindestens einen Durchmesser von 0,4nm. Viel weiter würde man damit also auch nicht kommen und wer weiß, ob man die überhaupt für soetwas nutzen kann, oder ob man eine andere Anschlusstechnologie findet.


Anmelden zum Antworten