Hardware vs. Software



  • supertux schrieb:

    7100 schrieb:

    Hardware hat ca. 100 mal mehr Speicher und ist genauso viel schneller geworden in den letzten 10 Jahren. Und Software? Browser und Textverarbeitung können sicher nicht 100 mal mehr. Gerade mal bei den Spielen ist die Grafik besser geworden, aber der Rest der Software hat nicht viel aus der besseren Hardware gemacht.

    da hat aber jemand ein nicht so weites Horizont (nichts für Ungut) aber es gibt in der Welt mehr als "Windows Desktops mit Microsoft Word". Und man kann Software mit Hardware nicht immer vergleichen, wie hier mehrfach gesagt wurde. In der Wissenschaft wird die Sofware immer besser und ausgereifter, heute sind Sachen möglich, die man vor 10/15 Jahren als nicht realisierbar waren, ein beliebtes Bsp dafür: SAT-Solver. Gewiss spielt die neue Hardware Generation eine große Rolle über die Leistungsfähigkeit von Sat-solvern aber was ein SAT-Solver wirklich effizient macht sind die Algorithmen/heuristiken und ihre Implementierungen und das geschieht alles softwareseitig.

    In Wissenschaftslaboren wirst du aber auch noch viel ausgefallenere Hardware finden als auf einem Desktop. Die Desktoprechner sind viel besser geworden, aber die Software kaum.



  • 7100 schrieb:

    In Wissenschaftslaboren wirst du aber auch noch viel ausgefallenere Hardware finden als auf einem Desktop. Die Desktoprechner sind viel besser geworden, aber die Software kaum.

    Vielleicht in MIT oder in Cern, aber bei normalen Uni-Lehrstühlen hat jeder einen stinknormalen Rechnern zum Arbeiten (klar haben wir auch mal Cluster) aber die Fortschritte von SAT-Solvern sind ganz deutlich der Software zuzuschreiben. Ich weiß nicht, warum du alles andere ignorierst, oder denkst du bei Software nur an "Microsoft Office"? Da geb ich dir Recht, dieser Schrott wird nie besser.



  • 7100 schrieb:

    In Wissenschaftslaboren wirst du aber auch noch viel ausgefallenere Hardware finden als auf einem Desktop.

    "Ausgefallen".... wie man es nimmt. Ich würde den Schrott, den wir im Labor stehen haben auch größtenteils so bezeichnen, wenn ich ihn mit meinem Rechner vergleiche. 😃 Aber mehr brauchts meist gar nicht.

    7100 schrieb:

    Die Desktoprechner sind viel besser geworden, aber die Software kaum.

    Da fällt mir ganz spontan z.B. Photoshop ein. Da hat sich in den letzten Jahren unter der Motorhaube einiges getan. Und da gibt es noch zahlreiche weitere Beispiele.

    Nur dass LaTeX noch der gleiche Frickelscheiß wie vor 20 Jahren ist, das kotzt mich an. Wieso gibt es da nicht mal eine komplett überarbeitete Version 3? Wünsch ich mir zu Weihnachten.... bitte.... :xmas1:



  • Kann man denn Hard- von Software trennen ?

    Sinn beider war die die weitgehende Loslösung der Hardwarelogik von dem was
    das schwarze Kästchen im Endeffekt macht, also eine programmierbare Logik. Die
    Programmierung ist dann die Software.

    Beides bedingt einander.



  • Jan schrieb:

    Nur dass LaTeX noch der gleiche Frickelscheiß wie vor 20 Jahren ist, das kotzt mich an. Wieso gibt es da nicht mal eine komplett überarbeitete Version 3? Wünsch ich mir zu Weihnachten.... bitte.... :xmas1:

    LaTeX ist einfach schon seit Ewigkeiten richtig gut, da gibts nicht mehr viel zu verbessern, was die Zielgruppe von LaTeX dringend haben möchte.

    Du klingst so, als hättest Du gerne sowas wie Scientific Workplace (bzw. einfach nur Scientific Word) oder so. Oder lieber irgendwas in die Richtung von ConText? Keine Ahnung, was Du nicht magst.



  • 7100 schrieb:

    Hardware hat ca. 100 mal mehr Speicher und ist genauso viel schneller geworden in den letzten 10 Jahren. Und Software? Browser und Textverarbeitung können sicher nicht 100 mal mehr. Gerade mal bei den Spielen ist die Grafik besser geworden, aber der Rest der Software hat nicht viel aus der besseren Hardware gemacht.

    Wenn ich mal meine IDE vergleiche mit dem, was es früher so gab, dann muss ich auch sagen: 100mal mehr kann die nicht... Es ist mindestens 1000mal so viel!!



  • in den Details ändert sich vieles, einige der wichtigsten Grund-Paradigma existieren aber schon seit Jahrzehnten: OOP, Desktop-GUI mit Fenstern und Maus, Hochsprachen mit Bytecode auf virtual machine, Hypertext, ... all das stammt aus den 1960er Jahren

    Es dauerte dann 2,3 Jahrzehnte, bis schnelle und preiswerte Hardware verfügbar war, um diese Dinge für Normalanwender verfügbar zu machen.

    Mit programmierbaren FPGAs wird die Grenze zwischen Soft- und Hardware wohl zunehmend verschwimmen - Bspw. eine in einer HDL formulierte Beschreibung einer CPU, die anschließend in ein Gate array geladen wird und damit eine Hardware-CPU darstellt, ist das Hardware oder Software ?



  • Jan schrieb:

    Nur dass LaTeX noch der gleiche Frickelscheiß wie vor 20 Jahren ist, das kotzt mich an. Wieso gibt es da nicht mal eine komplett überarbeitete Version 3? Wünsch ich mir zu Weihnachten.... bitte.... :xmas1:

    die meisen LaTeX Distributionen sind OpenSource. Statt zu motzen, nimm dir die Sourcen und verbessere sie, damit sie nicht der selbe Schrott bleibt wie vor 20 Jahren. Mal sehen, was sich daraus ergibt.



  • ein TeX-ähnliches System, in welchem die höheren Funktionen und Packages nicht in einer Makrosprache, sondern in einer modernen dynamischen Sprache wie Tcl oder lua implementiert sind, mit Elementarfunktionen in Form einer Funktions-Bibliothek, das wär's.



  • Allgemein sehe ich es so, dass Hard- und Software sich tendenziell gleich schnell, aber zeitverschoben entwickeln. Zur heutigen Hardware und zur Hardware der nahen Zukunft können auch erst heute die Theoretiker neue Konzepte entwickeln, die die wirklichen Neuerungen ausnutzen. Bis aus den Konzepten dann Software entsteht, und bis sich diese Software etabliert, vergehn schon einpaar Jährchen. Am nächsten an der Hardware ist die Software in den Bereichen, wo Innovation sich wirklich auszahlt und benötigt wird. Das ist zum einen der Bereich Grafik und alles was dafür nötig ist im kommerziellen Bereich. Zum Anderen ist es der Bereich massiver paralleler Datenverarbeitung in wissenschaftlichen Anwendungen.
    Gerade parallele Datenverarbeitung ist ein Beispielthema: Die Möglichkeit, mehrere Prozessoren gleichzeitig an einem Programm arbeiten zu lassen, wurde schon vor langem entdeckt, heutzutage haben die meisten verkauften Prozessoren für PCs zwei, vier oder mehr Kerne. Dennoch gibts nur wenige Programmiersprachen, die wirklich nativ Parallelität unterstützen. Zwar werden seit den 60er Jahren oder früher die nötigen Mechanismen untersucht und auch die eine oder andere experimentelle Sprache entwickelt, aber noch heute sind hauptsächlich sequentielle Sprachen wie die C-Sprachfamilie (C, C++, C#, Java,...) vertreten, die sich relativ behelfsmäßiger und umständlicher Werkzeuge bedienen, um Parallelität zu ermöglichen. Es gibt schon Ansätze um die Komplexität von parallelen Programmen in den Griff zu bekommen, nur brauchen die auch wieder Zeit um sich zu etablieren.

    Deshalb denke ich, dass es nur so aussieht als ob sich Software langsamer entwickelt als Hardware - sie entwickelt sich heute so schnell wie die Hardware vor 2-10 Jahren (je nach Einsatzgebiet)



  • supertux schrieb:

    die meisen LaTeX Distributionen sind OpenSource. Statt zu motzen, nimm dir die Sourcen und verbessere sie

    Ja, na klar. Und wenn dir dein Haus nicht gefällt, dann baust du dir ein eigenes... 🙄

    nman schrieb:

    LaTeX ist einfach schon seit Ewigkeiten richtig gut, da gibts nicht mehr viel zu verbessern, was die Zielgruppe von LaTeX dringend haben möchte.

    LaTeX ist zwar nett, aber es hat in meinen Augen einfach zu viel Macken und zu viele Dinge sind viel zu umständlich. Das geht schon los, wenn man mal eine Grafik von Text umfließen lassen möchte. Dann findet man im Internet Hinweise auf 10 verschiedene Packages, die man einbinden könnte, von denen die Hälfte veraltet ist und die andere Hälfte nicht das macht, was sie soll. Bei mir hat es jedenfalls in sämtlichen Varianten nicht so funktioniert, wie es sollte. Sinnvolle Kopf- und Fußzeilen zu erstellen war auch ein echter Krampf.


  • Mod

    Ein weiteres Beispiel zu dem was pumuckl geschrieben hat ist der Quantencomputer: Da existieren schon die tollsten Algorithmen für viele verschiedene Probleme, aber die nötige Hardware wird es auf (voraussichtlich) Jahrzehnte nicht geben. Viele der Algorithmen gab es sogar schon lange bevor überhaupt der erste Quantenrechner gebaut wurde.



  • Jan schrieb:

    Sinnvolle Kopf- und Fußzeilen zu erstellen war auch ein echter Krampf.

    mit fancyhdr.sty geht das easy.



  • Jan schrieb:

    supertux schrieb:

    die meisen LaTeX Distributionen sind OpenSource. Statt zu motzen, nimm dir die Sourcen und verbessere sie

    Ja, na klar. Und wenn dir dein Haus nicht gefällt, dann baust du dir ein eigenes... 🙄

    so ist es, wenn du die Möglichkeit hast. Es gibt viele Menschen, die ihre Häuser auch selber bauen.

    Wenn ein Produkt CloseSource ist, dann kann man nichts machen und man muss letztendlich auf den Hersteller warten, wenn aber der Code frei ist, und 90% der Entwickler das frei entwickeln, dann kann keiner motzen, der sich nicht an der Entwicklung beteiligt. Kritisieren ist einfach, destruktive Kritik sogar einfacher (was du da machst). Wenn du Verbesserungsvorschläge hast, dann melde dich bei den Entwicklern (z.B. TexLive), dafür gibt es Mailing-Listen, bugtracker, track-Systeme, usw. Ich hab kein Verständnis für Leute, die gegen OpenSource meckern aber selber sich nicht an der Entwicklung beteiligen (weiß nicht, obs bei dir auch so zutrifft, aber so hört sich wenigstens an).

    Und btw: schieb PEBKAC-Fehler nicht auf die Entwickler. (La)TeX ist ein sehr komplexes System, welches von den Benutzern ein bisschen Einarbeitung erwartet. (Vom Flugzeug Pilot wird auch mehr erwartet als von einem normalen PKW-Fahrer, oder?)



  • Solange die Rechenleistung so weiterwächst, wird den Softwareschaffenden schon was einfallen, um sie völlig sinnlos zu "verbraten".
    Beispiele findet man hier in wohl jedem Forum, da wird auch von "Helfern" Code gepostet, der vor Mehrfachberechnungen strotzt, wenn man nörgelt, wird zurückgenölt, daß es egal ist, ob das Ding jetzt eine ganze oder nur eine halbe Sekunde rechnet.
    Dabei wird die triviale Wahrheit ignoriert, daß die eine Version tatsächlich doppelt so schnell wie die andere ist und mit der Hälfte der Ressourcen (Rechnenzeit, Strom etc.) das gleiche leistet. Dabei macht es mit den heutigen Tools nicht mal mehr große Mühe, per Profiling die Leistungsfresser auszumachen.

    Aber ich will nicht nur über andere lästern, sondern muß mir auch an die eigene Nase fassen: Ich habe lange Zeit fast alles in Assembler gemacht und im Zuge von ROHS etliche Geräte redesigned, die meiste Firmware mit C- Compilern recoded. Das Zeug läuft von Haus aus drei- bis ein paar hundert mal langsamer als handoptimierter ASM- Code, würde also zum Teil aus Laufzeitgründen mit den (abgekündigten) Originalprozessoren gar nicht mehr funktionieren. Aber solange man mir nicht bezahlen will, da Hand anzulegen, bleibt das Problem beim Einkauf, den stärkeren Prozessor vom Preis runterzuhandeln. Not my problem.

    Was aber, wenn es wirklich eng wird? Da kommen die erstaunlichsten Stücke Software zustande:
    Auf dem "Brotkasten" C64 (1 MHz 8-Bitter, 64 kB RAM) kriegt man immer noch Jahr für Jahr neue Demos zu sehen und hören, bei denen man sich fragen muß, wie das möglich sein kann. Auch unter GEOS (C64- OS mit kleinem Office- Paket) ging es nicht viel unkomfortabler zu als auf den Macs und Ataris dieser Zeit, vom PC mal ganz zu schweigen.
    Oder das kleinste Schachprogramm der Welt, das mit 1,5 kB ROM und 128 Byte RAM auskommt. Wohlgemerkt, kein Generator für gültige Züge, sondern ein echtes Schachprogramm - eine irre Leistung! Nah dran und für C- Fans, die gerne "Easter Eggs" verstecken: http://home.hccnet.nl/h.g.muller/max-src2.html

    An Kernfunktionalität ist vielerortens nicht so viel Bejubelnswertes hinzugekommen, ich kriege z.B. mit dem Star Writer 2.0 mein Geschreibsel auch optisch ziemlich genauso hin wie mit OpenOffice 3, nur daß meine PII 330 MHz- Gurke mit der aktuellen Suite nicht mehr fertig wird.
    Mir kann auch keiner weismachen, daß die aufgebohrte Funktionalität alleine daran schuld ist, wenn Corel 5 auf der Kiste fast abhebt und Corel 11 unbedienbar wird. Geht ja auch anders, wie z.B. Paint Shop Pro zeigt, obwohl in den letzten 10 Jahren ein ganzer Haufen Funktionen dazugekommen ist.

    Nee, das ist alles ohne erkennbaren Nutzen zu fett geworden, da hängt die Softwareseite einfach nach. Und wer sich bemüßigt sieht, Multicores und Threading- Support als phantasielos zu bezeichnen, muß sich fragen lassen, warum die Softwarebranche da noch nicht einmal jetzt vollen Nutzen draus ziehen kann.

    So wie die Kinder mit acht Kilo Übergewicht an der Kasse regelmäßig nach den ChupaChoops und Überraschungseiern zu plärren beginnen, wird bei Performance- Problemen nach stärkerer Hardware gekräht. Und weil Onkel Intel und Tante AMD einander in Gefallsucht zu übertreffen suchen, kommt das Zeug gleich palettenweise in den Wagen, alle 18 Monate das Doppelte.
    Die Folgen sind bekannt ... 😃



  • Jan schrieb:

    Das geht schon los, wenn man mal eine Grafik von Text umfließen lassen möchte. Dann findet man im Internet Hinweise auf 10 verschiedene Packages, die man einbinden könnte, von denen die Hälfte veraltet ist und die andere Hälfte nicht das macht, was sie soll.

    Du hast soeben entdeckt, dass es LaTeX schon lange gibt und somit auch eine Menge veraltete Doku kursiert. Gratulation.

    Dass LaTeX umständlich und veraltet ist, musst Du aber erst zeigen; jetzt weiß ich erst, dass Du keine Suchmaschine bedienen kannst. 🙂

    Bei mir hat es jedenfalls in sämtlichen Varianten nicht so funktioniert, wie es sollte. Sinnvolle Kopf- und Fußzeilen zu erstellen war auch ein echter Krampf.

    Wie gesagt, gibt da ja auch fancyhdr (gleiches Wikibook wie oben).

    Und nochmal: Wenn Du lieber Klickibunti magst, aber trotzdem mit allen Vorzügen von LaTeX, dann kannst Du ja in Scientific Word investieren. Oder wenn Dir LaTeX gefällt, Du aber lieber irgendwas Layout-intensiveres machen möchtest, schau Dir ConTeXt an. (Links in meinem letzten Post hier.)



  • pointercrash() schrieb:

    http://home.hccnet.nl/h.g.muller/max-src2.html

    unglaublich! 😮



  • ~fricky schrieb:

    pointercrash() schrieb:

    http://home.hccnet.nl/h.g.muller/max-src2.html

    unglaublich! 😮

    in der tat. zieh dir mal den code rein, lol



  • sothis_ schrieb:

    in der tat. zieh dir mal den code rein, lol

    nicht so schlimm. ist doch alles gut dokumentiert. nur für die grösse der hashtable kann ich mich nicht begeistern.
    🙂



  • ~fricky schrieb:

    sothis_ schrieb:

    in der tat. zieh dir mal den code rein, lol

    nicht so schlimm. ist doch alles gut dokumentiert. nur für die grösse der hashtable kann ich mich nicht begeistern.
    🙂

    die kannst du verkleineren, hab' ich da irgendwo gelesen :xmas1:


Anmelden zum Antworten