Hardware vs. Software



  • supertux schrieb:

    DEvent schrieb:

    1. GUI. Ich mein, seit den ersten graphischen Benutzerschnittstellen gab es nicht wirklich viel Innovation. Jetzt erst gibt es wieder etwas innovatives mit Compiz (also 3D Desktop). Von echten 3D Desktops (oder gar Hologrammen) sind wir immer noch meilenweit entfernt.

    möchte kein Compiz-Flameware starten, aber außer "Schönheit" (im Auge des Betrachters) und Spielereien (nice to have), was genau bringt Compiz bzw. "3D"-Desktops zur Leistungsteigerung während der Arbeit? Ich persönliche verwende ein sehr minimales fluxbox, mit dem ich deutlich mehr effizient arbeiten kann, als unter Windows/KDE/GNOME/usw. Ein Paar keybindings für die wichtigsen Sachen und man kann mich nicht bremsen. Ich schau manchmal youtube videos, wo die super-dolle-features angezeigt werden, aber ein wirkliches Nutzen kann ich nicht erkennen.

    Compiz ist gut, weil es die Graphikkarte das machen laesst, was es am besten kann: Graphik darstellen. Es wird zwar jetzt schon alles mit Hardwarebeschleunigung gemacht, aber dafuer gibts es eine eigene API, eigene Bibliotheken usw. OpenGL reicht (oder sollte) fuer alle Anwendungen einer GUI aus.

    --

    Wenn man HTML gleich semantisch entworfen haette, haette man viele Probleme die es heute gibt nicht. Auch waere es sehr viel einfacher etwas im Web zu suchen. Die heutigen Suchmaschinen sind furchtbar primitiv, weil sie eben nichts mit dem HTML Code anfangen koennen.
    Anstatt es richtiger zu machen:

    <product id="kamera_foo">Digital Kamera Foo</product>
    <price for="kamera_foo">100 Euro</price>
    

    supertux schrieb:

    schön wärs, aber dann müssten alle Plattformen die Befehlsätze von aller anderen Plattformen verstehen. Das wäre nicht machbar, wenn vor allem, die Arbeitsweise von Plattformen sich sehr unterscheiden (RISC vs. CICS).

    Man braucht blos eine Abstraktionsschicht einzubauen, die ein offener Standard ist. Wie es z.B. mit Java und C# vorgemacht wird. Wenn man aus Java die GarbageCollection, die Java-Lib und die Sprache Java entfernen wuerde, haette man so ziemlich das was ich mir vorstelle. Dann braucht der gcc nur noch Code fuer diese Meta-Sprache zu erstellen und schon liefen alle Programme auf allen Plattformen, die diese unterstuetzen.



  • u_ser-l schrieb:

    wenn man 5 xterms, zwei emacs und vll. noch 2-3 andere Programmfenster wechselweise bedient, was bei mir normal ist, dann ist es zeitsparend, wenn man mit compiz-Scale aus einer Übersicht mit einem Klick oder mit einem Tastendruck das gewünschte Fenster aussuchen kann, ohne daß man die Desktops nacheinander ansteuern und nach evtl. verdeckten Fenstern absuchen muß, die man dann erst nach vorn bringen müßte.

    Wer als einziges ein Browserfenster offen hat, kann auf Scale sicherlich verzichten. Ich finde es sehr praktisch. compiz-Scale ist der wesentliche Grund, warum ich nach 2 Jahren fluxbox wieder öfter unter Gnome arbeite.

    nettes Feature aber soo viel bringt er in meinen Augen nicht. Fluxbox kennt z.b. tabs, da kann ich so viele xterms in einem Tag zusammenfügen 😉 ich verwende außerdem gnome-terminal und der hat eingebaute Tabs, also kann ich all meine shells in gleichen virtuellen Desktop starten, ohne 100 Fenster zu haben. Außerdem habe ich für jede wichtige Anwendung ein eigens virtuelle Dsktop, opera läuft auf Alt+F9, Thunderbird Alt+F8, meine Entwicklungssachen auf Alt+F1, usw. Ich will das Feature nicht schlecht reden, aber er ist in meinen Augen nicht so der Bringer. Vielleicht sind meine Anforderungen einfach anders als deine.

    DEvent schrieb:

    Compiz ist gut, weil es die Graphikkarte das machen laesst, was es am besten kann: Graphik darstellen. Es wird zwar jetzt schon alles mit Hardwarebeschleunigung gemacht, aber dafuer gibts es eine eigene API, eigene Bibliotheken usw. OpenGL reicht (oder sollte) fuer alle Anwendungen einer GUI aus.

    Hab nie geesagt, dass Compiz schlecht wäre, sondern hab gefragt, wo der echte (leistungsersteigende) Vorteil von der Benutzung von Compiz liegt. Ich frage mich, warum ich OpenGL/Hardwarebeschleuniger/was_weiß_ich_noch braucht, um den Rahmen eines Fensters zu zeichen. 😕

    DEvent schrieb:

    Wenn man HTML gleich semantisch entworfen haette,

    Zum Zeitpunkt, als HTML entworfen wurde, war das Internet nicht komerziell bzw. weitgehend beim 0815-Nutzer nicht bekannt. Keiner hätte jemals gedacht, dass 0815-Nutzer jemals einen Webbrowser brauchen würden geschweige, dass man Videos, Musik, Spiele usw. haben würde. Sie wollten damals ihre Publikationen scheller und konfortabler austauschen vor allem, nachdem ie Lizenzbedingungen von gopher geändert wurden.

    DEvent schrieb:

    Man braucht blos eine Abstraktionsschicht einzubauen, die ein offener Standard ist. Wie es z.B. mit Java und C# vorgemacht wird. Wenn man aus Java die GarbageCollection, die Java-Lib und die Sprache Java entfernen wuerde, haette man so ziemlich das was ich mir vorstelle. Dann braucht der gcc nur noch Code fuer diese Meta-Sprache zu erstellen und schon liefen alle Programme auf allen Plattformen, die diese unterstuetzen.

    und wer erstellt diese Abstraktionsschicht? Und wer macht den offenen Standard? Alle Herstellen werden sagen "mein Entwurf ist der richtige", da sehe ich eine neue OOXML-Katastrophe seitens der ISO-Orga kommen. Wenn ich nur an die Unterschiede zwischen ARM und i368 denke, und was es noch alles gibt, dann finde ich das utopisch. Die Hersteller werden ihre Konzepte umsetzen wollen und es würde entweder nur Müll kommen oder ein Monster kommen, was eben alles kann. Und wie du es selber sagst, so etwas machen Java und C# bereits, also nutze Java oder C#.



  • Java-CPUs gibt's doch schon längst - siehe picojava, inzwischen aber auch noch andere.

    angeblich bis zu 20-mal schnellere Bytecode-Ausführung als auf klassischem Weg.



  • ~fricky schrieb:

    aber algorithmen sind nicht software.
    🙂

    schon klar. aber als dann die hardware da war, wurden die algorthmen in software umgesetzt.


Anmelden zum Antworten