Hardware vs. Software
-
Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!
-
Ich verstehe nicht ganz, was du eigentlich erwartest. Natürlich gibt es in der Software keine Neuerungen, die so weitreichend sind wie z.B. die Entdeckung (und dem Nutzen) der Elektrizität. Aber grundlegend kannst du doch keine Innovationen absprechen, man sieht sie doch überall. Klar sind sie großteils evolutionär bedingt, da Software nunmal auf Benutzer ausgelegt sind und Konzepte angenommen werden und reifen müssen.
Es sind halt unendlich viele kleine Dinge wie neue Bedienkonzepte, neue Widgets, Konzepte für leichtere Software-Entwicklung, -Integration oder -Interaktion. Auch im 3D-Bereich hat sich unheimlich viel getan, in der KI oder auch allem, was mit sehr großen Datenmengen zu tun hat.Um mal aus deinem ersten Post in diesem Thread zu zitieren (von Seite 4):
Solange die Rechenleistung so weiterwächst, wird den Softwareschaffenden schon was einfallen, um sie völlig sinnlos zu "verbraten".
Einerseits völlig richtig, andererseits kann man die Sache auch anders herum drehen: Die Hardware muss sich den Bedürfnissen der Software anpassen. Soll heißen die Software wird vielfältiger, komplexer und benutzerfreundlicher und die Hardware muss versuchen, der Software die nötige Leistung zu liefern. Prozessoren werden ja nicht aus Jux und Tollerei schneller "gemacht", sondern um der Software die nötige Power zu liefern.
-
pointercrash() schrieb:
Browser und Internet - OK, aber woran machst Du den Innovationsgrad von Software fest?
Müsste ich erstmal genau nachdenken. Müsste ich bei Hardware aber auch

Nachtrag: Vielleicht wäre es interessanter wenn man sich die Herausforderungen anschaut, denen sich Hard-und Software in den letzten Jahr(en/zehnten) stellen musste, und natürlich auch wie sie gelöst sind.
Hardware wird zwar immer schneller, aber ist das eine Sensation/Innovation? CPUs bauen heute noch auch Architekturen von vor wasweissichwas auf (Harvard/Neumann). Höher, schneller und weiter sehe ich, aber die große Innovation? In Details, ja. Aber da auch bei der Software.
-
Tim schrieb:
pointercrash() schrieb:
Browser und Internet - OK, aber woran machst Du den Innovationsgrad von Software fest?
Müsste ich erstmal genau nachdenken. Müsste ich bei Hardware aber auch
im ernst? denk doch nur mal an speicherkarten, lc-monitore, led's in allen möglichen farben etc. manches davon gibts zwar auch schon eine ganze weile, aber erinnere dich mal an den entwicklungsstand der software, zu einer zeit, als es all das noch nicht gab. software (speziell jetzt pc-software) ist einfach nur fetter und bunter geworden. auf dem harwaresektor gibt es viele neue technologien, die alte ergänzen oder (eigentlich öfter) ablösen, während pc-software immer weiter aufgemotzt wird. allerdings gilt das gesagte nicht für pc-hardware. pc-hardware wird auch nur aufgemotzt. das doofe ist nämlich immer: sobald eine halbwegs funktionierende technologie den markt dominiert, haben bessere und innovativere ideen kaum ein chance. gutes beispiel: apple. früher verbauten sie 68-k und power-pc RISC prozessoren, dann plötzlich den 08/15-intel-mist. warum weiss ich auch nicht, aber ich nehme an, sie wollen durch den einsatz von allerwelts-enduser-stokeltechnik die kosten für eigene hardwareentwicklungen gering halten.

-
pointercrash() schrieb:
Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!
Wieso, nur weil er mit Word umgehen kann, im Gegensatz zu manch anderen hier?

-
pointercrash() schrieb:
Wo ist denn aber die Software- Sensation? Nennt mir nur einen einzigen Software- Knaller der letzten 20 Jahre, ohne den keiner mehr auskommen mag oder kann oder wirklich mehrtausendfach an Funktionalität zugelegt hat.
Nur einen, wirklich!
WindowsXP, Vista, Debian 4.0, usw...

Kann man ja auch irgendwie nicht wirklich vergleichen, Hardware vs. Software. Viele Algorithmen waren schon da, als es noch keine Hardware gab, wie stand es da um H. vs. S. ?
-
Tarzan_ schrieb:
pointercrash() schrieb:
Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!
Wieso, nur weil er mit Word umgehen kann, im Gegensatz zu manch anderen hier?
nee, eher weil er zufällig was gemacht hat, das 'word' nicht total aus der bahn geworfen hat. aber wehe ihm, wenn er vom 'rechten weg' abgewichen wäre.
Knaller schrieb:
Viele Algorithmen waren schon da, als es noch keine Hardware gab...
aber algorithmen sind nicht software.

-
~fricky schrieb:
das doofe ist nämlich immer: sobald eine halbwegs funktionierende technologie den markt dominiert, haben bessere und innovativere ideen kaum ein chance. gutes beispiel: apple. früher verbauten sie 68-k und power-pc RISC prozessoren, dann plötzlich den 08/15-intel-mist. warum weiss ich auch nicht, aber ich nehme an, sie wollen durch den einsatz von allerwelts-enduser-stokeltechnik die kosten für eigene hardwareentwicklungen gering halten.

Das zum einen, das zweite war das GHz- Marketingargument (die PPCs hatten lange Probleme, über das magische GHz zu kommen, wie sinnlos das Argument auch sein mag), letztlich Differenzen zwischen IBM und Apple über Roadmap und Preisgestaltung.
Badestrand schrieb:
Es sind halt unendlich viele kleine Dinge wie neue Bedienkonzepte, neue Widgets, Konzepte für leichtere Software-Entwicklung, -Integration oder -Interaktion. Auch im 3D-Bereich hat sich unheimlich viel getan, in der KI oder auch allem, was mit sehr großen Datenmengen zu tun hat.
Gerade neue Bedienkonzepte vermisse ich eigentlich und die KI hat auch noch keinen wesentlichen Durchbruch erreicht. Große Datenmengen schiebe ich eher in Richtung Hardware.
Badestrand schrieb:
...Die Hardware muss sich den Bedürfnissen der Software anpassen. Soll heißen die Software wird vielfältiger, komplexer und benutzerfreundlicher und die Hardware muss versuchen, der Software die nötige Leistung zu liefern. Prozessoren werden ja nicht aus Jux und Tollerei schneller "gemacht", sondern um der Software die nötige Power zu liefern.
Denke, das ist ein eher losgelöster Wettbewerb, wenn Intel oder AMD die CPUs nicht verbessern würde, wäre man markttechnisch sofort "tot".
Eine Sensation/Innovation ist mir allerdings selbst eingefallen, weiß nur nicht, wie alt das ist: Die Virtualisierung eines Rechners von der Hardware weg! Während das erste Trial von VMWare eher wie ein Machbarkeitsstudien- Spielzeug daherkam, taugt es mir jetzt voll als Entwicklungshilfe. Client / Server- Konstrukte logisch getrennt auf einem Rechner, keine Entwicklungsumgebungen, die sich um Extensions balgen, keine Debugger und Compilerversionen mehr, die sich nicht miteinander vertragen, Platz für die Beine unterm Schreibtisch! Möchte ich nie mehr missen!
Und auf meinem Server habe ich dank XEN eigentlich zwei paravirtualisierte Server konsolidiert.Ist schon so selbstverständlich für mich geworden, daß mir das gar nicht mehr in den Sinn kam. Ich denke, das kann man als große Innovation des Software- Jahrzehnts gelten lassen :xmas1:
-
pointercrash() schrieb:
Ich denke, das kann man als große Innovation des Software- Jahrzehnts gelten lassen :xmas1:
Man könnte die VMs auch als Weiterentwicklung der Emulatoren sehen, also eigentlich nichts neues.
Das bringt mich aber irgendwie zum Thema softening von Hardware. Lernende Hardware könnte das nächste Big Thing sein.
-
Was ich sehr schade finde bei Software, dass es in 3 Bereichen sich nicht wirklich weiterentwickelt hat.
Das waere:-
GUI. Ich mein, seit den ersten graphischen Benutzerschnittstellen gab es nicht wirklich viel Innovation. Jetzt erst gibt es wieder etwas innovatives mit Compiz (also 3D Desktop). Von echten 3D Desktops (oder gar Hologrammen) sind wir immer noch meilenweit entfernt.
-
WWW stagniert auch etwas. Gut, es gibt Flash, JavaScript, Java-Applets. Aber die sind alle nicht wirklich gut in den Browser integriert. Alles verbraucht immer noch sehr viele Ressourcen, vor allem Flash und Java-Applets.
-
Crossplatform. Ich finde es schade das Programme immer noch nur eine Plattform geschrieben werden, dass man den Grossteil der Programme immer fuer jede Plattform neu uebersetzen muss. Schoener waere es, wenn man jedes Programm nur max. einmal uebersetzt und dies Binary fuer jede Plattform benutzen koennte.
-
-
DEvent schrieb:
- Crossplatform. Ich finde es schade das Programme immer noch nur eine Plattform geschrieben werden, dass man den Grossteil der Programme immer fuer jede Plattform neu uebersetzen muss. Schoener waere es, wenn man jedes Programm nur max. einmal uebersetzt und dies Binary fuer jede Plattform benutzen koennte.
das geben die gängigen formate aber leider nicht her. mach-o aufm mac ist interessant da es wenigstens code für multiple architekturen zulässt. so etwas würde ich mir zum beispiel für linux wünschen um diesen 32/64 bit multilibrary mischmasch loszuwerden, aber das elf format lässt dies leider nicht zu :(. bei windows mit dem pe format ist es das gleiche, wobei microsoft wohl noch 20 jahre an diesem format hängen bleiben wird

-
Fincki schrieb:
pointercrash() schrieb:
Ich denke, das kann man als große Innovation des Software- Jahrzehnts gelten lassen :xmas1:
Man könnte die VMs auch als Weiterentwicklung der Emulatoren sehen, also eigentlich nichts neues.
Virtualisierung gab es schon immer, seit 1960 oder so, wurde nur "Time Sharing" genannt. 1959 veroeffentliche Christopher Strachey die Abhandlung "Time Sharing in large fast computers". Aber gut, dass es jetzt damit anfaengt, Virtualisierung "meinstream" zu werden. Mit z.B. Xen, KVM/qemu, VirtualBox ist es ja sehr einfach Betriebssysteme zu virtualisieren.
-
DEvent schrieb:
- GUI. Ich mein, seit den ersten graphischen Benutzerschnittstellen gab es nicht wirklich viel Innovation. Jetzt erst gibt es wieder etwas innovatives mit Compiz (also 3D Desktop). Von echten 3D Desktops (oder gar Hologrammen) sind wir immer noch meilenweit entfernt.
möchte kein Compiz-Flameware starten, aber außer "Schönheit" (im Auge des Betrachters) und Spielereien (nice to have), was genau bringt Compiz bzw. "3D"-Desktops zur Leistungsteigerung während der Arbeit? Ich persönliche verwende ein sehr minimales fluxbox, mit dem ich deutlich mehr effizient arbeiten kann, als unter Windows/KDE/GNOME/usw. Ein Paar keybindings für die wichtigsen Sachen und man kann mich nicht bremsen. Ich schau manchmal youtube videos, wo die super-dolle-features angezeigt werden, aber ein wirkliches Nutzen kann ich nicht erkennen.
DEvent schrieb:
- WWW stagniert auch etwas. Gut, es gibt Flash, JavaScript, Java-Applets. Aber die sind alle nicht wirklich gut in den Browser integriert. Alles verbraucht immer noch sehr viele Ressourcen, vor allem Flash und Java-Applets.
vielleicht liegt es daran, dass das WWW nicht wirklich für solche Inhalte gut geeignet ist, ich meine, ich denke kaum, dass Berner Lee HTML dafür konzipiert hat und da sieht man die Schwächen von HTML. Eine neue? bessere? besser auf die multimediale Angebote angepasste? Metasprache/Protokoll sollte entwickelt werden, aber ich denke, dass so etwas nur sehr langsam und wenig erfolgreich durchsetzen würde.
DEvent schrieb:
- Crossplatform. Ich finde es schade das Programme immer noch nur eine Plattform geschrieben werden, dass man den Grossteil der Programme immer fuer jede Plattform neu uebersetzen muss. Schoener waere es, wenn man jedes Programm nur max. einmal uebersetzt und dies Binary fuer jede Plattform benutzen koennte.
schön wärs, aber dann müssten alle Plattformen die Befehlsätze von aller anderen Plattformen verstehen. Das wäre nicht machbar, wenn vor allem, die Arbeitsweise von Plattformen sich sehr unterscheiden (RISC vs. CICS).
-
supertux schrieb:
möchte kein Compiz-Flameware starten, aber außer "Schönheit" (im Auge des Betrachters) und Spielereien (nice to have), was genau bringt Compiz bzw. "3D"-Desktops zur Leistungsteigerung während der Arbeit?
zumindest der "Scale" effect von compiz bringt einen echten Effizienz-Vorteil, wenn man zahlreiche Fenster auf mehreren virtuellen Desktops gleichzeitig bedienen muß.
"wobbly" auf der anderen Seite ist einfach nur unglaublich coole "eye candy"

Wenn man rein nach der Effizienz fragt, braucht man eigentlich weder Desktop noch Maus - eine Tastenkombi ist viel schneller als jedes Mausgeschiebe und Geklicke, nur dauert es seine Zeit, sich hunderte von Tastenkombis einzuprägen. Nach Einarbeitung ist aber Tastaturbedienung mit Zehnfingersystem für geübte 10-Finger-Tipper das effizientere Interface, auch auf dem Desktop, das ist wahr. Man gewinnt an Effizienz und verliert an Intuitivität.
-
u-ser_l schrieb:
zumindest der "Scale" effect von compiz bringt einen echten Effizienz-Vorteil, wenn man zahlreiche Fenster auf mehreren virtuellen Desktops gleichzeitig bedienen muß.
was ist das "Scale"-Effekt?
u-ser_l schrieb:
Wenn man rein nach der Effizienz fragt, braucht man eigentlich weder Desktop noch Maus - eine Tastenkombi ist viel schneller als jedes Mausgeschiebe
so ist es, deshalb hab ich fluxbox mit vielen keybindings. Ich verwende die Maus auschließlich für Webbrowsing und manchmal fürs copy&paste zwischen Fenstern.
-
mit "Scale" bekommt man eine Übersicht über alle Fenster auf allen virt. Desktops ("initiate window picker for all desktops"), alle Fenster gleichzeitig in verkleinerter Darstellung neben- und übereinander angeordnet.
Das spart ab 5 Fenster auf 3 virt. Desktops wirklich Zeit.
-
Also ich weiss immer wo meine Fenster sind. Ich will nicht sagen, dass das unpraktisch ist, aber wo man hier großartig Zeit einsparen soll ist mir schleierhaft...
-
wenn man 5 xterms, zwei emacs und vll. noch 2-3 andere Programmfenster wechselweise bedient, was bei mir normal ist, dann ist es zeitsparend, wenn man mit compiz-Scale aus einer Übersicht mit einem Klick oder mit einem Tastendruck das gewünschte Fenster aussuchen kann, ohne daß man die Desktops nacheinander ansteuern und nach evtl. verdeckten Fenstern absuchen muß, die man dann erst nach vorn bringen müßte.
Wer als einziges ein Browserfenster offen hat, kann auf Scale sicherlich verzichten. Ich finde es sehr praktisch. compiz-Scale ist der wesentliche Grund, warum ich nach 2 Jahren fluxbox wieder öfter unter Gnome arbeite.
-
supertux schrieb:
DEvent schrieb:
- GUI. Ich mein, seit den ersten graphischen Benutzerschnittstellen gab es nicht wirklich viel Innovation. Jetzt erst gibt es wieder etwas innovatives mit Compiz (also 3D Desktop). Von echten 3D Desktops (oder gar Hologrammen) sind wir immer noch meilenweit entfernt.
möchte kein Compiz-Flameware starten, aber außer "Schönheit" (im Auge des Betrachters) und Spielereien (nice to have), was genau bringt Compiz bzw. "3D"-Desktops zur Leistungsteigerung während der Arbeit? Ich persönliche verwende ein sehr minimales fluxbox, mit dem ich deutlich mehr effizient arbeiten kann, als unter Windows/KDE/GNOME/usw. Ein Paar keybindings für die wichtigsen Sachen und man kann mich nicht bremsen. Ich schau manchmal youtube videos, wo die super-dolle-features angezeigt werden, aber ein wirkliches Nutzen kann ich nicht erkennen.
Compiz ist gut, weil es die Graphikkarte das machen laesst, was es am besten kann: Graphik darstellen. Es wird zwar jetzt schon alles mit Hardwarebeschleunigung gemacht, aber dafuer gibts es eine eigene API, eigene Bibliotheken usw. OpenGL reicht (oder sollte) fuer alle Anwendungen einer GUI aus.
--
Wenn man HTML gleich semantisch entworfen haette, haette man viele Probleme die es heute gibt nicht. Auch waere es sehr viel einfacher etwas im Web zu suchen. Die heutigen Suchmaschinen sind furchtbar primitiv, weil sie eben nichts mit dem HTML Code anfangen koennen.
Anstatt es richtiger zu machen:<product id="kamera_foo">Digital Kamera Foo</product> <price for="kamera_foo">100 Euro</price>supertux schrieb:
schön wärs, aber dann müssten alle Plattformen die Befehlsätze von aller anderen Plattformen verstehen. Das wäre nicht machbar, wenn vor allem, die Arbeitsweise von Plattformen sich sehr unterscheiden (RISC vs. CICS).
Man braucht blos eine Abstraktionsschicht einzubauen, die ein offener Standard ist. Wie es z.B. mit Java und C# vorgemacht wird. Wenn man aus Java die GarbageCollection, die Java-Lib und die Sprache Java entfernen wuerde, haette man so ziemlich das was ich mir vorstelle. Dann braucht der gcc nur noch Code fuer diese Meta-Sprache zu erstellen und schon liefen alle Programme auf allen Plattformen, die diese unterstuetzen.
-
u_ser-l schrieb:
wenn man 5 xterms, zwei emacs und vll. noch 2-3 andere Programmfenster wechselweise bedient, was bei mir normal ist, dann ist es zeitsparend, wenn man mit compiz-Scale aus einer Übersicht mit einem Klick oder mit einem Tastendruck das gewünschte Fenster aussuchen kann, ohne daß man die Desktops nacheinander ansteuern und nach evtl. verdeckten Fenstern absuchen muß, die man dann erst nach vorn bringen müßte.
Wer als einziges ein Browserfenster offen hat, kann auf Scale sicherlich verzichten. Ich finde es sehr praktisch. compiz-Scale ist der wesentliche Grund, warum ich nach 2 Jahren fluxbox wieder öfter unter Gnome arbeite.
nettes Feature aber soo viel bringt er in meinen Augen nicht. Fluxbox kennt z.b. tabs, da kann ich so viele xterms in einem Tag zusammenfügen
ich verwende außerdem gnome-terminal und der hat eingebaute Tabs, also kann ich all meine shells in gleichen virtuellen Desktop starten, ohne 100 Fenster zu haben. Außerdem habe ich für jede wichtige Anwendung ein eigens virtuelle Dsktop, opera läuft auf Alt+F9, Thunderbird Alt+F8, meine Entwicklungssachen auf Alt+F1, usw. Ich will das Feature nicht schlecht reden, aber er ist in meinen Augen nicht so der Bringer. Vielleicht sind meine Anforderungen einfach anders als deine.DEvent schrieb:
Compiz ist gut, weil es die Graphikkarte das machen laesst, was es am besten kann: Graphik darstellen. Es wird zwar jetzt schon alles mit Hardwarebeschleunigung gemacht, aber dafuer gibts es eine eigene API, eigene Bibliotheken usw. OpenGL reicht (oder sollte) fuer alle Anwendungen einer GUI aus.
Hab nie geesagt, dass Compiz schlecht wäre, sondern hab gefragt, wo der echte (leistungsersteigende) Vorteil von der Benutzung von Compiz liegt. Ich frage mich, warum ich OpenGL/Hardwarebeschleuniger/was_weiß_ich_noch braucht, um den Rahmen eines Fensters zu zeichen.

DEvent schrieb:
Wenn man HTML gleich semantisch entworfen haette,
Zum Zeitpunkt, als HTML entworfen wurde, war das Internet nicht komerziell bzw. weitgehend beim 0815-Nutzer nicht bekannt. Keiner hätte jemals gedacht, dass 0815-Nutzer jemals einen Webbrowser brauchen würden geschweige, dass man Videos, Musik, Spiele usw. haben würde. Sie wollten damals ihre Publikationen scheller und konfortabler austauschen vor allem, nachdem ie Lizenzbedingungen von gopher geändert wurden.
DEvent schrieb:
Man braucht blos eine Abstraktionsschicht einzubauen, die ein offener Standard ist. Wie es z.B. mit Java und C# vorgemacht wird. Wenn man aus Java die GarbageCollection, die Java-Lib und die Sprache Java entfernen wuerde, haette man so ziemlich das was ich mir vorstelle. Dann braucht der gcc nur noch Code fuer diese Meta-Sprache zu erstellen und schon liefen alle Programme auf allen Plattformen, die diese unterstuetzen.
und wer erstellt diese Abstraktionsschicht? Und wer macht den offenen Standard? Alle Herstellen werden sagen "mein Entwurf ist der richtige", da sehe ich eine neue OOXML-Katastrophe seitens der ISO-Orga kommen. Wenn ich nur an die Unterschiede zwischen ARM und i368 denke, und was es noch alles gibt, dann finde ich das utopisch. Die Hersteller werden ihre Konzepte umsetzen wollen und es würde entweder nur Müll kommen oder ein Monster kommen, was eben alles kann. Und wie du es selber sagst, so etwas machen Java und C# bereits, also nutze Java oder C#.