Hardware vs. Software
-
pointercrash() schrieb:
Maus und GUI sind gerade 30 Jahre alt geworden
eigentlich schon 40
go0gle mal nach "the mother of all demos"
-
<<O_o>> schrieb:
Und die unzähligen verschachtelten Klammern und zig Begriffe sind alle auch total intuitiv und unfrickelig.
Lernt man heutzutage nicht mehr Lesen in der Schule? Es ist nicht intuitiv und bedarf Einarbeitung, keine Frage. Aber wenn man sich erstmal eingearbeitet hat, dann erledigt es den Job schneller als ein Word, in das man sich ggf. noch einarbeiten müsste. Ist halt nicht jeder 'ne gelernte Word-Tippse.
<<O_o>> schrieb:
+ Word ist weder unstabil noch kompliziert. Und auch mit Word lassen sich absolut gut aussehende Dokumente erstellen. Nur eben ohne Einarbeiten in zig Tags und rumgefrickel mit Klammern.
Dafür musst Du Dich in eine Oberfläche einarbeiten, die auf jedem System anders aussieht und sich von Version zu Version ändert. Ausserdem kackt Word bei größeren Projekten regelmäßig ab und ist so starr wie eine Eisenbahnschiene. Für Briefe und reine Texte in Ordnung, aber wenn Formeln o.ä. ins Spiel kommen besser nicht.
-
~fricky schrieb:
aber ich habe in meinem leichtsinn mal versucht, ein etwas längliches dokument, ~120 seiten, grosses buchformat (din-a), mit inhaltsverzeichnis, tabellen, zeichnungen, gliederung, quellenliste, blahblahblupp usw. mit word zu erstellen. das ging total in die hose. openoffice (damals noch star-office) hat mich gerettet.

Also ich hab mal ein ca. 80 Seiten langes Dokument mit Word erstellt, mit allem Kram inhaltsverzeichnis, tabellen, zeichnungen, gliederung, quellenliste, blahblahblupp usw. und hätte auf die gleiche Weise noch doppelt soviel schreiben können. Hat irgendwie alles ganz einfach funktioniert, obwohl ich vorher noch nie was großes mit Word gemacht hab. Aber das bedeutet nicht das Word so gut ist, weil ich sowieso viel besser bin als die anderen und ein Gespür für Software hab. :p
-
u_ser-l schrieb:
eigentlich schon 40
go0gle mal nach "the mother of all demos"Du hast recht
, von der Idee her allemal. Das Zeug hat letztlich auch gefunzt http://en.wikipedia.org/wiki/Xerox_Alto.Tim schrieb:
Wie der Vergleich Hardware <-> Software auch.
Achnee, was meinst Du? Daß jedes gepflegte OS, jede Applikation alle 18 Monate fast doppelt soviel Zeug auf die Platte knallt und halb so langsam läuft, nur weil den Hardwarefuzzis nichts Besseres einfällt, als alle 18 Monate die Rechenleistung zu verdoppeln und noch ein Zuckerl draufzulegen?
Browser und Internet - OK, aber woran machst Du den Innovationsgrad von Software fest?
-
Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!
-
Ich verstehe nicht ganz, was du eigentlich erwartest. Natürlich gibt es in der Software keine Neuerungen, die so weitreichend sind wie z.B. die Entdeckung (und dem Nutzen) der Elektrizität. Aber grundlegend kannst du doch keine Innovationen absprechen, man sieht sie doch überall. Klar sind sie großteils evolutionär bedingt, da Software nunmal auf Benutzer ausgelegt sind und Konzepte angenommen werden und reifen müssen.
Es sind halt unendlich viele kleine Dinge wie neue Bedienkonzepte, neue Widgets, Konzepte für leichtere Software-Entwicklung, -Integration oder -Interaktion. Auch im 3D-Bereich hat sich unheimlich viel getan, in der KI oder auch allem, was mit sehr großen Datenmengen zu tun hat.Um mal aus deinem ersten Post in diesem Thread zu zitieren (von Seite 4):
Solange die Rechenleistung so weiterwächst, wird den Softwareschaffenden schon was einfallen, um sie völlig sinnlos zu "verbraten".
Einerseits völlig richtig, andererseits kann man die Sache auch anders herum drehen: Die Hardware muss sich den Bedürfnissen der Software anpassen. Soll heißen die Software wird vielfältiger, komplexer und benutzerfreundlicher und die Hardware muss versuchen, der Software die nötige Leistung zu liefern. Prozessoren werden ja nicht aus Jux und Tollerei schneller "gemacht", sondern um der Software die nötige Power zu liefern.
-
pointercrash() schrieb:
Browser und Internet - OK, aber woran machst Du den Innovationsgrad von Software fest?
Müsste ich erstmal genau nachdenken. Müsste ich bei Hardware aber auch

Nachtrag: Vielleicht wäre es interessanter wenn man sich die Herausforderungen anschaut, denen sich Hard-und Software in den letzten Jahr(en/zehnten) stellen musste, und natürlich auch wie sie gelöst sind.
Hardware wird zwar immer schneller, aber ist das eine Sensation/Innovation? CPUs bauen heute noch auch Architekturen von vor wasweissichwas auf (Harvard/Neumann). Höher, schneller und weiter sehe ich, aber die große Innovation? In Details, ja. Aber da auch bei der Software.
-
Tim schrieb:
pointercrash() schrieb:
Browser und Internet - OK, aber woran machst Du den Innovationsgrad von Software fest?
Müsste ich erstmal genau nachdenken. Müsste ich bei Hardware aber auch
im ernst? denk doch nur mal an speicherkarten, lc-monitore, led's in allen möglichen farben etc. manches davon gibts zwar auch schon eine ganze weile, aber erinnere dich mal an den entwicklungsstand der software, zu einer zeit, als es all das noch nicht gab. software (speziell jetzt pc-software) ist einfach nur fetter und bunter geworden. auf dem harwaresektor gibt es viele neue technologien, die alte ergänzen oder (eigentlich öfter) ablösen, während pc-software immer weiter aufgemotzt wird. allerdings gilt das gesagte nicht für pc-hardware. pc-hardware wird auch nur aufgemotzt. das doofe ist nämlich immer: sobald eine halbwegs funktionierende technologie den markt dominiert, haben bessere und innovativere ideen kaum ein chance. gutes beispiel: apple. früher verbauten sie 68-k und power-pc RISC prozessoren, dann plötzlich den 08/15-intel-mist. warum weiss ich auch nicht, aber ich nehme an, sie wollen durch den einsatz von allerwelts-enduser-stokeltechnik die kosten für eigene hardwareentwicklungen gering halten.

-
pointercrash() schrieb:
Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!
Wieso, nur weil er mit Word umgehen kann, im Gegensatz zu manch anderen hier?

-
pointercrash() schrieb:
Wo ist denn aber die Software- Sensation? Nennt mir nur einen einzigen Software- Knaller der letzten 20 Jahre, ohne den keiner mehr auskommen mag oder kann oder wirklich mehrtausendfach an Funktionalität zugelegt hat.
Nur einen, wirklich!
WindowsXP, Vista, Debian 4.0, usw...

Kann man ja auch irgendwie nicht wirklich vergleichen, Hardware vs. Software. Viele Algorithmen waren schon da, als es noch keine Hardware gab, wie stand es da um H. vs. S. ?
-
Tarzan_ schrieb:
pointercrash() schrieb:
Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!
Wieso, nur weil er mit Word umgehen kann, im Gegensatz zu manch anderen hier?
nee, eher weil er zufällig was gemacht hat, das 'word' nicht total aus der bahn geworfen hat. aber wehe ihm, wenn er vom 'rechten weg' abgewichen wäre.
Knaller schrieb:
Viele Algorithmen waren schon da, als es noch keine Hardware gab...
aber algorithmen sind nicht software.

-
~fricky schrieb:
das doofe ist nämlich immer: sobald eine halbwegs funktionierende technologie den markt dominiert, haben bessere und innovativere ideen kaum ein chance. gutes beispiel: apple. früher verbauten sie 68-k und power-pc RISC prozessoren, dann plötzlich den 08/15-intel-mist. warum weiss ich auch nicht, aber ich nehme an, sie wollen durch den einsatz von allerwelts-enduser-stokeltechnik die kosten für eigene hardwareentwicklungen gering halten.

Das zum einen, das zweite war das GHz- Marketingargument (die PPCs hatten lange Probleme, über das magische GHz zu kommen, wie sinnlos das Argument auch sein mag), letztlich Differenzen zwischen IBM und Apple über Roadmap und Preisgestaltung.
Badestrand schrieb:
Es sind halt unendlich viele kleine Dinge wie neue Bedienkonzepte, neue Widgets, Konzepte für leichtere Software-Entwicklung, -Integration oder -Interaktion. Auch im 3D-Bereich hat sich unheimlich viel getan, in der KI oder auch allem, was mit sehr großen Datenmengen zu tun hat.
Gerade neue Bedienkonzepte vermisse ich eigentlich und die KI hat auch noch keinen wesentlichen Durchbruch erreicht. Große Datenmengen schiebe ich eher in Richtung Hardware.
Badestrand schrieb:
...Die Hardware muss sich den Bedürfnissen der Software anpassen. Soll heißen die Software wird vielfältiger, komplexer und benutzerfreundlicher und die Hardware muss versuchen, der Software die nötige Leistung zu liefern. Prozessoren werden ja nicht aus Jux und Tollerei schneller "gemacht", sondern um der Software die nötige Power zu liefern.
Denke, das ist ein eher losgelöster Wettbewerb, wenn Intel oder AMD die CPUs nicht verbessern würde, wäre man markttechnisch sofort "tot".
Eine Sensation/Innovation ist mir allerdings selbst eingefallen, weiß nur nicht, wie alt das ist: Die Virtualisierung eines Rechners von der Hardware weg! Während das erste Trial von VMWare eher wie ein Machbarkeitsstudien- Spielzeug daherkam, taugt es mir jetzt voll als Entwicklungshilfe. Client / Server- Konstrukte logisch getrennt auf einem Rechner, keine Entwicklungsumgebungen, die sich um Extensions balgen, keine Debugger und Compilerversionen mehr, die sich nicht miteinander vertragen, Platz für die Beine unterm Schreibtisch! Möchte ich nie mehr missen!
Und auf meinem Server habe ich dank XEN eigentlich zwei paravirtualisierte Server konsolidiert.Ist schon so selbstverständlich für mich geworden, daß mir das gar nicht mehr in den Sinn kam. Ich denke, das kann man als große Innovation des Software- Jahrzehnts gelten lassen :xmas1:
-
pointercrash() schrieb:
Ich denke, das kann man als große Innovation des Software- Jahrzehnts gelten lassen :xmas1:
Man könnte die VMs auch als Weiterentwicklung der Emulatoren sehen, also eigentlich nichts neues.
Das bringt mich aber irgendwie zum Thema softening von Hardware. Lernende Hardware könnte das nächste Big Thing sein.
-
Was ich sehr schade finde bei Software, dass es in 3 Bereichen sich nicht wirklich weiterentwickelt hat.
Das waere:-
GUI. Ich mein, seit den ersten graphischen Benutzerschnittstellen gab es nicht wirklich viel Innovation. Jetzt erst gibt es wieder etwas innovatives mit Compiz (also 3D Desktop). Von echten 3D Desktops (oder gar Hologrammen) sind wir immer noch meilenweit entfernt.
-
WWW stagniert auch etwas. Gut, es gibt Flash, JavaScript, Java-Applets. Aber die sind alle nicht wirklich gut in den Browser integriert. Alles verbraucht immer noch sehr viele Ressourcen, vor allem Flash und Java-Applets.
-
Crossplatform. Ich finde es schade das Programme immer noch nur eine Plattform geschrieben werden, dass man den Grossteil der Programme immer fuer jede Plattform neu uebersetzen muss. Schoener waere es, wenn man jedes Programm nur max. einmal uebersetzt und dies Binary fuer jede Plattform benutzen koennte.
-
-
DEvent schrieb:
- Crossplatform. Ich finde es schade das Programme immer noch nur eine Plattform geschrieben werden, dass man den Grossteil der Programme immer fuer jede Plattform neu uebersetzen muss. Schoener waere es, wenn man jedes Programm nur max. einmal uebersetzt und dies Binary fuer jede Plattform benutzen koennte.
das geben die gängigen formate aber leider nicht her. mach-o aufm mac ist interessant da es wenigstens code für multiple architekturen zulässt. so etwas würde ich mir zum beispiel für linux wünschen um diesen 32/64 bit multilibrary mischmasch loszuwerden, aber das elf format lässt dies leider nicht zu :(. bei windows mit dem pe format ist es das gleiche, wobei microsoft wohl noch 20 jahre an diesem format hängen bleiben wird

-
Fincki schrieb:
pointercrash() schrieb:
Ich denke, das kann man als große Innovation des Software- Jahrzehnts gelten lassen :xmas1:
Man könnte die VMs auch als Weiterentwicklung der Emulatoren sehen, also eigentlich nichts neues.
Virtualisierung gab es schon immer, seit 1960 oder so, wurde nur "Time Sharing" genannt. 1959 veroeffentliche Christopher Strachey die Abhandlung "Time Sharing in large fast computers". Aber gut, dass es jetzt damit anfaengt, Virtualisierung "meinstream" zu werden. Mit z.B. Xen, KVM/qemu, VirtualBox ist es ja sehr einfach Betriebssysteme zu virtualisieren.
-
DEvent schrieb:
- GUI. Ich mein, seit den ersten graphischen Benutzerschnittstellen gab es nicht wirklich viel Innovation. Jetzt erst gibt es wieder etwas innovatives mit Compiz (also 3D Desktop). Von echten 3D Desktops (oder gar Hologrammen) sind wir immer noch meilenweit entfernt.
möchte kein Compiz-Flameware starten, aber außer "Schönheit" (im Auge des Betrachters) und Spielereien (nice to have), was genau bringt Compiz bzw. "3D"-Desktops zur Leistungsteigerung während der Arbeit? Ich persönliche verwende ein sehr minimales fluxbox, mit dem ich deutlich mehr effizient arbeiten kann, als unter Windows/KDE/GNOME/usw. Ein Paar keybindings für die wichtigsen Sachen und man kann mich nicht bremsen. Ich schau manchmal youtube videos, wo die super-dolle-features angezeigt werden, aber ein wirkliches Nutzen kann ich nicht erkennen.
DEvent schrieb:
- WWW stagniert auch etwas. Gut, es gibt Flash, JavaScript, Java-Applets. Aber die sind alle nicht wirklich gut in den Browser integriert. Alles verbraucht immer noch sehr viele Ressourcen, vor allem Flash und Java-Applets.
vielleicht liegt es daran, dass das WWW nicht wirklich für solche Inhalte gut geeignet ist, ich meine, ich denke kaum, dass Berner Lee HTML dafür konzipiert hat und da sieht man die Schwächen von HTML. Eine neue? bessere? besser auf die multimediale Angebote angepasste? Metasprache/Protokoll sollte entwickelt werden, aber ich denke, dass so etwas nur sehr langsam und wenig erfolgreich durchsetzen würde.
DEvent schrieb:
- Crossplatform. Ich finde es schade das Programme immer noch nur eine Plattform geschrieben werden, dass man den Grossteil der Programme immer fuer jede Plattform neu uebersetzen muss. Schoener waere es, wenn man jedes Programm nur max. einmal uebersetzt und dies Binary fuer jede Plattform benutzen koennte.
schön wärs, aber dann müssten alle Plattformen die Befehlsätze von aller anderen Plattformen verstehen. Das wäre nicht machbar, wenn vor allem, die Arbeitsweise von Plattformen sich sehr unterscheiden (RISC vs. CICS).
-
supertux schrieb:
möchte kein Compiz-Flameware starten, aber außer "Schönheit" (im Auge des Betrachters) und Spielereien (nice to have), was genau bringt Compiz bzw. "3D"-Desktops zur Leistungsteigerung während der Arbeit?
zumindest der "Scale" effect von compiz bringt einen echten Effizienz-Vorteil, wenn man zahlreiche Fenster auf mehreren virtuellen Desktops gleichzeitig bedienen muß.
"wobbly" auf der anderen Seite ist einfach nur unglaublich coole "eye candy"

Wenn man rein nach der Effizienz fragt, braucht man eigentlich weder Desktop noch Maus - eine Tastenkombi ist viel schneller als jedes Mausgeschiebe und Geklicke, nur dauert es seine Zeit, sich hunderte von Tastenkombis einzuprägen. Nach Einarbeitung ist aber Tastaturbedienung mit Zehnfingersystem für geübte 10-Finger-Tipper das effizientere Interface, auch auf dem Desktop, das ist wahr. Man gewinnt an Effizienz und verliert an Intuitivität.
-
u-ser_l schrieb:
zumindest der "Scale" effect von compiz bringt einen echten Effizienz-Vorteil, wenn man zahlreiche Fenster auf mehreren virtuellen Desktops gleichzeitig bedienen muß.
was ist das "Scale"-Effekt?
u-ser_l schrieb:
Wenn man rein nach der Effizienz fragt, braucht man eigentlich weder Desktop noch Maus - eine Tastenkombi ist viel schneller als jedes Mausgeschiebe
so ist es, deshalb hab ich fluxbox mit vielen keybindings. Ich verwende die Maus auschließlich für Webbrowsing und manchmal fürs copy&paste zwischen Fenstern.
-
mit "Scale" bekommt man eine Übersicht über alle Fenster auf allen virt. Desktops ("initiate window picker for all desktops"), alle Fenster gleichzeitig in verkleinerter Darstellung neben- und übereinander angeordnet.
Das spart ab 5 Fenster auf 3 virt. Desktops wirklich Zeit.