Hardware vs. Software



  • sothis_ schrieb:

    Badestrand schrieb:

    Foren wie dieses hier?

    also das würde ich nicht als sensation betrachten. webbasierte foren sind auch nichts anderes als das was das usenet schon vor 30 jahren geboten hat. man kann sich zwar schneller durchklicken, aber vom standpunkt der technik ist ein heutiges forum keine großartige neuerung :xmas1:

    mit der Argumentation könnte man sagen, dass wir generell keine Fortschritte machen. Die alten Griechen kannten auch öffentliche Foren, da musste man nur lauter schreien/reden, aber im wesentlichen dasselbe wie usenet vor 30 Jahren und/oder Webforen heute 😉

    Zurück zur "Software- Sensation" Frage: Webbrowser, Desktop Environments, Datenbank Systeme, die Software von Mikrokontroller in Handies, Autos, usw....



  • pointercrash() schrieb:

    Wo ist denn aber die Software- Sensation? Nennt mir nur einen einzigen Software- Knaller der letzten 20 Jahre, ohne den keiner mehr auskommen mag oder kann oder wirklich mehrtausendfach an Funktionalität zugelegt hat.

    DRHARD. (Ein mehr oder weniger bekanntes Programm zur Hardware-Diagnose) 🙂



  • lowleveler schrieb:

    pointercrash() schrieb:

    Wo ist denn aber die Software- Sensation? Nennt mir nur einen einzigen Software- Knaller der letzten 20 Jahre, ohne den keiner mehr auskommen mag oder kann oder wirklich mehrtausendfach an Funktionalität zugelegt hat.

    DRHARD. (Ein mehr oder weniger bekanntes Programm zur Hardware-Diagnose) 🙂

    hehe, das gibt's noch? ich kann mich wage errinnern das mal unter dos benutzt zu haben :xmas1:



  • zwutz schrieb:

    mp3 (na ok, sind etwas mehr als 20 Jahre)
    aber diverse Komprimieralghoritmen und Containerformate gibts da ja auch noch

    Die meisten Kompressionsverfahren sind Ur- Ur- Ur- alt. In meinem ersten DSP- Praktikum 1988 haben wir schon mit einer DSP- Karte über 'nen Atari ST Video auf Platte gestreamt. Ist wohl eher Hardware, daß viele DSP- Komponenten in die CPUs als 3Dnow, SSE&Co gewandert sind und dort nun einige tausendmal mehr Daten abwerkeln können.

    ~fricky schrieb:

    ich habe mal ein werbeplaket vom m$ gesehen, auf dem sie prahlten: 'an word haben 600 leute mitgearbeitet, die sich nicht mit computern auskennen'. ...

    Das waren wohl die Programmierer ... :p

    ~fricky schrieb:

    was die massen der durschnitts-computeruser angeht, würde ich sagen: file sharing systeme. ohne das hätte so manch einer eine wesentlich kleinere mp3-, filme-, ebook- oder softwaresammlung. 🙂

    Komisch, ich brauch' sowas gar nicht. Aber Filedirs, Kataloge usw. hatte schon der gute alte Gopher. Also haut mich auch nicht um. 🙄



  • ~fricky schrieb:

    rüdiger schrieb:

    LaTeX ist doch ideal für Briefe.

    ja, wenn man auch sonst gern mit kanonen auf spatzen schiesst.

    Wieso? Wenn es einmal installiert ist und man sich damit auskennt bietet LaTeX sehr gute Möglichkeiten Briefe zu schreiben. Einfach nur den Text in die richtigen Stellen tippen und fertig. Da ist Word oft noch nicht gestartet in der Zeit, wo ich Empfänger und Grußformel schon eingetippt habe. Und ich kann mich drauf verlassen, dass das Resultat ordentlich aussieht. Aber das ist was, was man mit Word nach einiger Einarbeitung auch gut in den Griff bekommt. Ich würde niemandem empfehlen nur für Briefe usw. LaTeX zu lernen. Das wäre overkill! Aber bestehendes Wissen auch anderweitig zu nutzen hat noch niemandem geschadet 🙂 .



  • supertux schrieb:

    mit der Argumentation könnte man sagen, dass wir generell keine Fortschritte machen. Die alten Griechen kannten auch öffentliche Foren, da musste man nur lauter schreien/reden, aber im wesentlichen dasselbe wie usenet vor 30 Jahren und/oder Webforen heute 😉

    Denke, der Vergleich hinkt. Im Wesentlichen konntest Du die Hauptfunktionalität per IRC und Mailbox- Blackboards schon 1988 haben. Hat mit lautem Brüllen jetzt nichts zu tun, außer daß die Modems bis zum Connect nervig laut waren. Sensation? Nein!

    supertux schrieb:

    Zurück zur "Software- Sensation" Frage: Webbrowser,

    Hatten wir schon, rufen wir noch einmal Sensation!. Nächstes Jahr wird das Konzept halt auch schon 20 Jahre alt ...

    supertux schrieb:

    Desktop Environments,

    Sensation? GUIs sind 30 Jahre alt. Daß andauernd irgendwelche Bars hin und her fliegen und Gummiknöpfe wabbeln, nervt viele eher, als daß Nutzen daraus entspringt. Sensationell finde ich das nicht. Neben dem Browser aber die einzige Sensation - damals halt.

    supertux schrieb:

    Datenbank Systeme

    Sensation? Bitte, die sind Ende der 60er mit Aufkommen der random access- Speichertechnik breit eingeführt und seitdem eher evolutionär weiterentwickelt worden. Also eher Sache der Hardware.

    supertux schrieb:

    , die Software von Mikrokontroller in Handies, Autos, usw....

    Jaaa, Sensation! Aber leider nur der Hardware- Miniaturisierung. Jeder ARM- Prozessor im Handy oder Navi badet in ein paar MB RAM und lacht sich 'nen Ast über das, was bei mir vor 20 Jahren unterm Schreibtisch stand, das ledert der ab, wenn er nur'n Akku von Weitem sieht. Eine Softwaresensation? Nein, wenn man z.B. Smartphones anschaut, wurde mit Gewalt versucht, einen Win- Desktop auf so nen Micro zu pressen. Geht nur, wenn die Hardware das mitträgt und bei den älteren Smartphones kann ich'n Kaffee trinken gehen, während ich auf einen Applikationswechsel warte. Das iPhone hat hier wenigstens ein paar neue Akzente bei der Software gesetzt, immerhin, aber für 'ne Softwaresensation reicht's nicht.

    lowleveler schrieb:

    DRHARD. (Ein mehr oder weniger bekanntes Programm zur Hardware-Diagnose) 🙂

    Soll man das gelten lassen? Ein paar tausend Chipsätze mehr erkennen ist nicht ganz das Gleiche, wie die Funktionalität zu vertausendfachen. Immerhin schaut das Zeug halbwegs schlank aus, werd's mal probieren 🙂



  • Latex für Briefe. Ich lach mich Schlapp.
    Klar, ich benutze Latex auch zum Schreiben aller meiner Mails und auch für kurze Notizen. Und die unzähligen verschachtelten Klammern und zig Begriffe sind alle auch total intuitiv und unfrickelig.

    </ironie>
    Fakten:
    + Mit Latex lassen sich professionelle Ergebnisse erzählen.
    + Latex ist frickelig
    + Leute die Latex nicht frickelig finden sind entweder Unix/Linux Benutzer und haben sich an frickeliges Zeug gewöhnt oder benutzen latex schon lange, lange Zeit
    + Word ist weder unstabil noch kompliziert. Und auch mit Word lassen sich absolut gut aussehende Dokumente erstellen. Nur eben ohne Einarbeiten in zig Tags und rumgefrickel mit Klammern.



  • pointercrash() schrieb:

    Denke, der Vergleich hinkt.

    Wie der Vergleich Hardware <-> Software auch.



  • pointercrash() schrieb:

    Maus und GUI sind gerade 30 Jahre alt geworden

    eigentlich schon 40 😃 go0gle mal nach "the mother of all demos"



  • <<O_o>> schrieb:

    Und die unzähligen verschachtelten Klammern und zig Begriffe sind alle auch total intuitiv und unfrickelig.

    Lernt man heutzutage nicht mehr Lesen in der Schule? Es ist nicht intuitiv und bedarf Einarbeitung, keine Frage. Aber wenn man sich erstmal eingearbeitet hat, dann erledigt es den Job schneller als ein Word, in das man sich ggf. noch einarbeiten müsste. Ist halt nicht jeder 'ne gelernte Word-Tippse.

    <<O_o>> schrieb:

    + Word ist weder unstabil noch kompliziert. Und auch mit Word lassen sich absolut gut aussehende Dokumente erstellen. Nur eben ohne Einarbeiten in zig Tags und rumgefrickel mit Klammern.

    Dafür musst Du Dich in eine Oberfläche einarbeiten, die auf jedem System anders aussieht und sich von Version zu Version ändert. Ausserdem kackt Word bei größeren Projekten regelmäßig ab und ist so starr wie eine Eisenbahnschiene. Für Briefe und reine Texte in Ordnung, aber wenn Formeln o.ä. ins Spiel kommen besser nicht.



  • ~fricky schrieb:

    aber ich habe in meinem leichtsinn mal versucht, ein etwas längliches dokument, ~120 seiten, grosses buchformat (din-a), mit inhaltsverzeichnis, tabellen, zeichnungen, gliederung, quellenliste, blahblahblupp usw. mit word zu erstellen. das ging total in die hose. openoffice (damals noch star-office) hat mich gerettet.
    🙂

    Also ich hab mal ein ca. 80 Seiten langes Dokument mit Word erstellt, mit allem Kram inhaltsverzeichnis, tabellen, zeichnungen, gliederung, quellenliste, blahblahblupp usw. und hätte auf die gleiche Weise noch doppelt soviel schreiben können. Hat irgendwie alles ganz einfach funktioniert, obwohl ich vorher noch nie was großes mit Word gemacht hab. Aber das bedeutet nicht das Word so gut ist, weil ich sowieso viel besser bin als die anderen und ein Gespür für Software hab. :p



  • u_ser-l schrieb:

    eigentlich schon 40 😃 go0gle mal nach "the mother of all demos"

    Du hast recht 😮 , von der Idee her allemal. Das Zeug hat letztlich auch gefunzt http://en.wikipedia.org/wiki/Xerox_Alto.

    Tim schrieb:

    Wie der Vergleich Hardware <-> Software auch.

    Achnee, was meinst Du? Daß jedes gepflegte OS, jede Applikation alle 18 Monate fast doppelt soviel Zeug auf die Platte knallt und halb so langsam läuft, nur weil den Hardwarefuzzis nichts Besseres einfällt, als alle 18 Monate die Rechenleistung zu verdoppeln und noch ein Zuckerl draufzulegen?

    Browser und Internet - OK, aber woran machst Du den Innovationsgrad von Software fest?



  • Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!



  • Ich verstehe nicht ganz, was du eigentlich erwartest. Natürlich gibt es in der Software keine Neuerungen, die so weitreichend sind wie z.B. die Entdeckung (und dem Nutzen) der Elektrizität. Aber grundlegend kannst du doch keine Innovationen absprechen, man sieht sie doch überall. Klar sind sie großteils evolutionär bedingt, da Software nunmal auf Benutzer ausgelegt sind und Konzepte angenommen werden und reifen müssen.
    Es sind halt unendlich viele kleine Dinge wie neue Bedienkonzepte, neue Widgets, Konzepte für leichtere Software-Entwicklung, -Integration oder -Interaktion. Auch im 3D-Bereich hat sich unheimlich viel getan, in der KI oder auch allem, was mit sehr großen Datenmengen zu tun hat.

    Um mal aus deinem ersten Post in diesem Thread zu zitieren (von Seite 4):

    Solange die Rechenleistung so weiterwächst, wird den Softwareschaffenden schon was einfallen, um sie völlig sinnlos zu "verbraten".

    Einerseits völlig richtig, andererseits kann man die Sache auch anders herum drehen: Die Hardware muss sich den Bedürfnissen der Software anpassen. Soll heißen die Software wird vielfältiger, komplexer und benutzerfreundlicher und die Hardware muss versuchen, der Software die nötige Leistung zu liefern. Prozessoren werden ja nicht aus Jux und Tollerei schneller "gemacht", sondern um der Software die nötige Power zu liefern.



  • pointercrash() schrieb:

    Browser und Internet - OK, aber woran machst Du den Innovationsgrad von Software fest?

    Müsste ich erstmal genau nachdenken. Müsste ich bei Hardware aber auch 😉

    Nachtrag: Vielleicht wäre es interessanter wenn man sich die Herausforderungen anschaut, denen sich Hard-und Software in den letzten Jahr(en/zehnten) stellen musste, und natürlich auch wie sie gelöst sind.
    Hardware wird zwar immer schneller, aber ist das eine Sensation/Innovation? CPUs bauen heute noch auch Architekturen von vor wasweissichwas auf (Harvard/Neumann). Höher, schneller und weiter sehe ich, aber die große Innovation? In Details, ja. Aber da auch bei der Software.



  • Tim schrieb:

    pointercrash() schrieb:

    Browser und Internet - OK, aber woran machst Du den Innovationsgrad von Software fest?

    Müsste ich erstmal genau nachdenken. Müsste ich bei Hardware aber auch

    im ernst? denk doch nur mal an speicherkarten, lc-monitore, led's in allen möglichen farben etc. manches davon gibts zwar auch schon eine ganze weile, aber erinnere dich mal an den entwicklungsstand der software, zu einer zeit, als es all das noch nicht gab. software (speziell jetzt pc-software) ist einfach nur fetter und bunter geworden. auf dem harwaresektor gibt es viele neue technologien, die alte ergänzen oder (eigentlich öfter) ablösen, während pc-software immer weiter aufgemotzt wird. allerdings gilt das gesagte nicht für pc-hardware. pc-hardware wird auch nur aufgemotzt. das doofe ist nämlich immer: sobald eine halbwegs funktionierende technologie den markt dominiert, haben bessere und innovativere ideen kaum ein chance. gutes beispiel: apple. früher verbauten sie 68-k und power-pc RISC prozessoren, dann plötzlich den 08/15-intel-mist. warum weiss ich auch nicht, aber ich nehme an, sie wollen durch den einsatz von allerwelts-enduser-stokeltechnik die kosten für eigene hardwareentwicklungen gering halten.
    🙂



  • pointercrash() schrieb:

    Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!

    Wieso, nur weil er mit Word umgehen kann, im Gegensatz zu manch anderen hier? 😃



  • pointercrash() schrieb:

    Wo ist denn aber die Software- Sensation? Nennt mir nur einen einzigen Software- Knaller der letzten 20 Jahre, ohne den keiner mehr auskommen mag oder kann oder wirklich mehrtausendfach an Funktionalität zugelegt hat.
    Nur einen, wirklich! 😃

    WindowsXP, Vista, Debian 4.0, usw... 🙂
    Kann man ja auch irgendwie nicht wirklich vergleichen, Hardware vs. Software. Viele Algorithmen waren schon da, als es noch keine Hardware gab, wie stand es da um H. vs. S. ?



  • Tarzan_ schrieb:

    pointercrash() schrieb:

    Aus welchem Zoo haben sie Dich freigelassen? Also, husch, husch, ab zurück zur Natur, Talent!

    Wieso, nur weil er mit Word umgehen kann, im Gegensatz zu manch anderen hier?

    nee, eher weil er zufällig was gemacht hat, das 'word' nicht total aus der bahn geworfen hat. aber wehe ihm, wenn er vom 'rechten weg' abgewichen wäre.

    Knaller schrieb:

    Viele Algorithmen waren schon da, als es noch keine Hardware gab...

    aber algorithmen sind nicht software.
    🙂



  • ~fricky schrieb:

    das doofe ist nämlich immer: sobald eine halbwegs funktionierende technologie den markt dominiert, haben bessere und innovativere ideen kaum ein chance. gutes beispiel: apple. früher verbauten sie 68-k und power-pc RISC prozessoren, dann plötzlich den 08/15-intel-mist. warum weiss ich auch nicht, aber ich nehme an, sie wollen durch den einsatz von allerwelts-enduser-stokeltechnik die kosten für eigene hardwareentwicklungen gering halten.
    🙂

    Das zum einen, das zweite war das GHz- Marketingargument (die PPCs hatten lange Probleme, über das magische GHz zu kommen, wie sinnlos das Argument auch sein mag), letztlich Differenzen zwischen IBM und Apple über Roadmap und Preisgestaltung.

    Badestrand schrieb:

    Es sind halt unendlich viele kleine Dinge wie neue Bedienkonzepte, neue Widgets, Konzepte für leichtere Software-Entwicklung, -Integration oder -Interaktion. Auch im 3D-Bereich hat sich unheimlich viel getan, in der KI oder auch allem, was mit sehr großen Datenmengen zu tun hat.

    Gerade neue Bedienkonzepte vermisse ich eigentlich und die KI hat auch noch keinen wesentlichen Durchbruch erreicht. Große Datenmengen schiebe ich eher in Richtung Hardware.

    Badestrand schrieb:

    ...Die Hardware muss sich den Bedürfnissen der Software anpassen. Soll heißen die Software wird vielfältiger, komplexer und benutzerfreundlicher und die Hardware muss versuchen, der Software die nötige Leistung zu liefern. Prozessoren werden ja nicht aus Jux und Tollerei schneller "gemacht", sondern um der Software die nötige Power zu liefern.

    Denke, das ist ein eher losgelöster Wettbewerb, wenn Intel oder AMD die CPUs nicht verbessern würde, wäre man markttechnisch sofort "tot".

    Eine Sensation/Innovation ist mir allerdings selbst eingefallen, weiß nur nicht, wie alt das ist: Die Virtualisierung eines Rechners von der Hardware weg! Während das erste Trial von VMWare eher wie ein Machbarkeitsstudien- Spielzeug daherkam, taugt es mir jetzt voll als Entwicklungshilfe. Client / Server- Konstrukte logisch getrennt auf einem Rechner, keine Entwicklungsumgebungen, die sich um Extensions balgen, keine Debugger und Compilerversionen mehr, die sich nicht miteinander vertragen, Platz für die Beine unterm Schreibtisch! Möchte ich nie mehr missen!
    Und auf meinem Server habe ich dank XEN eigentlich zwei paravirtualisierte Server konsolidiert.

    Ist schon so selbstverständlich für mich geworden, daß mir das gar nicht mehr in den Sinn kam. Ich denke, das kann man als große Innovation des Software- Jahrzehnts gelten lassen :xmas1:


Anmelden zum Antworten