Hardware vs. Software
-
ganz im gegenteil. hardware ändert sich nur sehr langsam. klar kommen immer mal wieder bessere versionen bekannter hardware heraus, aber grundlegende technologische neuerungen kommen eher schleppend.
software hingegen entwickelt sich rasend schnell weiter. das sind neue sprachen, neue programmiertechniken und neue kommunikationsprotokolle. selbst wenn man software nur auf ihre funktion reduziert, hat man noch fortschritt. ein mosaik browser hat bei weitem nicht die funktionalität, die ein firefox bietet.
dagegen muss man bei hardware sehr lange warten, bis sie neue funktionen unterstützt, die alte hardware nicht anbietet.
-
http://de.wikipedia.org/wiki/Wirthsches_Gesetz
Software soll heute für den gleichen Preis mehr leisten. Durch zusätzliche Features wird die Software schwerer und träger, durch den höheren Aufwand wird oft auf Techniken zurückgegriffen, die den Aufwand senken, aber die Effizienz der Programme verschlechtern.
Insofern ist es ganz logisch, daß Software immer langsamer wird, was zum Glück durch schnellere Hardware ausgeglichen wird.
Würde die Hardwareentwicklung stagnieren, müssten die Softwareentwickler sich mehr um die Effizienz ihrer Programme kümmern, was sie sicher dann auch tun würden. Fängt ein Textverarbeitungsprogramm an, nach jeder Benutzeraktion mehrere Sekunden zu rechnen, würde der Benutzer lieber zu einem Alternativprodukt mit weniger Features, aber vernünftiger Leistung zurückgreifen. Ich denke daher, daß sich die Software eigentlich recht gut den Gegebenheiten anpasst.
-
javanana schrieb:
ganz im gegenteil. hardware ändert sich nur sehr langsam.
denk doch nur mal an nanotechnologie, konfigurierbare logik-chips, flash-memory, wlan, lc-displays, sensortechnik, komplette systems-on-chip, wie das was im iPod und in handys steckt usw.usw... im embedded-bereich sind z.b. multicore-prozessoren keine seltenheit. was hat sich in der zeit softwaremässig getan, ausser dass die x-te reinkarnation irgendeiner programiersprache die alten konzepte wiederholt? nichts! ingenieure und physiker sind nun mal weitaus produktiver als informatiker.

-
~fricky schrieb:
javanana schrieb:
ganz im gegenteil. hardware aendert sich nur sehr langsam.
denk doch nur mal an nanotechnologie, konfigurierbare logik-chips, flash-memory, wlan, lc-displays, sensortechnik, komplette systems-on-chip, wie das was im iPod und in handys steckt usw.usw... im embedded-bereich sind z.b. multicore-prozessoren keine seltenheit. was hat sich in der zeit softwaremaessig getan, ausser dass die x-te reinkarnation irgendeiner programiersprache die alten konzepte wiederholt? nichts! ingenieure und physiker sind nun mal weitaus produktiver als informatiker.

wie lange hat es gedauert, bis man auf die Idee kam, bei Festplatten die Daten nicht waagerecht abzulegen? Chips werden immernoch aus Siliziumwafern geaetzt und bei CPUs kompensiert man die Schwierigkeiten, die durch die bisherigen Verfahren auftreten, durch mehr Kerne.
Auch neue Hardware beruht hauptsaechlich auf die Weiterentwicklung von bisherigen Verfahren. Aufregende Neuigkeiten lassen auch hier auf sich warten.
Und die, die es gibt, beruhen meist ebenfalls auf Verbesserung von Algorithmen und anderen Softwaretechniken.Soft- und Hardware sind zu sehr voneinander abhaengig, als dass sich das eine ohne das andere weiterentwickeln koennte
-
Ein grundlegendes Problem ist wohl, dass es nicht allzuleicht ist, Performancemetriken für Software zu definieren.
~fricky schrieb:
ingenieure und physiker sind nun mal weitaus produktiver als informatiker.

Wenn Du glaubst, dass Ingenieure und Physiker Hardware entwerfen, während Informatiker Software schreiben, bist Du wohl kaum in der Lage den Fortschritt der Informatik in den letzten paar Jahrzehnten einzuschätzen.
-
7100 schrieb:
Hardware hat ca. 100 mal mehr Speicher und ist genauso viel schneller geworden in den letzten 10 Jahren. Und Software? Browser und Textverarbeitung können sicher nicht 100 mal mehr. Gerade mal bei den Spielen ist die Grafik besser geworden, aber der Rest der Software hat nicht viel aus der besseren Hardware gemacht.
da hat aber jemand ein nicht so weites Horizont (nichts für Ungut) aber es gibt in der Welt mehr als "Windows Desktops mit Microsoft Word". Und man kann Software mit Hardware nicht immer vergleichen, wie hier mehrfach gesagt wurde. In der Wissenschaft wird die Sofware immer besser und ausgereifter, heute sind Sachen möglich, die man vor 10/15 Jahren als nicht realisierbar waren, ein beliebtes Bsp dafür: SAT-Solver. Gewiss spielt die neue Hardware Generation eine große Rolle über die Leistungsfähigkeit von Sat-solvern aber was ein SAT-Solver wirklich effizient macht sind die Algorithmen/heuristiken und ihre Implementierungen und das geschieht alles softwareseitig.
-
zwutz schrieb:
Soft- und Hardware sind zu sehr voneinander abhaengig, als dass sich das eine ohne das andere weiterentwickeln koennte
stimmt, vor allem auch, weil in der hardware selber schon eine gehörige portion an software steckt. da beisst sich die katze in den schwanz. ausserdem muss ich meine meinung revidieren: es gibt auch tolle fortschritte im software-bereich, wenn man mal an crypto-algorithmen, intelligente bildverarbeitung (tracking usw.) denkt. für den 0815-anwender ist aber software das, was auf seinem computer installiert ist. und dabei sind wirklich seit jahren keine grossen fortschritte erkennbar.

-
hw-lieferant schrieb:
könnte man windows theoretisch auch in reiner hardware bauen und dann als board ausliefern?
ja
-
supertux schrieb:
7100 schrieb:
Hardware hat ca. 100 mal mehr Speicher und ist genauso viel schneller geworden in den letzten 10 Jahren. Und Software? Browser und Textverarbeitung können sicher nicht 100 mal mehr. Gerade mal bei den Spielen ist die Grafik besser geworden, aber der Rest der Software hat nicht viel aus der besseren Hardware gemacht.
da hat aber jemand ein nicht so weites Horizont (nichts für Ungut) aber es gibt in der Welt mehr als "Windows Desktops mit Microsoft Word". Und man kann Software mit Hardware nicht immer vergleichen, wie hier mehrfach gesagt wurde. In der Wissenschaft wird die Sofware immer besser und ausgereifter, heute sind Sachen möglich, die man vor 10/15 Jahren als nicht realisierbar waren, ein beliebtes Bsp dafür: SAT-Solver. Gewiss spielt die neue Hardware Generation eine große Rolle über die Leistungsfähigkeit von Sat-solvern aber was ein SAT-Solver wirklich effizient macht sind die Algorithmen/heuristiken und ihre Implementierungen und das geschieht alles softwareseitig.
In Wissenschaftslaboren wirst du aber auch noch viel ausgefallenere Hardware finden als auf einem Desktop. Die Desktoprechner sind viel besser geworden, aber die Software kaum.
-
7100 schrieb:
In Wissenschaftslaboren wirst du aber auch noch viel ausgefallenere Hardware finden als auf einem Desktop. Die Desktoprechner sind viel besser geworden, aber die Software kaum.
Vielleicht in MIT oder in Cern, aber bei normalen Uni-Lehrstühlen hat jeder einen stinknormalen Rechnern zum Arbeiten (klar haben wir auch mal Cluster) aber die Fortschritte von SAT-Solvern sind ganz deutlich der Software zuzuschreiben. Ich weiß nicht, warum du alles andere ignorierst, oder denkst du bei Software nur an "Microsoft Office"? Da geb ich dir Recht, dieser Schrott wird nie besser.
-
7100 schrieb:
In Wissenschaftslaboren wirst du aber auch noch viel ausgefallenere Hardware finden als auf einem Desktop.
"Ausgefallen".... wie man es nimmt. Ich würde den Schrott, den wir im Labor stehen haben auch größtenteils so bezeichnen, wenn ich ihn mit meinem Rechner vergleiche.
Aber mehr brauchts meist gar nicht.7100 schrieb:
Die Desktoprechner sind viel besser geworden, aber die Software kaum.
Da fällt mir ganz spontan z.B. Photoshop ein. Da hat sich in den letzten Jahren unter der Motorhaube einiges getan. Und da gibt es noch zahlreiche weitere Beispiele.
Nur dass LaTeX noch der gleiche Frickelscheiß wie vor 20 Jahren ist, das kotzt mich an. Wieso gibt es da nicht mal eine komplett überarbeitete Version 3? Wünsch ich mir zu Weihnachten.... bitte.... :xmas1:
-
Kann man denn Hard- von Software trennen ?
Sinn beider war die die weitgehende Loslösung der Hardwarelogik von dem was
das schwarze Kästchen im Endeffekt macht, also eine programmierbare Logik. Die
Programmierung ist dann die Software.Beides bedingt einander.
-
Jan schrieb:
Nur dass LaTeX noch der gleiche Frickelscheiß wie vor 20 Jahren ist, das kotzt mich an. Wieso gibt es da nicht mal eine komplett überarbeitete Version 3? Wünsch ich mir zu Weihnachten.... bitte.... :xmas1:
LaTeX ist einfach schon seit Ewigkeiten richtig gut, da gibts nicht mehr viel zu verbessern, was die Zielgruppe von LaTeX dringend haben möchte.
Du klingst so, als hättest Du gerne sowas wie Scientific Workplace (bzw. einfach nur Scientific Word) oder so. Oder lieber irgendwas in die Richtung von ConText? Keine Ahnung, was Du nicht magst.
-
7100 schrieb:
Hardware hat ca. 100 mal mehr Speicher und ist genauso viel schneller geworden in den letzten 10 Jahren. Und Software? Browser und Textverarbeitung können sicher nicht 100 mal mehr. Gerade mal bei den Spielen ist die Grafik besser geworden, aber der Rest der Software hat nicht viel aus der besseren Hardware gemacht.
Wenn ich mal meine IDE vergleiche mit dem, was es früher so gab, dann muss ich auch sagen: 100mal mehr kann die nicht... Es ist mindestens 1000mal so viel!!
-
in den Details ändert sich vieles, einige der wichtigsten Grund-Paradigma existieren aber schon seit Jahrzehnten: OOP, Desktop-GUI mit Fenstern und Maus, Hochsprachen mit Bytecode auf virtual machine, Hypertext, ... all das stammt aus den 1960er Jahren
Es dauerte dann 2,3 Jahrzehnte, bis schnelle und preiswerte Hardware verfügbar war, um diese Dinge für Normalanwender verfügbar zu machen.
Mit programmierbaren FPGAs wird die Grenze zwischen Soft- und Hardware wohl zunehmend verschwimmen - Bspw. eine in einer HDL formulierte Beschreibung einer CPU, die anschließend in ein Gate array geladen wird und damit eine Hardware-CPU darstellt, ist das Hardware oder Software ?
-
Jan schrieb:
Nur dass LaTeX noch der gleiche Frickelscheiß wie vor 20 Jahren ist, das kotzt mich an. Wieso gibt es da nicht mal eine komplett überarbeitete Version 3? Wünsch ich mir zu Weihnachten.... bitte.... :xmas1:
die meisen LaTeX Distributionen sind OpenSource. Statt zu motzen, nimm dir die Sourcen und verbessere sie, damit sie nicht der selbe Schrott bleibt wie vor 20 Jahren. Mal sehen, was sich daraus ergibt.
-
ein TeX-ähnliches System, in welchem die höheren Funktionen und Packages nicht in einer Makrosprache, sondern in einer modernen dynamischen Sprache wie Tcl oder lua implementiert sind, mit Elementarfunktionen in Form einer Funktions-Bibliothek, das wär's.
-
Allgemein sehe ich es so, dass Hard- und Software sich tendenziell gleich schnell, aber zeitverschoben entwickeln. Zur heutigen Hardware und zur Hardware der nahen Zukunft können auch erst heute die Theoretiker neue Konzepte entwickeln, die die wirklichen Neuerungen ausnutzen. Bis aus den Konzepten dann Software entsteht, und bis sich diese Software etabliert, vergehn schon einpaar Jährchen. Am nächsten an der Hardware ist die Software in den Bereichen, wo Innovation sich wirklich auszahlt und benötigt wird. Das ist zum einen der Bereich Grafik und alles was dafür nötig ist im kommerziellen Bereich. Zum Anderen ist es der Bereich massiver paralleler Datenverarbeitung in wissenschaftlichen Anwendungen.
Gerade parallele Datenverarbeitung ist ein Beispielthema: Die Möglichkeit, mehrere Prozessoren gleichzeitig an einem Programm arbeiten zu lassen, wurde schon vor langem entdeckt, heutzutage haben die meisten verkauften Prozessoren für PCs zwei, vier oder mehr Kerne. Dennoch gibts nur wenige Programmiersprachen, die wirklich nativ Parallelität unterstützen. Zwar werden seit den 60er Jahren oder früher die nötigen Mechanismen untersucht und auch die eine oder andere experimentelle Sprache entwickelt, aber noch heute sind hauptsächlich sequentielle Sprachen wie die C-Sprachfamilie (C, C++, C#, Java,...) vertreten, die sich relativ behelfsmäßiger und umständlicher Werkzeuge bedienen, um Parallelität zu ermöglichen. Es gibt schon Ansätze um die Komplexität von parallelen Programmen in den Griff zu bekommen, nur brauchen die auch wieder Zeit um sich zu etablieren.Deshalb denke ich, dass es nur so aussieht als ob sich Software langsamer entwickelt als Hardware - sie entwickelt sich heute so schnell wie die Hardware vor 2-10 Jahren (je nach Einsatzgebiet)
-
supertux schrieb:
die meisen LaTeX Distributionen sind OpenSource. Statt zu motzen, nimm dir die Sourcen und verbessere sie
Ja, na klar. Und wenn dir dein Haus nicht gefällt, dann baust du dir ein eigenes...

nman schrieb:
LaTeX ist einfach schon seit Ewigkeiten richtig gut, da gibts nicht mehr viel zu verbessern, was die Zielgruppe von LaTeX dringend haben möchte.
LaTeX ist zwar nett, aber es hat in meinen Augen einfach zu viel Macken und zu viele Dinge sind viel zu umständlich. Das geht schon los, wenn man mal eine Grafik von Text umfließen lassen möchte. Dann findet man im Internet Hinweise auf 10 verschiedene Packages, die man einbinden könnte, von denen die Hälfte veraltet ist und die andere Hälfte nicht das macht, was sie soll. Bei mir hat es jedenfalls in sämtlichen Varianten nicht so funktioniert, wie es sollte. Sinnvolle Kopf- und Fußzeilen zu erstellen war auch ein echter Krampf.
-
Ein weiteres Beispiel zu dem was pumuckl geschrieben hat ist der Quantencomputer: Da existieren schon die tollsten Algorithmen für viele verschiedene Probleme, aber die nötige Hardware wird es auf (voraussichtlich) Jahrzehnte nicht geben. Viele der Algorithmen gab es sogar schon lange bevor überhaupt der erste Quantenrechner gebaut wurde.