Das alte Denken
-
20 jahre ist vielleicht ein wenig zu weit zurückgegriffen. die rechner sind schneller geworden und demzufolge sind paar spezielle anwendungen in software verfügbar (videobearbeitung und son schnick schnack), aber grundsätzlich bedient sich ein windows vista immer noch wie nen windows 3.1 oder ein macos 10.5 wie ein system 7. also meiner ansicht nach herrscht seit anfang der 90er extrem wenig fortschritt bei den betriebssystemen und anwendungen.
-
> Wenn nicht, dann muß dem doch irgendwie was fehlen, was die Systeme heute
> ausmacht, oder?ja: Tempo, RAM, HD und Grafik-Auflösung. Alles keine Eigenschaften von Softw. oder OS.
Das "alte Denken" ist gar nicht so alt, weil das "neue Denken" gar nicht so neu ist, wie viele glauben. In den Forschungslabors war man teils schon um 1970 weiter als der heutige Mainstream. Der Durchbruch von echter OOP (eine Erfindung von vor ca. 35 Jahren) in den Mainstream z.B. steht uns erst noch bevor - der Übergang von OOP als namespace-feature zur OOP als Programmierung in einer Welt kommunizierender Objekte.
Daß man dazu erstmal Abschied nehmen muß von einer IT-Welt, die auf der File-orientierten Arbeitsweise mit lokaler Speicherung von Großpapas Mainframe beruht, liegt wohl auf der Hand. 2048 dann.
-
Was hat denn das Interface eines Gerätes mit dem Fortschritt zu tun? Ein Auto wird heute immer noch so bedient, wie eines vor 100 Jahre! Das Interface der Autos hat sich auch nicht wirklich geändert: rundes Lenkrad, Gaspedal, Bremspedal und Ganghebel. Yea! Es hat sich seit 100 Jahren nichts getan.
Denkt doch mal etwas weiter: warum sollte man ein bewährtes Interface ändern? Das wird nicht funktionieren! Der Mensch hat sich daran gewöhnt, es ist in Fleisch und Blut eingegangen. Unter der Haube passieren die Fortschritte. So auch bei Autos, wie das ABS, ESP, Hybridmotor usw.
Das gleiche kann man auf alle Geräte beziehen: Flugzeuge haben heute immer noch das gleiche Interface, wie der erste Doppeldecker. Oder wollt ihr mir erzählen, das der Eurofighter kein Fortschritt ggü. dem Doppeldecker vom roten Baron ist? Ein Eurofighter hat immer noch einen Steuerknüppel wie der damalige Doppeldecker. Komisch, oder?
Was erwartet ihr denn? Das morgen alle den Computer anders bedienen sollen? Das wird nicht passieren!
Und noch was: ihr habt immer noch nicht bei MSDN.COM reingeschaut, um die Fortschritte der Windows NT-Linie unter der Haube zu erfahren. Sonst würdet ihr nicht immer wieder vom Interface reden.
Der Amiga hatte damals vor 20 Jahren schon echtes Multitasking und Fenstertechnik. Ja, war damals auch alles super. Aber er hatte keinen Speicherschutz und deshalb hat man schön die Guru-Meldung bekommen. Heute ist Speicherschutz etwas normales. Dafür haben wir heute sowas wie Stackoverflow-Schutz in Windows bzw. bietet der MSVC2005 jedem Entwickler an! Du kannst in Vista auf Filesystem-Ebene auf Dateien ein Rollback machen, was man sonst nur aus Datenbanken kennt. uvm. Aber das sind natürlich Dinge, die man als User nicht sieht. Also, erstmal informieren bevor man leichtsinnig sagt, das sich in 20 Jahren nichts getan hat.
-
@bulli: auch die Benutzer-Interfaces von Autos werden sich ändern, spätestens wenn die Autos autonome Vehikel werden und mit Funkschleifen o.ä. im Asphalt selbstständig navigieren können. Dann braucht man nur noch einen Knopf für "Abbiegen links" und einen für "Abbiegen rechts" und vielleicht einen Drehknopf zur Tempowahl. Daß das heutige Benutzerinterface nicht optimal sein kann, zeigen die Unfallstatistiken.
Im Grunde überfordert Autofahren mit den heute gefahrenen Geschwindigkeiten den Menschen, weil die Fehlertoleranz bei hohem Tempo zu gering ist. Von optimalem Benutzerinterface kann da meiner Meinung nach angesichts solcher Risiken keine Rede sein.
-
> Was erwartet ihr denn? Das morgen alle den Computer anders bedienen sollen?
> Das wird nicht passieren!doch, wird es meiner Meinung nach. Rückwärtskompatibilität ist ja was Feines, aber irgendwie hemmt es auch den Fortschritt, wenn man sie über Jahrzehnte streckt.
Die drastisch ansteigende Komplexität und Größe neuerer Versionen aktueller Betriebssysteme ohne proportionalen Zugewinn an für mich interessanter Funktionalität erweckt in mir den Eindruck, daß diese zunehmend Probleme lösen, die ich nicht habe, oder die es ohne sie gar nicht gäbe. Hier scheint mir ein grundlegend neuer Ansatz vonnöten. Den gibt es in den Forschungslabors bestimmt auch schon.
-
Simon2 schrieb:
hustbaer schrieb:
@Simon2:
Newsflash: "glauben" in "glauben an" und "glauben dass" ist nicht gleich klingend, sondern das selbe Wort.So wie "Bank" und "Bank" ?
Gruß,
Simon2.
Nein, eher so wie "fallen" in "ins Schloss fallen", "vom Baum fallen", "fallender Kurs" etc.
-
hustbaer schrieb:
...
Nein, eher so wie "fallen" in "ins Schloss fallen", "vom Baum fallen", "fallender Kurs" etc.Und das ist IMHO genau der (wenn auch leider weit verbreitete Irrtum. "Glauben(dass)" ist eben etwas Anderes als "Glauben(an)" ... so wie "nehmen(an)" und "nehmen(weg)" ....
Wie nennst Du denn "Bank(Geld)" und Bank(setzen)", wenn nicht "Homophone"?
Gruß,
Simon2.
-
Bulli schrieb:
Flugzeuge haben heute immer noch das gleiche Interface, wie der erste Doppeldecker. Oder wollt ihr mir erzählen, das der Eurofighter kein Fortschritt ggü. dem Doppeldecker vom roten Baron ist?
richtig. er ist nur schneller, hat eine grössere reichweite und eine bessere bewaffnung. aber er ist auch nur ein kampfflugzeug wie der doppeldecker vom roten baron: man kann damit fliegen und menschen töten. kein wirklicher fortschritt.
Bulli schrieb:
Was erwartet ihr denn? Das morgen alle den Computer anders bedienen sollen? Das wird nicht passieren!
spracheingabe? das wär doch was.
Bulli schrieb:
Und noch was: ihr habt immer noch nicht bei MSDN.COM reingeschaut, um die Fortschritte der Windows NT-Linie unter der Haube zu erfahren. Sonst würdet ihr nicht immer wieder vom Interface reden.
aber über die zeit betrachtet, sind die fortschritte wirklich minimal. gerade microsoft würde ich nicht als motor des fortschritts sehen, eher als bremse.
Bulli schrieb:
Der Amiga hatte damals vor 20 Jahren schon echtes Multitasking und Fenstertechnik. Ja, war damals auch alles super. Aber er hatte keinen Speicherschutz und deshalb hat man schön die Guru-Meldung bekommen. Heute ist Speicherschutz etwas normales.
der olle 68000'er hatte schon sowas wie 'nen user und superviser-mode. speicherschutz zwar nicht, aber man hätte dem amiga nur einen weiteren chip spendieren müssen, der adressen virtualisiert. das wäre etwas gewesen, dass auch vor der amiga-ära leicht möglich war. man sah einfach keinen grund dafür, sonst hätte der amiga das schon gehabt.
Bulli schrieb:
Dafür haben wir heute sowas wie Stackoverflow-Schutz in Windows bzw. bietet der MSVC2005 jedem Entwickler an!
das ist absolut triviales zeug. kein fortschritt.
Bulli schrieb:
Du kannst in Vista auf Filesystem-Ebene auf Dateien ein Rollback machen, was man sonst nur aus Datenbanken kennt.
ach, deshalb verhielt sich mein vista so seltsam. hat dateien kopiert, die mit einem mal doch nicht mehr da waren bzw. dateien gelöscht umd kurz darauf waren sie wieder da, wie von geisterhand. das war übrigens mit einer der gründe, warum ich 'vista' wieder runtergelöscht habe.
Bulli schrieb:
Also, erstmal informieren bevor man leichtsinnig sagt, das sich in 20 Jahren nichts getan hat.
das einzige was sich auf'm pc-sektor wirklich getan hat, ist eine immense zunahme der leistungsfähigkeit der geräte. das erlaubt es, viel mehr kram hineinzustopfen (oft nur grafischer schnickschnack, wie sinnlose animationen und 3d-effekte beim benutzer-interface). ein sehr zweifelhafter fortschritt, wie ich meine.
-
~fricky schrieb:
Bulli schrieb:
Flugzeuge haben heute immer noch das gleiche Interface, wie der erste Doppeldecker. Oder wollt ihr mir erzählen, das der Eurofighter kein Fortschritt ggü. dem Doppeldecker vom roten Baron ist?
richtig. er ist nur schneller, hat eine grössere reichweite und eine bessere bewaffnung. ... kein wirklicher fortschritt.
Natürlich nicht, ist kein Fortschritt...
~fricky schrieb:
Bulli schrieb:
Was erwartet ihr denn? Das morgen alle den Computer anders bedienen sollen? Das wird nicht passieren!
spracheingabe? das wär doch was.
Yo, und im Büro bedient jeder dann seinen Computer mit Spracheingabe. Suuuper! Da werde ich beim Arbeiten, wo ich mich konzentrieren muß, üüüberhaupt nicht gestört.
Du bist mein Held für diese super geniale Idee!
-
Bulli schrieb:
Natürlich nicht, ist kein Fortschritt.
wenn für dich steigerung des potentials ein nennenswerter fortschritt ist, dann natürlich schon. für mich gehört mehr dazu.
~fricky schrieb:
Bulli schrieb:
Was erwartet ihr denn? Das morgen alle den Computer anders bedienen sollen? Das wird nicht passieren!
spracheingabe? das wär doch was.
Yo, und im Büro bedient jeder dann seinen Computer mit Spracheingabe. Suuuper! Da werde ich beim Arbeiten, wo ich mich konzentrieren muß, üüüberhaupt nicht gestört.
[/quote]
wer sagt denn, dass man dabei wie wahnsinnig brüllen muss? telefonate und überhaupt sämtliche gespräche in büroräumen waren schon immer ein riesenproblem. schon klar...
-
~fricky schrieb:
wer sagt denn, dass man dabei wie wahnsinnig brüllen muss? telefonate und überhaupt sämtliche gespräche in büroräumen waren schon immer ein riesenproblem. schon klar...
Nicht in jedem Bürojob wird 8 Std. pro Tag telefoniert. Mag ja sein das du Telefonistin bist, wir hier im Büro nicht! Wir sitzen hier zu dritt in einem Raum, und es kommen vielleicht zwei bis drei Anrufe rein, die vielleicht 2 bis 5 Min. dauern. Hem... jetzt stelle ich mir mal vor, das jeder anfängt seinen Computer anzusprechen, während er eine Doku schreibt, eine neue Distribution zusammen baut, programmiert, im Web nach Lösungen sucht.
Ja, das wird echt super, wenn jetzt jeder von uns seinen Computer vollquatscht. Und nach 8 Std. bin ich dann super heiser, muß immer nen Schluck Wasser trinken, und am Ende des Tages weiß jeder von jedem welche Datei er verschoben, gelöscht hat. Welche EMails er geschrieben hat...
Tja, das ist natürlich echt super, am Ende des tages kommt man entspannter aus dem Büro, als wenn man die Maus und Tastatur benutzt hätte.
Von den Büros von denen du redest, ist wohl eher sowas wie Kundensupport u.ä. Die haben aber meistens eh Trennwände zwischen den einzelnen Arbeitsplätzen und überhaupt ist die Arbeit eine ganz andere.
Achja, und was machen die eigentlich? Wenn die mit dem Kunden telefonieren, müssen die immer dem Kunden sagen "Neee, ich meinte den Computer! Sie waren ja garnicht gemeint!".
Wenn ich so darüber nachdenke, wird diese Sprachsteuerung immer witziger.
-
Bulli schrieb:
jetzt stelle ich mir mal vor, das jeder anfängt seinen Computer anzusprechen, während er eine Doku schreibt, eine neue Distribution zusammen baut, programmiert, im Web nach Lösungen sucht.
er schreibt die doku ja nicht, sondern diktiert sie. im web suchen wäre auch viel einfacher. du sagst z.b. einfach 'google pink noise' und der computer liest dir vor, was er alles zu dem thema gefunden hat.
Bulli schrieb:
Ja, das wird echt super, wenn jetzt jeder von uns seinen Computer vollquatscht. Und nach 8 Std. bin ich dann super heiser, muß immer nen Schluck Wasser trinken...
du musst doch nicht brüllen wie verrückt. leise in's headset quatschen reicht doch.
Bulli schrieb:
Tja, das ist natürlich echt super, am Ende des tages kommt man entspannter aus dem Büro, als wenn man die Maus und Tastatur benutzt hätte.
könnte schon sein. augenschonender wär's nebenbei auch noch.
Bulli schrieb:
Achja, und was machen die eigentlich? Wenn die mit dem Kunden telefonieren, müssen die immer dem Kunden sagen "Neee, ich meinte den Computer! Sie waren ja garnicht gemeint!".
ein mensch kann ja meistens erkennen, ob man ihn meint oder nicht. aber das ist z.b. etwas, was ich als fortschritt bezeichnen würde: wenn ein computer erkennen kann, dass er angesprochen wird.
Bulli schrieb:
Wenn ich so darüber nachdenke, wird diese Sprachsteuerung immer witziger.
in 50 jahren wird man sich über unsere heutigen eingabemethoden sicherlich auch kaputtlachen.
-
Sprachsteuerung muß ja nicht so ablaufen wie bei Cpt. Spock 1969 ("Computer!")
Denkbar wäre, daß man den Computer mit speziellen Lauten (solche, die bei natürlicher Sprache gar nicht vorkommen) oder Anfangsbuchstaben kommandiert, z.B. "S" für Startmenü, außerdem kann durch geeignete Mikrofonanordnung vermutlich eine Sensitivität erreichen, die es nicht erfordert, so laut mit dem Computer zu sprechen, daß die Leute im Nachbarbüro zum Fahrstuhl, wenn man seinem PC befiehlt: "Herunterfahren".
Wenn man ein großes, berührungsempfindliches Display als horizontale "Schreibtischplatte" benutzt und mit den Fingern darauf umherfährt oder eine Tastatur darauf einblendet, braucht man weder Maus noch Monitor noch Tastatur.
Die Oberfläche ließe sich dann evtl. noch als "E-Papier" zusammenrollen und ins Büro mitnehmen oder im Bus als E-Zeitung lesen.Ähnliche Versuche gibt es bereits, z.B. in Form eines Display-Tisches, auf dem man die Komponenten eines Musik-Synthesizers mit den Händen manipuliert.
Nur mal ein paar Ideen, wie sich Bedienoberflächen weiterentwickeln könnten.
-
Ich will aber nicht den ganzen Tag reden o.O Meine armen Stimmbänder...
Bei Texten wärs zwar praktisch, aber alles andere...
-
Also eigentlich haben wir hier zwei Themen: Fortschritt in der Usability und Fortschritt in der Programmiertechnik.
Zu "Old Fashioned" hab' ich 'ne Anekdote: Ein Schulfreund hat sich der Informatik zugewendet und ist '94 bei einem großen Maschinenbauer gelandet, sein Vorgesetzter ein Urgestein aus der Lochstreifenstanzer- Ära, der seit etwa 20 Jahren Chefentwickler für Teststandsteuerung und Ergebnisauswertung war und alles Neue grundlegend verteufelte. Da aber der Tag X nahte, an dem die Verrentung anstand, hat man in Panik ein paar Informatiker zusammengesammelt, die das Zeug von DOS auf WinNT lupfen sollten und die haben gestaunt, wie der Alte seine Sachen über die Zeit (von irgendeinem OS nach CP/M nach DOS) gerettet hatte: Große Teile waren in FORTRAN geschrieben, andere in BASIC, bißchen Pascal, die "neuesten" in C (aber das mochte er nicht so), gesteuert von riesigen Batches über die Errorlevel- Rückgaben, "Interprozesskommunikation" fand über einen Sack temporärer Dateien mit einem undurchschaubaren Locking- System statt.
Alleine der Versuch, das System mal grob neu zu modellieren, um es unter C++ neu aufzuziehen, scheiterte an seiner Bockigkeit, in OOP mehr als "neumodisches Teufelszeug" zu sehen. Als das Team nach einigen Monaten nicht weiter war, wurde der Alte endlich zur Überarbeitung eines Subsystems abkommandiert und das Team verdoppelt. Aber an seinem Aufrufparameter / Returnfile- System hat er auch da festgehalten.
Das ist jetzt zwar nur Hörensagen, war aber glaubhaft geschildert.Wobei ich auch zugeben muß, daß ich ein paar Ältere (50 - 60) kennengelernt habe, die Schritt gehalten haben und immer noch jeder neuen Release von Eclipse entgegenfiebern. Das sind die Leute, die nie aufgehört haben, zu lernen und aus dem aktiv abrufbaren, langjährig gesammelten Wissen aktuelle Trends klassifizieren, konzeptionell einordnen und je nach Brauchbarkeit einsetzen können.
So, jetzt ist es letztlich eine unternehmerische Frage, wie das zu bewerten ist, denn ohne Zweifel hat der störrische alte Sack aus meiner Geschichte da oben die Teststände zwei Jahrzehnte IT- seitig beisammen gehalten, aber auch dafür gesorgt, daß bei Staffelübergabe die Staffel in Bausch und Bogen weggeworfen werden mußte.
Andererseits ist Redesign um den wechselnden Hypes diverser OSes, neuem Modelling und Sprachen zu Willen hinterherzuhecheln nicht produktiv, sondern kostet primär Ressourcen.
Als Anregung kann ich da nur hinzufügen, daß es geraten scheint, echte Paradigmenwechsel zu erkennen und darauf bestehende Konzepte zu überprüfen. Das Problem wird nur dadurch verschärft, daß die Entscheider selten in der Lage sind, Paradigmenwechsel rechtzeitig zu sehen.Der andere Teil betrifft wohl eher die Usability.
Und da muß ich wirklich einen Mangel an Fortschritt attestieren, weil seit den GUIs eigentlich nichts wirklich Revolutionäres passiert ist. Wir erinnern uns: Anfang der 80er gab's den Apple IIe und den ersten IBM- PC, der so schlecht war, daß die erste Charge zurückgeholt wurde. Daß DOS/PC dennoch ein Erfolg wurde, machte Apple ratlos, weil der Markt das Zeug lieber hatte, als die mit großem Geldaufwand entwickelte Lisa. Steve Jobs bekam dann eine Einladung zu einer Privatvorführung von Xerox und dort die erste GUI zu Gesicht - als alter Schlawiner mit Marktgespür hat er das nachbauen lassen, was, wie wir wissen, in den Erfolg des McIntosh und mittelbar des Atari ST mündete.
Und weil Nachbauer gerne nachgebaut werden, hängten sich andere an, wir erinnern uns an die Katastrophen Win 1.0 und Win 2.0, erst mit Win 3.x hatte µ$ Erfolg.
Ungeachtet der verschiedenen Ausfertigungen haben sich aber die Grundprinzipien der Mausschubserei als MMI nicht geändert. Nichts wirklich Neues also.Ah, Multimedia vielleicht? Intel hat Anfang der 90er einen chipsatzbasierenden Ansatz vorgestellt und auf Wunsch von µ$ eingestampft, was im Gegenzug zur damaligen "Wintel"- Allianz führte. In der Folge blieb dem Mainstream auf Jahre hinaus ein sinnvolles MM- Subsystem verwehrt. Erst mit W2K löste µ$ die Versprechen halbwegs ein, die Amiga, Archimedes und Konsorten schon ein Jahrzehnt zuvor ansatzweise erfüllten. Davon abgesehen kenne ich trotzdem kaum ein MCE- System, das nicht hin und wieder massiv muckt.
OK, OK - nehmen wir den Browser als Internet- Desktop auf dem Desktop. Im Gegensatz zur Mausschubsergemeinde wissen wir, daß den nicht µ$ erfunden hat, aber mit der gleichen Methode vereinnahmt wurde, wie Multimedia und GUI. Aber an den Aldi-PC-Käufer / ComputerBild- Leser ist das nicht vermittelbar.
Ich will jetzt nicht nur auf µ$ herumreiten, sondern nur thematisieren, daß dieser Laden kein Innovationsträger war, jetzt nicht ist, und wahrscheinlich auch nie sein wird. Ah, und die Linux- Gemeinde hat sich auch nicht wirklich mit Ruhm bekleckert. Nüchtern betrachtet bastelt die an einem monolithischen UNIX herum und gefällt sich in Flamewars über x-server, GUIs und was alles im Kernel erlaubt sein soll oder auch nicht. Letztlich hat sie als einzige Innovation eigentlich nur eine Diskussion über OpenSource und die Lizenzmodelle dazu angestoßen und das ist kein Erfolg der IT'ler, sondern der Juristen.
Von Linux hab' ich hauptsächlich vordergründig billige Server, die mir als "SnakeOil"- Wundermittel angepriesen werden, aber so rotzig hingeschmissen werden, daß ich mich an Win3.1- Zeiten erinnert fühle. Ob ich an ini- Dateien basteln muß oder conf, macht in der Hinsicht keinen Unterschied.Die "Innovation" wird seit etwa 10 Jahren, eher länger sogar, hauptsächlich von der Miniaturisierung der Hardware getragen.
PDAs, MP3- Player, Navis, Cams oder "All-in-one-" Handys und der ganze Wireless- Klimbim dokumentieren hauptsächlich, daß die Software auf der Stelle tritt. Wir tragen Rechenkanonen in der Hemdtasche herum, die vor zehn, fünfzehn Jahren nur neben dem Schreibtisch Platz hatten. Und was damals auf dem 14"er- Bildschirm Platz hatte, wird samt GUI einfach aufs Mini- LCD gequetscht. Grundlegend fortschrittlich ist softwareseitig daran gar nichts.Und wenn unser Blick unter den Schreibtisch fällt, steht da so ein Quadcore- Monster, aber was machen wir damit? Ausgereizt ist die Kiste erst, wenn der aktuellste 3D- Shooter die Grafikkarte zum Glühen bringt. Ist aber nicht der Normalfall. Tatort Büro- PC/ Geschäftsbriefe tippen: MS OfficeXP starten dauert länger, als in einer VM Win95 samt PFS WindowWorks hochzubringen. Das kann alles, was man dazu braucht, der usability- Gewinn von 15 Jahren Softwaregeschichte wird damit imaginär. Hüpfende Büroklammern, 100 MB Nutzlos- Wizards und Hilfetexte, die eher Verwirrungshilfen darstellen, ist alles, was dazugekommen ist. Jetzt habe ich doch die dreihundert Features unterschlagen, die von 10% der Usern gebraucht, von 5% auch gefunden und von 0,1% als schlüssig implementiert empfunden werden, aber das ist bei Polemik nun mal so.
Als Softwareschaffender wird man mit Ressourcen beworfen, die grandios gewachsen sind, vom 386SX16 (1990) zum heutigen Quadcore etwa um den Faktor 1000, was Rechengeschwindigkeit anbelangt, bei NVR und RAM ebenso, alle Busse usw. in ähnlicher Dimension. Auf der Hardwareseite wird alles tausendmal schneller, größer oder schrumpft volumenseitig auf ein Tausendstel.
Und wo bleibt die Vertausendfachung auf der Softwareseite? Die Software wird um den Faktor 1000 träger erstmal. Heute Vista Ultimate zu starten, dauert so lange, wie GEOS 2.0 auf einem C128. GeoWrite oder die Word- Komponente zu starten macht auch keinen fetten Unterschied, erst beim Drucken bleibt die 2 MHz- Kiste hinter dem GHz- Boliden naturgemäß zurück.
Wenn das nicht reicht, macht man unter dem Betriebssystem unter einem Browser einen Scriptinterpreter auf, der dann Pacman spielt, wie in alten Zeiten. Und wenn das Ding nicht die virtuellen Timer hernimmt, ist es unspielbar schnell - Glückwunsch!Warum hinterfragt niemand diese Diskrepanz? Warum gibt es Betriebssysteme, die mit einem völlig idiotischen UAC auf den Markt geworfen und auch noch gekauft werden und den Benutzer eher hindern denn schützen (mein Vater hat zuletzt entnervt zuviel abgenickt und sich Tod und Teufel auf den Rechner geholt).
Warum ist er eigentlich immer noch mit dem MS Works 3.0 am Glücklichsten?Weil es die ganze Software- IT- Fatzo- Hosenträgerschnalzer- Dickschwätz- Community nicht gerafft hat, daß es darum gehen sollte, dem User ein effektives Werkzeug in die Hand zu geben und die Progger das als selbstverständlich mittragen. Früher hätte man keine Hämmer verkaufen können, die bei Nichtfunktion einen Alt-Strg-Entf oder gar einen Reset- Button brauchen (mein Linux- betriebener DVBT/SAT- Recorder/Receiver will das alle paar Tage), aber wenn das die letzte Stufe der Softwarekunst ist, na dann gute Nacht.
Darf ich das so subsummieren: Die Software hängt dem Hardwarefortschritt um Generationen hinterher. Ressourcenschonende benutzerzentrierte Lösungen finde ich fast nur noch bei Kleinsteuerungen. Da sollte sich mach einer schämen ...
-
Bulli schrieb:
Der Amiga hatte damals vor 20 Jahren schon echtes Multitasking und Fenstertechnik. Ja, war damals auch alles super. Aber er hatte keinen Speicherschutz und deshalb hat man schön die Guru-Meldung bekommen.
Virtuelle Adreßräume sind wirklich ein alter Hut (UNIX Workstations bietet diese seit einer halben Ewigkeit), NEXTSTEP wird bald 20 Jahre alt und ist im großen ganzen schon so gewesen wie es MacOS X nun ist. MacOS X ist etwas bunter geworden, es gibt mehr Funktionen, aber im Grundatz hat sich nicht so dramatisch viel getan.
Heute ist Speicherschutz etwas normales. Dafür haben wir heute sowas wie Stackoverflow-Schutz in Windows bzw. bietet der MSVC2005 jedem Entwickler an!
Hm, irgend wie erschließt sich mir nicht, was daran neues sein soll. Daß Windows der OS-Entwicklung um Jahre hinterherhinkt, sollte eine bekannte Tatsache sein.
-
@pc(): mal wieder ein sehr unterhaltsamer text, der viel wahres enthält. ich lese deine postings eigentlich immer sehr gern.
-
~fricky schrieb:
@pc(): mal wieder ein sehr unterhaltsamer text, der viel wahres enthält.
Hat wenigstens einen amüsiert, aber hat schon einer erklären können, warum mein Navi abstürzt, wenn ich nach Ungarn will, mein Sat- Receiver alle paar Tage vom Netz getrennt werden muß, mein WinXP beim jedem Start die Audio Devices zerwürfelt und ich meinem Dad alle paar Wochen aus einer OfficeXP- Zwickmühle helfen muß
Grottenschlechte Software, nichts sonst.
-
pc() schrieb:
Grottenschlechte Software, nichts sonst.
bleib locker, stümperhaft gemachte software ist doch der normalzustand bei endverbraucherprodukten. wenn architekten häuser so konstruieren würden, wie softwareentwickler arbeiten, dann wäre zwar schon die halbe welt zusammengestürzt, aber in bereichen, in denen es wirklich darauf ankommt, dass software stabil läuft, geht's mit einem mal doch. eigentlich kommen wir doch alle ganz gut klar mit ständig crashenden windosen und einfrierenden embedded-linux devices. das ist nun mal end-user schrott, da wird nix ellenlang getestet und zertifiziert, etc. das geraffel muss billig sein, wird frühzeitig auf den markt geschmissen und reift dann beim kunden. banana ware.
-
~fricky schrieb:
bleib locker, stümperhaft gemachte software ist doch der normalzustand bei endverbraucherprodukten. ... das geraffel muss billig sein, wird frühzeitig auf den markt geschmissen und reift dann beim kunden. banana ware.
Ja, eine Folge der "Geiz-ist-geil-" Mentalität. Ob das jetzt altes Denken ist, mag dahingestellt sein, aber man hat lieber den Endverbraucher dahingehend konditioniert, daß er das protestlos hinnimmt, als daß man Qualitätssstandards, die für einen Airbag- Wächter gelten, auf andere Bereiche ausdehnt und das als Merkmal vermarktet; auf's Stück umgelegt, wären das vielleicht drei EUR mehr, aber das wär's mir wert, wenn ich wirklich die Sendung von 2:30 Uhr im Kasten hätte, statt das Ding zum Frühstück Rebooten zu müssen.
Aber es sind ja nicht nur bugs und Bananaware, die nerven, sondern daß Software ohne jegliche Rücksicht auf Benutzer entwickelt wird. Office- Suiten sind schon so oft durch die Mangel gezogen worden, daß sich da eigentlich jedes weitere Wort als pure Wiederholung alter Vorwürfe ausnimmt, alleine, es juckt keinen Hersteller. Mit Blick auf meine Taskleiste fällt mir der Eagle von Cadsoft auf. Den habe ich vor langer, langer Zeit gekauft und fleißig geupdated, weil ich damit für jemanden eine Reihe Layouts auf dem Stand der Zeit halte. Das Teil hat so eine hirntote, krude Bedienbarkeit, es stinkt auch heute noch geradezu nach DOSe. In den Foren allfälliges Genörgel darüber wurde von den Mastern abgetan, "die Mehrheit" wolle das so beibehalten. Wenn ich an eigenen Sachen arbeite, brauche ich mit meinem Cadstar z.B. nur die Hälfte der Mauswege und Klicks für das Gleiche.
Ich will darauf hinaus, daß die Softwareindustrie generell nicht benutzer- oder gar aufgabenzentriert arbeitet, der User ist nur der blöde Hund, der das Zeug hinterher gegen viel Kohle kaufen soll. So darf man aber nicht denken, das führt bestenfalls zu Halbbrauchbarem. Benutzer "Opa", der seinem Vermieter einen Protestbrief wegen der überhöhten Nebenkostenabrechnung schreiben mag, hat andere Anforderungen als Benutzer "Enkel", der dem Opa eine Glückwunschkarte zum 76. Geb. zusammenklicken mag. Die Office- Suiten können beides, aber keinen von beiden usern effektiv an die Erledigung der Aufgabe heranführen.
Und was sich Microsoft mit der UAC bei Vista gedacht hat, weiß der Henker. Das Zeug ist für "Opa" wie "Enkel" unbedienbar, genauso wie für User "Bürotippse", auch ich als User "Entwickler" habe die Kryptik der Sicherheitshinweise durch "XP drübermachen" erstmal aus der Welt geschafft. Und langsam ist das Zeug, unter 2 GB RAM schmort das nur im eigenen Saft. Trotzdem haben meine Schwiegereltern durch die Werbung angeheizt, gefragt, ob ich ihnen das nicht auf den Rechner installieren mag, weil es doch das "beste und sicherste Windows" sei. Na klar, ich will im 5- Minuten- Takt als Hotliner herangezogen werden, sonst noch was?
Ich behaupte mal, daß es so ziemlich das schlechteste Betriebssystem aller Zeiten ist, weil es den Benutzer total aus dem Fokus verloren hat und ihn eher behindert denn unterstützt. Dafür verbraucht es Ressourcen ohne Ende und spendiert im Gegenzug Klicki- Bunti- Aero- Kokolores.Du wolltest Sprachsteuerung? Schonmal "Dragon naturally speaking" oder so probiert? Ich hab's wieder runtergeworfen, weil die Usability immer noch ziemlich auf das Diktat beschränkt ist und ich sowieso schneller tippe als spreche. Schlimmer noch, beim Navigieren durch RL unterbrochen kann zu Effekten führen, die viel Humor erfordern, wenn man nicht gegen den Rechner treten will.
Beispiel aus eigenem Fundus: Vor acht Jahren habe ich eine modifizierte Mehrachssteuerung einem Kunden vorgestellt, auf deren Display es sehr "technisch" zuging, so mit vorbeiflitzenden CNC- Datensätzen usw.. Ich fand's total cool, aber statt Applaus gab's Schelte, ob ich noch ganz bei Trost wäre. An der Kiste sollten später Medizintechnik- Laboranten und Lehrjungs sitzen, die mit CNC nichts am Hut haben, also mußte ich das Menü in einen Debug- Mode für die Servicetechniker verbannen. Dann haben wir uns den ganzen Arbeitsablauf vorgenommen, ein bißchen optimiert und als Ziel definiert, daß hinter dem Display mehr Intelligenz zu sitzen hat, als davor. Mit jedem Menschen begreiflicher Symbolik (wie z.B. Ampel rot, gelb, grün) ist dann ein Teil herausgekommen, das so beliebt geworden ist, daß die Rohlinge dafür mittlerweile in China gefälscht werden.
Mit der selben grundlegenden Technik, aber völlig anderem MMI habe ich das nochmal in den Zahntechnikbereich verkauft und bin dabei, eine dritte, wiederum angepaßte Variante fertigzustellen.Unter "alter Denke" verstehe ich, daß man alle möglichen Benutzer über einen Kamm schert und auch das Interfacing nie wirklich in Frage stellt. GUIs sind primär rein visuell geblieben, macht mal die Augen zu und probiert ein Braille- Terminal aus. Sprachsteuerung? Immer noch in den Kinderschuhen. Haptische Interfaces? SpaceMouse und ForceFeedback werden als Freak-/Spielezeugs abgetan. Zielgruppenrelevante GUIs? Bestenfalls Beginner/Expert- Modes.
Neues Denken im Bereich Software?
Vielleicht mal so:
- Software wird für Benutzer gemacht, die Aufgaben damit erledigen wollen. Je besser Deine Software dazu geeignet ist, desto höher ist die Usability.
- Benutzer sind nicht mit Dir identisch und denken nicht wie Du. Was Dir logisch vorkommt wird "Opa" und "Tippse" eher fremd sein.
- Ressourcen sind nicht unendlich. Was bei Dir funktioniert, kann Opas Rechner ins Koma stürzen. Nichts ohne Laufzeitoptimierung weggeben.
- Stabil designen, testen, testen, testen. Bugs sind Scheiße- Bumerangs.Fällt euch noch was ein?