Das alte Denken
-
~fricky schrieb:
wer sagt denn, dass man dabei wie wahnsinnig brüllen muss? telefonate und überhaupt sämtliche gespräche in büroräumen waren schon immer ein riesenproblem. schon klar...
Nicht in jedem Bürojob wird 8 Std. pro Tag telefoniert. Mag ja sein das du Telefonistin bist, wir hier im Büro nicht! Wir sitzen hier zu dritt in einem Raum, und es kommen vielleicht zwei bis drei Anrufe rein, die vielleicht 2 bis 5 Min. dauern. Hem... jetzt stelle ich mir mal vor, das jeder anfängt seinen Computer anzusprechen, während er eine Doku schreibt, eine neue Distribution zusammen baut, programmiert, im Web nach Lösungen sucht.
Ja, das wird echt super, wenn jetzt jeder von uns seinen Computer vollquatscht. Und nach 8 Std. bin ich dann super heiser, muß immer nen Schluck Wasser trinken, und am Ende des Tages weiß jeder von jedem welche Datei er verschoben, gelöscht hat. Welche EMails er geschrieben hat...
Tja, das ist natürlich echt super, am Ende des tages kommt man entspannter aus dem Büro, als wenn man die Maus und Tastatur benutzt hätte.
Von den Büros von denen du redest, ist wohl eher sowas wie Kundensupport u.ä. Die haben aber meistens eh Trennwände zwischen den einzelnen Arbeitsplätzen und überhaupt ist die Arbeit eine ganz andere.
Achja, und was machen die eigentlich? Wenn die mit dem Kunden telefonieren, müssen die immer dem Kunden sagen "Neee, ich meinte den Computer! Sie waren ja garnicht gemeint!".
Wenn ich so darüber nachdenke, wird diese Sprachsteuerung immer witziger.
-
Bulli schrieb:
jetzt stelle ich mir mal vor, das jeder anfängt seinen Computer anzusprechen, während er eine Doku schreibt, eine neue Distribution zusammen baut, programmiert, im Web nach Lösungen sucht.
er schreibt die doku ja nicht, sondern diktiert sie. im web suchen wäre auch viel einfacher. du sagst z.b. einfach 'google pink noise' und der computer liest dir vor, was er alles zu dem thema gefunden hat.
Bulli schrieb:
Ja, das wird echt super, wenn jetzt jeder von uns seinen Computer vollquatscht. Und nach 8 Std. bin ich dann super heiser, muß immer nen Schluck Wasser trinken...
du musst doch nicht brüllen wie verrückt. leise in's headset quatschen reicht doch.
Bulli schrieb:
Tja, das ist natürlich echt super, am Ende des tages kommt man entspannter aus dem Büro, als wenn man die Maus und Tastatur benutzt hätte.
könnte schon sein. augenschonender wär's nebenbei auch noch.
Bulli schrieb:
Achja, und was machen die eigentlich? Wenn die mit dem Kunden telefonieren, müssen die immer dem Kunden sagen "Neee, ich meinte den Computer! Sie waren ja garnicht gemeint!".
ein mensch kann ja meistens erkennen, ob man ihn meint oder nicht. aber das ist z.b. etwas, was ich als fortschritt bezeichnen würde: wenn ein computer erkennen kann, dass er angesprochen wird.
Bulli schrieb:
Wenn ich so darüber nachdenke, wird diese Sprachsteuerung immer witziger.
in 50 jahren wird man sich über unsere heutigen eingabemethoden sicherlich auch kaputtlachen.
-
Sprachsteuerung muß ja nicht so ablaufen wie bei Cpt. Spock 1969 ("Computer!")
Denkbar wäre, daß man den Computer mit speziellen Lauten (solche, die bei natürlicher Sprache gar nicht vorkommen) oder Anfangsbuchstaben kommandiert, z.B. "S" für Startmenü, außerdem kann durch geeignete Mikrofonanordnung vermutlich eine Sensitivität erreichen, die es nicht erfordert, so laut mit dem Computer zu sprechen, daß die Leute im Nachbarbüro zum Fahrstuhl, wenn man seinem PC befiehlt: "Herunterfahren".
Wenn man ein großes, berührungsempfindliches Display als horizontale "Schreibtischplatte" benutzt und mit den Fingern darauf umherfährt oder eine Tastatur darauf einblendet, braucht man weder Maus noch Monitor noch Tastatur.
Die Oberfläche ließe sich dann evtl. noch als "E-Papier" zusammenrollen und ins Büro mitnehmen oder im Bus als E-Zeitung lesen.Ähnliche Versuche gibt es bereits, z.B. in Form eines Display-Tisches, auf dem man die Komponenten eines Musik-Synthesizers mit den Händen manipuliert.
Nur mal ein paar Ideen, wie sich Bedienoberflächen weiterentwickeln könnten.
-
Ich will aber nicht den ganzen Tag reden o.O Meine armen Stimmbänder...
Bei Texten wärs zwar praktisch, aber alles andere...
-
Also eigentlich haben wir hier zwei Themen: Fortschritt in der Usability und Fortschritt in der Programmiertechnik.
Zu "Old Fashioned" hab' ich 'ne Anekdote: Ein Schulfreund hat sich der Informatik zugewendet und ist '94 bei einem großen Maschinenbauer gelandet, sein Vorgesetzter ein Urgestein aus der Lochstreifenstanzer- Ära, der seit etwa 20 Jahren Chefentwickler für Teststandsteuerung und Ergebnisauswertung war und alles Neue grundlegend verteufelte. Da aber der Tag X nahte, an dem die Verrentung anstand, hat man in Panik ein paar Informatiker zusammengesammelt, die das Zeug von DOS auf WinNT lupfen sollten und die haben gestaunt, wie der Alte seine Sachen über die Zeit (von irgendeinem OS nach CP/M nach DOS) gerettet hatte: Große Teile waren in FORTRAN geschrieben, andere in BASIC, bißchen Pascal, die "neuesten" in C (aber das mochte er nicht so), gesteuert von riesigen Batches über die Errorlevel- Rückgaben, "Interprozesskommunikation" fand über einen Sack temporärer Dateien mit einem undurchschaubaren Locking- System statt.
Alleine der Versuch, das System mal grob neu zu modellieren, um es unter C++ neu aufzuziehen, scheiterte an seiner Bockigkeit, in OOP mehr als "neumodisches Teufelszeug" zu sehen. Als das Team nach einigen Monaten nicht weiter war, wurde der Alte endlich zur Überarbeitung eines Subsystems abkommandiert und das Team verdoppelt. Aber an seinem Aufrufparameter / Returnfile- System hat er auch da festgehalten.
Das ist jetzt zwar nur Hörensagen, war aber glaubhaft geschildert.Wobei ich auch zugeben muß, daß ich ein paar Ältere (50 - 60) kennengelernt habe, die Schritt gehalten haben und immer noch jeder neuen Release von Eclipse entgegenfiebern. Das sind die Leute, die nie aufgehört haben, zu lernen und aus dem aktiv abrufbaren, langjährig gesammelten Wissen aktuelle Trends klassifizieren, konzeptionell einordnen und je nach Brauchbarkeit einsetzen können.
So, jetzt ist es letztlich eine unternehmerische Frage, wie das zu bewerten ist, denn ohne Zweifel hat der störrische alte Sack aus meiner Geschichte da oben die Teststände zwei Jahrzehnte IT- seitig beisammen gehalten, aber auch dafür gesorgt, daß bei Staffelübergabe die Staffel in Bausch und Bogen weggeworfen werden mußte.
Andererseits ist Redesign um den wechselnden Hypes diverser OSes, neuem Modelling und Sprachen zu Willen hinterherzuhecheln nicht produktiv, sondern kostet primär Ressourcen.
Als Anregung kann ich da nur hinzufügen, daß es geraten scheint, echte Paradigmenwechsel zu erkennen und darauf bestehende Konzepte zu überprüfen. Das Problem wird nur dadurch verschärft, daß die Entscheider selten in der Lage sind, Paradigmenwechsel rechtzeitig zu sehen.Der andere Teil betrifft wohl eher die Usability.
Und da muß ich wirklich einen Mangel an Fortschritt attestieren, weil seit den GUIs eigentlich nichts wirklich Revolutionäres passiert ist. Wir erinnern uns: Anfang der 80er gab's den Apple IIe und den ersten IBM- PC, der so schlecht war, daß die erste Charge zurückgeholt wurde. Daß DOS/PC dennoch ein Erfolg wurde, machte Apple ratlos, weil der Markt das Zeug lieber hatte, als die mit großem Geldaufwand entwickelte Lisa. Steve Jobs bekam dann eine Einladung zu einer Privatvorführung von Xerox und dort die erste GUI zu Gesicht - als alter Schlawiner mit Marktgespür hat er das nachbauen lassen, was, wie wir wissen, in den Erfolg des McIntosh und mittelbar des Atari ST mündete.
Und weil Nachbauer gerne nachgebaut werden, hängten sich andere an, wir erinnern uns an die Katastrophen Win 1.0 und Win 2.0, erst mit Win 3.x hatte µ$ Erfolg.
Ungeachtet der verschiedenen Ausfertigungen haben sich aber die Grundprinzipien der Mausschubserei als MMI nicht geändert. Nichts wirklich Neues also.Ah, Multimedia vielleicht? Intel hat Anfang der 90er einen chipsatzbasierenden Ansatz vorgestellt und auf Wunsch von µ$ eingestampft, was im Gegenzug zur damaligen "Wintel"- Allianz führte. In der Folge blieb dem Mainstream auf Jahre hinaus ein sinnvolles MM- Subsystem verwehrt. Erst mit W2K löste µ$ die Versprechen halbwegs ein, die Amiga, Archimedes und Konsorten schon ein Jahrzehnt zuvor ansatzweise erfüllten. Davon abgesehen kenne ich trotzdem kaum ein MCE- System, das nicht hin und wieder massiv muckt.
OK, OK - nehmen wir den Browser als Internet- Desktop auf dem Desktop. Im Gegensatz zur Mausschubsergemeinde wissen wir, daß den nicht µ$ erfunden hat, aber mit der gleichen Methode vereinnahmt wurde, wie Multimedia und GUI. Aber an den Aldi-PC-Käufer / ComputerBild- Leser ist das nicht vermittelbar.
Ich will jetzt nicht nur auf µ$ herumreiten, sondern nur thematisieren, daß dieser Laden kein Innovationsträger war, jetzt nicht ist, und wahrscheinlich auch nie sein wird. Ah, und die Linux- Gemeinde hat sich auch nicht wirklich mit Ruhm bekleckert. Nüchtern betrachtet bastelt die an einem monolithischen UNIX herum und gefällt sich in Flamewars über x-server, GUIs und was alles im Kernel erlaubt sein soll oder auch nicht. Letztlich hat sie als einzige Innovation eigentlich nur eine Diskussion über OpenSource und die Lizenzmodelle dazu angestoßen und das ist kein Erfolg der IT'ler, sondern der Juristen.
Von Linux hab' ich hauptsächlich vordergründig billige Server, die mir als "SnakeOil"- Wundermittel angepriesen werden, aber so rotzig hingeschmissen werden, daß ich mich an Win3.1- Zeiten erinnert fühle. Ob ich an ini- Dateien basteln muß oder conf, macht in der Hinsicht keinen Unterschied.Die "Innovation" wird seit etwa 10 Jahren, eher länger sogar, hauptsächlich von der Miniaturisierung der Hardware getragen.
PDAs, MP3- Player, Navis, Cams oder "All-in-one-" Handys und der ganze Wireless- Klimbim dokumentieren hauptsächlich, daß die Software auf der Stelle tritt. Wir tragen Rechenkanonen in der Hemdtasche herum, die vor zehn, fünfzehn Jahren nur neben dem Schreibtisch Platz hatten. Und was damals auf dem 14"er- Bildschirm Platz hatte, wird samt GUI einfach aufs Mini- LCD gequetscht. Grundlegend fortschrittlich ist softwareseitig daran gar nichts.Und wenn unser Blick unter den Schreibtisch fällt, steht da so ein Quadcore- Monster, aber was machen wir damit? Ausgereizt ist die Kiste erst, wenn der aktuellste 3D- Shooter die Grafikkarte zum Glühen bringt. Ist aber nicht der Normalfall. Tatort Büro- PC/ Geschäftsbriefe tippen: MS OfficeXP starten dauert länger, als in einer VM Win95 samt PFS WindowWorks hochzubringen. Das kann alles, was man dazu braucht, der usability- Gewinn von 15 Jahren Softwaregeschichte wird damit imaginär. Hüpfende Büroklammern, 100 MB Nutzlos- Wizards und Hilfetexte, die eher Verwirrungshilfen darstellen, ist alles, was dazugekommen ist. Jetzt habe ich doch die dreihundert Features unterschlagen, die von 10% der Usern gebraucht, von 5% auch gefunden und von 0,1% als schlüssig implementiert empfunden werden, aber das ist bei Polemik nun mal so.
Als Softwareschaffender wird man mit Ressourcen beworfen, die grandios gewachsen sind, vom 386SX16 (1990) zum heutigen Quadcore etwa um den Faktor 1000, was Rechengeschwindigkeit anbelangt, bei NVR und RAM ebenso, alle Busse usw. in ähnlicher Dimension. Auf der Hardwareseite wird alles tausendmal schneller, größer oder schrumpft volumenseitig auf ein Tausendstel.
Und wo bleibt die Vertausendfachung auf der Softwareseite? Die Software wird um den Faktor 1000 träger erstmal. Heute Vista Ultimate zu starten, dauert so lange, wie GEOS 2.0 auf einem C128. GeoWrite oder die Word- Komponente zu starten macht auch keinen fetten Unterschied, erst beim Drucken bleibt die 2 MHz- Kiste hinter dem GHz- Boliden naturgemäß zurück.
Wenn das nicht reicht, macht man unter dem Betriebssystem unter einem Browser einen Scriptinterpreter auf, der dann Pacman spielt, wie in alten Zeiten. Und wenn das Ding nicht die virtuellen Timer hernimmt, ist es unspielbar schnell - Glückwunsch!Warum hinterfragt niemand diese Diskrepanz? Warum gibt es Betriebssysteme, die mit einem völlig idiotischen UAC auf den Markt geworfen und auch noch gekauft werden und den Benutzer eher hindern denn schützen (mein Vater hat zuletzt entnervt zuviel abgenickt und sich Tod und Teufel auf den Rechner geholt).
Warum ist er eigentlich immer noch mit dem MS Works 3.0 am Glücklichsten?Weil es die ganze Software- IT- Fatzo- Hosenträgerschnalzer- Dickschwätz- Community nicht gerafft hat, daß es darum gehen sollte, dem User ein effektives Werkzeug in die Hand zu geben und die Progger das als selbstverständlich mittragen. Früher hätte man keine Hämmer verkaufen können, die bei Nichtfunktion einen Alt-Strg-Entf oder gar einen Reset- Button brauchen (mein Linux- betriebener DVBT/SAT- Recorder/Receiver will das alle paar Tage), aber wenn das die letzte Stufe der Softwarekunst ist, na dann gute Nacht.
Darf ich das so subsummieren: Die Software hängt dem Hardwarefortschritt um Generationen hinterher. Ressourcenschonende benutzerzentrierte Lösungen finde ich fast nur noch bei Kleinsteuerungen. Da sollte sich mach einer schämen ...
-
Bulli schrieb:
Der Amiga hatte damals vor 20 Jahren schon echtes Multitasking und Fenstertechnik. Ja, war damals auch alles super. Aber er hatte keinen Speicherschutz und deshalb hat man schön die Guru-Meldung bekommen.
Virtuelle Adreßräume sind wirklich ein alter Hut (UNIX Workstations bietet diese seit einer halben Ewigkeit), NEXTSTEP wird bald 20 Jahre alt und ist im großen ganzen schon so gewesen wie es MacOS X nun ist. MacOS X ist etwas bunter geworden, es gibt mehr Funktionen, aber im Grundatz hat sich nicht so dramatisch viel getan.
Heute ist Speicherschutz etwas normales. Dafür haben wir heute sowas wie Stackoverflow-Schutz in Windows bzw. bietet der MSVC2005 jedem Entwickler an!
Hm, irgend wie erschließt sich mir nicht, was daran neues sein soll. Daß Windows der OS-Entwicklung um Jahre hinterherhinkt, sollte eine bekannte Tatsache sein.
-
@pc(): mal wieder ein sehr unterhaltsamer text, der viel wahres enthält. ich lese deine postings eigentlich immer sehr gern.
-
~fricky schrieb:
@pc(): mal wieder ein sehr unterhaltsamer text, der viel wahres enthält.
Hat wenigstens einen amüsiert, aber hat schon einer erklären können, warum mein Navi abstürzt, wenn ich nach Ungarn will, mein Sat- Receiver alle paar Tage vom Netz getrennt werden muß, mein WinXP beim jedem Start die Audio Devices zerwürfelt und ich meinem Dad alle paar Wochen aus einer OfficeXP- Zwickmühle helfen muß
Grottenschlechte Software, nichts sonst.
-
pc() schrieb:
Grottenschlechte Software, nichts sonst.
bleib locker, stümperhaft gemachte software ist doch der normalzustand bei endverbraucherprodukten. wenn architekten häuser so konstruieren würden, wie softwareentwickler arbeiten, dann wäre zwar schon die halbe welt zusammengestürzt, aber in bereichen, in denen es wirklich darauf ankommt, dass software stabil läuft, geht's mit einem mal doch. eigentlich kommen wir doch alle ganz gut klar mit ständig crashenden windosen und einfrierenden embedded-linux devices. das ist nun mal end-user schrott, da wird nix ellenlang getestet und zertifiziert, etc. das geraffel muss billig sein, wird frühzeitig auf den markt geschmissen und reift dann beim kunden. banana ware.
-
~fricky schrieb:
bleib locker, stümperhaft gemachte software ist doch der normalzustand bei endverbraucherprodukten. ... das geraffel muss billig sein, wird frühzeitig auf den markt geschmissen und reift dann beim kunden. banana ware.
Ja, eine Folge der "Geiz-ist-geil-" Mentalität. Ob das jetzt altes Denken ist, mag dahingestellt sein, aber man hat lieber den Endverbraucher dahingehend konditioniert, daß er das protestlos hinnimmt, als daß man Qualitätssstandards, die für einen Airbag- Wächter gelten, auf andere Bereiche ausdehnt und das als Merkmal vermarktet; auf's Stück umgelegt, wären das vielleicht drei EUR mehr, aber das wär's mir wert, wenn ich wirklich die Sendung von 2:30 Uhr im Kasten hätte, statt das Ding zum Frühstück Rebooten zu müssen.
Aber es sind ja nicht nur bugs und Bananaware, die nerven, sondern daß Software ohne jegliche Rücksicht auf Benutzer entwickelt wird. Office- Suiten sind schon so oft durch die Mangel gezogen worden, daß sich da eigentlich jedes weitere Wort als pure Wiederholung alter Vorwürfe ausnimmt, alleine, es juckt keinen Hersteller. Mit Blick auf meine Taskleiste fällt mir der Eagle von Cadsoft auf. Den habe ich vor langer, langer Zeit gekauft und fleißig geupdated, weil ich damit für jemanden eine Reihe Layouts auf dem Stand der Zeit halte. Das Teil hat so eine hirntote, krude Bedienbarkeit, es stinkt auch heute noch geradezu nach DOSe. In den Foren allfälliges Genörgel darüber wurde von den Mastern abgetan, "die Mehrheit" wolle das so beibehalten. Wenn ich an eigenen Sachen arbeite, brauche ich mit meinem Cadstar z.B. nur die Hälfte der Mauswege und Klicks für das Gleiche.
Ich will darauf hinaus, daß die Softwareindustrie generell nicht benutzer- oder gar aufgabenzentriert arbeitet, der User ist nur der blöde Hund, der das Zeug hinterher gegen viel Kohle kaufen soll. So darf man aber nicht denken, das führt bestenfalls zu Halbbrauchbarem. Benutzer "Opa", der seinem Vermieter einen Protestbrief wegen der überhöhten Nebenkostenabrechnung schreiben mag, hat andere Anforderungen als Benutzer "Enkel", der dem Opa eine Glückwunschkarte zum 76. Geb. zusammenklicken mag. Die Office- Suiten können beides, aber keinen von beiden usern effektiv an die Erledigung der Aufgabe heranführen.
Und was sich Microsoft mit der UAC bei Vista gedacht hat, weiß der Henker. Das Zeug ist für "Opa" wie "Enkel" unbedienbar, genauso wie für User "Bürotippse", auch ich als User "Entwickler" habe die Kryptik der Sicherheitshinweise durch "XP drübermachen" erstmal aus der Welt geschafft. Und langsam ist das Zeug, unter 2 GB RAM schmort das nur im eigenen Saft. Trotzdem haben meine Schwiegereltern durch die Werbung angeheizt, gefragt, ob ich ihnen das nicht auf den Rechner installieren mag, weil es doch das "beste und sicherste Windows" sei. Na klar, ich will im 5- Minuten- Takt als Hotliner herangezogen werden, sonst noch was?
Ich behaupte mal, daß es so ziemlich das schlechteste Betriebssystem aller Zeiten ist, weil es den Benutzer total aus dem Fokus verloren hat und ihn eher behindert denn unterstützt. Dafür verbraucht es Ressourcen ohne Ende und spendiert im Gegenzug Klicki- Bunti- Aero- Kokolores.Du wolltest Sprachsteuerung? Schonmal "Dragon naturally speaking" oder so probiert? Ich hab's wieder runtergeworfen, weil die Usability immer noch ziemlich auf das Diktat beschränkt ist und ich sowieso schneller tippe als spreche. Schlimmer noch, beim Navigieren durch RL unterbrochen kann zu Effekten führen, die viel Humor erfordern, wenn man nicht gegen den Rechner treten will.
Beispiel aus eigenem Fundus: Vor acht Jahren habe ich eine modifizierte Mehrachssteuerung einem Kunden vorgestellt, auf deren Display es sehr "technisch" zuging, so mit vorbeiflitzenden CNC- Datensätzen usw.. Ich fand's total cool, aber statt Applaus gab's Schelte, ob ich noch ganz bei Trost wäre. An der Kiste sollten später Medizintechnik- Laboranten und Lehrjungs sitzen, die mit CNC nichts am Hut haben, also mußte ich das Menü in einen Debug- Mode für die Servicetechniker verbannen. Dann haben wir uns den ganzen Arbeitsablauf vorgenommen, ein bißchen optimiert und als Ziel definiert, daß hinter dem Display mehr Intelligenz zu sitzen hat, als davor. Mit jedem Menschen begreiflicher Symbolik (wie z.B. Ampel rot, gelb, grün) ist dann ein Teil herausgekommen, das so beliebt geworden ist, daß die Rohlinge dafür mittlerweile in China gefälscht werden.
Mit der selben grundlegenden Technik, aber völlig anderem MMI habe ich das nochmal in den Zahntechnikbereich verkauft und bin dabei, eine dritte, wiederum angepaßte Variante fertigzustellen.Unter "alter Denke" verstehe ich, daß man alle möglichen Benutzer über einen Kamm schert und auch das Interfacing nie wirklich in Frage stellt. GUIs sind primär rein visuell geblieben, macht mal die Augen zu und probiert ein Braille- Terminal aus. Sprachsteuerung? Immer noch in den Kinderschuhen. Haptische Interfaces? SpaceMouse und ForceFeedback werden als Freak-/Spielezeugs abgetan. Zielgruppenrelevante GUIs? Bestenfalls Beginner/Expert- Modes.
Neues Denken im Bereich Software?
Vielleicht mal so:
- Software wird für Benutzer gemacht, die Aufgaben damit erledigen wollen. Je besser Deine Software dazu geeignet ist, desto höher ist die Usability.
- Benutzer sind nicht mit Dir identisch und denken nicht wie Du. Was Dir logisch vorkommt wird "Opa" und "Tippse" eher fremd sein.
- Ressourcen sind nicht unendlich. Was bei Dir funktioniert, kann Opas Rechner ins Koma stürzen. Nichts ohne Laufzeitoptimierung weggeben.
- Stabil designen, testen, testen, testen. Bugs sind Scheiße- Bumerangs.Fällt euch noch was ein?
-
pointercrash() schrieb:
...als Ziel definiert, daß hinter dem Display mehr Intelligenz zu sitzen hat, als davor. Mit jedem Menschen begreiflicher Symbolik (wie z.B. Ampel rot, gelb, grün) ist dann ein Teil herausgekommen, das so beliebt geworden ist, daß die Rohlinge dafür mittlerweile in China gefälscht werden.
Mit der selben grundlegenden Technik, aber völlig anderem MMI habe ich das nochmal in den Zahntechnikbereich verkauft und bin dabei, eine dritte, wiederum angepaßte Variante fertigzustellen.Unter "alter Denke" verstehe ich, daß man alle möglichen Benutzer über einen Kamm schert und auch das Interfacing nie wirklich in Frage stellt. ...
Naja, was uns "Freaks" schnell mal aus dem Blick gerät, ist, dass für 99% der Leute, die letztlich unsere Arbeit bezahlen, das Ergebnis nur ein Werkzeug ist, mit dem sie ihre Arbeit erleichtert bzw. deren Ergebnis verbessert haben wollen.
Nur wenige haben Zeit/Muße oder Lust, ihre (nicht selten über Jahrzehnte hin optimierte) Arbeits- und Sichtweise auf ihr fachliches Feld (von dem sie nicht selten mehr Ahnung haben als wir IT-Fraggles) daraufhin umzuwerfen, was gerade am schicksten zu programmieren ist.
Um das "Autobeispiel" mal wieder zu bemühen: Wenn Du als Kurierfahrer Dein Geld verdienst, wärst Du auch nicht glücklich, wenn Dein Auto jede Woche ein komplett neues Interface (mal Steuerknüppel, mal Lenkrad, Licht, Pedale, Schaltweise, Workflow komplett anders, ....) hätte, das dem Automechniker so richtig "cool" vorkommt.
... oder mal für "uns": Was hieltet Ihr davon, wenn die Tastaturhersteller jede Innovation sofort umsetzten und die Tasten permanent woanders plazierten, Eingaben nur noch per Trackball zuließen und Monate darauf auf Sprachsteuerung wechselt... da würde ich als Entwickler auch wahnsinnig werden.
- und ehrlich gesagt: Ich vermisse gar nichts bei meinem derzeitigen UI.Gruß,
Simon2.
-
Simon2 schrieb:
Nur wenige haben Zeit/Muße oder Lust, ihre (nicht selten über Jahrzehnte hin optimierte) Arbeits- und Sichtweise auf ihr fachliches Feld (von dem sie nicht selten mehr Ahnung haben als wir IT-Fraggles) daraufhin umzuwerfen, was gerade am schicksten zu programmieren ist.
Hast Du das aus einem AutoCAD- Werbefetzen abgepinselt
Simon2 schrieb:
Um das "Autobeispiel" mal wieder zu bemühen: Wenn Du als Kurierfahrer Dein Geld verdienst, wärst Du auch nicht glücklich, wenn Dein Auto jede Woche ein komplett neues Interface (mal Steuerknüppel, mal Lenkrad, Licht, Pedale, Schaltweise, Workflow komplett anders, ....) hätte, das dem Automechniker so richtig "cool" vorkommt.
Und das macht Dich sicher, daß Lenkrad, Kupplung usw. "richtig" positioniert sind? Falsch, sie sind nur konventionell plaziert. Ergonomisch betrachtet ist das angeblich suboptimal, für Linkshänder sogar falsch, man verwirft es nur nicht wegen der starken Konvention. Anders herum würde der Usability- Gewinn bei der Ergonomie den Verlust der Usability als De-Facto- Standard nicht wettmachen. Nichtsdestotrotz sollte man alles zyklisch hinterfragen.
Simon2 schrieb:
... oder mal für "uns": Was hieltet Ihr davon, wenn die Tastaturhersteller jede Innovation sofort umsetzten und die Tasten permanent woanders plazierten, Eingaben nur noch per Trackball zuließen und Monate darauf auf Sprachsteuerung wechselt... da würde ich als Entwickler auch wahnsinnig werden.
Gilt das Gleiche wie zuvor - ist es besser, sollte man drüber nachdenken, ob es den Verlust an Konvention wert sein könnte.
Simon2 schrieb:
- und ehrlich gesagt: Ich vermisse gar nichts bei meinem derzeitigen UI.
Ah, und jetzt hab' ich Dich da, wo Du Dir die Frage gefallen lassen mußt, ob Du Dir deswegen um "Opa" und "Tippse" keine Gedanken machen magst? DU bist ja zufrieden ...
-
man sollte davon aus gehen, seh ich in der verwandschaft
jeder weiss was die taste ist im eins nach rechts zu ruecken, oder was man druecken muss damit es gross geschrieben wird
aber sag blos nicht "tab" oder "shift" dann wird man nur ratlos angeschaut"drueck mal alt und tab"
dann sind die normal benutzer schon ueberfordert, "was ist jetzt tab? bei alt stehts ja drann"genauso verhaellt es sich in der oberflaeche
und bevor man oberflaechen umstellt, muss man wissen was man riskiert - auch wenns innovativer, besser und leichter zu bedienen ist, wird "buerotussi" sagen "das is doch scheisse, ich will mein altes zurueck"
-
pointercrash() schrieb:
Unter "alter Denke" verstehe ich, daß man alle möglichen Benutzer über einen Kamm schert und auch das Interfacing nie wirklich in Frage stellt. GUIs sind primär rein visuell geblieben, macht mal die Augen zu und probiert ein Braille- Terminal aus. Sprachsteuerung? Immer noch in den Kinderschuhen. Haptische Interfaces? SpaceMouse und ForceFeedback werden als Freak-/Spielezeugs abgetan. Zielgruppenrelevante GUIs? Bestenfalls Beginner/Expert- Modes.
- Spracherkennung funktioniert nicht hinreichend fehlerfrei, weil es keine passende Algorithmen gibt.
- GUI-Entwicklung ist aufwendig und teuer, gleich mehrere Oberflächen wird kaum jemand bezahlen wollen.
- Alternative Bedienungsoberflächen sind erforscht worden, nur stimmt bei diesen meist das Kosten zu Nutzen Verhältnis nicht. Das kann bei speziellen Geräten meist ganz anders aussehen. Aber der 08/15 Computer ist nun einmal meist auf Tastatur und Maus beschränkt.
-
pointercrash() schrieb:
Ja, eine Folge der "Geiz-ist-geil-" Mentalität. Ob das jetzt altes Denken ist, mag dahingestellt sein, aber man hat lieber den Endverbraucher dahingehend konditioniert, daß er das protestlos hinnimmt, als daß man Qualitätssstandards, die für einen Airbag- Wächter gelten, auf andere Bereiche ausdehnt und das als Merkmal vermarktet...
richtig, ()'geiz_ist_geil+mehr_schein_als_sein' ist nämlich das 'neue denken'. jeder will die konkurrenz preislich unterbieten. und wo lässt sich die meiste kohle einsparen? natürlich bei der softwareentwicklung. z.b. glauben viele, sie können geld sparen, indem sie open source verwenden. nun müssen sie aber ihre hardware aufmotzen, weil embedded linux allein für die eigene verwaltung ein gewisses speicherminimum sehen will. und sie brauchen 'nen spezialisten, der ein board support package für die hardware entwickelt, usw. am ende sprengen solche projekte immer den kostenrahmen. weil jedoch () immer oberste priorität hat, wird nun die notbremse gezogen und das teil halbfertig auf den markt geschmissen. zu befürchten hat man nicht viel, denn man weiss ja, dass konkurrenzprodukte ebenfalls qualitativ minderwertig sind.
-
~fricky schrieb:
...zu befürchten hat man nicht viel, denn man weiss ja, dass konkurrenzprodukte ebenfalls qualitativ minderwertig sind.
Zum Glück gibt es aber auch noch ein paar kleinere Softwareklitchen, die zumindestens genug Geld einspielen, um sich auch etwas Idealismus erlauben zu können.
-
Schönes Beispiel für "Altes Denken":
Lass uns doch erstmal die Software stabil machen, deinen ganzen Test-Quatsch können wir dann ja nachher noch machen.
(Originalzitat als ich versuchte unserem "alten" Programmierer mein QS-Konzept näherzubringen. Nebenbei... ich progge auch seit 30 Jahren...)
-
pointercrash() schrieb:
Simon2 schrieb:
Nur wenige haben Zeit/Muße oder Lust, ihre (nicht selten über Jahrzehnte hin optimierte) Arbeits- und Sichtweise auf ihr fachliches Feld (von dem sie nicht selten mehr Ahnung haben als wir IT-Fraggles) daraufhin umzuwerfen, was gerade am schicksten zu programmieren ist.
Hast Du das aus einem AutoCAD- Werbefetzen abgepinselt
....
Nö ... im Werbeprospekt stände wohl nichts von "Zeit, Musse und Lust".
Das ist einfach meine Erfahrung bei Rückmeldungen von Kunden.
Du kannst natürlich gerne die "Alle-Anderen-haben-ja-keine-Ahnung-und-nur-ich-weiß-was-gut-für-sie-ist"-Keule schwingen - das ändert nichts am Status Quo (den ich beschrieb) - und ziemlich sicher auch nichts an der zukünftigen Einstellung Deiner Kunden.Viele sind mit ihrem "lokalen Optimum" zufrieden ... und deswegen nicht bereit, auf ein Versprechen eines "noch besseren lokalen Optimums" hin Geld/Zeit und Aufwand zu opfern. So geht's mir auch mit meinem Auto und mit meiner Tastatur.
pointercrash() schrieb:
...Gilt das Gleiche wie zuvor - ist es besser, sollte man drüber nachdenken, ob es den Verlust an Konvention wert sein könnte....
Meiner Ansicht nach ignoriert dieser schön klingende Ansatz verschiedene Problem:
1.) Allein das Herausfinden, ob es "besser" ist üblicherweise 90% des Umstellungsaufwands bedeutet. Ich müsste jedenfalls bei einer strukturell neuen Tastananordnung lange testen, bis ich wirklich beurteilen könnte, ob das neue System besser ist als das, was ich mir in den letzten 25 Jahren angewöhnt habe. Ich tippe z.B. nicht nach dem klassischen 10-Fingersystem, bin aber mit meinem inzwischen so schnell, dass ich sehr lange 10-Fingersystem trainieren müsste, um ihm eine echte Chance zu geben.2.) "Deine" optimale Lösung muss nicht "meine" sein. Nach meinem Eindruck ist z.B. das 10-Fingersystem super für "klassische Texte" (meine Frau ist damit wahnsinnig schnell) ... aber für's Programmieren (mit velen Ziffern, Klammer, ...) einfach unpraktisch.
Genauso erlebe ich oft den Hochmut von Programmierern, die nach 2 Stunden Beschäftigung mit der Materie meinen, besser beurteilen zu können, was "optimal" ist, als der Sachbearbeiter, der das sein 20 Jahren macht.
Natürlich kommt der Außenstehende oftmals auf neue/frische/außergewöhnliche Ideen, aber die Analyse, ob es wirklich in der Praxis besser ist, scheint mir zu oft seeeehr schluderig.3.) "Ausprobieren" ist oft ein unumkehrbarer Prozess. Wenn ich mich erstmal alles Neue installiert, eingewöhnt, geschult, ... habe, ist es nicht selten kaum noch mögich, auf das Alte zurückzuwechseln.
pointercrash() schrieb:
Simon2 schrieb:
- und ehrlich gesagt: Ich vermisse gar nichts bei meinem derzeitigen UI.
Ah, und jetzt hab' ich Dich da, wo Du Dir die Frage gefallen lassen mußt, ob Du Dir deswegen um "Opa" und "Tippse" keine Gedanken machen magst? DU bist ja zufrieden ...
Was haben denn "Opa" und "Tippse" damit zu tun, ob ich mit meiner Tastatur gut klar komme ?
Als Endanwender (der ich in diesem Beispiel bin: Endanwender meiner Tastatur) bin ich natürlich nicht dafür verantwortlich, ob das Produkt auch andere zufriedenstellt....Gruß,
Simon2.
-
asc schrieb:
~fricky schrieb:
...zu befürchten hat man nicht viel, denn man weiss ja, dass konkurrenzprodukte ebenfalls qualitativ minderwertig sind.
Zum Glück gibt es aber auch noch ein paar kleinere Softwareklitchen, die zumindestens genug Geld einspielen, um sich auch etwas Idealismus erlauben zu können.
klar gibts das, auch ohne misra-regeln und spice-level lässt sich qualitativ gute software machen. ich meinte ja auch speziell consumer-schrott (der unseren freund pc() so furchtbar nervt) oder auch z.b. computerspiele. dabei wird in aller eile fliessbandmässig was hingepfuscht. anders geht's leider nicht, wenn man im harten konkurrenzkampf überleben will. das zeug darf so viele fehler haben, dass es der käufer gerade so eben hinnimmt. und irgendwie, scheint mir, ist diese akzeptanzschwelle weiter am sinken.
-
~fricky schrieb:
...oder auch z.b. computerspiele. dabei wird in aller eile fliessbandmässig was hingepfuscht. anders geht's leider nicht, wenn man im harten konkurrenzkampf überleben will. das zeug darf so viele fehler haben, dass es der käufer gerade so eben hinnimmt. und irgendwie, scheint mir, ist diese akzeptanzschwelle weiter am sinken.
Siehe Sacred 2. Es stürzt stündlich ab, man kann regelrecht zusehen, wie er in unerlaubte Bereiche schreibt, weil immer mehr Grafikfehler auftreten, bis er dann durch undefiniertes Verhalten das einzige Savegame, was er anlegt zerschießt. Bloß weg damit!