Was kommt nach der Objektorientierung?



  • buchstaben schrieb:

    Was kommt nach der Objektorientierung?

    eine Bildsprache oder ein Formalismus ähnlich APL wäre denkbar, wenn ich weit in die Zukunft blicke.

    denn irgendwann werden Operatoren wie map-reduce, filter, lambda etc so selbstverständlich sein wie heute + und -, und dann braucht man für solche Operatoren ein Symbol. Zukünftige Progsprachen sind ja nicht mehr an ascii gebunden, warum also nicht eine Vielfalt neuer Symbole nutzen, um Schlüsselwörter durch kurze prägnante Formelsprache zu ersetzen - Symbolisierung ist ein Trend, der in der Mathematik seit Jahrhunderten anhält.

    Die Symbolkraft endet an der Tastatur.

    Solange ich da nicht die speziellen Unicodesymbole direkt und per default mit einem Tastendruck eintippen kann, werden Symbole für eine Programmiersprache keine Chance haben.
    Bei der Mathematik ist das anders, denn die entwickelte sich ohne Computer frei händig und hatte daher genug Freiraum Symbole einzuführen ohne an ein bestimmtes Eingabegerät gebunden zu sein.

    Und das die Maus hier helfen würde, das würde ich bezweifeln, denn mit einer Tastatur ist man dennoch schneller.



  • Kellerautomat schrieb:

    Ich denke, man sollte sich nicht fragen, was nach OOP kommt, sondern erstmal bestehende Programmiersprachen fixen.

    Das wird nicht passieren, guck dir C++ an, niemand wirft C++ über den Haufen und bricht mit dem ursprünglichen C++.

    Und Alternativen wie D setzen sich nicht durch.



  • Feriuko schrieb:

    Die Symbolkraft endet an der Tastatur.

    ... die sich aus der Schreibmaschine entwickelt hat, also historisch bedingte Grenzen hat.

    auf einem touch-Display kann man unbegrenzt viele Symbole verwenden, man braucht dazu nicht mehr als eine icon-Leiste. Zukunftsfähig.

    und was die Gewöhnung angeht:

    lies dir mal einen math. Beweis aus dem 17. Jahrhundert durch: kaum Symbole und noch in Latein. Für die damaligen Menschen wären Integralzeichen und direkte Summen unverständlicher hokuspokus gewesen, und heute lernt man es in der Schule.



  • Marty Mc Fly schrieb:

    Wildes Spekulieren über Softwareentwicklung in 10, 30 oder 50 Jahren.
    Würde mich interessieren wie ihr euch die Zukunft der Programmierung vorstellt 🙂

    Könnte mir gut vorstellen, daß Programmieren irgendwann dreidimensional, also holografisch und mit Gestensteuerung oder Spracherkennung möglich sein wird.

    Bin nicht sicher, aber z.B. bei DNA-Strängen könnte man sowas vermutlich gut gebrauchen.

    Programme wie LabVIEW und Simulink gehen da schon in die entsprechende
    Richtung.



  • Mein Mitgefuehl fuer alle, die in LabView programmieren muessen. Und ... nur weil DNA-Straenge Molekuele im 3D-Raum sind, ist die Information noch lange nicht 3-dimensional codiert.



  • redrew99 schrieb:

    Bin nicht sicher, aber z.B. bei DNA-Strängen könnte man sowas vermutlich gut gebrauchen.

    Wohl kaum. Ich glaube nicht, dass eine effizientere Eingabemöglichkeit geben wird, als eine stinknormale Tastatur, findets euch damit ab. Beim Programmieren muss man einfach viele Informationen eingeben und das wird auch so bleiben. Es wird nicht reichen, zwei Gesten im Raum zu machen (außerdem finde ich sowas sehr anstrengend). Und selbst Sprachsteuerung ist für soetwas nicht optimal. Sprechen ist (zumindest für mich, ich denke für viele andere auch) anstrengender, als tippen, und programmieren ist grundsätzlich zum Sprechen wenig geeignet und wird es wohl auch noch eine Weile bleiben.



  • Tut mir leid, dass das jetzt aus dem Gesprächsfluss heraussticht, aber ich dachte, ich hätte es schon gestern abgesendet, allerdings hatte ich dabei nur auf Vorschau geklickt.

    Feriuko schrieb:

    Die Symbolkraft endet an der Tastatur.

    Solange ich da nicht die speziellen Unicodesymbole direkt und per default mit einem Tastendruck eintippen kann, werden Symbole für eine Programmiersprache keine Chance haben.

    Ein kleines bisschen Hoffnung habe ich ja schon, dass sich endlich mal alternative Tastenbelegungen zumindest so weit verbreiten, dass ingendwann wenigstens mehr als 30% der Computernutzer überhaupt davon wissen, dass es die gibt …
    http://neo-layout.org/

    Dass es so viel mehr Symbole geben wird, glaube ich aber auch nicht, schließlich muss man die auch alle lernen, festlegen, wer welches nutzen darf, vielleicht neue schaffen, und so weiter, und so fort …
    Da finde ich den bisherigen Stand schon ganz sinnvoll und auch die Konzepte, die es gibt.

    Das, worauf ich ja noch warte, ist die Umstellung der Tastaturbedienung auf effizientere Varianten. Zum Beispiel sind die Tastaturform, insbesondere der Tastenversatz, und viele Bedienungsmuster noch Relikte aus der Schreibmaschinenzeit (zur Erinnerung: auch QWERTZ 😛 ).
    Man könnte Tastaturen ergonomischer formen, sie besser an die Form der Hand anpassen und so nicht nur den Körper entlasten, sondern vielleicht auch schnelleres Schreiben ermöglichen.
    Auch kommt mir das bisherige Programmbedienungssystem sehr suboptimal vor, Tastenkombinationen sind manchmal echt unbequem zu erreichen (besonders Emacs scheint ja dafür bekannt zu sein). Ich benutze ebenfalls bisher fast keine, sie anzuwenden war mir immer zu umständlich (und das Erlernen zugegebenermaßen wohl auch).
    Die Modifikatoren könnten mehr in die Mitte der Tastatur rücken (das wurde für Neo3 auch diskutiert).
    Ich wäre z.B. bereit, die Ebenen 5 und 6 aufzugeben, wenn ich auf sie dafür Tastenkombinationen legen könnte, die von Programmen auch erkannt werden und die irgendwie einheitlicher sind *.
    Ich habe aber schon die ganze Zeit das Ziel im Gedächtnis, irgendwann mal zu lernen, mit einem der beiden Editoren Emacs oder Vim (oder einem Abkömmling) umgehen zu können. Falls ich die beiden gerade nicht vertausche, wird es aber wohl Vim, weil ich keine Lust habe, meine Finger zu verrenken.
    Die Verteilung der Tastenkombinationen stellt mich bisher auch nicht zufrieden, ich habe mir beispielsweise g

    Noch ein Einfall: Sprächen wir eine Sprache, deren Grammatik ein Rechner vollständig anwenden könnte, so könnte man auch beispielsweise nur noch Wurzeln und ggf., falls sie sich nicht ergibt, die Form eingeben und er macht den Rest. (Wobei ich nicht weiß, ob das wirklich schneller wäre, ich bin nur grad drauf gekommen, weil ich an Plansprachen gedacht hab)

    *Mir ist gerade eine Idee wieder gekommen:
    Eine Art Tastenkombinationsdatenbank, wo für Standardaufgaben bestimmte Tastenkombinationen gespeichert werden, die dann von Programmen direkt abgefragt werden können (und sollen). So könnte man sich beispielsweise Kopieren umlegen und müsste das dann nicht bei jedem einzelnen Programm tun.
    Eigentlich alle Programme sind halt nicht auf Sonderfälle wie Neo optimiert, sondern auf QWERTZ, sodass die Bedienung manchmal – eigentlich unnötig – unbequem wird (Strg+W ist hier beispielsweise entsprechend Strg+T – da macht man die Tabs doch meistens eher mit der Maus wieder zu. Auch aufmachen liegt zwar eigentlich relativ bequem auf (entspr.) Strg+L, aber dafür muss dann entweder die linke Hand rüberspringen oder man muss beide Hände auf der Tastatur haben)
    Sie würde vom BS bereitgestellt werden.

    Nachtrag 1:

    buchstaben schrieb:

    auf einem touch-Display kann man unbegrenzt viele Symbole verwenden, man braucht dazu nicht mehr als eine icon-Leiste. Zukunftsfähig.

    Jo, ein Dadsch-Bildschirm (wie er in Franken genannt wird) ist genau das, was ich fürs Programmieren benutzen möchte 🙄

    Ansonsten möchte ich Mechanics zustimmen, Sprechen is doch viel zu anstrengend (und natürlich auch unschön, wenn man in irgendeiner Firma sitzt oder es in der Umgebung laut ist; das hatten wir ja beim Thema Sprachsteuerung schonmal)
    Gestensteuerung und Hologramme halte ich ebenfalls für ungeeignet, aber grad bei der Arbeit mit DNS könnte ich sie mir Vorstellen, weil man damit doch ziemlich gut im Modell navigieren könnte, sich Ausschnitte anschauen, usw. (macht also quasi das Debuggen einfacher).



  • Fast2 schrieb:

    *Mir ist gerade eine Idee wieder gekommen:
    Eine Art Tastenkombinationsdatenbank, wo für Standardaufgaben bestimmte Tastenkombinationen gespeichert werden, die dann von Programmen direkt abgefragt werden können (und sollen). So könnte man sich beispielsweise Kopieren umlegen und müsste das dann nicht bei jedem einzelnen Programm tun.
    Eigentlich alle Programme sind halt nicht auf Sonderfälle wie Neo optimiert, sondern auf QWERTZ, sodass die Bedienung manchmal – eigentlich unnötig – unbequem wird (Strg+W ist hier beispielsweise entsprechend Strg+T – da macht man die Tabs doch meistens eher mit der Maus wieder zu. Auch aufmachen liegt zwar eigentlich relativ bequem auf (entspr.) Strg+L, aber dafür muss dann entweder die linke Hand rüberspringen oder man muss beide Hände auf der Tastatur haben)
    Sie würde vom BS bereitgestellt werden.

    Gibt es schon bei KDE 4 ( http://www.kde.org ) Ich habe aber noch nicht ausprobiert, in wie weit sich die Programme daran halten.



  • Mechanics schrieb:

    Wohl kaum. Ich glaube nicht, dass eine effizientere Eingabemöglichkeit geben wird, als eine stinknormale Tastatur, findets euch damit ab. Beim Programmieren muss man einfach viele Informationen eingeben und das wird auch so bleiben. Es wird nicht reichen, zwei Gesten im Raum zu machen (außerdem finde ich sowas sehr anstrengend). Und selbst Sprachsteuerung ist für soetwas nicht optimal. Sprechen ist (zumindest für mich, ich denke für viele andere auch) anstrengender, als tippen, und programmieren ist grundsätzlich zum Sprechen wenig geeignet und wird es wohl auch noch eine Weile bleiben.

    Schwer zu sagen. Vielleicht braucht man dafür eine neue Programmiersprache.

    Aber selbst bei C++ müßte es möglich sein,den Großteil der Sprache in dreidimensionale, veränderbare Symbole umzuwandeln.

    Zusätzlich könnte man bestimmte Mechanismen der Sprache dreidimensional umsetzen.

    Ganz ohne Tastatur wird es natürlich vermutlich nicht gehen.



  • redrew99 schrieb:

    Aber selbst bei C++ müßte es möglich sein,den Großteil der Sprache in dreidimensionale, veränderbare Symbole umwandeln.

    Zusätzlich könnte man bestimmte Mechanismen der Sprache dreidimensional umsetzen.

    Ich stelle die Frage absolut wertfrei: Warum sollte man das tun?
    Welchen Vorteil versprichst Du Dir davon, Quelltexte in 3D zu beschreiben? Und was soll die dritte Dimension abbilden?



  • Xin schrieb:

    Ich stelle die Frage absolut wertfrei: Warum sollte man das tun?
    Welchen Vorteil versprichst Du Dir davon, Quelltexte in 3D zu beschreiben?

    Ich könnte mir vorstellen, daß durch eine zusätzliche Dimension komplexere Programme möglich sind.

    Evtl. sollte auch schnelleres Programmieren möglich sein.

    So könnte z.B. ein Vektor mit einem bestimmten Gebilde dargestellt werden, wo man den Datentyp durch Veränderung der Farbe bestimmt. Der "Vektor" könnte darüberhinaus Buttons haben oder andere Eigenschaften(evtl. Displays?), um weitere Verändungen vornehmen zu können. Auch mit Tönen könnte man arbeiten.

    Xin schrieb:

    Und was soll die dritte Dimension abbilden?

    Die dritte Dimension könnte die "Grammatik" der Sprache abbilden.
    Womöglich könnte man z.B. einen Zeiger als einen echten Zeiger darstellen.

    Natürlich könnte auch die jeweilige Anordung der Gebilde im Raum eine bestimmte Funktion haben.



  • @redrew99
    😮 Ich hoffe du meinst das nicht ernst.

    Ich kann es auf jeden Fall nicht ernst nehmen. Alles was du schreibst führt bloss dazu dass man noch weniger Chancen hat ein Programm zu verstehen, und dass man vermutlich auch länger braucht um es einzugeben/bearbeiten.

    Je genauer ich darüber nachdenke, desto eher kommt ich zu dem Schluss dass es eigentlich nur Getrolle sein kann.



  • hustbaer schrieb:

    Je genauer ich darüber nachdenke, desto eher kommt ich zu dem Schluss dass es eigentlich nur Getrolle sein kann.

    Oft ist das leider nicht so.



  • hustbaer schrieb:

    @redrew99
    😮 Ich hoffe du meinst das nicht ernst.

    Ich kann es auf jeden Fall nicht ernst nehmen. Alles was du schreibst führt bloss dazu dass man noch weniger Chancen hat ein Programm zu verstehen, und dass man vermutlich auch länger braucht um es einzugeben/bearbeiten.

    Je genauer ich darüber nachdenke, desto eher kommt ich zu dem Schluss dass es eigentlich nur Getrolle sein kann.

    Vielleicht hast Du Recht. Allerdings - gab es auch mal Zeiten, wo man sich nicht vorstellen konnte, daß Hochsprachen wie C++ ein derart hohes Leistungsniveau erreichen können.

    Was wurden die Leute niedergemacht, ein Mehr an Abstraktion führe zwangsläufig
    zu Geschwindigkeitseinbußen, etc.,etc.



  • Also das ganze Dargestelle als Vektor usw. ist doch eigentlich nur eine andere Darstellungsform des Codes, oder? Dann hat das mit Kompilier/Ausführungszeit nichts zu tun. Trotzdem will ich lieber alles im Code eingeben als mich dann je nach Ausprägungsform der Struktur (Matrix, Vektor usw.) auch noch mit dem UI rumplagen zu müssen.



  • redrew99 schrieb:

    Xin schrieb:

    Ich stelle die Frage absolut wertfrei: Warum sollte man das tun?
    Welchen Vorteil versprichst Du Dir davon, Quelltexte in 3D zu beschreiben?

    Ich könnte mir vorstellen, daß durch eine zusätzliche Dimension komplexere Programme möglich sind.

    Evtl. sollte auch schnelleres Programmieren möglich sein.

    Ich tue mich sehr schwer damit, Ideen als Unfug abzutun, wenn ich sie nicht verstehe. Diese Idee verstehe ich nicht, habe aber den Verdacht, dass Du derzeit auch kein Konzept hast. Jedenfalls lassen "könnte mir vorstellen" und "eventuell möglich" darauf schließen.

    Könntest Du ein konkretes Beispiel, einen konkreten Anwendungsfall beschreiben - unter Berücksichtigung, das der Mensch nur in der Lage ist, 2D Informationen mit einer ungefähren Entfernung wahrzunehmen, aber nicht 3D-Informationen. Um den Unterschied zu verdeutlichen: Du siehst den Monitor, Du siehst, dass er etwa 60cm vor Dir steht, aber Du siehst nicht, was hinter dem Monitor ist. Der Mensch sieht immer einen kleinen Ausschnitt der ihm zugewandten Ebene. Das Hauptsinnesorgan des Menschens ist das Gedächtnis, nicht das Auge. Entsprechend wird jede Kommunikationsform scheitern, die den Menschen überfordert.

    Das höchste der Gefühle sind Ebenenwechsel, gewissermaßen kontextabhängige, also integere Schritte durch eine 3. Dimension, die jedoch mehr als Filter, denn als Sprachdimension funktioniert. Und das wiederum gibt es bereits in einfacher Form, auch wenn ich auf den derzeit populären Systemen keine brauchbare Umsetzung kenne.

    redrew99 schrieb:

    So könnte z.B. ein Vektor mit einem bestimmten Gebilde dargestellt werden, wo man den Datentyp durch Veränderung der Farbe bestimmt. Der "Vektor" könnte darüberhinaus Buttons haben oder andere Eigenschaften(evtl. Displays?), um weitere Verändungen vornehmen zu können. Auch mit Tönen könnte man arbeiten.

    Bis auf die Töne verstehe ich nur Bahnhof und da pfeift bei mir der Zug.
    Man könnte mit Tönen arbeiten, das kann ich mir mal vorstellen... damit hätten wir eine zusätzliche Dimension. Aber was sollte man dadurch zusätzlich ausdrücken? Und überflieg mal einen Buch und ein Tonband. Das Tonband geht Dir sehr schnell auf den Keks.

    redrew99 schrieb:

    Xin schrieb:

    Und was soll die dritte Dimension abbilden?

    Die dritte Dimension könnte die "Grammatik" der Sprache abbilden.

    Definiere Grammatik.

    Die Grammatik einer Sprache lässt sich in C, wie auch in Deutsch, wunderbar in einer einzigen Dimension (eine Zeile bestehend aus Buchstaben/Wörtern) abbilden. Die zweite Dimension (Zeilen) benötigen wir nur, damit wir nicht endlos nach links und rechts scrollen müssen, wie z.B. die Turing-Maschine.

    redrew99 schrieb:

    Womöglich könnte man z.B. einen Zeiger als einen echten Zeiger darstellen.

    Ein Zeiger ist ein Integerwert. Das ist nicht sonderlich intuitiv, aber Zeiger konkret abzubilden würde einem Spaghetti-Teller entsprechen. Ebenfalls nicht meine erste Assoziation mit "intuitiv".

    redrew99 schrieb:

    Natürlich könnte auch die jeweilige Anordung der Gebilde im Raum eine bestimmte Funktion haben.

    Neben dem Darstellungsproblem, wie auch Problem der menschlichen Unfähigkeit 3D-Informationen wahrnehmen zu können, erscheint mir das ganze... weit hergeholt.

    Solltest Du Bezug nehmen auf Hollywoodfilme, wird Dir sicher aufgefallen sein, dass alle Geheimagenten grundsätzlich futuristische Betriebsysteme verwenden, die supertoll sind, aber niemals Windows und in jedem Film läuft ein Super-Nerd rum, der nie mehr als 3 Minuten benötigt, um sich in die geheimsten Anlagen reinzuhacken. Außerdem können sie aus vier Pixeln ein Bild rechnen, in dem man in der Spiegelung der Sonnenbrille noch genug Qualität hat, um ein Fahndungsfoto zu generieren.
    Science Fiction beschreibt eine mögliche Zukunft. Aber die Wahrscheinlichkeit, dass wir irgendwann durch einen Spalt in den Erdkern fallen und dann mittig in der Luft schweben, wird auch in Zukunft mehr Fiktion als Science sein.

    Hier geht's um komplexe Aufgaben, nicht nur darum mit einer Handbewegung ein Foto rotieren zu lassen: Hier ist die Technik soweit, aber man scheitert daran, sinnvolle Aufgaben für die Technik zu finden - die Beschreibung hat Hollywood nämlich nicht mitgeliefert.



  • Programmieren in einer stylischen 3D-Umgebung, wie du sie dir vorstellst, wird es sicher nicht geben, höchstens mal als Spaßprojekt von ein paar Studenten oder so. Ich könnte mir nichts unpraktischeres vorstellen. Du guckst zu viele Hacker-Filme. 😉

    Selbst bei grafischer Programmierung wie beispielsweise per LabView kann ich mir nur schwer vorstellen, welche Verbesserung eine dritte Dimension bringen soll. Höchstens könnte man mehrere Vi's in einem Control darstellen. Wird ein Sub-Vi aufgerufen, könnte es hinter dem aktuellen vi angezeigt werden o.ä. Aber das wäre absolut keine Weiterentwicklung des Programmierens an sich, sondern nur ein modisches Grafik-Gimmick ohne echten Mehrwert.



  • Eigentlich gab es in den letzten 50 Jahren nur 2 "Trends", die sich halten konnten: Strukturierte Programmierung und (viel später) Objektorientierung. Ich denke, dass die Objektorientierung erhalten bleiben wird, sich aber weiterentwickeln muss. Die Grundidee ist sehr gut und unterstützt das Prinzip der Low Representational Gap. Man orierntiert sich an Konzepten, die es in der Realität offensichtlich gibt und abstrahiert dann.

    Funktionale Programmiersprachen haben einen schweren Stand, weil das Paradigma so völlig quer steht zu praktisch allem, was etabliert ist. Klar, spezialisierte Anwendungen gibt es immer, aber verbreitet sind diese Sprachen nicht.

    Die grossen objektorientierten Sprachen (ich denke da an .NET-Sprachen, C++ und Java etc.) werden in Zukunft noch mehr Rosinenpickerei betreiben und sich die besten Elemente der funktionalen Sprachen (und andere Konzepte) stehlen.



  • /rant/ schrieb:

    Die grossen objektorientierten Sprachen (ich denke da an .NET-Sprachen, C++ und Java etc.) werden in Zukunft noch mehr Rosinenpickerei betreiben und sich die besten Elemente der funktionalen Sprachen (und andere Konzepte) stehlen.

    Das Wort stehlen passt nicht.

    Funktionale Programmierung ist - wie auch OOP - auch in C möglich und(!) wird auch betrieben. Es ist beides etwas unhandlicher als bei Sprachen, die OOP bzw. FP besser unterstützen.

    Deswegen sehe ich hier auch keine Paradigmen, sondern Problemlösungen: Entwurfsmuster.
    Die funktionale Programmierung ist allerdings ein etwas umständlicheres Konzept, was dank Multi-Threading derzeit Aufwind erhält.

    Schlussendlich sind funktional ausgelegte Sprachen lediglich Sprachen, die diese Problemlösung syntaktisch hervorheben, bzw. bevorzugen, während imperative Sprachen mehr der Idee eines Kochrezeptes folgen, wo man auch mal was in eine Schüssel geben darf und das dann später weiter verwendet. Gerade dieses "Vorkochen" von Ergebnissen war früher deutlich wichtiger. Ein Programm reagierte nur durchgehend flüssig, wenn bei komplexen Berechnungen zuvor schon einiges vorbereitet war. Das passt aber nicht so gut in die Idee der FP.

    Funktionale Design-Patterns wurden in der Vergangenheit also seltener benötigt. Sprachen wandeln sich entsprechend der Anforderungen. So vereinfacht sich die C++-Syntax nun zur funktionalen Programmierung hin, wie sie sich ursprünglich aufbauend von C zu OOP gewandt hat und anschließend zur generischen Programmierung gewandelt hat.

    Das ist Evolution, eine Anpassung an die Wünsche und Bedürfnisse der Benutzer. Nicht stehlen.

    Wer Programmieren als "Kampf der Paradigmen" hochstilisiert, hat offenbar nichts besseres zu tun.



  • redrew99 schrieb:

    Ich könnte mir vorstellen, daß durch eine zusätzliche Dimension komplexere Programme möglich sind.

    Darin scheint mir den Denkfehler zu liegen das eine komplexere Abbildung der Sprache komplexere Programme ermöglich.

    Genau das Gegenteil ist der Fall. Komplexere Probleme können heute nur dadurch bewältigt werden, weil die Darstellung vereinfacht wurde.

    redrew99 schrieb:

    Evtl. sollte auch schnelleres Programmieren möglich sein.

    Komplexität => mehr Denkarbeit => mehr Chancen auf Fehler ==> langsameres Programmieren.

    redrew99 schrieb:

    So könnte z.B. ein Vektor mit einem bestimmten Gebilde dargestellt werden, wo man den Datentyp durch Veränderung der Farbe bestimmt.

    Farben sind abhängig vom Monitor und der Sehfähigkeit des Benutzers (-> rot/Grün Schwäche, Farbenblindheit etc). Allein das ist erzeugt ein Problem. Ausserdem erzeugst Du nur eine Abstraktionseben. Anstatt den Datentyp direkt zu shene (long) musst Du lernen das Rot = long ist, Grün = int usw. Die Darstellung eigener Datentypen wird dann schon eine Herausforderung. UNd so viele unterscheidbare Farben gibt es gar nicht.

    redrew99 schrieb:

    Auch mit Tönen könnte man arbeiten.

    Ok, alle die Hand heben die eindeutig den Ton C erkennen wenn er gespielt wird. Dafür braucht man ein absolutes Gehör und das ist sehr selten.

    redrew99 schrieb:

    Natürlich könnte auch die jeweilige Anordung der Gebilde im Raum eine bestimmte Funktion haben.

    Eines der wichtigsten Kriterien für eine Sprache ist, das man sich auch mit anderen Menschen darüber unterhalten kann. So, jetzt beschreib mal die Anordnung der Konstelllation Kassiopeia eindeutig nur durch Worte so das jemand anders begreift, das Du Kassiopeia meinst.


Anmelden zum Antworten