Für alle Evolutionstheorieverweigerer ...



  • Eigentlich muss die Grundfrage doch lauten: Warum gibt es nicht nichts? Also gar nichts? Wissenschaftler können nicht erklären, wo die Ausgangsmaterie für den Urknall herkommt und Theologen können zwar sagen, das kommt von Gott und die Menschen sind zu doof, um zu kapieren, wo Gott herkommt. Aber die Frage stellt sich trotzdem, denn wenn es nichts gäbe, wieso sollte es dann plötzlich Gott oder irgendwelche Materie geben? Da hilft auch ein Anachronismus nicht weiter.



  • wxSkip schrieb:

    Eigentlich muss die Grundfrage doch lauten: Warum gibt es nicht nichts? Also gar nichts? Wissenschaftler können nicht erklären, wo die Ausgangsmaterie für den Urknall herkommt und Theologen können zwar sagen, das kommt von Gott und die Menschen sind zu doof, um zu kapieren, wo Gott herkommt. Aber die Frage stellt sich trotzdem, denn wenn es nichts gäbe, wieso sollte es dann plötzlich Gott oder irgendwelche Materie geben? Da hilft auch ein Anachronismus nicht weiter.

    Wahrscheinlich müssen wir Menschen halt einsehen, dass wir doch nicht so intelligent sind wie wir immer denken.
    Wir sind dafür gebaut um in Höhlen zu leben und irgendwelche Tiere zu erlegen, und nicht, um uns Gedanken über Dinge zu machen, die Lichtjahre entfernt von uns vor 5 Milliarden Jahren passiert sind.

    Stell dir z.B. vor, dass Weltall sei unendlich groß. Geht nicht.
    Gut, dann stell dir vor, es sei nur endlich groß. Welche Frage wird in deinem Hirn sofort auftauchen? Ja, gut, das Weltall ist irgendwo aus, aber was kommt danach?
    Siehst du, typisches Denken von Höhlenmenschen eben.

    Ich bin froh dass ich mein Geld mit einer so primitiven Tätigkeit wie dem Programmieren verdienen kann 😃



  • harry3 schrieb:

    Stell dir z.B. vor, dass Weltall sei unendlich groß. Geht nicht.

    Geht problemlos.



  • harry3 schrieb:

    Stell dir z.B. vor, dass Weltall sei unendlich groß. Geht nicht.
    Gut, dann stell dir vor, es sei nur endlich groß. Welche Frage wird in deinem Hirn sofort auftauchen? Ja, gut, das Weltall ist irgendwo aus, aber was kommt danach?
    Siehst du, typisches Denken von Höhlenmenschen eben.

    Die Erde ist auch nur endlich groß und trotzdem kommst du nie an eine Grenze - wenn du weit genug gehst, landest du wieder am Ausgangspunkt 😉
    (ja, das wirft auch wieder neue Fragen auf, aber damit muß man leben - zumindest bis jemand die echte Weltformel entschlüsselt hat :D)



  • volkard schrieb:

    harry3 schrieb:

    Stell dir z.B. vor, dass Weltall sei unendlich groß. Geht nicht.

    Geht problemlos.

    Du kannst dir das wirklich bildlich vorstellen? Wow, gratuliere!
    Ich krieg das nicht hin. Ich mein, ich akzeptiere es, und glaube natürlich auch daran, aber ich kann es mir vor meinem geistigen Auge unmöglich vorstellen.



  • harry3 schrieb:

    Du kannst dir das wirklich bildlich vorstellen?

    Klar. Ich stelle mir einfach ein begrenztes Universum vor und denke mir die Grenzen weg.



  • Warum sollte man sich ein unendlich großes Weltall vorstellen wollen? Wenn unser Weltall aus einem Punkt entstanden ist und sich seitdem ausdehnt, muss es wohl offensichtlich endlich groß sein.
    Freilich kann es trotzdem unbegrenzt sein, wie ein Fußball für eine darauf herumlaufende Ameise.



  • volkard schrieb:

    harry3 schrieb:

    Stell dir z.B. vor, dass Weltall sei unendlich groß. Geht nicht.

    Geht problemlos.

    Und hat es Grenzen?



  • volkard schrieb:

    harry3 schrieb:

    Du kannst dir das wirklich bildlich vorstellen?

    Klar. Ich stelle mir einfach ein begrenztes Universum vor und denke mir die Grenzen weg.

    Nur weil ein Raum ins unendliche geht, bedeutet das nicht, daß er keine Grenzen hätte.
    Stell dir mal eine Blase im Raum vor, die nicht zum Universum gehört.
    Schon hier hört es auf, denn eine Blase hätte ja ein scheinbares Volumen.
    Deswegen kann man sich nur die Grenzen vorstellen, die den Übergang zur Blase bilden, die Blase selbst muß dann aber nicht das scheinbare Volumen haben, daß sich anhand der Grenzlinien im bekannten Universum ergeben würde.



  • harry3 schrieb:

    So schön anschaulich hab ichs tatsächlich noch nie gesehen, dass aus zufälligen Mutationen durchaus intelligente Wesen hervorkommen können.

    Willkommen im Darwinismus 😃

    Im übrigen ist es wirklich keine große Kunst... Wenn man als Netz z.B. ein Mehrschichtperzeptron nimmt, hat man garnicht mal viel Programmieraufwand. Der evolutionäre Algorithmus ist zwar etwas komplizierter als das Netzwerk, aber in Summe ist der auch schnell gemacht.

    Man sollte natürlich vorher wissen, welche Inputs und Outputs man voraussetzt. Und einen Lebensraum für den Fisch muss man auch noch proggen.



  • freakC++ schrieb:

    Du bist toll und hast mit einem youtube Video jahrtausend alte Kulte wiederlegt und den Glauben von Milliarden von Menschen für nichtig erklärt, weil die alle dumm sind.

    xD



  • Also ich persönlich glaube keiner der beiden Seiten zu 100%.

    Zum ersten: Gäbe es eine höhere Macht in Person von einer Gottheit, wäre er gewiss nicht so grausam.

    Zum zweiten: Ja ich gebe zu, durch evolutionäre Prozesse entwickeln sich Lebewesen weiter. Aber der Urknall der aus reiner Energie Materie gemacht haben soll ist für mich recht fragwürdig.
    Stelle man sich nur die Frage wo die Energie her ist.

    Aber da unser Universum ja auch Dellen hat, wird die Energie wohl injiziert wurden sein.



  • Sehr interessant. 🙂

    Hat aber nichts mit Religion zu tun. Evolutionsverweigerer sollte es wirklich nicht geben. Notfalls denkt man sich etwas aus, wie sich das verbinden lässt und gut ist.



  • @otze:

    Zum Beispiel einfach so:

    1. setze einen Startvektor w = 0 der die Gewichte des neuronalen Netzes hält.
    2. erzeuge n Individuen mit Gewichten w_i = w + gausses rauschen (i = 1...n die Gewichte jedes individuums)
    3. starte die Simulation und berechne die fitness f(w_i) für jedes Individuum (wieviel Nahrung der Fisch gesammelt hat).
    4. wirf die schlechtesten m Individuen weg und berechne dann w als den Mittelwert der restlichen n-m Individuen
    5. gehe zurück zu 2

    und als neuronales netz nimmste einfach eine lineare Funktion. Done.

    Das wäre mir neu das lernende Algorithmen so einfach sind.

    Wie trainiere ich komplexere (verschiedene Übertragungsfunktionen, viele Neuronen, vollvernetztes, rekursives) NN ? Wie trainiere ich ein voll vernetztes NN mit 10000 Neuronen mit jeweils 5 Übertragungsfunktionen ? Wie sichere ich zu das ein NN nicht übertrainiert ist ? Wie sichere ich zu dass das NN neueren Eingabe passable Ausgaben liefert ? Welche Übertragungsfunktion ist die beste ? Wieviele Neuronen muss ich für bestimmte Probleme benutzen ?

    Genetische Algorithmen sind ebenfalls nicht einfach. Gegeben ist das TSP Problem. Unterscheidet sich hier die Strategie "Survival of the fattest" von "Survival of the fittest". Wie gut ist die Fitnessfunktion "Luftdistanz" ? Entspricht die "Survival of the fittest" Strategie nicht einem n-fachen Greedy Algorithmus welche nachweislich (im allgemeinen Fall) schlechte Lösungen bringt ? Wie kann ich lokalen Minima entkommen ?

    Ist es intelligent wenn ein Schachcomputer Teile des gewaltigens Suchraum expandiert um sich die beste Teillösung zu finden ? Was sind schlechte (Teil-) Lösungen ?

    Oder die Deduktion von Wissen aus einer Wissensbasis mittels Resolution. Funktioniert prima, bis auf die Sache das der Algorithmus NP vollständig ist.
    -> Case Based Reasoning -> Was sind ähnliche Fälle ???

    Oder die Interpretation von Wortbedeutungen wie sie im semantischen Web benutzt wird. Wie soll jemand die Wörter "Urinsekt", "Gericht" oder "umfahren" interpretieren ? Während die ersten beiden nur mehrdeutig sind und sich meist aus dem Kontext ergeben spielt bei dem dritten Wort die Betonung eine Rolle.

    ....

    Für mich ist der Hype um eine schnelle KI gestorben. Wir sind vielleicht eines Tages in der Lage eine gewisse Intelligenz aufzubauen aber die heutigen System können nur intelligentes Verhalten zum Teil nachahmen. Einen gewaltigen Schritt würde man machen wenn P = NP wäre.

    Das der Versuch der automatische Auswertung einer Überwachungskamera in die Hose ging war meines Erachtens auch kein Wunder, da hier das System mit der Komplexität der realen Welt nicht zurechtkommt.

    Die heutigen Systeme sind einfach strunzdumm und lasssen sich gerne verarschen.

    @harry3:
    Falls dich die Sache fasziniert kannst du auch mal in die fraktale Welt, Chaosforschung und in die KI einsteigen.



  • Bitte ein Bit schrieb:

    Das wäre mir neu das lernende Algorithmen so einfach sind.

    Ich denke du hast das falsch verstanden. Wir reden hier von einem evolutionären Prozess. Hier wird nicht gelernt.

    Die Gewichte eines KNN werden zufällig verändert und die Evaluierung zeigt dann ob das Individuum besser als vorher ist, oder nicht... Mit Lernen hat das nix wenig zu tun.



  • Bitte ein Bit schrieb:

    Genetische Algorithmen sind ebenfalls nicht einfach.

    Einen standard GenAlg zu programmieren ist keine große Kunst.
    Die Vorgehensweise mag dann nicht perfekt sein und auch vielleicht nicht in optimal kleiner Zeit zur gewünschten Optimierungsstufe führen, aber das muss ja am Anfang garnicht sein.
    Wenn man erstmal einen Algorithmus gebastelt hat, der sukkzessive bessere Individuen liefert, reicht das doch für den Anfang völlig aus. Verschlimmbessern kann man dann hinterher immernoch.



  • Achso.

    Die Idee ist also die Gewichte eines NN mittels einem genetischen Alorithmus zu bestimmen. Coole Idee 🙂

    Ich glaube das probiere ich mal aus. Das Projekt: Erkennen von einfachen Schriftzeichen mitten einem NN welches mittels einem genetischem Algorithmus trainiert wurde. Bin mal gespannt ob das bessere Lösungen als die Standard-Training liefert. 🙂



  • It0101 schrieb:

    Bitte ein Bit schrieb:

    Genetische Algorithmen sind ebenfalls nicht einfach.

    Einen standard GenAlg zu programmieren ist keine große Kunst.

    Das sehe ich auch so. Wenn man nicht weiterkommt, macht man schnell einen genetischen Algo drum und läßt ihn die Nacht über laufen.
    Allerdings...
    Mir gehts dann gerne wie dem hier: http://www.acooke.org/malbolge.html#search



  • Bitte ein Bit schrieb:

    Bin mal gespannt ob das bessere Lösungen als die Standard-Training liefert. 🙂

    Nicht zwangsläufig.
    Das Training von KNNs mit genetischen Algorithmen hat Vorteile und Nachteile. Der Vorteil ist, dass du nicht unbedingt in lokalen Minima der Fehleroberfläche festhängst ( wobei es da bei den herkömmlichen Trainingsmethoden auch Mittel und Wege gibt, das zu verhindern ).
    Desweiteren kannst du nicht jeden Netzwerktyp einfach trainieren. Im Notfall ist somit ein GenAlg dein Freund, denn der trainiert dir alles ohne wenn und aber. Die Trainingsqualität sei mal außen vor gelassen.

    Um Inzest zu vermeiden nehme ich auch gern mehrere Populationen und mische die dann zwischendurch immer mal. Je nach Problemstellung ist man mit nem GenAlg relativ flexibel. Lässt sich auch ganz gut parallelisieren.



  • volkard schrieb:

    Mir gehts dann gerne wie dem hier: http://www.acooke.org/malbolge.html#search

    Wenn ich das richtig interpretiert habe, hat er seinen genetischen Algorithmus auf eine Zufallssuche reduziert ( hat vermutlich einfach die Kreuzung rausgenommen und nur die Mutationen gemacht )... Kann man machen, muss man aber nicht 😃


Anmelden zum Antworten