lohnt es sich noch, 32bit anwendungen zu schreiben
-
JustAnotherNoob schrieb:
(auch wenn man über den Begriff KI streiten kann, denn ein Programm was nach bestimmten Algorithmen arbeitet würd ich nicht als intelligent bezeichnen, und die Lernfähigkeit eines PCs ist denk ich doch sehr begrenzt)
Das muss so aber nicht sein, im Prinzip ist das Gehirn auch nur eine komplexe Maschiene, die sich mit genügend Rechenleistung auch simulieren lassen sollte.
So so. Da weisst du jetzt aber mehr als die Neurologen
-
hat denn jemand ahnung wo man archivdaten herbekommen kann ?
ich bin gerade dabei auch sowas umzusetzen, und um ne ki richtig lernen zu lassen brauche ich massenweise archivaufnahmen von aktionkursen.
Thx
-
archivdaten kannst du dir von yahoo.finance oder ariva.de holen kostenlos holen. Alternativ kannst du dir - gegen Geld - einen echten Datenprovider zulegen, welcher dir Realtimekurse bietet. ich glaub auch unter boerse-frankfurt.com gibts irgendwo ne Rubrik, wo du gegen Geld historische Kurse kaufen kannst
-
Blue-Tiger schrieb:
JustAnotherNoob schrieb:
(auch wenn man über den Begriff KI streiten kann, denn ein Programm was nach bestimmten Algorithmen arbeitet würd ich nicht als intelligent bezeichnen, und die Lernfähigkeit eines PCs ist denk ich doch sehr begrenzt)
Das muss so aber nicht sein, im Prinzip ist das Gehirn auch nur eine komplexe Maschiene, die sich mit genügend Rechenleistung auch simulieren lassen sollte.
So so. Da weisst du jetzt aber mehr als die Neurologen
Nein, die neurologen wissen das auch. Sie wissen nur nicht genau, wie diese Maschine funktioniert. Zur Simulation der Maschine braucht man eben nicht nur die Rechenleistung sondern auch ein hinreichend genaues Modell der Maschine.
(auch wenn man über den Begriff KI streiten kann, denn ein Programm was nach bestimmten Algorithmen arbeitet würd ich nicht als intelligent bezeichnen, und die Lernfähigkeit eines PCs ist denk ich doch sehr begrenzt)
Die Lernfähigkeit des PCs ist haargenau so begrenzt wie die Lehrfähigkeit des Programmierers unter Einsatz der vorhandenen Mittel.
-
Das was du vor hast nennt sich ein Agent, das ist eine Software welche selbständig (also durch ihre KI) etwas verwaltet bzw. damit umgehen kann grob gesagt.
Da du jetzt weißt, dass sich das Agent nennt bzw. Software Agent und auf englisch einfach "software agent" solltest du auch genügend Informationen zu dem Thema findenDein Vorhaben ist so das Standardbeispiel für einen Agenten findest wahrscheinlich sogar schon ein Buch dazu der solch einen Agenten in irgendeiner Sprache implementiert.
Und 32Bit oder 64Bit sollte keine Rolle spielen, wenn du normal programmierst.
-
vistauser schrieb:
hallo an alle, ich habe folgende Frage: Wenn ich jetzt mit einem Projekt beginne, welches über 2 bis 4 Jahre dauern könnte, macht es dann noch Sinn, wenn ich mit einer 32-Version beginne? Es handelt sich um private Software, welche ausschließlich auf einem PC von mir laufen soll.
pc-systeme werden sicherlich noch lange 32-bit kompatibel bleiben. du siehst ja z.b. wie lang sogar dieser 'real mode' noch unterstützt wurde (oder wird er sogar noch?). also in 4 jahren geht bestimmt alles noch.
-
-fricky- schrieb:
vistauser schrieb:
hallo an alle, ich habe folgende Frage: Wenn ich jetzt mit einem Projekt beginne, welches über 2 bis 4 Jahre dauern könnte, macht es dann noch Sinn, wenn ich mit einer 32-Version beginne? Es handelt sich um private Software, welche ausschließlich auf einem PC von mir laufen soll.
pc-systeme werden sicherlich noch lange 32-bit kompatibel bleiben. du siehst ja z.b. wie lang sogar dieser 'real mode' noch unterstützt wurde (oder wird er sogar noch?). also in 4 jahren geht bestimmt alles noch.
Ok, also Visual Studio6 hat es ca. 10 Jahre durchgehalten, inzwischen hört man nichts mehr davon (naja fast nicht).
Dev-C++ ist gut dabei noch die 10Jahre voll zu bekommen, also ich glaube du hast recht. Uralt-Crap-Software wird einfach von zu vielen verwendet, als das sich ein kommerziell orientiertest Unternehmen das leisten kann.
Ich bin mir allerdings nicht sicher ob die 16Bit-Anwendungen noch unter Vista (32Bit) laufen und ich glaube sogar, dass sie unter Vista 64Bit und XP 64Bit nicht mehr laufen.
-
Da hast du recht schrieb:
Ich bin mir allerdings nicht sicher ob die 16Bit-Anwendungen noch unter Vista (32Bit) laufen und ich glaube sogar, dass sie unter Vista 64Bit und XP 64Bit nicht mehr laufen.
Die wenigsten 64Bit Systeme haben noch eine 16Bit-Unterstützung. Und auch Firmen die mit alten Compilern arbeiten merken teilweise schon das ihre Programme nicht mehr so kompatibel sind, wie sie sich das vorstellen (Aber nein, man denkt ja frühestens 10 Jahre nach Einstellung des Compilersupportes darüber nach zu migrieren)...
-
vistauser schrieb:
ich denke dass die entwicklung einer starken/intelligenten/nenn es wie du willst KI eines der spannendsten Gebiete in der Informatik ist(auch wenn man über den Begriff KI streiten kann, denn ein Programm was nach bestimmten Algorithmen arbeitet würd ich nicht als intelligent bezeichnen, und die Lernfähigkeit eines PCs ist denk ich doch sehr begrenzt).
Ich war vor kurzem beruflich in einer vollautomatisierten Fabrik, wo pro Schicht nur 3 Mann benötigt werden. Ich war fasziniert davon, dass dort alles wie von Geisterhand gesteuert gearbeitet hat. Artikel, die frisch produziert wurden, und an denen ein defekt festgestellt wurde, wurden sofort ausgeworfen und aus dem Verkehr gezogen, die Maschine wußte ganz genau, wieviel Rohmaterial sie noch hatte, kalibrierte sich von selbst neu, etc.
Natürlich ist das alles nur ein zusammenhängender Haufen Technik, aber ich find es unglaublich spannend, wenn so etwas wie Intelligenz da ist,scheinbar
Und so etwas gibt dann einem auch zu Bedenken, denn bei so etwas fehlt dann den Leuten das Geld um neue Produkte zu kaufen, denn das Geld das die Firma kriegt hier Ausnahmslos der Chef und die 3 Mitarbeiter.
Die Spaltung von Arm und Reich wird immer größer.
Und so oft wird die Maschine nicht neu gebaut werden, daß auch Ingenieure daran verdienen könnten.
Und Reparaturen fallen auch nicht so oft an.Wer einmal im Museum war, der weiß, das noch viele Maschinen aus dem 19. Jahrhundert auch heute noch problemlos funktionieren würden.
D.h. im Worst Case Fall muß die automatische Farbik nie repariert werden.
-
asc schrieb:
Da hast du recht schrieb:
Ich bin mir allerdings nicht sicher ob die 16Bit-Anwendungen noch unter Vista (32Bit) laufen und ich glaube sogar, dass sie unter Vista 64Bit und XP 64Bit nicht mehr laufen.
Die wenigsten 64Bit Systeme haben noch eine 16Bit-Unterstützung. Und auch Firmen die mit alten Compilern arbeiten merken teilweise schon das ihre Programme nicht mehr so kompatibel sind, wie sie sich das vorstellen (Aber nein, man denkt ja frühestens 10 Jahre nach Einstellung des Compilersupportes darüber nach zu migrieren)...
Firmen die als Compiler nicht den GCC einsetzen sind IMO selber schuld.
Der GCC ist zwar nicht der schnellste und langsammer als der Intel Compiler,
aber wenigstens wird er fortwährend weiterentwickelt und wächst auch mit den neuen Sprachfeatures mit.
-
vistauser schrieb:
hallo an alle, ich habe folgende Frage: Wenn ich jetzt mit einem Projekt beginne, welches über 2 bis 4 Jahre dauern könnte, macht es dann noch Sinn, wenn ich mit einer 32-Version beginne? Es handelt sich um private Software, welche ausschließlich auf einem PC von mir laufen soll.
Aber was ist, wenn ich in 3 Jahren die Software auf dem Vistanachfolger haben will? Muß ich dann alles neu schreiben, falls es dann nur noch 64bit Versionen gibt? Ich will das Projekt entweder in c++ mit WXwidgets starten oder mit c# und .net3.5. Bin gespannt auf eure Antworten
Programmiere deine Software am besten in D.
D ist von Haus aus 64 Bit und 32 Bit sicher, d.h. das Programm läuft auf beiden Systemen ohne Neucompilierung.
-
D Fanatiker schrieb:
D ist von Haus aus 64 Bit und 32 Bit sicher, d.h. das Programm läuft auf beiden Systemen ohne Neucompilierung.
sofern du natürlich einen Compiler findest
-
Der Schlaue schrieb:
Firmen die als Compiler nicht den GCC einsetzen sind IMO selber schuld.
Der GCC ist zwar nicht der schnellste und langsammer als der Intel Compiler,
aber wenigstens wird er fortwährend weiterentwickelt und wächst auch mit den neuen Sprachfeatures mit.Es geht nicht ausschließlich um Compiler, sondern auch um Entwicklungsumgebungen und Bibliotheken. Ich glaube kaum das der GCC seine Vorteile in einem reinen Windowsumfeld ausspielen kann, zudem nicht in einer Firma wo alles schnell gehen soll (Stichwort: RAD-Umgebung).
-
D Fanatiker schrieb:
Programmiere deine Software am besten in D.
D ist von Haus aus 64 Bit und 32 Bit sicher, d.h. das Programm läuft auf beiden Systemen ohne Neucompilierung.
D hat derzeit die Verbreitung und Unterstützung knapp oberhalb eines toten Frosches. Sorry, D mag für einige Interessant sein, aber wohl nicht in dem Umfang das es die nächsten 2-3 Jahre irgendeine wirkliche Bedeutung erhält (ohne schwarzmalen zu wollen gehe ich eher von einer Totgeburt beziehungsweise reinen Nischenprodukt aus - und das teilweise ByDesign(TM)).
cu André
-
Ich halte 4 Jahre für extrem übertrieben für die Entwicklung einer solchen KI. Was willst du da machen? Ein neuronales Netz programmieren und die Daten aufbereiten und es dann 3.8 Jahre lang trainieren? Oder willst du 4 Jahre lang if sowas then das if wasanderes then bla... Bedingungen schreiben? Oder willst du eine KI schreiben die Wirtschaftsnachrichten lesen kann, die globale Wirtschaft besser versteht als alle Experten und anhand der Verfügbarkeit von Ressourcen, politischen Machtverhältnissen und durchschnittsnoten der Schulabgänger die zukünftigen Aktienkurse vorhersagen kann? OK, letzteres wirst du nicht in 4 Jahren und auch nicht in viel längerer Zeit hin bekommen, wenn du schon bei 64 und 32 bit Problemen hast.
-
Hallo,
mal ne ganz blöde Frage für zwischen durch
Ich habe bis jetzt fast nur ausschließlich in Java geschrieben und arbeite mich gerade in C++ ein.
Worin besteht der Unterschied von 32bit und 64bit im Quellcode? Bzw. worauf muss ich achten?
-
Siassei schrieb:
Worin besteht der Unterschied von 32bit und 64bit im Quellcode? Bzw. worauf muss ich achten?
Das betrifft unter anderem die Größen der verschiedenen Datentypen (int...), die können unterschiedlich groß sein.
-
pumuckl schrieb:
Blue-Tiger schrieb:
JustAnotherNoob schrieb:
(auch wenn man über den Begriff KI streiten kann, denn ein Programm was nach bestimmten Algorithmen arbeitet würd ich nicht als intelligent bezeichnen, und die Lernfähigkeit eines PCs ist denk ich doch sehr begrenzt)
Das muss so aber nicht sein, im Prinzip ist das Gehirn auch nur eine komplexe Maschiene, die sich mit genügend Rechenleistung auch simulieren lassen sollte.
So so. Da weisst du jetzt aber mehr als die Neurologen
Nein, die neurologen wissen das auch. Sie wissen nur nicht genau, wie diese Maschine funktioniert. Zur Simulation der Maschine braucht man eben nicht nur die Rechenleistung sondern auch ein hinreichend genaues Modell der Maschine.
Ich bezweifel, dass man das Gehirn so einfach sinnvoll simulieren kann. Wenn man beispielsweise die Physik als Grundlage aller anderen Naturwissenschaften betrachtet, dann stellt man fest, dass Idealisierungen und Näherungen zur zentralen Arbeitsweise der Physik gehören. Und für andere Naturwissenschaften gilt das genauso, falls komplexe Systeme betrachtet werden.
Man hat natürlich Modellvorstellungen von "Künstlichen Neuronalen Netzen" und simuliert die auch gerne. Das ist definitiv ein wichtiges Arbeitsmittel der Künstlichen Intelligenz. Aber es ist in keiner Weise klar, dass sich größere KNNs äquivalent zum entsprechenden Vorbild in der Natur verhalten.
Wenn man ganz genau hinguckt, ist es sogar schon bei den einfachsten Systemen in der Natur nicht klar, ob Du sie durch eine Formel oder ähnliches überhaupt exakt beschreiben kannst. Wie schon gesagt: Idealisierungen und Näherungen sind zentrales Arbeitsmittel der Naturwissenschaften. Die Physik ist zum Beispiel schon auf Näherungen angewiesen, um so einfache Systeme wie das Wasserstoffatom zu beschreiben. Wenn man aber eine derartige Arbeitsweise benötigt, um die fundamentalen Elemente eines Systems zu beschreiben, dann ist es alles andere als klar, dass bei der Simulation eines komplexen, zusammengesetzten System etwas sinnvolles herauskommt. Ein menschliches Gehirn ist komplex: Da hast Du 10^10 bis 10^12 Neuronen und jeweils 10.000 bis 100.000 Verbindungen pro Neuron.
-
niemand sagt ja, dass es einfach wäre, oder dass es heutzutage irgendjemand schaffen könnte.
Aber im Prinzip wäre es möglich(sofern die Rechenleistung vorhanden wäre) und das ist erstmal alles worauf ich hinaus wollte.
-
JustAnotherNoob schrieb:
niemand sagt ja, dass es einfach wäre, oder dass es heutzutage irgendjemand schaffen könnte.
Aber im Prinzip wäre es möglich(sofern die Rechenleistung vorhanden wäre) und das ist erstmal alles worauf ich hinaus wollte.Naja, ich bezweifel halt, dass es prinzipiell möglich ist. Die Wissenschaft ist in ihren Formulierungen begrenzt. Und insofern ist es alles andere als klar, ob man ein exaktes Modell für ein derart komplexes System wie das menschliche Gehirn angeben kann.