Intel verspricht lüfterlose Notebooks



  • Wenn sie das anbieten, dann ist das gekauft.

    http://www.heise.de/newsticker/meldung/Intel-verspricht-3-5-Watt-TDP-fuer-Netbook-Atom-N2600-1353013.html

    lüfterloses NB haben will.



  • Ja, da passiert anscheinend jetzt was Großes.

    Quake mit 10 Milliwatt
    http://www.gamestar.de/hardware/news/prozessoren/2560856/intel_claremont.html
    😮 😮 😮

    Und mein Kühler kann 100W unhörbar abführen. Das wären 10000 Kerne zu 10mW. Es wird wohl Zeit, die Passwörter länger zu machen. 🤡
    Und Gamecoder können vielleicht anfangen, Raytracer ins Auge zu fassen.



  • Ob das im Endeffekt rentabler ist als die AMD-Chips mit integrierter GPU wäre mal interessant ... 😉



  • Ethon schrieb:

    Ob das im Endeffekt rentabler ist als die AMD-Chips mit integrierter GPU wäre mal interessant ... 😉

    Intel-Chips haben seit Sandy Bridge teilweise auch integrierte GPUs!? 😕



  • Gregor schrieb:

    Ethon schrieb:

    Ob das im Endeffekt rentabler ist als die AMD-Chips mit integrierter GPU wäre mal interessant ... 😉

    Intel-Chips haben seit Sandy Bridge teilweise auch integrierte GPUs!? 😕

    ... die mehr als unbrauchbar sind. Geht ja schon ins Minus...



  • Schwergewichtige Stimme schrieb:

    Gregor schrieb:

    Ethon schrieb:

    Ob das im Endeffekt rentabler ist als die AMD-Chips mit integrierter GPU wäre mal interessant ... 😉

    Intel-Chips haben seit Sandy Bridge teilweise auch integrierte GPUs!? 😕

    ... die mehr als unbrauchbar sind. Geht ja schon ins Minus...

    Ähm... die Sandy Bridge IGPs sind die ersten von Intel, die man brauchen kann! Ich kenne jemanden, der mehrere Wochen lang nur mit einem i5 2500K gezockt hat. Auf 1280x1024 läuft damit Crysis 2 schon ganz akzeptabel. Okay, es handelt sich um einen Desktop-Prozessor, aber sobald die Ivy Bridge kommt, wird das die erste CPU Architektur, bei der man getrost auf eine GPU verzichten kann im Notebook.



  • Die Frage ist aber auch, ob Intel damit nur annähernd an ARM heran kommt, was das Verhältnis Rechenleistung/Verlustleistung/Kosten angeht.

    Intel hat in dieser Richtung schon mal große Töne gespuckt und sogar einen Benchmark veröffentlicht, der bei genauerem hinsehen eher aussagt, dass sich Intel lieber nicht direkt mit ARM messen will.

    Ich finde momentan die Quelle nicht, zumindest hatte Intel da die Verlustleistung irgendeiner bereits praktisch verwendeten ARM-Plattform mit einer Referenzplattform von Intel im Idle-Modus verglichen und dann einen (Java-Script?-) CPU-Benchmark mit "ein wenig" geschönten Zahlen ohne Angabe der jetzt bei Vollast auftretenden Verlustleitungen durchgeführt.



  • Intell schrieb:

    Die Frage ist aber auch, ob Intel damit nur annähernd an ARM heran kommt, was das Verhältnis Rechenleistung/Verlustleistung/Kosten angeht.

    ARM bleibt 32-bittig, oder?



  • volkard schrieb:

    ARM bleibt 32-bittig, oder?

    Bisher habe ich nocht nichts von einem 64-bit Kern von ARM gehört. Dann wäre da
    auch noch die Frage, inwiefern er kompatibel zum 32-bitter wäre und welche Kompromisse man für eine Kompatibilität eingehen müsste.

    Im 64-bit Bereich gibt es ja auch noch die MIPS-Varianten wie den Loogson. Aber seit dem Gdium, der mich technisch ziemlich enttäuscht hat, habe ich da nichts mehr gehört.

    Ich denke aber für die angestrebten Einsatzbereiche langt eine 32-bit CPU auch aus.



  • Die offiziellen Referenz-Designs vom kommenden Cortex A15 sind auch wieder nur 32-bittig, also kann man davon ausgehen. Allerdings wird der Adressraum dort auf 40 Bit aufgestockt, was also theoretisch einen Hauptspeicher von maximal 1 TB ermöglicht.

    Der Cortex A15 ist aber nur eine Referenz. Die Hersteller haben einen gewissen Spielraum, was Erweiterungen betrifft. Ich habe gelesen, dass NVidia einen ARM mit 64 Bit Support entwickelt, den so genannten Denver-Chip. Laut NVidia soll dieser vollständig rückwärtskompatibel sein (ich glaube aber nicht, dass das so einfach geht. Vielmehr muss das wohl so laufen wie mit WOW64).

    Wenn ARM wirklich Fuss fassen will, müssen sie so bald wie möglich den Schritt machen. Low-power Server sind nicht der einzige Einsatzzweck. So wie die Performance der ARM-Chips sich gerade entwickelt dauert es noch 2 Jahre, bis 4 GB und mehr RAM Sinn machen. Je länger sie warten, desto schwieriger. Hat man bei x86-64 auch gesehen, wo es erst nach Jahren die Umstellung in Schwung kommt.



  • Schwergewichtige Stimme schrieb:

    Gregor schrieb:

    Ethon schrieb:

    Ob das im Endeffekt rentabler ist als die AMD-Chips mit integrierter GPU wäre mal interessant ... 😉

    Intel-Chips haben seit Sandy Bridge teilweise auch integrierte GPUs!? 😕

    ... die mehr als unbrauchbar sind. Geht ja schon ins Minus...

    Red keinen Unsinn.

    3d Leistung auf dem NB brauchen nur 18 jährige Kiddis.

    Ich will mit dem Ding arbeiten und solange gewöhnliche OpenGL Anwendungen wie z.B. Google Earth keine Grafikfehler machen und mit 30 fps flüssig genug sind, reicht das völlig.

    Wer High-End Spiele spielen will, der ist mit einem Desktoprechner besser beraten.



  • Intell schrieb:

    Die Frage ist aber auch, ob Intel damit nur annähernd an ARM heran kommt, was das Verhältnis Rechenleistung/Verlustleistung/Kosten angeht.

    Nein, mit Sicherheit nicht.
    Allerdings läuft auf dem Intel Rechner x64 Windows und somit auch Visual Studio.
    Ich brauche das.



  • Als Besitzer eines ehemals leistungsfähigen Laptops muss ich sagen, dass ein lüfterloser und trotzdem kühler Laptop großartig wäre. Ansonsten kann man daran sowieso nicht vernünftig arbeiten. Allerdings braucht man zum Programmieren meistens schon genug Rechenleistung...



  • Kenner des Habenwollens schrieb:

    Allerdings braucht man zum Programmieren meistens schon genug Rechenleistung...

    Sehe ich auf keinen Fall so.

    Früher hat man schon auf ganz anderen Computern programmiert, die nicht einmal annähernd an die Leistung moderner Notebooks herankommen.

    Programmieren geht immer, lediglich bedarf es bei großen Projekten mehr Sorgfalt seitens des Programmierers, denn dadurch kann man die Anzahl der Compilierungsversuche deutlich reduzieren.

    Wer natürlich wegen jeder kleinen Codeänderung den Compiler den Code testen läßt, ob die Syntax überhaupt stimmt, der sollte vielleicht erstmal an seinen Fähigkeiten als Programmierer arbeiten.
    Gut Programmierer brauchen nur ein Blatt und nen Stift und der Code läßt sich trotzdem fehlerfrei compilieren, wenn man den Code in den Computer eintippen und zu compilieren versuchen würde.

    Und mit Sprachen wie C/C++ ist das eh kein Problem, denn wozu gibt es Objektdateien?
    Man muß nicht immer alles von komplett vorne compilieren.



  • Ob man Rechenleistung zum programmieren braucht, hängt ja wohl in erster Linie davon ab was man programmiert. In gewisser Weise auch womit man programmiert.



  • Tim schrieb:

    Ob man Rechenleistung zum programmieren braucht, hängt ja wohl in erster Linie davon ab was man programmiert.

    Das sehe ich nicht so.
    Denn entscheident ist eigentlich nur, daß die Plattform stimmt, wofür man programmiert, die Leistung der Plattform ist egal.
    Sprich, wer für x64 Multicore CPUs programmiert, der braucht auch einen x64 Multicore, aber ob der jetzt mit 1 GHz oder 3 GHz getaktet ist, ist egal, der 1 Ghz Rechner reicht um das Programm und dessen Funktion zu testen.
    Bei Bedarf kann man das Programm jederzeit mit weniger Daten füttern.

    Gleiches gilt bei 3d Engines. Wer für DirectX 11 programmiert, der braucht auch eine GPU die DirectX 11 beherrscht, aber ob das ne lahme GPU ist, spielt keine Rolle.
    Wichtig ist nur daß die Spec erfüllt wird und die Funktion getestet werden kann. Eine lahme GPU genügt also.

    Performance braucht Datenfütterer oder der Spieledesigner, der festlegen muß, mit wievielen Daten er die GPU füttern kann.
    Der Programmierer braucht das nicht, denn den Code und Algorithmus optimieren, DAS kann man auch mit einer langsamen GPU.

    Ein 2 Kern ATOM mit DirectX 11 GPU Einheit sollte also für 99 % der heutigen Programmieraufgaben genügen.
    Natürlich ist ein schneller Rechner bequemer, da die Compilezeit drastisch sinkt, aber das sagte ich bereits.

    In gewisser Weise auch womit man programmiert.

    Das hat aber nichts mit der eigentlichen Programmieraufgabe zu tun, sondern der Anwendung, die man zum Programmieren wählt.

    Wer zum Programmieren unbedingt Eclipse braucht, der sollte dann halt mal Vim oder Emacs testen.



  • lüfterloses NB haben will schrieb:

    Wer zum Programmieren unbedingt Eclipse braucht, der sollte dann halt mal Vim oder Emacs testen.

    Und genau da stimme ich nicht zu: Wenn jemand auf dem Desktop ein Tool benutzt, dann sollte er das auch auf dem Notebook benutzen können, alleine schon um seinen Workflow aufrechtzuerhalten. Ich weiß zwar nicht, wie gut eclipse auf sparsamen Laptops läuft, aber wenn GUI oder Kompilieren zu langsam ist, dann ist das Gerät IMHO nicht zu gebrauchen. Natürlich kommt es darauf an, was und womit man programmiert. Wenn ein "schwacher" Rechner ausreicht, dann reicht er offensichtlich aus.

    Die Frage ist auch, ob man den Laptop nur bei Gelegenheit etwa bei der Zugfahrt und für Präsentationen nutzt, oder ob er wirklich hauptsächlich zum Arbeiten benutzt wird. Im ersten Fall kann man weniger Rechenintensive Tasks wie Mails schreiben und Kommentare aufräumen ausführen; im zweiten Fall muss auch mal ein distclean oder Testlauf (wieder: nur wenn anwendbar) in akzeptabler Zeit und ohne Temperaturbedingten Neustart vernünftig gehen.

    Das ist jetzt aber offensichtliches Blabla. Mein Punkt ist, dass man die Einbußen durch geringere Rechenleistung gerne unterschätzt wenn man von der starken Desktop-Maschine zum Notebook geht.



  • volkard schrieb:

    Ja, da passiert anscheinend jetzt was Großes.

    Ich glaub es wird in Zukunft solche tragbaren Minicomputer geben mit denen man auch noch telefonieren soll, die dürfen nicht soviel Strom verbrauchen. Vielleicht kommen auch noch so flache Computer, die die Zeitung ersetzen sollen, die haben dann keine Tastatur sondern man bedient die indem man auf den Bildschrim drückt. 😮 Die will man dann auch nicht mehr jeden Tag laden müssen.


Anmelden zum Antworten