Warum Linux ?



  • Klar bekommt das nicht jeder, aber gerade gering Erfahrene tappen daschnell rein. Bei Profis relativiert sich das natürlich.
    Trotzdem gehts mir besser wenn meine Oma ihr Online-Banking mit Ubuntu statt Win macht. 🙂



  • Ethon schrieb:

    Klar bekommt das nicht jeder, aber gerade gering Erfahrene tappen daschnell rein.

    Kann ich nicht bestätigen, da ich durchaus regelmäßig an Rechnern von Personen bin, die nur wenig PC-Erfahrung haben (und teilweise schon mit einfachsten Aufgaben Probleme haben).

    Probleme bereiten nur ungepatchte Systeme (was nach den Standardeinstellungen von Windows in aktuellen Versionen nicht vorkommen sollte), und wenn jemand komplett naiv durch die Welt geht (das sind dann aber auch die Personen, die sich auch im realen Leben leichtfertig Verträge annehmen und auf die fadenscheinigsten Angebote eingehen würden).


  • Mod

    asc schrieb:

    Ethon schrieb:

    Ganz einfach: Wie hoch die Chance unter Windows und unter Linux Schadsoftware zu bekommen? Unter Linux ist es verdammt unrealistisch, unter Windows Alltag.

    "Alltag" ist einfach Schwachsinn.

    Mit Ausnahme von Rechnern von Kindern und Jugendlichen, die sich gerne auch mal aus illegalen Quellen bedienen, oder bei Rechnern die niemals aktualisiert werden, bekommt man hin und wieder entsprechendes mit. Aber ansonsten ist es wirklich eine Ausnahme und kein Regelfall.

    Das würde ich nicht als Ausnahme ansehen. Da rächt sich der fehlende Paketmanager und die fehlende Selbstkompiliermentalität. Software in Windows installieren verläuft grundsätzlich so, dass man sich selbstständig ein Programm suchen muss und dafür einen Installer ausführen muss, meistens mit Administrationsrechten. Es wird also jede Menge Code aus dubiosen Quellen mit hohen Rechten ausgeführt. In Linux ist dies sehr ungewöhnlich. Vor allem wird bei einer Installation niemals fremder Code privilegiert ausgeführt, sondern nur der Paketmanager bzw. make. Das heißt, selbst wenn man Software aus dubioser Quelle beziehen muss (z.B. ein Paket aus Nicht-Standard-Repositories oder Quellcode den man nicht kontrolliert hat (machen wir uns nix vor, in der Praxis schaut sich niemand vorher den Code an), kann immer nur schlimmstenfalls der User, nicht das System kompromittiert werden.

    Ich gehe jedenfalls mit größter Vorsicht vor, wenn ich Nicht-Standard-Software benötige oder Code privilegiert ausführen muss. Unter Windows ist das Ausführen fremden Codes von der Mentalität her ganz normal. Selbst ständig allen Code als Admin auszuführen war bis vor ein paar Jahren noch der Standard und wird bei vielen Nutzern sicherlich immer noch so sein. Wenn man andauernd nach diesen Privilegien gefragt wird, wird es schnell ganz normal, diese Rechte ohne groß Nachzudenken jedem zu gewähren. Windows erzieht den Nutzer also geradezu dazu, dass dieser selbst zur Sicherheitslücke wird.



  • SeppJ schrieb:

    asc schrieb:

    Ethon schrieb:

    Ganz einfach: Wie hoch die Chance unter Windows und unter Linux Schadsoftware zu bekommen? Unter Linux ist es verdammt unrealistisch, unter Windows Alltag.

    "Alltag" ist einfach Schwachsinn.

    Mit Ausnahme von Rechnern von Kindern und Jugendlichen, die sich gerne auch mal aus illegalen Quellen bedienen, oder bei Rechnern die niemals aktualisiert werden, bekommt man hin und wieder entsprechendes mit. Aber ansonsten ist es wirklich eine Ausnahme und kein Regelfall.

    Das würde ich nicht als Ausnahme ansehen. Da rächt sich der fehlende Paketmanager und die fehlende Selbstkompiliermentalität. Software in Windows installieren verläuft grundsätzlich so, dass man sich selbstständig ein Programm suchen muss und dafür einen Installer ausführen muss, meistens mit Administrationsrechten. Es wird also jede Menge Code aus dubiosen Quellen mit hohen Rechten ausgeführt. In Linux ist dies sehr ungewöhnlich. Vor allem wird bei einer Installation niemals fremder Code privilegiert ausgeführt, sondern nur der Paketmanager bzw. make. Das heißt, selbst wenn man Software aus dubioser Quelle beziehen muss (z.B. ein Paket aus Nicht-Standard-Repositories oder Quellcode den man nicht kontrolliert hat (machen wir uns nix vor, in der Praxis schaut sich niemand vorher den Code an), kann immer nur schlimmstenfalls der User, nicht das System kompromittiert werden.

    Makefiles sind auch Code, und wenn damit priviligierte Prozesse gefüttert werden, ist das Argument nicht mehr so ganz zutreffend. Zweiffellos ist aber das Basislevel an Vertrauen, dass man bei einer gepflegten Packetverwaltung haben darf, höher.



  • hallo

    [quote="Ethon"
    Zum Thema "Linux ist schwer": Finde die Lernkurve mit Ubuntu flacher als bei Windows. Ubuntu ist echt ein sehr bequemes System, man muss nix anfassen wenn man nicht mag.[/quote]

    also ich wollte einen treiber für einen avm wlanstick installieren und genervt aufgegeben. was soll der scheiß? ich kein wine laden, irgendwelchen mist machen, sondern einen treiber runterladen, auf die .exe klicken und los gehts

    chrische



  • chrische5 schrieb:

    also ich wollte einen treiber für einen avm wlanstick installieren und genervt aufgegeben. was soll der scheiß? ich kein wine laden, irgendwelchen mist machen, sondern einen treiber runterladen, auf die .exe klicken und los gehts

    chrische

    so waren meine letzten Erfahrungen mit Linux auch, aber das ist schon locker 10 Jahre her. Mir wird ständig gesagt, dass das mittlerweile kein Problem mehr ist. 😃



  • hallo

    das soll einem dann helfen:

    http://wiki.ubuntuusers.de/fritz!wlan_usb_stick

    die spinnen, die linuxer!

    chrische



  • SeppJ schrieb:

    Vor allem wird bei einer Installation niemals fremder Code privilegiert ausgeführt, sondern nur der Paketmanager bzw. make. Das heißt, selbst wenn man Software aus dubioser Quelle beziehen muss (z.B. ein Paket aus Nicht-Standard-Repositories oder Quellcode den man nicht kontrolliert hat (machen wir uns nix vor, in der Praxis schaut sich niemand vorher den Code an), kann immer nur schlimmstenfalls der User, nicht das System kompromittiert werden.

    Das ist doch blödsinn, der Paketmanager kann sogar den Kernel austauschen.



  • chrische5 schrieb:

    hallo

    das soll einem dann helfen:

    http://wiki.ubuntuusers.de/fritz!wlan_usb_stick

    die spinnen, die linuxer!

    chrische

    Hehe, genau so kenne ich auch Linux (muss es auf der Arbeit benutzen).

    Die Linux Fans sagen zwar immer, dass es mittlerweile genauso benutzerfreundlich ist wie Windows, aber wenn man mal laenger damit arbeitet merkt man schnell, dass das Schwachsinn ist.
    Viel zu oft hab ich mich schon tot gesucht nach Treibern fuer Linux und viel zu oft war die Installation schlicht und ergreifend eine Frechheit! Unter Windows ist eine Installation zu 99,99% immer ein Doppelklick auf eine .exe/.msi.
    Unter Linux kann es ganz schoen abenteuerlich werden. Neulich brauchte ich einen OpenGL Debugger und das Ding gabs nur als gepackten Source (klar, man will ja immer gleich den Code haben...) und um den Scheiss zu uebersetzten musste ich mir erstmal ein scons nachinstallieren (wtf?), das er allerdings nicht im Repo gefunden. Also googeln, neue Repo pfade eintragen, scons installieren, uebersetzen... und was kam dann? Ein Scheiss Compileerror. Dann musste ich per Hand irgendwelche .py Files editieren, damit das Mistding uebersetzte.

    Und sowas ist einfach keine Ausnahme. Ich mag mittlerweile auch einiges an Linux. Zum Arbeiten is die Konsole ganz nett (privat brauch ich sowas jedoch nicht wirklich) und es gibt einige sehr praktische Konsolentools.
    Aber hoert bitte auf so zu tun als ob Linux genauso benutzterfreundlich waere wie Windows.



  • !rr!rr_. schrieb:

    Shade Of Mine schrieb:

    Wir sind hier in einem Programmierer Forum - die Antwort sollte auf der Hand liegen. -> Komplexität

    witzig. Als ob der l*n*x-Kernel mit seinen mio. LOC unkomplex wäre.

    Das ergibt doch gar keinen Sinn. Du vergleichst gerade Äpfel und Birnen. Hätte Linux als Microkernel weniger Codezeilen? Vermutlich sogar deutlich mehr, da man ja ein Kommunikationssystem für die Module bräuchte (siehe zB Mach-Kernel).

    Windows NT war erst als Microkernel aufgebaut. Das war jedoch viel zu langsam und immer mehr wurde in den Kernel verlegt. Bei MacOSX ist es das gleiche. Das basiert zwar auf dem Mach-Kernel aber alles mögliche ist offenbar fest im Kernel verdrahtet oder läuft auf der BSD-Instanz. Die ganzen echten µKernel-Systeme sind ja eher experimentell oder nicht weit verbreitet (Minix, GNU/Hurd, etc.)

    @asc
    Das man als Profi auch ein Windows Virenfrei halten kann ist klar. Aber die Existenz von zahlreichen Botnets mit Millionen von Rechnern zeigt eben, dass es für den normalen Menschen doch schwieriger ist. Und das wirkt sich ja negativ für uns alle aus, da diese Botnets von kriminellen benutzt werden, um Spam zu versenden, DDOS-Attacken zu starten, oder ähnliches. Selbst wenn man kein Windows benutzt, muss man so also unter der schlechten Sicherheit von Windowssystemen leiden.

    @chrische5
    Da steht doch Schritt für Schritt was du machen musst. Ist in dem Fall zwar schwieriger als unter Windows. Aber wenn du das nicht schaffst, frag ich mich echt, was du in einem Programmierforum treibst...

    Ich hatte auch mal einen RAID-Controller der mit Windows nicht funktionieren wollte. War eine deutlich schlimmere Qual den einzurichten, als die paar Schritte aus dem Ubuntu-Wiki.



  • hallo

    es ging mir darum, dass es eben nicht nutzerfreundlich ist. in dem text steht, dass man noch tausend andere dinge nachladen soll. ich will ja aber ins internet und es ist gerade nicht möglich. ich habe da einfach keine lust drauf. ich will klicken und dann soll es losgehen. hätte ich bestimmt auch geschafft, aber warum?

    chrische



  • SeppJ schrieb:

    kann immer nur schlimmstenfalls der User, nicht das System kompromittiert werden.

    Was interessiert mich das System. Ich will meine persönlichen Daten schützen.



  • chrische5 schrieb:

    es ging mir darum, dass es eben nicht nutzerfreundlich ist. in dem text steht, dass man noch tausend andere dinge nachladen soll. ich will ja aber ins internet und es ist gerade nicht möglich. ich habe da einfach keine lust drauf. ich will klicken und dann soll es losgehen. hätte ich bestimmt auch geschafft, aber warum?

    Für den RAID-Controller musste ich auch verschiedenes Zeugs nachladen. Ich hatte da also nichtmal Zugriff auf eine Festplatte. Das war nicht sehr benutzerfreundlich.



  • hallo

    ich kann nur von mir schreiben und unter windows ist mir so etwas noch nie passiert. anderen scheinen da andere erfahrungen zu haben.

    chrische



  • Das mit den Treibern ist wirklich ein Problem, allerdings wird das Problem immer kleiner. Außerdem: Was kann Linux dafür das die Hersteller keine Treiber für Linux mitliefern? Für Windows tun sie das ja ...



  • hallo

    mir ist es egal, wessen schuld das ist. es nervt einfach.

    chrische



  • !rr!rr_. schrieb:

    Shade Of Mine schrieb:

    Wir sind hier in einem Programmierer Forum - die Antwort sollte auf der Hand liegen. -> Komplexität

    witzig. Als ob der l*n*x-Kernel mit seinen mio. LOC unkomplex wäre.

    Das grundlegende Problem der Software Entwicklung ist folgendes:
    Die Kosten bis die erste Version released werden kann sind das was zählt. Denn solange muss man Geld vorstrecken. Oder eben Zeit wenn es ein nicht kommerzielles Projekt ist.

    Wenn Linus einfach 2-3 Jahre länger hätte entwickeln müssen bis er die erste herzeigbare Version gehabt hätte, dann hätte er es schwerer gehabt. Der Grund warum Linux erfolgreich war, war weil es simpel war. Es war straight forward - die Leute konnten was damit anfangen.

    Die erste Version des Linux Kernels war ein böser Hack der nur auf sehr eingeschränkter Hardware gelaufen ist. Aber in der Software Welt ist genau das was zählt. Jetzt einen lauffähigen Kernel haben ist besser als in 10 Jahren den perfekten Kernel zu haben.

    Und deshalb sind "perfekte Systeme" unpraktikabel. Weil sie enorm komplex und das ist genau das was man nicht haben will. Komplexität kostet Resourcen. Und Resourcen sind limitiert. Es ist besser diese Resourcen in zB bessere Hardware Treiber zu stecken als in die Kernel Architektur.

    Weil wenn A den perfekten Kernel hat, dann ist das nichts Wert. Wenn B dagegen auf jeder Hardware lauffähig bin und der B-Kernel gut genug ist - ist B eindeutig die stärkere Plattform.



  • camper schrieb:

    Makefiles sind auch Code, und wenn damit priviligierte Prozesse gefüttert werden, ist das Argument nicht mehr so ganz zutreffend.

    Aber jedes ernst gemeinte Source-Paket, mit dem ich bis jetzt zu tun hatte, hat alles in den Ordner gebaut, in dem die Sourcen liegen. Wenn ich sowas selbst mache, probiere ich das erzeugte Programm immer genau dort aus, bevor ich 'make install' sage. Deshalb besteht kein Grund, die Build-Prozesse privilegiert zu machen.

    Und wer Sorgen vor dem 'make install' hat, muss eben das Makefile lesen. Das sind meistens weniger als ein paar hundert Zeilen.



  • this->that schrieb:

    chrische5 schrieb:

    hallo

    das soll einem dann helfen:

    http://wiki.ubuntuusers.de/fritz!wlan_usb_stick

    die spinnen, die linuxer!

    chrische

    Hehe, genau so kenne ich auch Linux (muss es auf der Arbeit benutzen).

    Die Linux Fans sagen zwar immer, dass es mittlerweile genauso benutzerfreundlich ist wie Windows, aber wenn man mal laenger damit arbeitet merkt man schnell, dass das Schwachsinn ist.[...]

    Ganz genau. Allein das man für einen USB-Stick Wlan gedöns da ne Wiki Seite erstellen muss deutet doch schon darauf hin das dort etwas schief läuft.



  • Shade Of Mine schrieb:

    Und deshalb sind "perfekte Systeme" unpraktikabel. Weil sie enorm komplex [...] Wenn B dagegen auf jeder Hardware lauffähig bin und der B-Kernel gut genug ist - ist B eindeutig die stärkere Plattform.

    ja, das sehe ich alles ein. Ich meinte eig gar keine Kritik am Kernel, sondern daß man mit l*n*x oder einem vergleichbaren System - evtl mit einer anderen Kernelarchitektur - ohne die überbordende Vielfalt an Distros, desktops, wms usw schon weiter sein könnte.

    "Perfekte Systeme" müssen aber nicht zwangsläufig unpraktikabel komplex sein. Lisp oder single-instruction-CPUs wären Gegenbeispiele.

    Unpraktikabel komplexe Systeme entstehen u.a., wenn man zu viele Anwendungsfälle berücksichtigen muß/will, ohne vorher die passenden Abstraktionen gefunden zu haben.


Anmelden zum Antworten