Kleiner Optimierungsvorschlag fuer kleine Bilder dieser Seite



  • wie es scheint, wurde der alte Zustand wieder hergestellt



  • zwutz schrieb:

    wie es scheint, wurde der alte Zustand wieder hergestellt

    Ja, das schon länger. Aber die Performanceprobleme hatten eine andere Ursache und wurden dankenswerterweise von Shade Of Mine behoben. Die Ursache war Javascript und CSS von extern, das jetzt einerseits vollständig lokal gecached wird und andererseits erst ausgeführt wird, wenn die gesamte Seite geladen ist.



  • Was hat es eigentlich mit dem Einbetten von Bildern in CSS auf sich? Wie geht das und welchen Vorteil bringt das? Das man Hintergrundbilder auf diese Art einbinden kann ist mir geläufig, ich kann mir nur nicht vorstellen, welchen Vorteil das bringen soll? Oder kann man da sowas machen wie ein großes Bild laden und nur einen Ausschnitt anzeigen lassen?



  • Nick Unbekannt schrieb:

    ich kann mir nur nicht vorstellen, welchen Vorteil das bringen soll?

    man spart sich eine zusätzliche Verbindung, da das Bild sofort da ist, wenn die Seite geladen wurde.
    Vor allem bei kleinen Bildern ist der Encodierungsoverhead geringer als der einer weiteren Verbindung



  • Sorry, das verstehe ich jetzt nicht. Wie liegen die Bilder in dem CSS-File, als Daten oder als Verweis? Als Verweis sehe ich nicht so richtig einen Vorteil und wenn die Bilder in der CSS-Datei liegen, müssen sie doch sicherlich kodiert werden?



  • vorher wurden sie kurzzeitig direkt in die html-datei codiert



  • Meinst du das hier?
    http://www.guistuff.com/css/css_imagetech1.html

    Das ergibt durchaus Sinn, sonst kann ich mit deiner Antwort aber leider nicht viel anfangen.





  • An sowas hatte ich schon gedacht, nur bestätigt mir Wikipedia einen Overhead von circa einem Drittel. Dazu noch den Kodierungsaufwand, ergibt für mich eine Konstellation die eher ungünstig ist. Speziell für den aufstrebenden mobilen Online-Bereich eher ein no go. Ich dachte eigentlich auch, man hätte das Problem mit keep-alive bei HTTP1.1 gelöst? Jeder neuere Client und die wird man auch für die CSS etc. Geschichte brauchen, dürfte das wohl beherrschen. Und ein Serverbetreiber sollte im eigenen Interesse schon HTTP1.1 anbieten, um den Server zu entlasten. Aber wenn man so einen Aufwand mit Ressourcenbündelung etc. betreibt scheint keep-alive nicht richtig zu funktionieren oder nicht effizient anwendbar sein. Wobei das ja nichts heißen muss. Oft wird ja optimiert, ohne sich über den Sinn Gedanken zu machen. Der verbleibende Mehraufwand dürfte sich damit in der Abarbeitung des HTTP-Protokolls befinden. Ich kann mir aber nicht vorstellen, dass das wirklich Zeit kostet, im Verhältnis zur Übertragung der Daten.
    Dazu wäre auch mal eine Meinung von einem Praktiker interessant, der hier die Foren-Technik wartet. Immerhin scheint ihr ja die Tricks zu benutzen.



  • Nick Unbekannt schrieb:

    An sowas hatte ich schon gedacht, nur bestätigt mir Wikipedia einen Overhead von circa einem Drittel.

    Ja, uncompressed. Wenn du die DataURIs aber gzipst, bist du wieder bei etwa der jpeg groesse ( http://googlecode.blogspot.com/2010/11/instant-previews-under-hood.html )

    Speziell für den aufstrebenden mobilen Online-Bereich eher ein no go.

    Gerade da eher nicht. Da es hohe Latenz und wenig Bandbreite aber viel Prozessorpower gibt.

    Ich dachte eigentlich auch, man hätte das Problem mit keep-alive bei HTTP1.1 gelöst?

    Jein. Keep-Alive ist gut, aber es reduziert die Bandbreite nicht, es reduziert lediglich die handshakes zum aufbauen einer Connection (und somit die Latenz).

    DataURIs reduzieren die Bandbreite (da es nur 1 HTTP Request+Response ist um X Bilder zu liefern).

    Weiters haben DataURIs auch noch einen Caching Vorteil. Denn sie liegen ja alle in einem CSS File. Ich muss also nur einen Request machen um zu sehen ob sich etwas an der CSS Datei geaendert hat und falls nicht (was ja idR der Fall ist) bin ich fertig. Das bedeutet: ein Request und dann kann ich die kompletten Bilder aus dem Browser Cache nehmen.

    Dazu wäre auch mal eine Meinung von einem Praktiker interessant, der hier die Foren-Technik wartet. Immerhin scheint ihr ja die Tricks zu benutzen.

    Das ist nman das Genie 🙂



  • Shade Of Mine schrieb:

    Dazu wäre auch mal eine Meinung von einem Praktiker interessant, der hier die Foren-Technik wartet. Immerhin scheint ihr ja die Tricks zu benutzen.

    Das ist nman das Genie 🙂

    Unabhängig davon wie ernst das gemeint war, der Vollständigkeit halber:
    Gegen das "Genie" muss ich mich wehren, das sind lauter gut dokumentierte Sachen, die allesamt nicht ich erfunden habe. Ich spiele damit nur herum und muss meistens auch erst ausmessen, was eigentlich sinnvoll und effektiv ist. Sind prinzipiell aber mehr oder weniger alte Hüte. 🙂



  • nman schrieb:

    Ich spiele damit nur herum und muss meistens auch erst ausmessen, was eigentlich sinnvoll und effektiv ist.

    Und das ist der Punkt. Du hast da jede Menge Erfahrung (oder täuschst es sehr gut vor - was in der Wirtschaft ja ein und das selbe ist).



  • Shade Of Mine schrieb:

    Und das ist der Punkt. Du hast da jede Menge Erfahrung (oder täuschst es sehr gut vor - was in der Wirtschaft ja ein und das selbe ist).

    Die Erfahrung habe ich mit Server am laufen halten und Systeme gut skalieren lassen. Die aktuellen Maßnahmen sind ja eher Websites für Browser schnell machen. Da kann ich zwar altes Wissen teilweise recyceln, aber in viele Sachen muss ich mich auch erst einarbeiten. Lesen und umsetzen sind doch zwei sehr unterschiedliche Sachen.

    Unabhängig davon: Performancefeedback? Bei mir wurde nach den aktuellen Maßnahmen gerade alles spürbar schneller.

    Aktuell sind jetzt sowohl Deine Fixes drin, als auch meine mod-pagespeed-Experimente von letztens, dh. eigentlich sollte alles recht flott laufen, wenn ich nicht irgendwo Mist gebaut habe. Kann natürlich noch ein bisschen dauern, bis der Cache warm ist.



  • Ich kann keine merkbaren Unterschiede feststellen. Allerdings achte ich auch nicht darauf. Sollte es wirklich mal länger dauern, schiebe ich das auf die Auslastung. Allgemein finde ich es subjektiv aber nach wie vor recht flott. Vermutlich ist mein Rechner da eher der Flaschenhals. Eine Abhängigkeit von der maximalen Internetverbindungsgeschwindigkeit, bei verschiedenen Anschlüssen, kann ich zumindest nicht feststellen.


Anmelden zum Antworten