R
Cache ist ja nur dazu noetig eine langsammerere ebene darunter zum teil abzufangen, wenn man es schnell haben will, sollte man nicht den cache vergroessern, sondern eben die ebenen darunter.
falls es also um CPU cache geht, versucht man die latenz und bandbreit vom RAM zu verstecken. Ein grund dafuer ist die transferleistung, cache hat intern oft 128 oder 256 bitbreiten mit prozessortakt und latenzen von ca 3-12cycle, DDR-ram hat komplexe addressierungsmodi die zu grossen latenzen fuehren koennen mit transferraten meist bei nur 20GB/s peak.
also, anderes ram.
du koenntest alternatives RAM einbauen, z.B.
-SRAM, das ist auch was caches sind. ist um einiges teurer, weil es mehr platz braucht (6 bzw 8 transistoren), die latenz steigt mit der speichergroesse, weil die signale halt ein wenig zeit brauchen um angelegt zu werden, bei 256kb sind es etwas 6cycles normalerweise (so ca 3GHz cpu takt als basis)
-1T-SRAM, ist ein wenig guenstiger und kleiner als SRAM, hat dafuer etwas hoehere fixkosten was performance angeht
-EDRAM, ist langsammer als sram, aber immer noch viel schneller als DRAM, dafuer ist der flaechenverbrauch sehr moderat und es wird in groesseren systemen verbaut. dafuer leidet die latenz ein wenig.
du muestest dann entsprechend zum ram natuerlich einen controller nutzen.
aber ram latenz zu verkleinern oder die bandbreite zu vergroessern bringt in vielen faellen kaum etwas, das zeigen die meisten benchmarks, du muestest schon ein sehr spezielles problem haben was dann aber vermutlich kosteneffizienter anders geloest werden koennte. z.B. mehrere hardware threads laufen lassen die solange keine cpu-einheiten beanspruchen bis der speicher angekommen ist den sie anforderten. Graphikkarten haben auf diese weise, trotz winzigen caches, so gut wie keine stalls, entsprechend geht man sogar andersrum ram und vergroessert ram latenz um dafuer mehr bandbreite zu erhalten, was zZ bis zu 300GB/s sind.