Verteilter Cache

Verteilter Cache bezeichnet im Computing eine Erweiterung vom traditionellen Konzept eines Caches der normalerweise in einer einzigen Locale genutzt wird. Ein verteilter Cache kann sich über mehrere Server spannen, um an Größe und Transaktionskapazität zu wachsen. Verteilter Cache wird hauptsächlich zum Ablegen von Applikationsdaten von Datenbanken und Web-Sitzungsdaten verwendet. Die Idee vom verteilten Caching wurde realisierbar, seit RAM günstiger und Netzwerkkarten sehr viel schneller wurden – 1 Gbit ist heutzutage Standard vielerorts und 10 Gbit bereits auf dem Vormarsch.[1]

Verteilter Cache funktioniert auch gut auf kostengünstigen Geräten z. B. bei Webservern, im Gegensatz zu Datenbankservern, diese benötigen preisintensive Hardware.[2]

Beispiele

  • Aerospike
  • Couchbase
  • Ehcache
  • GigaSpaces
  • GridGain Systems
  • Hazelcast
  • Infinispan
  • Memcached
  • NCache
  • Oracle Coherence
  • Riak
  • Redis
  • SafePeak
  • Tarantool
  • Velocity/AppFabric

Siehe auch

Einzelnachweise

  1. S Paul, Z Fei: Distributed caching with centralized control. In: Computer Communications. Band 24, Nr. 2, 1. Februar 2001, S. 256–268, doi:10.1016/S0140-3664(00)00322-4.
  2. Iqbal Khan: Distributed Caching On The Path To Scalability. Juli 2009 (Online).
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.