다음 벤치 마크의 대략적인 결과 : 2x 쓰기, 3x 읽기 .
다음은 파이썬에서 목표에 맞게 조정할 수있는 간단한 벤치 마크입니다. 각 값이 단순히 설정 / 검색 값이 얼마나 잘 수행되는지보고있었습니다.
#!/usr/bin/env python2.7
import sys, time
from pymongo import Connection
import redis
# connect to redis & mongodb
redis = redis.Redis()
mongo = Connection().test
collection = mongo['test']
collection.ensure_index('key', unique=True)
def mongo_set(data):
for k, v in data.iteritems():
collection.insert({'key': k, 'value': v})
def mongo_get(data):
for k in data.iterkeys():
val = collection.find_one({'key': k}, fields=('value',)).get('value')
def redis_set(data):
for k, v in data.iteritems():
redis.set(k, v)
def redis_get(data):
for k in data.iterkeys():
val = redis.get(k)
def do_tests(num, tests):
# setup dict with key/values to retrieve
data = {'key' + str(i): 'val' + str(i)*100 for i in range(num)}
# run tests
for test in tests:
start = time.time()
test(data)
elapsed = time.time() - start
print "Completed %s: %d ops in %.2f seconds : %.1f ops/sec" % (test.__name__, num, elapsed, num / elapsed)
if __name__ == '__main__':
num = 1000 if len(sys.argv) == 1 else int(sys.argv[1])
tests = [mongo_set, mongo_get, redis_set, redis_get] # order of tests is significant here!
do_tests(num, tests)
mongodb 1.8.1 및 redis 2.2.5 및 최신 pymongo / redis-py의 결과 :
$ ./cache_benchmark.py 10000
Completed mongo_set: 10000 ops in 1.40 seconds : 7167.6 ops/sec
Completed mongo_get: 10000 ops in 2.38 seconds : 4206.2 ops/sec
Completed redis_set: 10000 ops in 0.78 seconds : 12752.6 ops/sec
Completed redis_get: 10000 ops in 0.89 seconds : 11277.0 ops/sec
물론 소금 한 알갱이로 결과를 얻으십시오! 다른 언어로 프로그래밍하거나 다른 클라이언트 / 다른 구현 등을 사용하는 경우 결과가 크게 달라질 수 있습니다. 말할 것도없이 사용법은 완전히 다릅니다! 최선의 방법은 정확하게 사용하려는 방식으로 직접 벤치마킹하는 것입니다. 결과적으로 당신은 아마도 각각을 사용 하는 가장 좋은 방법을 알아낼 것입니다 . 항상 자신을 위해 벤치마킹하십시오!