麻豆小视频在线观看_中文黄色一级片_久久久成人精品_成片免费观看视频大全_午夜精品久久久久久久99热浪潮_成人一区二区三区四区

首頁 > 數據庫 > Redis > 正文

利用Redis實現SQL伸縮的方法

2020-03-17 12:41:47
字體:
來源:轉載
供稿:網友
本文主要介紹了如何通過鎖和時間序列等方面來提升傳統(tǒng)數據庫的性能等方法,利用Redis實現SQL伸縮,供有需要的朋友們參考。
 

這篇文章主要介紹了利用Redis實現SQL伸縮的方法,包括講到了鎖和時間序列等方面來提升傳統(tǒng)數據庫的性能,需要的朋友可以參考下。

緩解行競爭

我們在Sentry開發(fā)的早起采用的是sentry.buffers。 這是一個簡單的系統(tǒng),它允許我們以簡單的Last Write Wins策略來實現非常有效的緩沖計數器。 重要的是,我們借助它完全消除了任何形式的耐久性 (這是Sentry工作的一個非常可接受的方式)。

操作非常簡單,每當一個更新進來我們就做如下幾步:

  • 創(chuàng)建一個綁定到傳入實體的哈希鍵(hash key)
  • 使用HINCRBY使計數器值增加
  • HSET所有的LWW數據(比如 "最后一次見到的")
  • 用當前時間戳ZADD哈希鍵(hash key)到一個"掛起" set

現在每一個時間刻度 (在Sentry中為10秒鐘) 我們要轉儲(dump)這些緩沖區(qū)并且扇出寫道(fanout the writes)。 看起來像下面這樣:

  • 使用ZRANGE獲取所有的key
  • 為每一個掛起的key發(fā)起一個作業(yè)到RabbitMQ

現在RabbitMQ作業(yè)將能夠讀取和清除哈希表,和“懸而未決”更新已經彈出了一套。有幾件事情需要注意:

  • 在下面我們想要只彈出一個設置的數量的例子中我們將使用一組排序(舉例來說我們需要那100個舊集合)。
  • 假使我們?yōu)榱颂幚硪粋€鍵值來結束多道排序的作業(yè),這個人會得到no-oped由于另一個已經存在的處理和清空哈希的過程。
  • 該系統(tǒng)能夠在許多Redis節(jié)點上不斷擴展下去僅僅是通過在每個節(jié)點上安置把一個'懸置'主鍵來實現。

我們有了這個處理問題的模型之后,能夠確保“大部分情況下”每次在SQL中只有一行能夠被馬上更新,而這樣的處理方式減輕了我們能夠預見到的鎖問題。考慮到將會處理一個突然產生且所有最終組合在一起進入同一個計數器的數據的場景,這種策略對Sentry用處很多。

速度限制

出于哨兵的局限性,我們必須終結持續(xù)的拒絕服務攻擊。我們通過限制連接速度來應對這種問題,其中一項是通過Redis支持的。這無疑是在sentry.quotas范圍內更直接的實現。

它的邏輯相當直接,如同下面展示的那般:

def incr_and_check_limit(user_id, limit):  key = '{user_id}:{epoch}'.format(user_id, int(time() / 60))    pipe = redis.pipeline()  pipe.incr(key)  pipe.expire(key, 60)  current_rate, _ = pipe.execute()    return int(current_rate) > limit 

我們所闡明的限制速率的方法是 Redis在高速緩存服務上最基本的功能之一:增加空的鍵字。在高速緩存服務中實現同樣的行為可能最終使用這種方法:

def incr_and_check_limit_memcache(user_id, limit):  key = '{user_id}:{epoch}'.format(user_id, int(time() / 60))    if cache.add(key, 0, 60):   return False    current_rate = cache.incr(key)    return current_rate > limit 

事實上我們最終采取這種策略可以使哨兵追蹤不同事件的短期數據。在這種情況下,我們通常對用戶數據進行排序以便可以在最短的時間內找到最活躍用戶的數據。

基本鎖

雖然Redis的是可用性不高,我們的用例鎖,使其成為工作的好工具。我們沒有使用這些在哨兵的核心了,但一個示例用例是,我們希望盡量減少并發(fā)性和簡單無操作的操作,如果事情似乎是已經在運行。這對于可能需要執(zhí)行每隔一段時間類似cron任務非常有用,但不具備較強的協(xié)調。

在Redis的這樣使用SETNX操作是相當簡單的:

from contextlib import contextmanagerr = Redis()@contextmanagerdef lock(key, nowait=True):  while not r.setnx(key, '1'):   if nowait:    raise Locked('try again soon!')   sleep(0.01)    # limit lock time to 10 seconds  r.expire(key, 10)    # do something crazy  yield    # explicitly unlock  r.delete(key) 

而鎖()內的哨兵利用的memcached的,但絕對沒有理由我們不能在其切換到Redis。
時間序列數據

近來我們創(chuàng)造一個新的機制在Sentry(包含在sentry.tsdb中) 存儲時間序列數據。這是受RRD模型啟發(fā),特別是Graphite。我們期望一個快速簡單的方式存儲短期(比如一個月)時間序列數,以便于處理高速寫入數據,特別是在極端情況下計算潛在的短期速率。盡管這是第一個模型,我們依舊期望在Redis存儲數據,它也是使用計數器的簡單范例。

在目前的模型中,我們使用單一的hash map來存儲全部時間序列數據。例如,這意味所有數據項在都將同一個哈希鍵擁有一個數據類型和1秒的生命周期。如下所示:

{    "<type enum>:<epoch>:<shard number>": {      "<id>": <count>    }} 

因此在這種狀況,我們需要追蹤事件的數目。事件類型映射到枚舉類型"1".該判斷的時間是1s,因此我們的處理時間需要以秒計。散列最終看起來是這樣的:

 {    "1:1399958363:0": {      "1": 53,      "2": 72,    }} 

一個可修改模型可能僅使用簡單的鍵并且僅在存儲區(qū)上增加一些增量寄存器。

"1:1399958363:0:1": 53 

我們選擇哈希映射模型基于以下兩個原因:

我們可以將所有的鍵設為一次性的(這也可能產生負面影響,但是目前為止是穩(wěn)定的)

大幅壓縮鍵值,這是相當重要的處理

此外,離散的數字鍵允許我們在將虛擬的離散鍵值映射到固定數目的鍵值上,并在此分配單一存儲區(qū)(我們可以使用64,映射到32個物理結點上)

現在通過使用 Nydus和它的map()(依賴于一個工作區(qū))(),數據查詢已經完成。這次操作的代碼是相當健壯的,但幸好它并不龐大。

def get_range(self, model, keys, start, end, rollup=None):  """ To get a range of data for group ID=[1, 2, 3]: Start and end are both inclusive. >>> now = timezone.now() >>> get_keys(tsdb.models.group, [1, 2, 3], >>>   start=now - timedelta(days=1), >>>   end=now) """  normalize_to_epoch = self.normalize_to_epoch  normalize_to_rollup = self.normalize_to_rollup  make_key = self.make_key    if rollup is None:   rollup = self.get_optimal_rollup(start, end)    results = []  timestamp = end  with self.conn.map() as conn:   while timestamp >= start:    real_epoch = normalize_to_epoch(timestamp, rollup)    norm_epoch = normalize_to_rollup(timestamp, rollup)      for key in keys:     model_key = self.get_model_key(key)     hash_key = make_key(model, norm_epoch, model_key)     results.append((real_epoch, key, conn.hget(hash_key, model_key)))      timestamp = timestamp - timedelta(seconds=rollup)    results_by_key = defaultdict(dict)  for epoch, key, count in results:   results_by_key[key][epoch] = int(count or 0)    for key, points in results_by_key.iteritems():   results_by_key[key] = sorted(points.items())  return dict(results_by_key) 

歸結如下:

  • 生成所必須的鍵。
  • 使用工作區(qū),提取所有連接操作的最小結果集(Nydus負責這些)。
  • 給出結果,并且基于指定的時間間隔內和給定的鍵值將它們映射到當前的存儲區(qū)內。

以上就是如何利用Redis實現SQL伸縮的方法,希望對大家的學習有所幫助。



注:相關教程知識閱讀請移步到Redis頻道。
發(fā)表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發(fā)表
主站蜘蛛池模板: av免费不卡国产观看 | 免费a级网站 | 日本中文字幕久久 | 一级免费黄色免费片 | 日本不卡一区二区三区在线 | 国产一区免费视频 | 亚洲性生活免费视频 | 久久亚洲美女视频 | 欧美日韩免费在线观看视频 | 精国品产一区二区三区有限公司 | 久久久久国产成人免费精品免费 | xnxx18日本| 亚洲欧美天堂 | xxxx69hd一hd| 姑娘第四集免费看视频 | 国产伊人色 | 日本一区视频在线观看 | 九九热精| 成人激情在线观看 | 久久最新网址 | 久久精品a一级国产免视看成人 | 99精品视频一区二区 | 国产系列 视频二区 | 日韩视频在线不卡 | 在线中文字幕观看 | 精品二区在线观看 | 精品中文字幕视频 | 羞羞网站在线看 | 欧美aaaaa一级毛片在线 | 麻豆传传媒久久久爱 | 亚州精品国产 | 黄色一级毛片免费看 | 久久久www成人免费毛片 | 91精品国产91久久久 | 黄色大片网站在线观看 | 中文字幕观看 | 午夜国产在线观看 | 久久久久久亚洲国产精品 | videos韩国 | 精品国产一区二区三 | 欧美在线成人影院 |