sql拆分字符串split mysql表數(shù)據(jù)量太大,達(dá)到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?
mysql表數(shù)據(jù)量太大,達(dá)到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?在正常配置下,MySQL只能承載2000萬數(shù)據(jù)(同時(shí)讀寫,表中有大文本字段,單服務(wù)器)。現(xiàn)在已經(jīng)超過1億,而且還在
mysql表數(shù)據(jù)量太大,達(dá)到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?
在正常配置下,MySQL只能承載2000萬數(shù)據(jù)(同時(shí)讀寫,表中有大文本字段,單服務(wù)器)?,F(xiàn)在已經(jīng)超過1億,而且還在增加,建議按以下方式處理:
1子表。它可以按時(shí)間或一定的規(guī)則進(jìn)行拆分,以便盡可能地查詢子表中的數(shù)據(jù)庫。這是最有效的方法。特別是寫,放入一個(gè)新表,并定期同步。如果記錄不斷更新,最好將寫入的數(shù)據(jù)放在redis中,并定期同步表3的大文本字段,將它們分隔成一個(gè)新的獨(dú)立表。對(duì)于較大的文本字段,可以使用NoSQL數(shù)據(jù)庫
4優(yōu)化體系結(jié)構(gòu),或者優(yōu)化SQL查詢,避免聯(lián)合表查詢,盡量不要使用count(*)、in、recursion等性能消耗語句
5使用內(nèi)存緩存,或者在前端讀取時(shí)增加緩存數(shù)據(jù)庫。重復(fù)讀取時(shí),直接從緩存中讀取。
以上是一種低成本的管理方法,基本上幾個(gè)服務(wù)器就可以做到,但是管理起來有點(diǎn)麻煩。
當(dāng)然,如果總體數(shù)據(jù)量特別大,并且您不關(guān)心投資成本,那么PostgreSQL的基本思想是將記錄集的行構(gòu)造成字典。例如,它有一個(gè)函數(shù),row到JSON用于構(gòu)造JSON字典。假設(shè)表名是test,您可以:
或者剩下的是如何遍歷JSON字典以獲得具有最大值的鍵。例如,只需編寫一個(gè)函數(shù)。它也可以用于應(yīng)用層。您還可以使用JSON到記錄集。當(dāng)然,一般來說,比較中涉及的列數(shù)是確定的。例如,如果要比較(高度、寬度、長度),請(qǐng)使用“聯(lián)接”將它們逐個(gè)聯(lián)接到id,每個(gè)結(jié)果集都將成為由id、字段名和字段值兩列組成的結(jié)果集,然后合并為一個(gè)較大的結(jié)果集。其余的是基本的select max操作。以上都是基于PostgreSQL的。我說得很簡單,但沒有給出完整的結(jié)果。我們來看看思路。有一些想法如果沒有預(yù)備知識(shí),也不容易只通過搜索引擎找到,不過,不建議你用百度。