Tomcat和nginx mysql表數(shù)據(jù)量太大,達(dá)到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?
mysql表數(shù)據(jù)量太大,達(dá)到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?在正常配置下,MySQL只能承載2000萬數(shù)據(jù)(同時(shí)讀寫,表中有大文本字段,單服務(wù)器)?,F(xiàn)在已經(jīng)超過1億,而且還在
mysql表數(shù)據(jù)量太大,達(dá)到了1億多條數(shù)據(jù),除了分庫分表之外,還有沒有其他的解決方式?
在正常配置下,MySQL只能承載2000萬數(shù)據(jù)(同時(shí)讀寫,表中有大文本字段,單服務(wù)器)?,F(xiàn)在已經(jīng)超過1億,而且還在增加,建議按以下方式處理:
1子表。它可以按時(shí)間或一定的規(guī)則進(jìn)行拆分,以便盡可能地查詢子表中的數(shù)據(jù)庫。這是最有效的方法。特別是寫,放入一個(gè)新表,并定期同步。如果記錄不斷更新,最好將寫入的數(shù)據(jù)放在redis中,并定期同步表3的大文本字段,將它們分隔成一個(gè)新的獨(dú)立表。對(duì)于較大的文本字段,可以使用NoSQL數(shù)據(jù)庫
4優(yōu)化體系結(jié)構(gòu),或者優(yōu)化SQL查詢,避免聯(lián)合表查詢,盡量不要使用count(*)、in、recursion等性能消耗語句
5使用內(nèi)存緩存,或者在前端讀取時(shí)增加緩存數(shù)據(jù)庫。重復(fù)讀取時(shí),直接從緩存中讀取。
以上是一種低成本的管理方法,基本上幾個(gè)服務(wù)器就可以做到,但是管理起來有點(diǎn)麻煩。
當(dāng)然,如果總體數(shù)據(jù)量特別大,并且您不關(guān)心投資成本,您可以使用集群或tidb
原因有很多,不盡相同。
1. 歷史原因,例如,當(dāng)Linux開始編寫時(shí),沒有其他選項(xiàng),只有C.
2。個(gè)人偏好:這些開源庫是由當(dāng)時(shí)的主要贊助商贊助的。贊助者喜歡C,但不想使用C,所以總是C
3。性能要求,你列出這些,都是在各自領(lǐng)域的性能要求到了極致,用C是個(gè)不錯(cuò)的選擇。
4. 語言本身的影響,例如C,已經(jīng)非常復(fù)雜了。如果引入,很可能不同的人會(huì)采用不同的寫作方法,高低沒有區(qū)別。然而,在一個(gè)開源項(xiàng)目中有這么多的編寫方法,維護(hù)就成了一個(gè)大問題。
為什么mysql,nginx,libev,redis,linux都是用C寫的?
Nginx通過libevent和Nginx的fastCGI配置(fastcgiu)建立網(wǎng)絡(luò)連接池passip:端口), 使用TCP 127.0.0.1:9000或UNIX套接字連接UNIX:///var/run/unix.sock文件PHP和MySQL通過MySQL*的PHP擴(kuò)展連接,實(shí)現(xiàn)TCP連接(持久連接或非持久連接)