大數(shù)據(jù)分析 張量分解如何應(yīng)用于數(shù)據(jù)挖掘?
張量分解如何應(yīng)用于數(shù)據(jù)挖掘?舉個(gè)很簡(jiǎn)單的例子。首先對(duì)目標(biāo)數(shù)據(jù)集構(gòu)建張量,然后對(duì)張量進(jìn)行分解,這里的分解是帶有精度的截取分解。之后對(duì)數(shù)據(jù)進(jìn)行還原,還原后的數(shù)據(jù)并不完全等于原有的數(shù)據(jù),有一些原本沒(méi)有數(shù)據(jù)的
張量分解如何應(yīng)用于數(shù)據(jù)挖掘?
舉個(gè)很簡(jiǎn)單的例子。
首先對(duì)目標(biāo)數(shù)據(jù)集構(gòu)建張量,然后對(duì)張量進(jìn)行分解,這里的分解是帶有精度的截取分解。之后對(duì)數(shù)據(jù)進(jìn)行還原,還原后的數(shù)據(jù)并不完全等于原有的數(shù)據(jù),有一些原本沒(méi)有數(shù)據(jù)的地方有了新的數(shù)據(jù),這種方法常常被用于數(shù)據(jù)補(bǔ)全,當(dāng)然也可以用于推薦系統(tǒng)等等。
Tensorflow中的張量是什么意思?
TensorFlow的tensor(張量)來(lái)自于數(shù)學(xué)上的張量概念。
(柯西應(yīng)力張量,圖片來(lái)源:維基百科)
什么是張量
19世紀(jì)末,Tullio Levi-Civita和Gregorio Ricci-Curbastro提出了張量,張量的提出是為了研究一些不依賴于坐標(biāo)系的內(nèi)在的幾何性質(zhì)和物理性質(zhì)。相對(duì)論出現(xiàn)以后,張量這個(gè)概念被發(fā)揚(yáng)光大了(相對(duì)論需要研究不同參考系下的同一物理系統(tǒng)的規(guī)律)。在現(xiàn)代數(shù)學(xué)上,張量定義為多重線性映射(multilinear map)。
不過(guò)以上其實(shí)都不重要。-_-!!!
實(shí)際上你需要記住的只有一點(diǎn),在進(jìn)行張量運(yùn)算的時(shí)候,經(jīng)常把張量當(dāng)成多維數(shù)組進(jìn)行計(jì)算。
張量和多維數(shù)組
沒(méi)錯(cuò),TensorFlow中的Tensor或者說(shuō)張量就是多維數(shù)組!
(我猜之所以叫TensorFlow,不叫ArrayFlow,是因?yàn)門ensorFlow聽起來(lái)比較高大上。)
舉幾個(gè)例子吧:
- 1是一個(gè)0維張量/0維數(shù)組,又叫標(biāo)量(scalar),形狀為[]。
 - [1, 2, 3]是一個(gè)1維張量/1維數(shù)組,又叫向量(vector),形狀為[3].
 - [[1, 2, 3], [4, 5, 6]]是一個(gè)2維張量/2維數(shù)組,又叫矩陣(matrix),形狀為[2, 3]。
 - [[[1, 2, 3]], [[4, 5, 6]]]是一個(gè)3維張量/3維數(shù)組,有時(shí)候,張量特指3維以上的張量(低于3維的,如前所述,分別叫標(biāo)量、向量、矩陣),形狀為[2, 1, 3]。