Hard work beats talent when talent doesn't work hard
文章緩慢構建中,自我複習之餘也希望能幫助需要的人。
2016年2月5日 星期五
何謂QoS?
›
何謂QoS? QoS(Quality of Service)是一個頻寬管理的功能,使用者可以設定為特定的電腦保留一定比例的頻寬,當頻寬滿載,這台電腦還可以繼續使用,不用跟其他的電腦搶奪頻寬。 為什麼需要 QoS? 在一般的家庭網路中,頻寬是所有電腦共用的。這表示任何使用「...
CPU體系架構分析
›
CPU體系架構按照名稱主要分為兩大類:IA和x86,而在這兩類下又分別劃分為32位元和64位元。 按照這樣的分類,就出現了四種體系架構名稱:IA-32,IA-64,X86-32,X86-64。這些名詞的含義總結如下: x86 (= 80x86) x86是Intel公司首...
2016年2月4日 星期四
[Linux] Shell script if
›
常用的系統符號變數有: $# Number of parameter $* All the parameter $? Exit status of previous command(前一個指令執行後的回傳值,0為執行成功) $$ PID of this s...
2015年11月10日 星期二
[Linux] 在Ubuntu 12.04上使用「Sublime Text 3 + Ctags + Cscope」取代Source Insight + 安裝HighlightWords套件 + 安裝Function Name Display套件
›
Step1. 在Ubuntu上安裝Ctags與Cscope sudo apt-get install cscope sudo apt-get install exuberant-ctags Step2. 在Sublime Text上安裝Ctags與Cscope套件 ...
2015年1月16日 星期五
[機器學習] 降維演算法:主成分分析(Principal Component Analysis, PCA)
›
以下講解如何公式化主成分分析演算法,假設我有如下二維data,我們想要將它投影到一條直線上使其降成一維,那麼該如何找出最佳的一條直線來投影呢? PCA要做的就是找出一個低維度的投影平面(在這個例子是一條紅色直線),當我們將data投影到上面,data與這條線之間的平方投影誤差...
[機器學習] 將高維度資料壓縮(Data Compression)與視覺化(Visualization)
›
資料壓縮 為何要將資料壓縮?主要有兩大好處: 減少硬碟與記憶體空間的使用 加快演算法速度 如果我們現在有個data set具有非常非常多特徵,例如50個特徵,我們隨便取兩個特徵出來,假設特徵${ x }_{ 1 }$是某樣東西用公分表示的長度,特徵${ x }...
2015年1月14日 星期三
[機器學習](十)向量化(Vectorization):低維度矩陣分解(Low Rank Matrix Factorization)
›
向量化的意思就是把一些for迴圈的操作轉換成矩陣的操作,速度會比寫一般迴圈快非常多。比如說線性回歸,求預測值時,普通做法是一個樣本求一次,而m個樣本就要用for迴圈求m次,向量化操作就是用矩陣相乘的方式,一次求出m個樣本的預測值。 以協同過濾的例子為例,之前我們說使用者j對電...
›
首頁
查看網路版