本區搜索:
Yahoo!字典
打印

[學科討論] (ENGG1002)等我話你知Electronics是什麼

引用:
原帖由 41200 於 2014-8-18 11:31 PM 發表
外國好似無分大電細電..
讀EE好似2邊都要讀哂..
如果有錯請指出

不過"要讀哂"是指core course
因為EE太大, 所以讀完一大堆core(即must take的course)
之後可以用advanced course 作為elective去專

fundamental level 的BJT, MOSFET, Diode Circuit, CMOS, Motor, Solid State, EM Wave 等等東西
太basic, 其實不能分做是哪一個stream
所以其實不能說是2邊都要讀晒

所謂2邊都讀晒,其實是不太正確的
例如Power System中Network analysis
要知幾個 Matrix,例如, Impedance matrix Z Admittance matrix Y,
Hybrid parameter, S-parameter, ABCD matrix, 等等

其實在High Speed IC, Microwave Engineering, RF Engineering, 一樣會出現
然而,

因為搞power system的人
接觸的system都是low-frequency system (最多MHz)
而搞RF Engineering的人
卻多數只接觸small voltage system (因為要用small signal analysis 去approximate high frequency的non-linearity)

結果就是
Power界的人不太知道High-Frequency界的人
2群人其實在做差不多的東西

這是 "學界分割"
是一個壞情況
因為可能會出現"知識死角"

所以強烈suggest在undergrad多多學習不同的領域去"擴大眼界"
太早就專一個field是ultra bad的

"學界分割"最serious的一個Example
就是Traditional Statistics Community VS Machine Learning Community
2堆人"打過仗"
http://www.stat.cmu.edu/~larry/Wasserman.pdf
呵呵

[ 本帖最後由 Automaton 於 2014-8-18 11:58 PM 編輯 ]
世界很大 沒你想像中那麼簡單
夢想沒便宜到只靠熱誠便能實現
等我話你知Engineering是什麼

現在開始本人極少上LS Forum

TOP

[隱藏]
好彩無讀電, 睇完真係有D驚, 其實電是我兒時回憶, 我細個好鐘意修理電器, 同自己攪電路版, 當然唔係好複雜果D啦, 係電池光管之類, 抄人地D circuit 自己蝕電路板來玩, 後來都係要向錢低頭, 揀左 Civil 來讀

TOP

樓主熟唔熟
Thin Film Deposition (I): Physical Vapor Deposition and Sputtering
Deposition (II): Chemical Vapor Deposition

我都係咁E search 過下wiki ...好genral 了解到係咩黎..

可唔可以講多少少黎知

[ 本帖最後由 41200 於 2014-8-22 08:43 PM 編輯 ]

TOP

引用:
原帖由 41200 於 2014-8-22 08:41 PM 發表
樓主熟唔熟
Thin Film Deposition (I): Physical Vapor Deposition and Sputtering
Deposition (II): Chemical Vapor Deposition
我都係咁E search 過下wiki ...好genral 了解到係咩黎..
可唔可以講多少少黎 ...
Em.... 問到了一個都幾入肉的question
你問的問題是"Device fabrication"這個field
是搞solid state hardware device 的人的領域
簡單講是研究"如何砌塊chip"

這個"砌"不是指 "如何design circuit, logic gates" 那個"砌"
是指如何"搞塊real chip"

這個領域是個無底深坑
因為永遠不會完
有人會認為fabrication, 就只是搞部機去"砌塊chips"就得啦
正確, 不過也大錯特錯
因為"砌塊chips"沒有那麼簡單

Science研究大自然一早就存在的物件
Engineering研究大自然不存在的物件
問題是, Engineering多了一步
就是如何去挑戰大自然, 令到不存在的物件可以存在

"砌塊chips" (我是指CPU Level)
如何砌???
簡單用電腦控制機械去砌
那麼就要有Control System , Instrumentation , Precise Engineering的知識
不過"砌塊chips"最需要是fabrication的知識

我一直都不講這個area是因為
這個area是超級advance
不像其他EE的sub-field, 這個field需要大量prerequisite的知識才可以"開始introduction"
就好像Optical MEMS, 一般undergrad課程一定是放到最後(就是一定是course code number最大的)

以下我簡單explain幾下"如何砌塊chips"
我assume 你識 :
Computer Organization / Computer Architecture
Digital Logic Design / Microprocessor
Operating System
Semiconductor Physics / Device Physics
Microelectronics Devices
Microwave Engineering
High Speed Integrated Circuit
Numerical Partial Differential Equation

好, 開始
首先就係人都知MOSFET是個voltage controlled current source
當Vgs > Vtn  (assume N-type MOS)
和 Vds < Vgs - Vtn , 個device work on linear mode
而當 Vds > Vgs - Vtn 就saturation mode
而且因為個structural design的原因, 會出現body-effect
個情況就是因為source-body的PN-junction layer
令到electron Fermi levels function是not continuous的

問題出現
因為MOSFET / BJT的structure就是那樣的, 一定會出現layering
or 有 interface
例如metal-semicon interface / semicon-semicon interface / seimcon-oxide interface等等

在"處理"這個interface的時候
如果是theoretical device design的話, 是會"ignore"了很多問題

什麼問題?就是layer如何"stick together"
PN-Junction如何"砌", 用手拍2塊PN semicon在一起的話
好像work
但一定poor performance
因為會有1. gap  2. air gap  3. impurity gap
2塊semicon是要"growth"出來的
即是說, semiconductor是"長出來"的

不要睇小搞個Gap
你識搞細個gap, Intel就會請你
不要以為搞細個gap好易, 這是research level problem (Nano那麼大的gap你如何handle?)

有Gap會有什麼問題??
1. 有Gap, 即有Capacitor effect
會有charge accumulation / leakages
這個突然多了出來的capacitor, 會影響IC的運作速度, 可以慢了20-40%!!
原理就自己畫下circuit diagram, solve下respond curve就會知

2. 有Gap的話, 個原本依靠Fermi levels的design會變弱
因為almost all semiconductor device, 其實都是apply Dirac-Fermi Statistics
如果個實際device個Fermi curve和design那個不同, 就可能會出錯

3. 有Gap,可能會有chemical reaction
係, 真空都可以有chemical reaction, 那是thermodynamics的原因

4. 有Gap會影響個structure
Gap對於2D topology可能影響不大
不過Gap對於3D topological structure影響可以超大
而且愈來愈多3D device (e.g. FinFET, IC stack)

那麼因為不想要Gap
所以CMOS device不是一個個的 "砌"
而是一次"砌2個"
一個body上會有2個MOS, 一個nMOS, 一個pMOS
其實還有一次砌3個的"BiMOS / BiCMOS", 一個body一次有 pMOS + nMOS + NPN-BJT, 不過太complicated我就唔講

CMOS是最基本的積木
那麼是如何有那個"積木"
要用一個technique叫Lithography
當你growth silicon的時候, 會在上方放一層organic layer,那一層東西很神奇
見光就變硬(or軟)
那麼你放一層有很多special designed的 hole的layer上去, 之後再用光照, 就可以"挖走"那一些變軟的地方
之後"growth"那些semiconductor在那個洞

那麼在這個process(我skip了很多details)
最重要的就是不可以有"impurities"
所以要在"clean room"做 (入去要穿防毒面具 )
而且要在一個有specific air pressure, temperature的chamber中做
那些"additive material"是如何放入去那個device的呢?
就是sparse上去

我上面的交字表達, 太沒efficiency

睇圖仲好

當搞好一塊chips的基本building blocks之後
接下來就是要"連接這些building blocks"
就是wiring
wiring之後就到了 "interconnect"
就是把幾個細部件接做大部件
那麼在design CPU的process之中
需要和software對應, 例如memory allocation & management
所以會有些特別的知識要知道

這幾個部份, 我都不熟悉
因為是商業機密, text book唔會有的
總之, 之後就突然變魔術, CPU就出世了

最後, 你可能會發現, 我在pre-requisite 提過
要識這個area, 需要Microwave Engineering, Numerical Partial Differential Equation
不過正文好像完全沒有講到

不是騙你, 真要要識Microwave Engineering, Numerical PDE的
我唔講是因為我skip晒D數 (因為我skip了一大堆野, 特別是thermodynamics的東西, 例如diffusion process)
如果我用數的approach去講如何砌IC .... 不能想像   em35 .

[ 本帖最後由 Automaton 於 2014-9-26 04:11 PM 編輯 ]
世界很大 沒你想像中那麼簡單
夢想沒便宜到只靠熱誠便能實現
等我話你知Engineering是什麼

現在開始本人極少上LS Forum

TOP

前面見到你有張圖係講classifier
linear classifier 就可以用w(t+1)<-w(t)+y(n)(t)+x(n)(t) 做修正

咁higher order classifier 有咩方法做修正

另外..你都係用好多Data 搵個classifier apply 落第時既data 到...
點知到一定可以岩用落其他set data 度... 唔知你明唔明我講咩..我講到1999

TOP

引用:
原帖由 41200 於 2014-9-26 01:23 AM 發表
前面見到你有張圖係講classifier
linear classifier 就可以用w(t+1)<-w(t)+y(n)(t)+x(n)(t) 做修正
咁higher order classifier 有咩方法做修正

另外..你都係用好多Data 搵個classifier apply 落第時既data 到...
點知到一定可以岩用落其他set data 度... 唔知你明唔明我講咩..我講到1999
你想要簡單答案還是詳細答案?
世界很大 沒你想像中那麼簡單
夢想沒便宜到只靠熱誠便能實現
等我話你知Engineering是什麼

現在開始本人極少上LS Forum

TOP

Explain  it in detail if you have time
thanks

TOP

引用:
原帖由 41200 於 2014-9-26 03:39 PM 發表 前面見到你有張圖係講classifierlinear classifier 就可以用w(t+1)<-w(t)+y(n)(t)+x(n)(t) 做修正
咁higher order classifier 有咩方法做修正

另外..你都係用好多Data 搵個classifier apply 落第時既data 到...
點知到一定可以岩用落其他set data 度... 唔知你明唔明我講咩..我講到1999
Explain  it in detail if you have time
thanks
那麼我就"略"回應一下
我用Artificial Neural Network 做例子


(圖上網是但找的)
由圖可見

1. In input-hidden layer


i.e.


2. In hidden layer





3.  In output layer
相同理由會有



那麼output就是一個 very complicated 的function of inputs



因為有multiple output, 所以output vector y is



如果你要寫出yx 的equation, 會長到不得了, 所以我不寫

這個structure 叫 人工神經網路

那麼和 "神經" 有什麼關呢

Biology知識(生物神經), 當input入那個神經細胞的訊號濃度高過一定限定值,  那個神經細胞就會"發作", 發出神經訊號




數學表達即


where


因為sgn function 不能take derivative (你之後就會知道為什麼要Take derivative)
所以用其他和sgn function相似的function來取代, 例如hyperbolic tangent

所以, 一個神經細胞的model就是


問題是, 那些w是一些unknown parameters, 那麼, 要做的事就是 :  找出那一些正確的 w

可以怎樣做?
先要知道Artificial Neural Network (ANN) 可以做什麼
ANN的研究, 是 人工智能的一個sub-field
ANN其實就是一種 classifier

Classifier要做什麼? 就是分類一些物件, 例如叫電腦去分析我個頭像那張照片是男還是女.
人有腦,一眼就可以知道是男人還是女人
Computer冇腦, 如何分析????

方法有很多, 我講一下 Supervised Learning
首先, 你有幾百張相, 有男有女
而且你事先已知道那些照片中人是男人還是女人

之後你construct我上面講的ANN structure
如何construct?
很簡單

照片其實是一個巨大的matrix


一張照片可能有1百萬像素
那麼就當是一百萬個維的vector (其實1百萬維的vector space中的一個向量, 其維度高到可以當function space了)
那麼最上面的x就有1百萬個, 即p = 1000000
那麼上面的w就會幾 超級多個 (可能有幾億個unknowns)

你create 一個Artificial neural net出來
剛開始的時候, 那些w都是 random guess
你random assign 那些w的value
之後把那幾十張相input入去那個system
run完之後會出output y

如果是分男人女人, 即你可以assign 只會有一個y
而那個y 的value的 sign就可以用作分辨男女

因為你一開始就random assign w,所以你的neural net是不會估中所有照片中人的性別的
then, 用 feedback的精神

define error term as  
之後用error term去 更正那些錯誤的w
那麼如何更正??當然不是亂改
就是要把w改正到會令 Total Error E減少

Total Error E is defined as


updating rule 一般是

注意w是vector

正因為要向正確方向改進, 所以update是由3個term組成, step size alpha, update direction e and update amount k
alpha是決定update 速度的一個parameter, 一般set做<1
那麼e和k可以怎麼知道呢, 就是用derivative

因為我們要找出Best w (最佳的neural network parameters)
所以其實個問題是一個optimization problem

find the optimal W such that the cost function ( the total error function ) is minimized

要找function的minimum, take derivative equal to zero的點都是possible candidate
That's why 最開始時要放棄sgn function, 因為sgn function不能take derivative

問題來了

因為個artificial neural network個structure, 引致個function 太complicated
要d都不一定可以d到
而且可是個multi-variable 的function
不是下下都可以take Hessian matrix (萬一個Hessian matrix是non-invertible就有問題)
Then連個take derivative的process都要搞 numerical update

所以這類big big system的問題一定要用電腦solve
就assume用了些quasi-newton的方式找到derivative
那麼那個derivative找到了, 就可以update W

i.e. 我們solve了下面這一步

注意個方法works for ALL order p

OK, now the whole W has been updated
that means we now have another NEW artificial neural network
then we can put ALL photo into this network again and find out the output
if there is error in the output, then we use the error and update the network again

loop this 9999999 times, and finally the W will converge to the true W
and in this case the ANN system可識得分辨男人女人

那麼我就回應了你第一個問題
世界很大 沒你想像中那麼簡單
夢想沒便宜到只靠熱誠便能實現
等我話你知Engineering是什麼

現在開始本人極少上LS Forum

TOP

引用:
原帖由 41200 於 2014-9-26 03:39 PM 發表
另外..你都係用好多Data 搵個classifier apply 落第時既data 到...
點知到一定可以岩用落其他set data 度... 唔知你明唔明我講咩..我講到1999
thanks
我上面講了ANN-model
不過其實ANN只是一大堆model之中的其中一個model
其他Model 有 SVM, LDA, QDA, K-mean, C-mean, RandomForest, Decision Tree, Adaptive Boosting, blablablablablabla

那麼你的問題是有關
Is the model really fit the problem ??

這樣其實有2個問題
1. Under fitting & Over-fitting
2. Is cross-validation always work ???

什麼是under fitting & over-fitting??



assume你有一大堆experimental data
你要找出這些data背後的equation
那麼由上圖就可以簡單地知道什麼是over fitting 什麼是under fitting

就是如果你下下都用ultra-high order, 一定fit
因為一定work
不過就會是true model,因為over-fitting會連noise都fit埋入去

Under fitting就super-high resistant to noise
(high-resistant to noise可以叫robust)
不過就很大的modelling error

therefore
modelling error VS robustness其實有取捨

不過當然自然有人想要2個都有
所以會有一個學問叫 Model Selection
用我上一篇文的例子來講就是

到底應該要用多少個neuron去construct個ANN??
要用多少個order??
hidden layer要有多少層??
這些model parameters都是可以tune的
是可以有一個algorithm tell you what you should use and what you should not use such that the general accuracy will be maximized

你可能會問
嘩我連個true model個structure都唔知道係咩
竟然有人連個structure入面更detail的資料例如要用多少order,要用多大的parameter都可以知道??
對, 就是有那麼厲害

那麼占是那是如何做到的?
其實一樣是optimization

就是optimize一些可以tune的parameter去令到一個performance function maximized
所謂performance function其實即是Error function的一些親戚: Loss Function, Risk Function
即是說其實modeling當中, 很多時都是要under一些loss function constraints
詳細有關Loss function, risk function的東西
你可以去詳細研究Support Vector Machine (SVM)

Support Vector Machine是另一個分類器
不是用network方法去分, 而是用"high-dimensional hyper-plane"去隔開不同class的data
個必殺技就是 "高維投影大法" , 連畸形data都可以分到
詳細就唔講, 你真係想知先講

那麼我之前講過high order會over-fitting
then how to prevent
很易單, 你set limitation
你不準個model變high order

一般做法是加constraint term (or called regularized term)

例如我上一篇文上面個ANN example
我防止W太大
那麼我可以set 個constraint
||w|| < C
即L-2 norm of W要細過一個constant C

我也可以把這個constraint放入個model building process
例如原本是要minimize個cost function


現在則是


我可以講你知, 上面這條equation是近10年來, 在research field hot到飛起的東西
上面的alpha beta gamma只是一個tuning parameter, 很普通的東西
那3個 w term先勁

那些叫Lp-norm

如果P=2, 就是Euclidean norm

當在一些regression問題當中加入這3個東西時
那個regression model會"自動變好"
因為這些限制項會限制parameter的possible choice, 會自動remove晒所有大parameter的case
個search space of these parameter立即大減了最少50%
"size of parameters" reduce之外
而且這些term的出現令到 "number of parameters" 也reduce
即是會出現很多parameter 其實是 useless / not-important
從而 1.)simplify 個model  2.)可以用很多term去model一些事  3.)因為少parameter, 在data compression方面會有很恐怖的效果

所以其實Regularization Techniques是一個很勁的area
有幾勁?
1. 2013年 Shaw Mathematics Prize個winner就是研究這些東西
2. Stanford Statistics, 地球上最強,第一名的statistics department (遠超越第二名),
當中有幾個教授都是研究這個東西, 包括上面那位Shaw prize winner都是Stanford的professor
3.用在signal processing上, 有關這些的研究可以突破Shannon-Nyquist Theorem (讀過Signal & System一定會知道的theorem)
4.用在imaging上, MRI, fMRI等等照下個身要等N禁耐的可以快幾十倍
5.所有sensor成本可以下降幾個level (想像下, 太空船, 機械人 這些一大堆sensor的東西會點? )
實在太多勁application

所以, 有了regularization term之後, 個system performance其實會很好



那麼現在就答了你那個問題的50%

最後的50%就是用 cross-validation / Boost trap / Jack Knife
就是如果你有100個data
你千萬不要用晒100個data去build model, 那是傻的

如果你有100個data, 你應該
分做10份 : A,B,C,D,E,F,G,H,I,J

先用A-I build model,之後用group J去test
之後用A-H,J 去build model,之後用group I去test
repeats
(就是 每次用9 group去build model, 1 group不用來build model, 用來test)
最後你take 那10個model的average
Then "very very high chance" that your model is generalized to all possible cases

這個叫"10-fold Cross-validation"
Boost trap, Jack Knife 時間關係就不講了


你可能還是死都不信個model是夠good
那麼仲有方法
就是用Robust Statistics
所謂Robust statistics是指 resistant to "outlier"

就是當你take mean的時候
你reject 最extreme 的5%的data 先take mean
這個叫trimmed mean

你也可以用 Median Filter
就是用Median 取代mean

Median filter在handle 有outlier/peak的情況最好


不過Median filter is nonlinear
很難implement
hardware implementation of median filter is still a unsolved research problem!
如果你solve到, 你可以攞 EE的Nobel Prize

所以, 總會有方法去build model, 不用擔心
世界很大 沒你想像中那麼簡單
夢想沒便宜到只靠熱誠便能實現
等我話你知Engineering是什麼

現在開始本人極少上LS Forum

TOP

樓主真係神
我f6睇過你第一篇文
咁快宜家就yr 2

John von Neumann固然神
我都好欣賞萊布尼茨
但唔知你點睇nikola tesla?

另外, 你除左ee厲害
其實其他範疇點樣?
例如非ENG, SCI學科, 或語言能力, 其他技能
想知樓主係咪polymath

btw, 你可以一日睇600頁書係痴線
只問讀唔少書, 但都冇你咁神

TOP

引用:
原帖由 icexlove 於 2014-10-1 12:41 PM 發表
樓主真係神
我f6睇過你第一篇文
咁快宜家就yr 2

另外, 你除左ee厲害
其實其他範疇點樣?
例如非ENG, SCI學科, 或語言能力, 其他技能
想知樓主係咪polymath
講真我已經不是EE全部都厲害
你見我幾乎都沒有講過EE二大subfield : Networking & Computer Architecture  
因為我對這些field的認識幾乎是零 (就是, 我有認識, 不過可沒有能力講到"精彩"的地步)

有關講到"精彩"的地步, 即表達能力
我presentation skill就一流
這是有需要的
話你知, 如果你去conference paper competition
你識present就幾乎一定有prize (Champion, First runner up 等等)
當你present你的理論給那一大堆不認識你的professor時
你有presentation skills,你就有advantage
在一個conference, 曾經有個professor寫個comment給我是 : "You are a very good salesman"
我當時會心一笑
presentation skills其實這是很重要的事
你去過幾次conference就會知
那些人present, 其實可能是一些大學的top scholar,
不過如果講野講得差
你個theory就永遠出不了頭
沒錯,
在conference present就有如在做salesman

那麼當然, paper quality可能會是一個問題
放心, 在conference開始前, 你是要submit paper soft copy的
而是會有人去read你的paper, 再決定是否OK的
所以其實入得conference / paper competition的paper都最少會有一定quality control

就是因為入了conference / paper competition的quality其實都差不多
所以很大程度上, 要win就要依靠presentation skills

Presentation skills真的很重要

另外有關其他技能
我音樂技藝都有一定水準ge
基本上都除了Rhythmic section之外
我在一個管樂團, Jazz Orchestra都可以坐任何位置
引用:
原帖由 icexlove 於 2014-10-1 12:41 PM 發表
你除左ee厲害
其實其他範疇點樣?
例如非ENG, SCI學科,
我話你知
其實大學理工科學的基礎"數學語言"來來去去都是那些東西
例如Vector cal, complex variables, linear spaces等等
所以其實EE厲害和SCI厲害是可以互通的
只是當你去其他field的時候要學返你沒有的東西而已

另外因為我UG讀HKU個electronics, 個degree很board
好處是我知識面很廣
例如我現在都識少少Tort Law, Contract Law, Common Law, Legal System的知識
Business吹水野當然都知D
壞處是我強烈認為個degree的東西太淺

這個不是我個人subjective opinion
基本level course such as calculus我就唔多講
你去睇下Stanford EE year TWO 的course
同香港的大學的EE的year two course
嘩人地D control system dynamical system已經去到chaos theory 的intro等級
香港D control course, 咪仲係到transfer functions, Laplace transform
人地D convex optimization, machine learning, 全部都先進香港所有大學的course幾條街
事實就當然啦, 人地 Stanford EE有大人物Stephen Boyd, 自自然D course都深D

再唔係就electromagnetics
UIUC UG year2 year3 D electromagnetics 早就講Finite element method
香港的electromagnetics,例如CUHK,我記得是course code是4字頭,仲係到講Maxwell's Equation

唔講太technical的course,then 講下for fun的lab course
外國的lab course砌機械人
香港的? 叫D學生砌部小型智能車都砌到死

course廣度夠是for 學生畢業之後去找工作
course深度不夠, 叫D學生畢業之後去做研究? 輸十條街

UG竟然可以沒有Topology, Group Algebra, Function Space之類背景
根本就先天地限制了香港的學生做不了理論性研究
外國D大學在grad school會有qualifying exam
香港的? 話你知, 你唔做野日日hea, 事但做D野都可以順利PhD
外國的PhD學生很多PhD thesis會變一份很好的journal paper
不過香港?? 次等journal就有佢份

我話你知, 如果你想搞研究做學問, 一定要去外國
我雖然有scholarship(都幾十萬), 但無奈根本不夠
(認真思考下, 4~5年外國生活你認為幾十萬夠????)

香港的大學, 整體來講其實很水
D教授沒有遠見, 也不懂得合作的好

多口話你知, 整個香港所有大學, 得HKU個醫學院係世界級
但是這個世界級是"血汗工廠"
HKU個醫學院,D professor幾乎是 "數學盲"
佢地係唔知有樣野叫 Pattern Recognition, Statistical Machine Learning, Image Processing的
D professor全部都反對數學的,
眼科course叫人睇黃斑病, 誰不知Medical image processing / neuroimage那些東西早就一大堆computer automatic image analysis, 仲要更powerful, 更準
D老professor係唔會更新自己的(這是super negative的), 佢地仲只係識 Var(X), E(X) , mean之類野
Bioinformatics D gene analysis, gene discovery algorithm佢地應該100年後先會識

所以我感覺到, 在二流的地方只會倒退
所以要自己爭取有一流的機會
非凡的人找機會
平凡的人等機會
愚蠢人錯過機會


你現在year 2, 你要爭取去exchange!
要爭取去做academic work
多多找Professor 討論

再講一次
非凡的人找機會
平凡的人等機會
愚蠢人錯過機會
引用:
原帖由 icexlove 於 2014-10-1 12:41 PM 發表
John von Neumann固然神
我都好欣賞萊布尼茨
但唔知你點睇nikola tesla?
Wireless power transfer
近一百年前(1893)的Tesla只要自己一個人就搞到
一百年後的現時, 在MIT卻要6個人
你明白了吧
引用:
原帖由 icexlove 於 2014-10-1 12:41 PM 發表
btw, 你可以一日睇600頁書係痴線
只問讀唔少書, 但都冇你咁神.
那是和你background knowledge有關
如果你識Maxwell's equation, fiber optics你會看得很舒服
如果你識Functional Analysis, 幾乎大部份Machine Learning書可以一日KO
如果你識Linear Algebra (Vector space那個version),大部份optimization書可以一日KO
如果你識Optimization, statistics, linear algebra,  那麼Independent component analysis & Principal component analysis, SVM, Neural Network等等書你會看得很舒服

如果你沒有A, 去看A'
當然不舒服啦
例如你statistics, matrix都不熟, 叫你去睇forth order cumulant tensor, 你都睇得超唔舒服啦
世界很大 沒你想像中那麼簡單
夢想沒便宜到只靠熱誠便能實現
等我話你知Engineering是什麼

現在開始本人極少上LS Forum

TOP

"You are a very good salesman"
睇你寫文都知你係;

可以一面激勵讀者, 一面吸引佢地了解engine


音樂方面
小弟只識violin同一點piano


幾十萬Scholarship


樓主真係厲害
學完同睇完咁多野可以打番篇咁生動既文,
而且所有terms都可以隨時出番!


本人有好多學習對象; 大多與polymath有關
佢地令我諗到一句: 別說你時間不夠,你每天擁有的分分秒秒,和德蕾莎修女、達文西、愛因斯坦一樣多。

隨左達文西, John von Neumann, 萊布尼茨 ,nikola tesla;
仲有火箭之父Robert Hutchings Goddard, James Maitland Stewart, 沈括, Howard Hughes, Elon Musk(近期紅人)

btw; 圖靈都係長跑好手

TOP

所以CUHK 個醫學院做到世界首創的 T21 產檢, 真心堅, 要從母血分辨出胎兒血液的DNA, 跟住睇下胎兒有無唐氏等病, 真係諗都知堅難, 但中大做到, 港大就做唔到

TOP

Automaton 清唔清楚 香港邊間U 做Brain computer interface/BMI 既research 比較好?
呢方面既野真係好有趣...
control,neural engin,robotics 既野都涉及到...

[ 本帖最後由 41200 於 2014-11-9 11:02 PM 編輯 ]

TOP

插句咀先, 有D有志想做研究的學生如果出唔到去讀 PhD 寧願唔讀出黎做野 (逃)
Permanent Head Damage and Mental Abuse To Human

TOP

重要聲明:小卒資訊論壇 是一個公開的學術交流及分享平台。 論壇內所有檔案及內容 都只可作學術交流之用,絕不能用商業用途。 所有會員均須對自己所發表的言論而引起的法律責任負責(包括上傳檔案或連結), 本壇並不擔保該等資料之準確性及可靠性,且概不會就因有關資料之任何不確或遺漏而引致之任何損失或 損害承擔任何責任(不論是否與侵權行為、訂立契約或其他方面有關 ) 。