
Paper Review
Understanding the difficulty of training deep feedforward neural networks
[๋ ผ๋ฌธ๋ฆฌ๋ทฐ] ABSTRACT Random Initialization์ ์ฌ์ฉํ ์ผ๋ฐ์ ์ธ Gradient-descent ์๊ณ ๋ฆฌ์ฆ์ด Deep neural network์์ ์ฝํ ์ฑ๋ฅ์ ๋ด๋๊ฐ Random Initialization์ ์ ์ฉํ Logistic sigmoid ํ์ฑํ ํจ์๋ ํ๊ท ๊ฐ ๋๋ฌธ์ Deep network์ ์ ํฉํ์ง ์๋ค. ์์ layer๋ฅผ ํฌํ(saturation)ํ๊ฒ ๋ง๋ ๋ค ๋ณธ ๋ ผ๋ฌธ์์๋ ์๋นํ ๋น ๋ฅธ ์๋ ด์ ๊ฐ์ ธ์ค๋ ์๋ก์ด Initialization Scheme๋ฅผ ๋์ ํ๋ค. Deep Neural Networks ๋ฅ๋ฌ๋์ ์ถ์ถํ ํน์ง์ ์ด์ฉํ์ฌ ํน์ง ๊ณ์ธต์ ํ์ตํ๋ ๊ฒ์ ๋ชฉํ๋ก ํ์ฌ ์งํํ๋ค. ์ถ์ถํ ํน์ง : ๋ฎ์ ์์ค์ Feature๋ค์ ํฉ์ฑ์ ํตํด ๋ง๋ค์ด์ง ๋์ ์์ค์ Layer๋ก ๋ถํฐ ์ถ..