Skip to content

Commit

Permalink
#40:Translate 5.2 - paragraph 2 / 6
Browse files Browse the repository at this point in the history
  • Loading branch information
Domirae committed Sep 28, 2018
1 parent 03ea566 commit a620667
Showing 1 changed file with 23 additions and 4 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -94,10 +94,11 @@
"### 2\n",
"## The relevance of deep learning for small-data problems\n",
"\n",
"You will sometimes hear that deep learning only works when lots of data is available. This is in part a valid point: one fundamental \n",
"characteristic of deep learning is that it is able to find interesting features in the training data on its own, without any need for manual \n",
"feature engineering, and this can only be achieved when lots of training examples are available. This is especially true for problems where \n",
"the input samples are very high-dimensional, like images.\n",
"You will sometimes hear that deep learning only works when lots of data is available. \n",
"\n",
"This is in part a valid point: one fundamental characteristic of deep learning is that it is able to find interesting features in the training data on its own, without any need for manual feature engineering, and this can only be achieved when lots of training examples are available. \n",
"\n",
"This is especially true for problems where the input samples are very high-dimensional, like images.\n",
"\n",
"However, what constitutes \"lots\" of samples is relative -- relative to the size and depth of the network you are trying to train, for \n",
"starters. It isn't possible to train a convnet to solve a complex problem with just a few tens of samples, but a few hundreds can \n",
Expand All @@ -114,6 +115,24 @@
"For now, let's get started by getting our hands on the data."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### 2\n",
"## 적은 데이터에 관한 딥러닝의 관련성 \n",
"\n",
"딥러닝은 많은 양의 데이터가 있을 때만 작동한다고 종종 듣게 됩니다. <br>\n",
"이는 부분적으로 정당한 말입니다 : 딥러닝의 기본 특성 중의 하나는 수동으로 feature engineering( *데이터로 부터 특징을 직접 찾아 제작하는 것을 의미* )하는 것을 필요로 하지 않고, 자체적으로 학습 데이터의 흥미로운 특징을 찾을 수 있다는 것입니다. 그리고 이것은 많은 학습 예제가 보장될 때만 성취 될 수 있습니다. 특히 입력 샘플이 이미지와 같이 매우 **고차원**일 때 문제가 뚜렷하게 보입니다. \n",
"\n",
"\n",
"그러나 많은 샘플을 구성하는 것은 **상대적**인 것입니다 ― 처음에 학습하려는 네트워크의 사이즈와 깊이에 상대적입니다. <br> 단지 수십 개의 샘플만으로 복잡한 문제를 해결하기 위해 **convnet**(합성곱 신경망 - Convolutional Neural Network)을 학습시킬 수 없지만, 만약 모델이 작고, 잘 정형화 되어있고, 작업이 단순하다면, 몇 백 개의 데이터는 잠재적으로 충분할 수 있습니다.<br> 왜냐하면 **convnet**은 지역적이며 번역에 영향을 받지 않는 특징( *특징이 누군가의 해석에 따라 달라지지 않음을 의미하는 것 같음* )을 학습하기 때문에, 지각 문제에 매우 데이터 효율적( *데이터 양에 크게 영향을 받지 않음* )입니다. <br>아주 작은 미이지 데이터 세트를 이용하여 처음부터 **convnet**을 학습시키면 상대적으로 데이터가 부족해도 사용자의 어떠한 feature engineering 없이 여전히 합리적인 결과를 얻을 수 있습니다.<br> 이번 장에서 어떻게 동작하는지 확인할 수 있습니다. \n",
"\n",
"하지만 딥러닝 모델은 본질적으로 용도 변경이 가능한 성질을 높게 띠고 있습니다. 예를 들어, 대규모 데이터 세트에서 학습된 이미지 분류, speech-to-text 모델을 가져온 뒤, 사소한 변경으로 완전히 다른 문제에 재사용할 수 있습니다. 특히 컴퓨터 비전의 경우 많은 사전 훈련된 모델 ( 보통 ImageNet 데이터 세트를 통해 학습됨 )을 공개적으로 다운로드 할 수 있으며, 아주 적은 양의 데이터로 강력한 비전 모델을 bootstrap하는 데 사용할 수 있습니다. 이것이 다음 장에서 우리가 할 일들입니다. \n",
"\n",
"지금은 데이터를 직접 살펴보도록 하겠습니다. "
]
},
{
"cell_type": "markdown",
"metadata": {},
Expand Down

0 comments on commit a620667

Please sign in to comment.