Skip to content

Commit

Permalink
KerasKorea#40: Translate 5.3 - paragraph 9.1 / 11
Browse files Browse the repository at this point in the history
  • Loading branch information
visionNoob committed Oct 2, 2018
1 parent 1a4cdee commit 7c7e082
Showing 1 changed file with 18 additions and 0 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -1162,6 +1162,24 @@
"Let's set this up, starting from where we left off in the previous example:"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Pragraph 9\n",
"자 이제 우리는 상위 3개의 convolution layers를 fin-tune할 것입니다. 그렇기 때문에 `block4_pool` 까지는 모두 frozen되어 있어야 합니다. 그리고 `block5_conv1`, `block5_conv2` 그리고 `block5_conv3`는 학습가능해야 합니다.\n",
"\n",
"왜 더 많은 레이어를 fine-tune 하지 않을까요? convolutional base 전체를 모두 fine-tune하면 좋지 않을까요? 하지만 우리는 고려해야 할 사항들이 있습니다: \n",
"\n",
"* 얕은 레이어들은 조금 더 일반적이고, 재사용이 가능한 특징들을 많이 가지고있습니다. 반면 깊은 레이어들은 좀더 특정 테스크에 특화된 특징들이죠. 테스크에 특화된 특징들을 fine-tune하는 편이 더 유용할 것입니다. 우리가 가진 새로운 문제를 풀기 위한한 목적으로 탈바꿈시켜야 합니다. 얕은 레이어로 갈수록 fine-tune으로 얻는 이득은 빠르게 감소합니다. \n",
"\n",
"* 학습시켜야 하는 파라미터가 많을수록, 과적합의 위험도 덩달아 증가합니다. convolutional base는 15M개의 파라미터가 있습니다. 따라서 규모가 작은 데이터셋으로 학습을 시도하려는 경우 과적합의 위험이 큽니다. \n",
"\n",
"우리의 경우에는, convolutional base의 상위 2~3 레이어만 fine-tune 시키는 편이 낫습니다. \n",
"\n",
"자 그럼 한번 살펴봅시다. 지난 예제에서부터 계속 진행해 보겠습니다. "
]
},
{
"cell_type": "code",
"execution_count": 18,
Expand Down

0 comments on commit 7c7e082

Please sign in to comment.