Skip to content

Commit

Permalink
KerasKorea#40: Translate 5.3 - paragraph 10 / 11 (complete)
Browse files Browse the repository at this point in the history
  • Loading branch information
visionNoob committed Oct 2, 2018
1 parent d666a4a commit 34786aa
Showing 1 changed file with 17 additions and 4 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -1531,8 +1531,7 @@
"metadata": {},
"source": [
"# Pragraph 10\n",
"These curves look very noisy. To make them more readable, we can smooth them by replacing every loss and accuracy with exponential moving \n",
"averages of these quantities. Here's a trivial utility function to do this:"
"커브 그래프에 잡음이 많아 보기 않습니다. 가독성을 높히기 위해서 손실(loss)와 정확도(accuracy)에 exponential moving averages를 적용해서 커브를 부드럽게 만들어 보겠습니다. 아래 코드는 사람들이 보편적으로 사용하는 유틸리티 함수입니다:"
]
},
{
Expand Down Expand Up @@ -1595,7 +1594,6 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"\n",
"These curves look much cleaner and more stable. We are seeing a nice 1% absolute improvement.\n",
"\n",
"Note that the loss curve does not show any real improvement (in fact, it is deteriorating). You may wonder, how could accuracy improve if the \n",
Expand All @@ -1606,6 +1604,15 @@
"We can now finally evaluate this model on the test data:"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"커브가 훨씬 더 깔끔하고 안정적으로 보입니다. 확실히 1%의 개선이 있었습니다. 하지만 손실 커브에서는 실질적인 향상은 없었습니다(사실 더 악화되고 있는 듯 합니다). 어떤게 손실이 줄어들지 않음에도 정확도가 향상될 수 있는 것일까요? 정답은 아주 간단합니다 : 우리가 현재 손실로서 출력하고 있는 커브는 손실 값들의 평균치일 뿐입니다. 하지만 정확도에 실직적으로 영향은 끼치는 것은 손실 값의 분포입니다. 왜냐하면 정확도는 모델에 의해 예측된 클래스 확률의 이진 분류 결과이기 때문입니다. 모델은 평균 손실에 큰 변화가 없을지라도 충분히 향상될 수 있습니다. \n",
"\n",
"자 이제 마지막으로 시험 데이터에 대해서 모델을 평가해봅시다."
]
},
{
"cell_type": "code",
"execution_count": 27,
Expand Down Expand Up @@ -1635,12 +1642,18 @@
"cell_type": "markdown",
"metadata": {},
"source": [
"\n",
"Here we get a test accuracy of 97%. In the original Kaggle competition around this dataset, this would have been one of the top results. \n",
"However, using modern deep learning techniques, we managed to reach this result using only a very small fraction of the training data \n",
"available (about 10%). There is a huge difference between being able to train on 20,000 samples compared to 2,000 samples!"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"자 우리는 97%의 테스트 정확도를 달성했습니다. 이 데이터의 Kaggle대회를 기준으로 상위권에 해당합니다! 하지만 우리는 최신의 딥러닝 기법을 이용해서 고작 작은 비율의 데이터셋(약 10%)만 가지고 이만큼의 결과를 달성한 것입니다. 2,000개의 샘플로 학습시키는 것과 20,000개의 샘플로 학습시키는 것은 엄청난 차이입니다! "
]
},
{
"cell_type": "markdown",
"metadata": {},
Expand Down

0 comments on commit 34786aa

Please sign in to comment.