기계학습 2

[ML101] #6. Overfitting

앞의 과정들을 통해 머신러닝이 어떻게 작동하는지 살펴보았습니다. 머신러닝 모델이란 실제 데이터를 대체할 수 있는 모형이고 이러한 모델을 통해 실제 데이터 없이도 현실 세계에서 활용할 수 있습니다. 그런데 이 모델은 정교해지기 위해 복잡하게 만들면 학습한 데이터와 조금만 다른 데이터가 들어와도 큰 오차를 만들 수 있고, 반대의 경우는 변수들과의 관계를 충분히 설명할 수 없게 되는 Trade-off 문제가 발생하게 됩니다. 이러한 문제를 수학적으로 표현한 것이 Bias-Variance(편향-분산) Trade-off 입니다. 조금 더 자세히 알아보겠습니다. Bias-Variance Trade-off 를 설명하는 유명한 그림 중 하나 입니다. 사격 게임을 할 때 가장 높은 점수를 받는 방법은 나에게 주어진 총알..

AI Study/ML101 2022.04.26

[ML101] #3. Loss Function

[ML101] 시리즈의 두 번째 주제는 손실 함수(Loss Function)입니다. 손실 함수는 다른 명칭으로 비용 함수(Cost Function)이라고 불립니다. 손실 함수는 고등학교 수학 교과과정에 신설되는 '인공지능(AI) 수학' 과목에 포함되는 기계학습(머신러닝) 최적화의 기본 원리이며 기초적인 개념입니다. 이번 시리즈에는 이 "손실 함수"의 개념과 종류에 대해 알아보도록 하겠습니다. 위의 그림은 일반적인 통계학적 모델의 형태로 입력 값(Input x)이 들어오면 모델을 통해 예측 값(Output y)이 산출되는 방식입니다. 그러면 이 예측 값이 실제 값과 얼마나 유사한지 판단하는 기준이 필요한데 그게 바로 손실 함수(Loss function)입니다. 예측 값과 실제 값의 차이를 loss라고 하며..

AI Study/ML101 2022.04.26