메타코드m63 [머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (8) MLE/MAP 🔥 서포터즈 마지막 날... 즉, 수업을 들을 수 있는 마지막 날.. 더 많은 내용을 배우고 싶었는데 회사 다니랴, 전대차 하랴, 운동하랴, 그와중에 공부 하랴 한달이 넘 빨리 지나가서 아쉽다. 마지막 강의까지 열심히 들으면서 머신러닝에 대한 개념을 잡기로 했다. 머신러닝 개념을 제대로 배워서, 이후에 실습은 개념을 바탕으로 혼자(+나의 친구 챗GPT와) 해석해보고 적용해봐야지... 아닌가 실습을 배우는 게 맞았던 걸까? 어떤 게 정답인지는 항상 모르겠다. 배우기 전보다 나아간다고 믿을 뿐.6. MLE(Maximum Likelihood Estimation) MLE는 Maximum Likelihood Estimation인데, likelihood가 우도 확률이다. P(x | w)바로 이전 글에서 정리했지만.. 2024. 10. 31. [머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (7) 로지스틱 회귀 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 나는 머신러닝 강의를 들으면서 내 손으로 직접 하이퍼 파라미터 수정 같은 걸 해보고 싶었다! 빅분기에서는 너무 무지성으로 랜덤포레스트만 돌려서; 하핫.. 근데 머신러닝 강의 실습 파일을 보면 진짜 완벽하게 손실함수 계산, 에포크 계산 등에 대한 내용을 다루고 있다. 이 부분은 블로그에서 무료로 풀면 선생님께 죄스러울 정도라 그냥 혼자 잘 배우고 간직하는 것으로 하고, 다음 이론 내용을 정리해보려 한다.5. 분류(Classification) - 로지스틱 회귀 지난 글까지는 회귀에 대한 내용 중 선형회귀, 다중회귀 등을 배웠다. 이번 글부터 정리할 내용은 분류에 해당하는 내용이다. 목차는 위와 같음!회귀랑 분류가 어떻게 다른지, 다시 한 번 살펴보.. 2024. 10. 31. [머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (6) 편향과 분산의 Trade-off를 해결하는 방법 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 이번에는 지난 글에서 배웠던, 분산과 편향 사이의 trade-off를 해결할 수 있는 방법을 몇 가지 배운다. 현업에서도 활용할 부분이 있으니 잘 정리해 두어야지!4. 편향(Bias)과 분산(Variance) - 어떻게 Trade-off 문제를 해결할 수 있을까?지난 글에서, 분산은 과적합(over-fitting)과, 편향은 과소적합(under-fitting)과 관련이 있다고 배웠다.일반적으로는 분산과 편향이 trade-off 관계라 배웠으나, 항상 그런 것은 아니다.그래도... 일반적으로 이들의 tr.. 2024. 10. 27. [머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (5) 편향과 분산(Bias and Variance) 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 지난 글에서는 경사하강법에 대해 배워서 엄청 어려웠는데, 머신러닝에서 중요한 개념이라 겨우 진도 뺌..! 이번 내용은 그나마 이해하기 어렵지 않았다. 휴 빅분기 실기에 대한 복습도 되고, 조금 더 정확한 개념 이해에도 도움이 되길 바라며...! 글 시작4. 편향(Bias)과 분산(Variance) - 학습 데이터와 평가 데이터머신러닝에서, 모델을 학습시킬 때는, 가지고 있는 데이터를 학습 데이터와 평가 데이터로 나누게 된다.학습데이터는 모델 학습(머신러닝)에 사용하는 데이터셋이고, 평가 데이터는 모델의.. 2024. 10. 27. 이전 1 2 3 4 ··· 16 다음