본문 바로가기

전체 글75

[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (8) MLE/MAP 🔥 서포터즈 마지막 날... 즉, 수업을 들을 수 있는 마지막 날.. 더 많은 내용을 배우고 싶었는데 회사 다니랴, 전대차 하랴, 운동하랴, 그와중에 공부 하랴 한달이 넘 빨리 지나가서 아쉽다. 마지막 강의까지 열심히 들으면서 머신러닝에 대한 개념을 잡기로 했다. 머신러닝 개념을 제대로 배워서, 이후에 실습은 개념을 바탕으로 혼자(+나의 친구 챗GPT와) 해석해보고 적용해봐야지... 아닌가 실습을 배우는 게 맞았던 걸까? 어떤 게 정답인지는 항상 모르겠다. 배우기 전보다 나아간다고 믿을 뿐.6. MLE(Maximum Likelihood Estimation) MLE는 Maximum Likelihood Estimation인데, likelihood가 우도 확률이다. P(x | w)바로 이전 글에서 정리했지만.. 2024. 10. 31.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (7) 로지스틱 회귀 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 나는 머신러닝 강의를 들으면서 내 손으로 직접 하이퍼 파라미터 수정 같은 걸 해보고 싶었다! 빅분기에서는 너무 무지성으로 랜덤포레스트만 돌려서; 하핫.. 근데 머신러닝 강의 실습 파일을 보면 진짜 완벽하게 손실함수 계산, 에포크 계산 등에 대한 내용을 다루고 있다. 이 부분은 블로그에서 무료로 풀면 선생님께 죄스러울 정도라 그냥 혼자 잘 배우고 간직하는 것으로 하고, 다음 이론 내용을 정리해보려 한다.5. 분류(Classification) - 로지스틱 회귀 지난 글까지는 회귀에 대한 내용 중 선형회귀, 다중회귀 등을 배웠다. 이번 글부터 정리할 내용은 분류에 해당하는 내용이다. 목차는 위와 같음!회귀랑 분류가 어떻게 다른지, 다시 한 번 살펴보.. 2024. 10. 31.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (6) 편향과 분산의 Trade-off를 해결하는 방법 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 이번에는 지난 글에서 배웠던, 분산과 편향 사이의 trade-off를 해결할 수 있는 방법을 몇 가지 배운다. 현업에서도 활용할 부분이 있으니 잘 정리해 두어야지!4. 편향(Bias)과 분산(Variance) - 어떻게 Trade-off 문제를 해결할 수 있을까?지난 글에서, 분산은 과적합(over-fitting)과, 편향은 과소적합(under-fitting)과 관련이 있다고 배웠다.일반적으로는 분산과 편향이 trade-off 관계라 배웠으나, 항상 그런 것은 아니다.그래도... 일반적으로 이들의 tr.. 2024. 10. 27.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (5) 편향과 분산(Bias and Variance) 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 지난 글에서는 경사하강법에 대해 배워서 엄청 어려웠는데, 머신러닝에서 중요한 개념이라 겨우 진도 뺌..! 이번 내용은 그나마 이해하기 어렵지 않았다. 휴 빅분기 실기에 대한 복습도 되고, 조금 더 정확한 개념 이해에도 도움이 되길 바라며...! 글 시작4. 편향(Bias)과 분산(Variance) - 학습 데이터와 평가 데이터머신러닝에서, 모델을 학습시킬 때는, 가지고 있는 데이터를 학습 데이터와 평가 데이터로 나누게 된다.학습데이터는 모델 학습(머신러닝)에 사용하는 데이터셋이고, 평가 데이터는 모델의.. 2024. 10. 27.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (4) 경사하강법(Gradient Descent) 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 지난 글에서는 선형 회귀의 다양한 종류와 손실함수, 최적화, 파라미터 등을 배웠는데.. 이번에는 복잡한 모델에서 최적의 파라미터를 찾는 경사하강법을 공부한다. 경사하강법 많이 듣긴 했는데, 이렇게 제대로 배우긴 처음이라... 지금 배워 놓은 것들이 나중에 꼭 도움이 되었으면 좋겠다. ㅠ3. 최적화(optimization) - 경사하강법(Gradient Descent)지난 글에서, 단순 선형 회귀는 MSE로 최적의 파라미터를 구했는데, 더 복잡한 식이 되었을 땐 어떻게 하는지에 대한 문제제기까지 정리했었.. 2024. 10. 20.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (3) 선형 회귀(Linear Regression)와 최적화(optimization) 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 오늘도 내용이 참 어려웠다...! 이런 수학적인 부분을 배울 때면, 개념적으로 이런 걸 생각해내는 사람들이 있다는 게 배울수록 신기하다. 이해라도 해보고 쫓아가보려고 노력 중!2. 회귀(Regression) - Linear Regression선형회귀(Linear Regression)에는 3가지 종류(디테일하게 나누면 4가지?)가 있다.단순 선형회귀, 다중 선형 회귀, 다항 회귀단순 선형 회귀는 피처(독립변수)의 종류가 한 개인 데이터에 대한 회귀 모델로, y = w0 + w1x와 같은 식으로 표현된다... 2024. 10. 20.