본문 바로가기

최적화2

[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (4) 경사하강법(Gradient Descent) 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 지난 글에서는 선형 회귀의 다양한 종류와 손실함수, 최적화, 파라미터 등을 배웠는데.. 이번에는 복잡한 모델에서 최적의 파라미터를 찾는 경사하강법을 공부한다. 경사하강법 많이 듣긴 했는데, 이렇게 제대로 배우긴 처음이라... 지금 배워 놓은 것들이 나중에 꼭 도움이 되었으면 좋겠다. ㅠ3. 최적화(optimization) - 경사하강법(Gradient Descent)지난 글에서, 단순 선형 회귀는 MSE로 최적의 파라미터를 구했는데, 더 복잡한 식이 되었을 땐 어떻게 하는지에 대한 문제제기까지 정리했었.. 2024. 10. 20.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (3) 선형 회귀(Linear Regression)와 최적화(optimization) 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 오늘도 내용이 참 어려웠다...! 이런 수학적인 부분을 배울 때면, 개념적으로 이런 걸 생각해내는 사람들이 있다는 게 배울수록 신기하다. 이해라도 해보고 쫓아가보려고 노력 중!2. 회귀(Regression) - Linear Regression선형회귀(Linear Regression)에는 3가지 종류(디테일하게 나누면 4가지?)가 있다.단순 선형회귀, 다중 선형 회귀, 다항 회귀단순 선형 회귀는 피처(독립변수)의 종류가 한 개인 데이터에 대한 회귀 모델로, y = w0 + w1x와 같은 식으로 표현된다... 2024. 10. 20.