본문 바로가기

metacodem43

[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (4) 경사하강법(Gradient Descent) 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 지난 글에서는 선형 회귀의 다양한 종류와 손실함수, 최적화, 파라미터 등을 배웠는데.. 이번에는 복잡한 모델에서 최적의 파라미터를 찾는 경사하강법을 공부한다. 경사하강법 많이 듣긴 했는데, 이렇게 제대로 배우긴 처음이라... 지금 배워 놓은 것들이 나중에 꼭 도움이 되었으면 좋겠다. ㅠ3. 최적화(optimization) - 경사하강법(Gradient Descent)지난 글에서, 단순 선형 회귀는 MSE로 최적의 파라미터를 구했는데, 더 복잡한 식이 되었을 땐 어떻게 하는지에 대한 문제제기까지 정리했었.. 2024. 10. 20.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (3) 선형 회귀(Linear Regression)와 최적화(optimization) 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝 강의에서 그냥 무지성으로 돌렸던 코드에 대해 깊이 이해하고, 내 손으로 최적의 파라미터를 뽑아내고, 하이퍼파라미터 튜닝도 해보고 싶다. 오늘도 내용이 참 어려웠다...! 이런 수학적인 부분을 배울 때면, 개념적으로 이런 걸 생각해내는 사람들이 있다는 게 배울수록 신기하다. 이해라도 해보고 쫓아가보려고 노력 중!2. 회귀(Regression) - Linear Regression선형회귀(Linear Regression)에는 3가지 종류(디테일하게 나누면 4가지?)가 있다.단순 선형회귀, 다중 선형 회귀, 다항 회귀단순 선형 회귀는 피처(독립변수)의 종류가 한 개인 데이터에 대한 회귀 모델로, y = w0 + w1x와 같은 식으로 표현된다... 2024. 10. 20.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (2) 머신러닝에 사용되는 기본 수학 개념 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣고 있다. 머신러닝에 대한 전반적인 지식을 익히고, 내 손으로 하이퍼파라미터도 조정해보고 최적화된 모델을 찾기 위해!! 맨날 RandomForest만 돌리는 빅분기 취득자를 졸업하자!ㅁ! 아자아자!! 근데...? 머신러닝에서 사용되는 수학적 개념들을 배우다가 포기할 뻔 했다. ㅠㅠ 자연 상수, 시그모이드 함수, log와 미분 이야기들이 막 나오는데... 그래도 힘내봐야지. 서포터즈로 이왕 제공받은 강의 열심히 끝까지 들어보려고 한다. 강의를 듣고 나면 어려운 수학적 내용도 조금은 익숙해지지 않을까?2. 회귀(Regression) - 머신러닝을 위한 기본 수학(Basic Math for ML)함수란, 두 집합 사이의 관계 혹은 규칙을 말한다. y = f(x.. 2024. 10. 13.
[머신러닝] 메타코드 강의 후기_머신러닝 입문 부트캠프 (1) 인트로, 용어정리 🔥 메타코드에서 머신러닝 입문 부트캠프 강의를 듣기 시작했다.사회조사분석사 자격증을 취득하고, ADsP, SQLD, 빅분기까지 거쳐 오면서 다양한 강의들을 접하고 공부했다.근데 머신러닝이 뭔지 아직도 제대로 모르는 것 같다.어렴풋이 느끼는 건 머신러닝 => 빅분기 2유형에서 푸는 것? RandomForest 같은 모델 import 해서 돌리는 것...? 인데, 빅분기를 취득했음에도 부끄럽게 하이퍼파라미터 최적화/튜닝 같은 건 모른다.그도 그럴 것이, 빅분기는 하이퍼파라미터에 손대지 않고 기본만 딱 하는 게 가장 점수가 높게 나온다는 썰이 많았기 때문이다. 실제로 나도 그런 경험을 했고...ㅠ그래서 이번에 또 서포터즈로 혜택을 받게 된 김에 머신러닝 입문 부트캠프 강의권을 지원받아서 듣게 되었다.이 강의.. 2024. 10. 13.