STUDY/머신러닝 | 딥러닝

STUDY/머신러닝 | 딥러닝

선형대수학, 미적분 유튜브 영상 (3b1b)

선형대수학 [선형대수학 강의] Essence of linear algebra (3b1b) : 시각적으로 잘 이해되는 직관적 설명. 선형대수학 큰 그림 파악에 좋은 가이드 강의. 미적분 [미적분 강의] Essence of calculus (3b1b) 미적분의 핵심이 되는 개념들을 시각적으로 직관적으로 이해할 수 있다. 머신러닝 책&강의 추천 출처_ https://www.philgineer.com/2020/10/awesome-machine-learning.html [책&강의] 직접 보고 추천하는 머신러닝 & 딥러닝 & 수학 총정리 (2022) 머신러닝 딥러닝 입문, 밑바닥부터 시작하는 딥러닝, 모두를 위한 딥러닝, 코세라 머신러닝, 파이썬 라이브러리를 활용한 머신러닝, 선형대수학 머신러닝, 딥러닝 선형대수학..

STUDY/머신러닝 | 딥러닝

Gradient Boosting 모델 비교 (XGBoost, LightGBM, Catboost)

Gradient Boosting이란 1. Gradient 기울기(gradient) 경사하강법(Gradient Descent)의 목적은 손실함수(loss function)의 최적화(Optimization)이다. 최적화는 손실 함수를 최소화 하는 파라미터 조합을 구하는 과정을 말한다. 경사하강법이란 함수의 기울기를 이용해 x값을 어디로 옮겼을때 함수가 최소값을 찾는지 알아보는 방법으로, 반복적인 방법(iterative)으로 해를 구하면 효율적이기 때문에 사용한다 손실함수란? 머신러닝에서 모델이 나타내는 확률 분포와 데이터가 따르는 실제 확률 분포 사이의 차이를 나타내는 함수 대체로 이 값은 0에 가까울수록 모델의 정확도가 높고, 반대로 0에서 멀어질수록 모델의 정확도가 낮다. 손실함수의 결과값(오차)를 가장..

STUDY/머신러닝 | 딥러닝

회귀 모델 성능 평가 지표 정리

회귀 모델 성능 평가 from sklearn.model_selection import cross_val_predict y_valid_pred = cross_val_predict(model, X_train, y_train, cv=5, n_jobs=-1, verbose=2) y_valid_pred y_valid_pred는 교차 검증을 통해 구한 모의고사 정답 값 MAE(Mean Absolute Error) 모델의 예측값과 실제 값 차이의 절대값 평균 절대값을 취하기 때문에 가장 직관적임 # mean_absolute_error mae = abs(y_train - y_valid_pred).mean() from sklearn.metrics import mean_absolute_error mean_absolute_..

둥둥런
'STUDY/머신러닝 | 딥러닝' 카테고리의 글 목록 (2 Page)