전체 글

대학원생의 UX, 데이터분석, 개발 공부 기록장📁
STUDY/머신러닝 | 딥러닝

[복습day] 시그모이드 vs 소프트맥스 정리

활성화 함수 친구들 출처_https://www.linkedin.com/pulse/activation-functions-101-sigmoid-tanh-relu-softmax-ben-hammouda?trk=articles_directory 오늘의 복습 키워드: SoftMax 쉽고 간단하게만 이해해보기 빠른 결론: 시그모이드는 이진분류(binary classification)에, 소프트 맥스는 다중클래스 분류(multiclass problems)에 사용된다. 시그모이드 vs 소프트맥스 시그모이드 함수는 로지스틱 함수의 한 케이스라 볼 수 있고, 인풋이 하나일 때 사용되는 시그모이드 함수를 인풋이 여러개일 때도 사용할 수 있도록 일반화 한 것이 소프트맥스 함수이다. 내용출처 🌱 logit vs sigmoid v..

BOOK

[Book] 그로스해킹 - 양승화 도서 리뷰

그로스 해킹 양승화 지음 위키북스 여러 곳에서 예전부터 추천받은 책이라 궁금했는데, 드디어 구매해서 읽어보았다! 부트캠프를 통해 SQL, 파이썬(판다스)를 활용한 데이터 분석 기법을 밀도있게 공부해도 실제 업무에서 어떤 데이터를 수집해서 어떤 것을 비교해서 봐야하는지 감이 오지 않았는데, 감 잡는데 도움이 많이 되었다. 책을 읽기로 결심하게된 페이지 왼: 부트캠프 듣기 전 오: 부트캠프 듣는 중에 든 생각 그로스해킹이란? 크로스 펑셔널한 직군의 멤버들이 모여서 핵심 지표를 중심으로 실험을 통해 배움을 얻고, 이를 빠르게 반복하면서 제품이나 서비스를 성장시키는 것 AARRR A/B 테스트 지표 (MAU, DAU, 이탈율 ...) NPS 순수 추천 지수 이 서비스를 주변 지인이나 친구에게 얼마나 추천하고 싶..

TIL

221127 주말의 TIL

판다스 EDA 과제 완료 유튜브 시청 Tensorflow 101 강의 실습, github 업로드 독서 프로그래머스 문제풀이 4문제 - 두 수의 나눗셈 - 피자나눠먹기(1) - 배열 두배 만들기 def solution(n): if n > 7: b = n // 7 if n % 7 > 0: return b+1 return b else: return 1 def solution(n): answer = n//7+(n%7>0) return answer def solution(numbers): answer = map(lambda x: 2*x, numbers) return list(answer) 주말에 못한 것 - 깃허브 TIL 폴더 정리, 공개로 전환하기 - 독서 리뷰 쓰기 100문제 풀기 시작하기 전에도 캡쳐해놓을걸..

TIL/멋사_AI스쿨_TIL

221125 AI스쿨 TIL 코딩테스트 강의 (1주차)

멋사 AI School 7기 Special Lecture by 이호준 강사님(제주코딩베이스캠프) 9월에 스터디를 통해서 코딩테스트란 무엇인지 살짝 맛을 봤었는데, 재밌지만 안풀리는 문제를 만나니 코딩이 너무 어려운건 아닐지 두렵기도 했었다. 그 후로 약 두 달간 코드를 쓰는 것에 대해 조금 내공이 쌓이면서도, 데이터 EDA와 머신러닝에 집중하느라 파이썬 자체는 오히려 감을 좀 잃었었는데, 이번에 이호준 강사님 강의를 들으니 코딩 테스트라는게 완전 새롭게 다가왔다. 똑같이 어렵긴 하지만, 코테도 다른 시험처럼 노하우와 공식이 있는 거구나!! 한줄기 희망을 본 느낌?! 그리고 파이썬을 후다닥 배워서 map을 배워도 어떻게 써야할지, list를 알아도 어떻게 쓰는건지 잘 모르는 그런 상태였다가, 이번 강의를 ..

STUDY/머신러닝 | 딥러닝

분류성능평가지표 총 정리

혼동행렬 (confused matrix) 혼동행렬(confusion matrix)은 모델의 분류 성능을 평가할 때 사용되는 지표이다. 관련 자료마다 예측, 실제, T, F 위치가 다 다르기 때문에 주의해야 한다. 이번 포스팅의 기준 TN: 예측 X, 실제 X FP (1종 오류): 예측은 O, 실제론 X FN (2종 오류): 예측은 X, 실제 O TP 예측 O, 실제 O 한눈에 보기 가장 잘 정리된 이미지 이미지 후출처_https://velog.io/@hajeongjj/Eval-Metrics 정확한 원 출처를 찾지 못했습니다. 문제가 된다면 알려주세요 좀 더 쉽게 이해하기 1종 오류와 2종 오류 예시 1종 오류 실제는 임신이 아닌데(0), 임신(1)로 예측 스팸메일이 아닌데 스팸메일로 예측 무고한 피고인에..

STUDY/머신러닝 | 딥러닝

경사하강법(Gradient Descent) 정리

최적화란? 최적화(Optimization)란 손실함수(Loss Function)값을 최소화하는 파라미터를 구하는 과정이다. 이때 손실함수는 예측값과 실제 정답값의 차이를 의미한다. Gradient Descent(경사하강법)의 정의 gradient는 기울기, 경사를 의미하며 경사하강법의 주된 목적은 함수의 최소값을 찾는 것이다. 이에 따라, 경사하강법은 기울기가 작아지는 방향을 찾고 해당 방향으로 한 걸음 씩 계속 내딛으면서 값이 제일 작은 곳을 찾아 나가는 방법이다. 💡 함수 최소값 탐색에 미분계수가 0이 되는 지점을 찾지 않고 GD 사용하는 이유는? 우리가 주로 실제 분석에서 맞닥뜨리게 되는 함수들은 닫힌 형태(closed form)가 아니거나 함수의 형태가 복잡해 (가령, 비선형함수) 미분계수와 그 ..

둥둥런
Done is better than Perfect