데이터리안 SQL 특강 두번째 시간이었다. SQL 기본 문법은 잘 알고있어서 지난주엔 수월했는데, 이번주에 배운 조건문은 조금 생소했다. RFM분석과 같은 비즈니스 분석을 할때 조건문이 잘 쓰일 거 같아서 수업 복습 겸 블로그에 포스팅을 남겼다. [SQL중급] 조건문 활용하기 (CASE문, IF문) 데이터 분석을 위한 중급 SQL SQL 조건문 CASE 문 SELECT CASE WHEN id = 1 THEN "음료" WHEN id = 2 THEN "조미료" ELSE "기타" END as 'categoryName', * -- 아스타로 전체 테이블 확인 FROM products WHEN안에 조건 여러 개 작성 dogplot42-6.tistory.com
데이터 분석을 위한 중급 SQL SQL 조건문 CASE 문 SELECT CASE WHEN id = 1 THEN "음료" WHEN id = 2 THEN "조미료" ELSE "기타" END as 'categoryName', * -- 아스타로 전체 테이블 확인 FROM products WHEN안에 조건 여러 개 작성도 가능하다. (WHEN 조건1 AND 조건 2 THEN “결과”) categoryName이라는 새로 만든 컬럼으로 group by도 가능 SELECT CASE WHEN id = 1 THEN "음료" WHEN id = 2 THEN "소스" ELSE "그외" END as 'categoryName', AVG(price) FROM products GROUP BY categoryName [해커랭크 문제 풀..
새로운 분야를 공부하다보니 정말 많은 책을 짧은 시간에 접하게 되었다. 그래서 목표는 완독이 아니라, 일부분을 보더라도 그 부분을 잘 흡수해서 부트캠프 수업을 따라가는 데 도움이 되는 것이다. 시간 날때 교보문고에 가서 책을 둘러보기도 했고, 위키독스 사이트에서 몇 권의 좋은 책을 알게되었다. 또, 최근에 밀리의 서재를 구독한 것도 잘한 선택이었던 것 같다. (첫 달은 무료!) 궁금한 책이 많은데 도서관은 멀어서 불편하고, 구매하기엔 책 값이 부담스러울 때 좋은 선택지 인 것 같다. 특히 나처럼 처음부터 끝까지 꼼꼼히 읽을 책이 아니라, 필요한 부분만 읽고 싶을때 좋다. 그리고 생각보다 IT나 통계 관련 책도 다양하게 있어서 좋았다. 9월의 책 발견 리스트 [읽고 있는 책들] - 비전공자를 위한 IT지식..
문과생의_코딩공부_2주차_느낌.jpg 저작권 걱정 없이 직접 그린 짤 겨우 2주차지만, 앞으로 공부를 하면서, 내가 공부한 것들에 대해 100% 이해나 확신이란 없을 것 같다. 알면 알수록 알아야 할 것의 범위가 계속 늘어나고 있다. 요기 조금 저기 조금 알다보면 갑자기 이어지는 기분이 들 때는 있다! 이전까지 했던 정해진 시험범위를 외우는 공부랑은 확실히 느낌이 다르다. 새로운 뇌를 써야한다. 부트캠프 과정 중에 알게 된 것은, 그 전엔 혼자서 어떻게 코딩을 공부해야 될 지 모르겠고, 진입장벽이 높다고 느꼈는데, 알고보니 양질의 무료 자료가 엄청나게 많다는 것을 알게 되었다. (유튜브나 위키독스만해도 방대하다) [언젠가 봐야할 참고 자료 리스트]를 적어봤는데 끝이 없다. 그리고 계속 추가되겠지... 볼..
목요일은 인싸이트데이, 우리팀의 발표 주제는 API였다. 발표팀으로 선정되서 정말 오랜만에 발표를 했는데 1~2분 정도의 짧은 분량이지만 떨리기도하고, 또 어떻게 잘 전달할까 고민하면서 의사소통 스킬을 조금 더 키울 수 있는 기회였던 것 같다! API API란? API(Application Programming Interface)는 클라이언트, 서버와 같은 서로 다른 프로그램에서 요청과 응답을 주고 받을 수 있게 만든 체계이다. API의 정의, 요청과 응답 부분은 비전공자를 위한 이해할 수 있는 IT지식 도서를 참고했다. (비전공자를 위한 이해할 수 있는 IT 지식) 요청과 응답(request, response) 클라이언트는 요청(request)을 보내고, 서버는 요청을 받아서 응답(response)을 ..
웹크롤링이란 용어가 널리 사용되서 웹크롤링이라고 썼지만 스크래핑에 더 가까운 실습입니다. 본 실습 과정은 멋쟁이사자처럼 AI스쿨에 저작권이 있습니다. 네이버 금융 뉴스 기사 수집하기 수집할 URL가져오기 웹페이지 전체가 아니라 일부 데이터만을 가져올 것이기 때문에 해당 부분의 링크를 찾아내는 것이 필요하다 구글 크롬 웹브라우저의 검사(inspector) - 네트워크 - Doc를 참고하면 Requests URL 주소를 알 수 있다. 가져온 URL주소에서 변하는 부분과 변하지 않는 부분을 구분하여 f스트링을 통해 변수를 넣어주면 준비 완료 item_code = "035420" item_name = "네이버" page_no = 1 url=f"https://finance.naver.com/item/news_ne..