스프린트 6

위클리페이퍼 #8 - AARRR, 코호트(Cohort), 세그먼트(Segment), RFM(Recency, Frequency, Monetary)

금주의 위클리페이퍼의 주제는 3가지이다. 1. AARRR 프레임워크(취득, 활성화, 유지, 수익 창출, 추천)와 리텐션 개념을 설명해 주세요. Funnel 분석과의 연관성을 설명해 주세요. 2. 코호트와 세그먼트의 차이점은 무엇인가요? 3. RFM 분석(Recency, Frequency, Monetary value)이란 무엇이며, 이를 통해 고객을 어떻게 세분화할 수 있는지 설명해 주세요. 각 요소의 중요성을 설명해 주세요.  AARRR 프레임워크와 리텐션 개념ARRRR 모델(퍼널)은 제품 중심 기업과 스타트업에서 유용하게 이용되는 비즈니스 분석 프레임으로, 제품의 운영 현황을 신속하게 파악하고 비즈니스 목표와 마케팅 전략을 세워서 수익창출에 사용 할 수 있다. AARRR 모델 또는 해적지표라고 불리고,..

위클리페이퍼 #6 - High Dimensional Clustering, 고유값(Eigenvalue), 고유벡터(Eigenvector), 히스토그램(Histogram)

Codeit DA1기 파트1 팀프로젝트 동안 위클리페이퍼를 진행하지 못했고, 금주부터 시작되는 위클리 페이퍼의 주제는 3가지 이다. 1)  데이터 간의 유사도를 계산할 때, feature의 수가 많다면(예: 100개 이상), 이러한 high-dimensional clustering 문제를 해결하기 위한 방법들을 설명해 주세요.2) 고유값(eigenvalue)과 고유벡터(eigenvector)에 대해 설명해 주세요. 이들이 데이터 분석에서 왜 중요한지 구체적인 예를 들어 설명해 주세요. 3) 히스토그램의 주요 단점은 무엇이며, 이를 극복하기 위한 대안적인 시각화 방법을 설명해 주세요.  High-dimensional clustering 문제 해결데이터의 Columns(feature)가 늘어남에 따라서, 관..

위클리페이퍼 #5 - 절대 경로, 상대 경로, Git-branch

금주의 위클리 페이퍼의 주제는 2가지이다. 1) 절대 경로와 상대 경로는 무엇인가요?2) Git에서 branch는 무엇인가요? 절대 경로와 상대 경로파일 경로란 컴퓨터 시스템에서 파일의 위치를 나타내는 주소로, 앱, 시스템, 운영 체제가 필요한 파일을 찾을수 있도록 도와주는 것이다. 절대 경로란?파일의 root directory에서 부터 해당 파일까지의 전체 경로를 의미한다. 어디에서 출발하든 절대적으로 변하지 않는 경로를 뜻한다. 예를 들어서 Window OS의 기준으로 내문서에 위치한 hello.txt를 찾는다고 예시를 들어 보면 아래와 같은 주소를 사용 할 수 있다.C:\Users\Username\Documents\hello.txt 이와같이 hello.txt를 만나기전 경유한 directory를 모..

위클리 페이퍼 #4 - 클래스(Class), 인스턴스(Instance), 정적메소드

금주의 위클리 페이퍼의 주제는 2가지이다. 1) 클래스와 인스턴스에 대해 설명해주세요. 2) 정적 메소드는 무엇이고, 어떻게 호출하나요? 클래스(Class)와 인스턴스(Instance) 객체지향의 개념이 나타나기 이전의 프로그래밍의 방법은, 프로그램이 일을 하고나면, 다음엔 어떤일을 하라는 식으로 컴퓨터가 해야할 일에 대해서 알려주어야 했지만 객체지향 프로그래밍(Object-Oriented Programming)의 등장으로 보다 좋은 프로그램을 만들어 낼 수 있었다.  객체에 담겨져있는 두 종류의 정보속성(attributes) : 상태(state)를 나타내는 데이터매서드(method) : 행동(behavior)을 나타내는 데이터객체지향 프로그래밍이란, 프로그램을 수 많은 객체(object)라는 기본 단위..

위클리 페이퍼 #3 - 데이터 전처리, t-test

금주의 위클리 페이퍼의 주제는 2가지이다. 1) 데이터 전처리 방법들 (ex. 결측값 처리 등) 에 대해 설명해 주세요. 2) t-test에 대해 설명해 주세요.  데이터 전처리 방법들 데이터 전처리는 Data Science에서 매우 중요한 단계로, 수집한 데이터를 분석에 적합한 형태로 가공하는 과정으로, 데이터 전처리 과정을 통해서, 결측치, 이상치 등을 처리하여 데이터의 품질을 향상시키고 그에 따라 분석 결과의 품질을 향상시키는 과정이다. 이러한 과정이 전체 과정에서 시간과 노력이 가장 많이 드는 작업으로 꼽히기도 한다. ( 출처  : https://www.forbes.com/sites/gilpress/2016/03/23/data-preparation-most-time-consuming-least-..

위클리 페이퍼 #2 - 1종 오류, 2종 오류, p-value

금주의 위클리 페이퍼의 주제는 2가지이다. 1) 제1종 오류와 제2종 오류에 대해 설명해주세요. 2) p값 (p-value)는 무엇인가요?  제1종 오류와 제2종 오류 통계적 가설검정과 관련하여, 연구하고자 하는 대상이 나타내는 현상을 관찰하고, 그 현상을 설명하는 가설을 지정합니다. 즉 통계를 사용해서 가설(hypothesis)를 시험(test)하는 것입니다. 통계에서 파생된 평균(mean)과 분산(variance), 표준편차(standard deviation)를 이용해 가설을 세운다. 통계적 결정을 내리는 데에는 항상 불확실성이 동반되기 때문에 이런 검정에서 오류를 범할 위험은 불가피하게 된다. 이 때 우리는 통계적 가설검정을 통해 예외가 존재 할 확률에 대해서는 인정하되, 보다 높은 가능성을 지닌 ..