sujinnaljin / airbnb-new-booking

Kaggle Competition : Airbnb New Booking

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

Kaggle : Airbnb New User Bookings

https://www.kaggle.com/c/airbnb-recruiting-new-user-bookings

Project Summary

• Purpose of Project : Airbnb 신규 유저의 첫 번째 숙박 예약 국가를 예측하는 모델을 만든다. 각 머신러닝 알고리즘에 대해 병렬적으로 모델을 만들어보고, Ensemble과 Stacking 기법을 활용하여 본다.

• Evaluation Metric : 최종 test set에 대한 성능 평가는 NDCG@5로 이루어진다.

• Best Model : Stacking

• Score : 0.87014

Data Exploration

Visualizing Data

train user 클래스 분포

img

Training set의 클래스 분포를 확인하면 Class imbalance가 심한 과제임을 알 수 있다. Loss function에서 각 class별로 weight가 빈도수에 반비례하도록 실험을 해보았지만 PT와 NDF의 경우 300배 이상 차이나기 때문에 결과값에 왜곡이 많이 생겨 이를 채택할 수 없었다. 이후의 hyperparameter 조정을 위한 Subsampling for Validation 항목에서는 어느정도 클래스 불균형 문제를 감안하여 subsampling을 하였다.

Date Account Created/First Active

img

에어비앤비가 유명해지기 시작한 2014년을 기준으로 가입자 수가 증가한 것을 확인할 수 있다.

2014년 전후 여행지 비교

img

2014년 이후 에어비앤비가 유명세를 타면서 단순 가격 비교 차원에서 가입을 하는 경우가 늘어 NDF가 증가했다고 생각해 볼 수 있다.

Holiday에 따른 여행지 비교

imgimg

왼쪽은 전체 Label을, 오른쪽은 NDF, US를 제거하고 플로팅한 결과이다. Holiday 시즌이 비시즌일 때보다 NDF와 US를 제외한 국가들로 여행하는 비율이 높다. Holiday에 더 거리가 먼 국가로 여행하는 것이라고 해석 가능하다.

가설 1: 유저가 선호하는 언어와 첫 여행지의 언어가 유사할 가능성이 높다.

img

Index를 여행지로, column을 사용자의 선호 언어로 지정하고 표로 정리해봤을 때, 특정 언어의 사용자는 해당 국가에 여행할 확률이 다른 국가를 여행할 확률보다 더 높음을 확인할 수 있었다.

imgimg

imgimg

대표적으로 영어, 프랑스어, 스페인어, 독일어 사용자를 살펴보면, 영어 사용자는 영어권 국가로 갈 확률이 75.1%로 다른 언어 사용자보다 높았고, 프랑스어 사용자는 프랑스로 갈 확률이 17.3%, 스페인어 사용자는 스페인으로 갈 확률이 7.27%, 독일어는 8.50%로 모두 각 언어별 그래프에서 2-3위에 해당하는 높은 비중을 차지하고 있음을 알 수 있다.

가설 2,3 : 접속 기기 종류와 세션 접속 횟수, 총 세션 접속 시간이 여행지에 영향을 미칠 것이다. 모바일 사용자이며, 접속 횟수가 낮고 총 세션 접속 시간이 짧으면 신경을 덜 쓴다는 뜻이므로 자국인 미국으로 여행을 갈 것이고, 그 반대라면 미국과 거리가 먼 이국적인 나라로 갈 것이라고 가정하였다.

session.csv 데이터를 통해 각 유저가 세션에서 총 얼마나 시간을 보냈는지 구하고, 몇 개의 세션을 열었는지, 그리고 유저가 이용한 각 기기별 이용률을 구하였다. 트레인셋과 합치는 과정에서 left-join merge로 진행하였고, 합친 다음 session 데이터가 있는 유저에 한해서 시각화를 진행하였다.

유저의 총 세션 시간(total_elapsed_time)에 대해서:

img

평균과 중간값을 고려하여 200,000 이하의 세션 타임 유저들을 짧게 이용한 유저(Short Users)라고 임의로 지정하였다.

imgimg

시각화를 진행한 결과, 총 세션 시간이 짧은 유저들이 그렇지 않은 유저들보다 더 미국에 많이 가고 유럽에 덜 가는 경향이 있는 것으로 관측되어 가설과 일관된 결과를 보여준다는 것을 알 수 있었다.

유저의 모바일 기기 사용률에 대해서(mobile_total)에 대해서:

img

각 기기 중 모바일 사용률만 합친 결과, 극단적으로 모바일을 사용하는 사람과 그렇지 않은 사람이 관측되었고, 나머지 구간은 골고루 사용자가 분포하고 있음을 알 수 있었다.

따라서 0.0-0.1 구간을 not_frequent_users로 구분하고, 0.9-1.0구간을 frequent_users로 구분하고 임의로 시각화를 진행하였다.

imgimg

시각화를 진행한 결과, 모바일 기기를 많이 사용하는 사람이 상대적으로 미국에 많이 가고, 그렇지 않은 사람은 미국과 멀리 떨어진 유럽이나 오스트레일리아에 상대적으로 많이 가는 것을 알 수 있어 어느정도 가설과 일관된 결과를 보여준다고 할 수 있다.

유저의 세션 접속 횟수에 대해서(sess_count)에 대해서:

img

평균과 중간값을 고려하여 100 이상의 세션 접속 횟수를 가지고 있는 유저들을 (Frequent Session Access Users)라고 임의로 지정하였다.

imgimg

시각화를 진행한 결과, 세션 접속 횟수가 높은 사람이 상대적으로 미국에 적게 가고 유럽에 많이 가며, 세션 접속 횟수가 적은 사람이 상대적으로 미국에 많이 가는 것을 관찰할 수 있었고, 이는 가설과 일관된 결과였다.

가설 4: 가입한 방법(signup_method)와 마케팅 채널(affiliate_provider)이 facebook이거나 접속 기기가 모바일, 그리고 처음 이용한 마케팅 방법(first_affiliate_tracked)이 omg일 경우 SNS에 영향을 많이 받는 사람일 가능성이 높으므로 관광지가 유명해 사진 찍기 좋은 영국, 프랑스, 이탈리아, 스페인이 첫 여행지가 될 가능성이 높다.

img

img

스페인, 프랑스, 영국, 이탈리아의 페이스북 활용 비중이 높을 것이라고 생각했지만, 스페인, 프랑스, 영국, 이탈리아와 타 국가간 signup_method 항목의 차이는 발견되지 않았다.

img

img

스페인, 프랑스, 영국, 이탈리아의 SNS 관련 사이트 활용 비중이 높을 것이라고 생각했지만, 스페인, 프랑스, 영국, 이탈리아와 타 국가간 affiliate_provider 항목의 차이는 발견되지 않았다.

img

img

스페인, 프랑스, 영국, 이탈리아의 omg 활용 비중이 높을 것이라고 생각했지만, 스페인, 프랑스, 영국, 이탈리아와 타 국가간 first_affiliate_tracked 항목의 차이는 발견되지 않았다.

imgimg

스페인, 프랑스, 영국, 이탈리아가 처음 접속한 기기(first_device_type)는 모바일이 높을 것이라고 생각했지만, 스페인, 프랑스, 영국, 이탈리아와 타 국가간 first_device_type 항목의 차이는 발견되지 않았다. 다만, 여행지를 정하지 않은 경우의 유저는 Mac Desktop, Windows Desktop 등의 데스크탑 비중이 더 낮고 iPhone 등 모바일 기기 사용이 더 높은 것으로 드러났다.

가설 5: 유저의 first_device_type 별로 평균 연령을 조사해보았을 때, 상대적으로 모바일 기기 사용자들이 연령층이 낮을 것이다.

img

img

전체적으로 모바일 폰<데스크탑<타블렛 순으로 평균 연령이 나타났으며, 모바일 폰의 경우 연령대가 젊은 층에 몰려있지만, 데스크탑과 타블렛은 상대적으로 연령대 스펙트럼이 넓고 연령대가 더 높다는 것을 확인할 수 있었다.

imgimg

Feature Engineering

Convert Date Time Feature

  1. date_account_created(dac) -> year, month, day: date_account_created(계정 생성일) feature로부터 계정 생성 연도, 월, 일 feature을 생성하였다. month같은 경우 계절, day같은 경우 월말,월초와 같은 feature를 나타낼 수 있다.

  2. timestamp_first_active(tfa) -> year, month, day, time: timestamp_first_active(첫 활동 시간) feature로부터 첫 활동 연도, 월, 일, 시간 feature을 생성하였다.

Fill in Missing Data

Gender

a ) Gender 구성

img

​ <train과 test set의 성별 구성>

=> 사용자의 능동적 선택의 결과인 other은 그대로, 미기입의 결과인 -unknown-은 male, female 중 랜덤하게 채워넣었다.

b) Gender에 따른 여행지

img

Age

a) 분포

img

b) Missing Value : train user set의 age의 46%는 Missing Value
c) Outlier

img

<1900살 이상>과 <18살 이하>

1920-2000의 경우 본인의 생년을 입력한 것으로 추측된다. 따라서 date account created(2010-2014년)의 값을 빼주어 정확한 나이 값으로 대체한다.

2000년 이상인 경우 date account created을 빼주어도 최대 10살이 된다. 미국의 경우 11살부터 중학생에 해당하게 되는데 초등학생이 에어비앤비를 예약하는 것은 합리적이지 않아 Missing Value로 처리한다.

마찬가지로 18살 이하 중에서 10살 이하는 Missing Value로 처리한다.

d) Filling in Missing Value

​ 우선 Gender를 Male과 Female 둘 중 Random Value, 그리고 Age를 제거한 채로 Random Forest를 적용해보았다. 그리고 Feature Importance를 구한 결과 다음과 같이 age feature의 importance가 가장 높게 나왔다. 따라서 age feature를 단순히 mean value로 채우기 보다 다른 feature들을 활용해 예측해보기로 결정했다.

img

e) Predicting Age

Age를 예측하기 위해 Xgboost, LGBM, CatBoost, Deep Neural Network를 활용했다. Deep Neural Network는 쉽게 overfitting되었고 Tree 계열의 경우 예측력이 현저히 떨어졌다.

img img

img img

따라서 Variance가 커지는 모델을 선택하기보다는 조금 더 robust한 방법인 Mean Value로 Age의 Missing Value를 채워넣기로 결정하였다.

Drop meaningless Feature

Date First Booking feature는 train set에서 ‘NDF’ 클래스에 해당하는 약 58%가 null value이다. Date First Booking은 첫 예약을 마쳐야만 생겨나는 사후적인 정보이기 때문에 prediction에 활용하는 것이 논리적으로 맞지 않아 이 feature는 활용하지 않기로 결정하였다.

Create additional Features

  1. date_account_created(dac) feature -> season, weekday, pred_diff: date account created feature의 정보를 이용하여 계정 생성일의 계절, 요일, 예측 연도(기준 연도)로부터의 연도 차, 즉 예측 당시 기준으로 계정을 생성한지 몇 년이 경과하였는가를 나타내는 feature을 생성하였다.

  2. timestamp_first_active(tfa) -> season, weekday, pred_diff, time range(trange): timestamp first active feature의 정보를 이용하여 첫 활동 시간의 계절, 요일, 예측 연도(기준 연도)로부터의 연도 차, 즉 예측 당시 기준으로 첫 활동을 한지 몇 년이 경과하였는가, 그리고 첫 활동 시간의 시간대를 나타내는 feature을 생성하였다.

One Hot Encoding

대상 feature: 'gender', 'signup_method', 'signup_flow', 'language', 'affiliate_channel', 'affiliate_provider', 'first_affiliate_tracked', 'signup_app', 'first_device_type', 'first_browser', 'dac_weekday', 'dac_season', 'tfa_season', 'tfa_weekday', 'tfa_trange', 'dac_year', 'tfa_year'

Normalization using Z-score

대상 feature: 'age', 'dac_pred_diff', 'tfa_pred_diff', 'dac_month', 'dac_day', 'tfa_month', 'tfa_day', 'tfa_time'

Model selection

Subsampling for Validation

Validation 과정을 거칠 때 기존 training set에 training을 매번 새로 하기에는 training set의 크기가 너무 커서, subsample을 만들어 validation 과정상의 training set의 용도로까지 겸하여 사용하였다. 즉 연산비용 문제로 training set의 subsample set이 validation 과정 상의 training set과 validation set 역할을 모두 담당하였다. Subsample set을 활용한 model selection(hyperparameter 선택)으로 선정된 모델들은 마지막으로 전체 training set에 대해 training을 시키고 test set으로 최종 성능을 평가한다.

Subsample을 생성할 때 두 가지 방안이 있었는데, 한 가지는 기존 training set의 클래스 비율을 유지한 subsample을 만드는 것, 다른 한 가지는 minority 클래스가 기존 training set에 비해 oversampling되도록 하고 majority 클래스는 undersampling되도록 하는 것이었다. 후자의 경우 minority 클래스가 test set에서도 무척 적을 것이기 때문에 후자를 이용해서 hyperparameter을 설정하면 전체적인 성능에 오히려 악영향을 끼칠 가능성도 있다고 판단하였지만, 최종적으로 training set에서 majority 클래스의 datapoint가 충분히 많아 hyperparameter에 관계없이 잘 학습할 수 있으리라고 판단하고, datapoint가 적어 학습에 어려움이 있는 minority 클래스에 조금이라도 더 집중하는 hyperparameter을 구성하기로 결정하여 후자의 방안을 선택하였다.

​ subsample은 ‘make_subset.ipynb’를 통해 만들었다. 크기는 datapoint 약 1만 개로 하고자 하였다. 이를 만족하도록 클래스마다 샘플링할 개수를 정해두고 해당 개수만큼 비복원 추출을 하였다. ‘PT’는 datapoint 수가 217개로 전체 추출, ‘AU’은 539개 전체 추출, ‘NL’은 762개 전체 추출, 이 외의 클래스들은 datapoint 수가 1000개 이상인 클래스들로, 모두 1000개를 추출하였다. 결과적으로 10,518개의 datapoint로 이루어진 subsample이 생성되었다.

HyperParameter Selection for Each Model

Logistic Regression

Logistic Regression의 hyperparameter를 찾기 위해 GirdSearch CV에 비해 실행 시간이 적게 들면서도 성능이 현저히 떨어지지 않는 RandomizedSearchCV를 실행하였다. 이를 위해 우선 fitting 에 사용할 parameter grid를 설정하였고 그 값은 다음과 같다.

penalty =  ['l1', 'l2']
C = [0.001,0.01,0.1,1,10,100]

가장 최적의 성능을 보이는 parameter의 조합은 다음과 같다.

{'C': 1, 
 'penalty': 'l1'}

L2 norm보다는 L1 norm을 이용한 regularization이 선호된 것으로 보아 prediction에 도움이 되지 않는 feature이 많은 것으로 추측된다.

RandomForest

RandomForest의 hyperparameter를 찾기 위해 GirdSearch CV를 실행하였다. fitting 에 사용할 parameter grid 값은 다음과 같다.

n_estimators = [int(x) for x in np.linspace(start = 200, stop = 2000, num = 10)]
max_features = ['auto', 'sqrt']
max_depth = [int(x) for x in np.linspace(10, 110, num = 11)]
max_depth.append(None)
min_samples_split = [2, 5, 10]
min_samples_leaf = [1, 2, 4]
bootstrap = [True, False]

가장 최적의 성능을 보이는 parameter의 조합은 다음과 같다.

{'bootstrap': True,
 'max_depth': 10,
 'max_features': 'sqrt',
 'min_samples_leaf': 2,
 'min_samples_split': 5,
 'n_estimators': 200}

Xgboost

Xgboost의 hyperparameter를 찾기 위해 GirdSearch CV를 실행하였다. fitting 에 사용할 parameter grid 값은 다음과 같다.

min_child_weight = [1, 5, 10]
gamma = [0.5, 1, 1.5, 2, 5]
subsample = [0.6, 0.8, 1.0]
colsample_bytree = [0.6, 0.8, 1.0]
max_depth = [3, 4, 5]

가장 최적의 성능을 보이는 parameter의 조합은 다음과 같다.

{'colsample_bytree': 0.6,
 'gamma': 5,
 'max_depth': 5,
 'min_child_weight': 5,
 'subsample': 1.0}

CatBoost

CatBoost loss function:

img

CatBoostClassifier 파라미터에 해당하는 depth의 적합한 값을 찾기 위해 수동으로 테스트를 진행하였다.

--Depth: 5

Learning Rate 0.1 0.05 0.01
Best Score -2.391290585 -2.393955152 -2.422739425
Best Iteration 95 98 99

--Depth: 10

Learning Rate 0.1 0.05 0.01
Best Score -2.413476377 -2.410183727 -2.436579506
Best Iteration 32 78 99

따라서 CatBoostClassifier의 parameter은 다음과 같이 설정하였다.

iterations=95
learning_rate=0.1
depth=5
task_type='GPU'
loss_function='MultiClass'
eval_metric='MultiClass'

Neural Network

Neural Network 모델에서 적합한 coefficient, hidden layer, hidden layer 당 노드 수, batch size를 찾기 위해 수동으로 테스트를 진행하였으며 fitting 에 사용한 parameter grid 값은 다음과 같다.

Regularization = [l1(0.01), l1(0.001)]
hidden layer and nodes = [(2, (64, 32)), (2, (128, 64)), (3, (128, 64,32)), (3, (256, 64, 32))]
batch_size=[10,100]

-->batch size가 10일 때는 컴퓨팅 파워의 한계로 l1(0.01)만 적용하였다.

성능에 대한 평가는 categorical_crossentropy로 계산 되었다.

--batch size:100

Hidden Layers and Nodes/Regularization l1(0.01) l1(0.001)
2layer(64,32 nodes) 1.2075 1.2704
2layer(128,64 nodes) 1.2385 1.3647
3layer(128,64,32 nodes) 1.2040 1.3548
3layer(256,64,32 nodes) 1.2675 1.5433

--batch size :10

3layer(128,64,32 nodes):1.2045
2layer(64,32 nodes):1.2174 

표에서 볼 수 있듯 최적의 성능을 보이는 parameter의 조합은 다음과 같다.

{'Regularization': l1(0.01),
 'Hidden Layers and Nodes/: 3layer(128,64,32 nodes),’batch size’:100}

LGBM (Light Gradient Boosting Machine)

LGBM의 hyperparameter를 찾기 위해 GirdSearch CV를 실행하였다. fitting 에 사용할 parameter grid 값은 다음과 같다.

learning_rate = [0.01, 0.1, 0.5]
max_depth = [5, 8, 10]
num_leaves = [10,15, 50]

가장 최적의 성능을 보이는 parameter의 조합은 다음과 같다.

{'num_leaves': 10, 
 'max_depth': 5, 
 'learning_rate': 0.01}

Ensemble

LGBM, XGBoost, Catboost 위 3 결과를 평균 내어 더 robust한 모델을 만든다.

img

Stacking

결과적으로는 Xgboost가 가장 좋은 성능을 보였다. 하지만 컴퓨팅 파워의 한계로 XGboost 대신 GPU연산이 가능하고 연산 속도가 빠른 Catboost Model 2개를 활용해 Stacking을 구성하였다.

1st layer model의 하이퍼파라미터는 기존의 것을 이용하였고 해당 layer에서 나온 각각의 class에 대한 확률값을 피쳐로 사용해 2nd layer의 모델을 학습시켰다. 2nd layer model 후보로는 Random Forest와 Neural Net가 있고 각각에 대한 하이퍼파라미터 튜닝을 실행하고 비교해본다.

--Neural Net : val_loss

--batch size:100 일때

2layer(64,32 nodes) : 1.1874 

2layer(128,64 nodes): 1.1411  -->score: 0.86943

3layer(256,128,64 nodes) : 1.2286

--batch size:10일때

2layer(128,64 nodes):1.0986   -->score: 0.87014

2layer(64,32 nodes):  1.0997

--Random Forest

img--->Random GridSearchCV

img-->best Parameter

Random Forest score: 0.86282

따라서 2nd layer model은 Neural Network로 구성하였다.

img

Test results

Test set에 대해 각 모델의 성능을 측정하였다. test set의 실제 클래스 정보는 주어져 있지 않은 관계로, Kaggle에 submission을 함으로써 얻는 NDCG@5 점수로만 성능을 평가할 수 있다.

Base Line -Majority Label: NDF

1위부터 5위까지를 전부 NDF로 채워서 제출하였다.

Score : 0.67908

Logistic Regression

Score : 0.85373

RandomForest

Score : 0.85356

Feature Importance

img

Xgboost

Score : 0.86561

Feature Importance

img

CatBoost

Score : 0.86508

Feature Importance

img

Neural Network

Score : 0.85359

LGBM (Light Gradient Boosting Machine)

Score : 0.85369

Feature Importance

img

따라서 가장 좋은 성능을 보인 단일모델은 Xgboost로 0.86561의 정확도를 기록하였다.

그 외 모델의 성능 순위는 아래와 같다.

CatBoost>Logistic Regression>LGBM>Neural Network>RandomForest

Xgboost, Catboost, LGBM, Random Forest의 Feature 중요도 상위 10개 feature들을 종합하여 보면 다음과 같다. 다음은 각 feature 별 각 모델에서 상위 10개 중요 feature에 든 횟수이다. 전부 16개의 feature들로, 서로 다른 모델끼리도 대부분의 feature이 겹치는 것으로 보아 안정적으로 중요한 feature들이라고 할 수 있다.

  1. age 's importance: 4
  2. tfa_pred_diff 's importance: 4
  3. signup_method_facebook 's importance: 4
  4. tfa_time 's importance: 3
  5. dac_pred_diff 's importance: 3
  6. signup_method_basic 's importance: 3
  7. signup_flow_3 's importance: 3
  8. signup_app_Web 's importance: 3
  9. dac_month 's importance: 2
  10. tfa_month 's importance: 2
  11. first_device_type_Mac Desktop 's importance: 2
  12. affiliate_channel_content 's importance: 1
  13. affiliate_channel_other 's importance: 1
  14. first_device_type_Other/Unknown 's importance: 1
  15. first_browser_-unknown- 's importance: 1
  16. first_browser_Chrome 's importance: 1

나이는 모든 모델에서 공통적으로 압도적으로 가장 중요한 feature이었다. 그 외에 항상 중요하게 꼽힌 feature로는 첫 활동을 하고 경과한 햇수, 가입 계정이 facebook 계정인지 여부이다.

다음으로 3개 모델에서 중요하게 꼽힌 feature로는 첫 활동의 시각, 계정 생성을 하고 경과한 햇수, signup_method가 Airbnb에 직접 가입하는 것이었는지 여부, signup_flow 3번의 URL을 통해 Airbnb에 유입되어 가입한 것인지 여부, 가입할 때 웹 애플리케이션을 통했었는지 여부가 있다. signup_flow의 경우 번호로 암호화되어서 실제로 어떤 사이트였는지는 알 수가 없다.

2개 모델에서 공통적으로 중요했던 feature들은 계정생성 월, 첫 활동 월, 그리고 첫 접속 기기가 Mac Desktop이었는지 여부였다. 마지막으로 한 개 모델에서 중요하게 평가된 feature들은 사용자가 접한 마케팅 수단과 첫 접속 브라우저 종류 및 첫 접속 기기의 종류에 대한 것들이었다.

  1. Age

img

위 그래프에서 40대의 경우 NDF일 확률이 높은 것이 나타난다. 자세한 분포를 알아보기 위해 Stacked Bar Chart를 확인한다.

img

Underage(<18) 와 Fourties에서 NDF 비율이 높은 것을 알 수 있다. 또한 40대의 경우 Australia의 비율이 적은 것을 확인할 수 있다.

img

​ <40 대의 여행지 비율>

  1. singup_method_facebook

img

DE를 목적지로 하는 경우 facebook을 통한 가입 비율이 다소 높을 뿐 그래프를 통해 통계적 의미는 찾기 힘들다.

img

40대의 경우 facebook을 통해 가입하는 비율이 굉장히 적다.

img

facebook을 통해 가입한 40대와 그렇지 않은 40대의 목적지를 비교해보면 facebook을 통해 가입할 경우 US로 향할 확률이 높다.

Catboost_2:

위에서 서술한 Catboost의 feature importance 상위 10개 feature만을 활용해 test하였다

score: 0.86533

-->전체 데이터 셋을 넣었을 때보다 성능이 향상되었다. 다른 feature들이 주는 noise가 없어졌다고 해석가능하다.

LGBM_2 :

위와 마찬가지로 LGBM의 feature importance 상위 10개 feature만을 활용하였다.

Score: 0.85350

Deep Neural Net_2 :

위와 마찬가지로 DNN의 feature importance 상위 10개 feature만을 활용하였다.

Score: 0.85359

Ensemble(LGBM,XGBOOST,CatBoost 평균):

score:0.86385

Stacking:

score: 0.87014

Further Goals

  1. Session data의 활용:

    1. user가 실행한 action 개수
    2. user가 실행한 action 가지수
    3. device_type 가지수
    4. user가 사용한 device_type 중 가장 많이 사용한 device type
    5. device_type unique한 종류 중 각각 사용한 횟수
    6. user의 secs_elapsed 총 시간
    7. user의 secs_elapsed 평균 시간

​ (참고 파일: Add_Session_features.ipynb)

  1. 연산비용으로 인한 제약 해결: 연산비용의 제약으로 인해 Session과 관련된 feature은 쓰지 않고 validation 과정에서 subsample을 통해서 training을 해야 했다. 또한, Stacking에 XGboost를 활용하지 못하였다. GPU 대여 서비스를 적절히 활용하여 연산비용으로 인한 제약 없이 모델을 만들 수 있을 것이다.

Role

이세훈 - 기존의 유사한 연구나 프로젝트 조사, Model building & training & refinement

정예람 - Exploratory Data Analysis & Visualization, Model building & training & refinement

조민서 - Data Preprocessing, Model building & training & refinement

강수진 - Exploratory Data Analysis & Visualization, Model building & training & refinement

임한동 - Data Preprocessing, Model building & training & refinement

About

Kaggle Competition : Airbnb New Booking


Languages

Language:Jupyter Notebook 100.0%