-
Distributed Representations of Sentences and Documents -> 요약문 (설명이 잘 되어 있다.)
-
PV-DIM:
- input: 문장ID and 문장 window사이즈
- output: window ‘다음’에 나올 단어 예측(word vectors are shared across all)
- 문장들의 같은 단어의 wordvector는 공유된다.
-
PV-DBOW:
- input: 문장ID
- output: 일정 갯수의 단어를 예측 (단어의 순서는 고려하지않음.) → randomly sampled
해당 논문에서는 PV_DIM과 PV-DBOW을 같이 사용하는 것을 추천함.
-
-
Supervised Paragraph Vector: Distributed Representations of Words, Documents and Class Labels
- 추후 요긱 리뷰데이터로 많은 걸 해 볼 수있는 방법론이라고 생각됨.
- 해당 논문에서 Interpretability, Discriminative Power, Computational Efficiency을 강조함.
- 라벨을 일거리양, 일거리 난이도 등 요긱 데이터에 맞는 다양한 클래스를 넣어서 임베딩하여 클래스 별 Word Representation을 할 수 있음. → 잘 되면 설명력이 굉장히 높은 AI모델이 될 수 있음.
-
A Survey of Data Augmentation Approaches for NLP
- SR(Synonym Replacement): 문장에서 랜덤으로 stop words가 아닌 n 개의 단어들을 선택해 임의로 선택한 동의어들 중 하나로 바꾸는 기법. ex) 배달 참 쉽네. → 배송 참 쉽네.
- RI(Random Insertion): 문장 내에서 stop word를 제외한 나머지 단어들 중에서, 랜덤으로 선택한 단어의 동의어를 임의로 정한다. 그리고 동의어를 문장 내 임의의 자리에 넣는걸 n번 반복한다. ex) 돈이 잘 벌려요 → 돈이 너무 잘 벌려요.
- RS(Random Swap): 무작위로 문장 내에서 두 단어를 선택하고 위치를 바꾼다. 이것도 n번 반복 ex) 인형탈 알바 너무 쉬워요. → 인형탈 너무 알바 쉬워요.
- RD(Random Deletion): 확률 p를 통해 문장 내에 있는 각 단어들을 랜덤하게 삭제한다. ex) 일이 참 편해요. → 일이 편해요.
- KoEDA, KorEDA
-
Character-level Convolutional Networks for Text Classification
- Character 기반의 Text Classification 제안.
- 경험적으로 FastText을 사용하면 성능이 좋음.
-
Convolutional Neural Networks for Sentence Classification
- 사전학습된 WordVector을 이용하여 Sentence Classification 제안.
-
Learning a Similarity Metric Discriminatively, with Application to Face Verification
- One-shot learning
- 다양한 이미지와 rgb벡터를 가진 이미지를 학습하게 되면 이미지를 잘 생성하지 못한다는 문제점이 있음.
-
AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE RECOGNITION AT SCALE
- 이미지를 text sequence처럼 사용하여 예측 class를 맞추도록 학습.
- 비교적 CNN보다 성능이 좋음. (but 데이터가 적으면 성능 급감.)
- 사용결과 ImageNet로 학습된 모델로도 representation이 잘됨 (timm으로 사용하기 편함.)
-
FaceNet: A Unified Embedding for Face Recognition and Clustering
- triplet loss
- anchor, positive, negative 샘플을 입력하여 3개의 출력을 나오게함. 그 출력으로 triplet loss를 계산하여 anchor와 positive가 가깝게하면서 anchor와 negative는 멀게하도록 학습한다. (유클리드 거리 이용)
- triplet mining: easy-negative, semi-hard-negative, hard-negative
- [정확하지 않음] offline / online: postivte, anchor, negative pair을 manual하게 만듬 / 랜덤하게 batch내에서 triplet을 만듬 (성능이 더 좋음)
-
ArcFace: Additive Angular Margin Loss for Deep Face Recognition
- Training: img, lable -> MODEL + ARCFACE -> logit, label -> CrossEntropyLoss
- 2차원 시각화는 논문에서 제시한 1,500개 정도가 잘 되고, 2,000개만 넘어가면 이쁘게 안나옴.(MNIST)
- 구현된 코드가 너~~~~무 다양함.
-
Job2Vec: Job Title Benchmarking with Collective Multi-View Representation Learning
- Topology Structrure Preservation (Graph Topology View)
- Semantics Preservation (Semantic View)
- Job Transition Patterns Preservation (Job Transition Balance View, Job Transition Duration View)
크게 3가지의 input을 이용하여 Representation Learning (Multi-view Representation Fusion) 하면 직업 추천에 좋은 성능을 낸다는 결과를 제시한다. 요긱 혹은 차후 TMVC에 적용할 케이스로 바꿔보면
- gig간의 지식 그래프 구축 (단어빈도수, 특정단어 기반으로..)
- gig JD의 의미분석을 통한 representation 방법론
- gig worker의 gig_change and gig_duration
정도로 결론 내릴 수 있다.
-
Deep Job Understanding at LinkedIn
- Job에 domain-specific한 모델을 만듬. (확실히 어느 도메인이든 글로벌한 모델은 자기 task에 잘 맞지않는 듯 하다.)
- 해당 feature들을 (professional entities, including titles, skills, companies, and assessment question) representation함. (Job Standardization라고 표현함.)
- 메뉴얼하게 외부데이터를 통해 데이터를 검증하는 작업도 진행함.
- 추천시스템, 자동완성에 DL 적용.