1 분 소요

1. Context-aware

image-20221024213912118

1.1 Factorization Machines

MF의 문제점 -> 특정 데이터 포맷에 특화되어 있어, 일반적인 데이터셋 바로 적용 불가 / user-item 이외의 정보 사용 불가

Latent factor Model 추가

-> feature 축약 -> high sparsity 개선

-> 여러 feature를 반영할 수 있는 데이터셋으로 확장

  • FM 공식

image-20221024232304387

  • Polynomial regression 공식

image-20221024232342918

과 비슷하지만 polynomial regression은 high sparsity로 $w_{ij}$가 학습되기 어렵다

  • 변형 FM

image-20221024232614387

1.2 Field aware Factorization machines

  • Logistic Regression

image-20221024233014699

상호작용항 따로 없음

  • Polynomial Regression

image-20221024233109734

상호작용항 추가

  • FM

image-20221024233147595

latent Factor를 통해 상호작용 계산

image-20221024233231654

  • FFM

image-20221024233249309

Latent Factor를 구성할 때 대응되는 field를 미리 고려하고 대응되는 field와만 상호작용 계산

image-20221024233338824

2. Deep Learning Recommender sys

2.1 Neural Collaborative filtering(NCF)

  • NMF(Neural Matrix Factorization)

GMF layer와 NCF layer로 나눠 융합한 형태

image-20221024235219489

  • GMF(generalized matrix factorization)

기존 dot product 계산

image-20221024235408140

-> element wise 곱한 값에 weight(h) 곱하고 활성화 함수 사용하여 계산

image-20221024235401489

2.2 AutoRec

image-20221024235630810

image-20221025002518343

  • User , Item 방향으로 각각 임베딩함

image-20221025002739413

  • 회색 플레이트 : 관측 데이터만 대상으로 하고 정규화함

image-20221025002705103

Wide & Deep Network

  • 두가지 challenge

1) Memorization

-> sparse representation(희소 표현) : CategoryEncoding layer 사용하여 범주형 변수를 one-hot encoding 처리해 희소 표현

2) generalization

-> dense representation(밀집 표현) : Embedding layer 사용하여 범주형 변수를 저차원으로 임베딩

image-20221025004230103

단순히 두 모델을 더한뒤에 sigmoid 처리

Deep & Cross Network

  • Cross Network
    feature 교차하기

image-20221025004611175

각 레이어에 x0의 weight를 곱해줘서 상호작용을 만듬

  • Stacked DCN : Cross layer로 explicit feature 교차 학습 후 deep layer로 implicit 교차 학습
  • Parallel DCN : Cross, Deep layer 각각 feature 교차 학습 후 두 layer 마지막 output을 concat image-20221025004714889

  • Low-Rank 적은 학습 파라미터 = 적은 메모리 사용 & 빠른 학습 속도 (+비용 감소)

image-20221025010650729

W : d * d U,V : d * r (r < d/2)

  • Mixture-of Experts (MoE)

image-20221025010824882

댓글남기기