AI
-
SOTA(State-Of-The-Art) 추천 시스템의 근간이 되는 방법론 앞서 참고로 여기서의 SOTA(State-of-The-Art)의 의미는 '최고의 성능을 내는' 정도로 해석하면 된다. Matrix Factorization [출처] https://commons.wikimedia.org/wiki/File:Matrix_factorization.png, Xianteng 사용자와 아이템의 저차원 표현을 학습하는 것으로 볼 수 있으며, 명시적인 feature를 사용하지 않고도 잠재 표현을 학습하기 때문에 흔히 latent factor model이라고 부른다. $$ R \approx \gamma_U \times \gamma_I^T $$ $R$: Sparse한 사용자와 아이템 상호작용 행렬 $\gamma_U$..
추천 시스템의 핵심이 되는 여러 방법론SOTA(State-Of-The-Art) 추천 시스템의 근간이 되는 방법론 앞서 참고로 여기서의 SOTA(State-of-The-Art)의 의미는 '최고의 성능을 내는' 정도로 해석하면 된다. Matrix Factorization [출처] https://commons.wikimedia.org/wiki/File:Matrix_factorization.png, Xianteng 사용자와 아이템의 저차원 표현을 학습하는 것으로 볼 수 있으며, 명시적인 feature를 사용하지 않고도 잠재 표현을 학습하기 때문에 흔히 latent factor model이라고 부른다. $$ R \approx \gamma_U \times \gamma_I^T $$ $R$: Sparse한 사용자와 아이템 상호작용 행렬 $\gamma_U$..
2022.03.27 -
2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해 나갈 예정입니다. Autoencoder를 응용한 추천 시스템 Autoencoder 입력 데이터를 출력으로 복원(reconstruct)하는 비지도(unsupervised) 학습 모델이다. 중간 hidden layer를 input data의 feature representation으로 활용한다. 주어진 입력에 대해서 reconstructed input과의 차이를 줄이는 것을 목표로 한다. Denoisi..
Autoencoder를 응용한 추천 시스템2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해 나갈 예정입니다. Autoencoder를 응용한 추천 시스템 Autoencoder 입력 데이터를 출력으로 복원(reconstruct)하는 비지도(unsupervised) 학습 모델이다. 중간 hidden layer를 input data의 feature representation으로 활용한다. 주어진 입력에 대해서 reconstructed input과의 차이를 줄이는 것을 목표로 한다. Denoisi..
2022.03.13 -
2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해 나갈 예정입니다. 딥 러닝을 사용한 추천 시스템 추천 시스템에서 딥러닝을 활용하는 이유 Nonlinear Transformation DNN은 data의 non-linearity를 효과적으로 나타낼 수 있다. 복잡한 유저-아이템 상호작용 패턴을 효과적으로 모델링하여 user의 선호도를 예측할 수 있다. Representation Learning DNN은 raw data로부터 feature repres..
딥 러닝을 사용한 추천 시스템과 대표적인 예시인 유튜브 영상 추천2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해 나갈 예정입니다. 딥 러닝을 사용한 추천 시스템 추천 시스템에서 딥러닝을 활용하는 이유 Nonlinear Transformation DNN은 data의 non-linearity를 효과적으로 나타낼 수 있다. 복잡한 유저-아이템 상호작용 패턴을 효과적으로 모델링하여 user의 선호도를 예측할 수 있다. Representation Learning DNN은 raw data로부터 feature repres..
2022.03.13 -
2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해나갈 예정입니다. 강의 자료의 저작권은 네이버 커넥트재단 부스트캠프 AI Tech에 있습니다. Approximate Nearest Neighbor(ANN) Nearest Neighbor 주어진 vecor space model에서 자신이 원하는 query vector와 가장 유사한 vector를 찾는 알고리즘이다. MF 모델을 가지고 추천 아이템을 서빙하는 경우를 생각해보자. 유저에게 아이템을 추천한다면 해당 유..
ANN(Approximate Nearest Neighbor)과 ANNOY2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해나갈 예정입니다. 강의 자료의 저작권은 네이버 커넥트재단 부스트캠프 AI Tech에 있습니다. Approximate Nearest Neighbor(ANN) Nearest Neighbor 주어진 vecor space model에서 자신이 원하는 query vector와 가장 유사한 vector를 찾는 알고리즘이다. MF 모델을 가지고 추천 아이템을 서빙하는 경우를 생각해보자. 유저에게 아이템을 추천한다면 해당 유..
2022.03.13 -
2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해나갈 예정입니다. 강의 자료의 저작권은 네이버 커넥트재단 부스트캠프 AI Tech에 있습니다. Word2Vec Word2Vec에 관한 개념은 이 포스트에 적은 내용을 바탕으로 한다. https://glanceyes.tistory.com/entry/Word-Embedding과-Word2Vec Word Embedding을 위한 Word2Vec과 GloVe Word Embedding 자연어가 단어라는 정보의 기본 단..
Word2Vec을 응용한 Item2Vec2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해나갈 예정입니다. 강의 자료의 저작권은 네이버 커넥트재단 부스트캠프 AI Tech에 있습니다. Word2Vec Word2Vec에 관한 개념은 이 포스트에 적은 내용을 바탕으로 한다. https://glanceyes.tistory.com/entry/Word-Embedding과-Word2Vec Word Embedding을 위한 Word2Vec과 GloVe Word Embedding 자연어가 단어라는 정보의 기본 단..
2022.03.13 -
2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해 나갈 예정입니다. Bayesian Personalized Ranking(BPR) Personalized Ranking 하나의 사용자에게 순서가 있는 아이템 리스트를 제공하는 문제이며, 즉, 아이템 추천 문제로 귀결된다. 유저가 Item $i$보다 $j$를 좋아한다면 이 정보를 사용해 MF의 파라미터를 학습한다. 유저 $u$에 대해 item $i$ > item $j$라면 이는 유저 $u$의 Perso..
Bayesian Personalized Ranking(BPR)2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해 나갈 예정입니다. Bayesian Personalized Ranking(BPR) Personalized Ranking 하나의 사용자에게 순서가 있는 아이템 리스트를 제공하는 문제이며, 즉, 아이템 추천 문제로 귀결된다. 유저가 Item $i$보다 $j$를 좋아한다면 이 정보를 사용해 MF의 파라미터를 학습한다. 유저 $u$에 대해 item $i$ > item $j$라면 이는 유저 $u$의 Perso..
2022.03.13 -
Model-based Collaborative Filtering(MBCF) NBCF(Neighborhood-based CF)의 한계 Sparsity(희소성) 문제 데이터가 충분하지 않으면 추천 성능이 떨어져서 유사도 계산이 부정확한 문제가 있다. 데이터가 부족하거나 또는 아예 없는 유저, 아이템의 경우는 추천이 불가능하다. Scalability(확장성) 문제 유저와 아이템이 늘어날수록 유사도 계산이 늘어난다. 유저, 아이템이 많아야 정확한 예측을 하지만, 반대로 시간이 오래 걸린다. MBCF(Model-based CF)의 특징 항목 간 유사성을 단순 비교하는 것에서 벗어나 데이터에 내재한 패턴을 이용해 추천하는 CF 기법이다. 파라미터를 이용하는 Parametric Machine Learning을 사용한..
모델 기반 CF와 SVD를 응용한 MF(Matrix Factorization)Model-based Collaborative Filtering(MBCF) NBCF(Neighborhood-based CF)의 한계 Sparsity(희소성) 문제 데이터가 충분하지 않으면 추천 성능이 떨어져서 유사도 계산이 부정확한 문제가 있다. 데이터가 부족하거나 또는 아예 없는 유저, 아이템의 경우는 추천이 불가능하다. Scalability(확장성) 문제 유저와 아이템이 늘어날수록 유사도 계산이 늘어난다. 유저, 아이템이 많아야 정확한 예측을 하지만, 반대로 시간이 오래 걸린다. MBCF(Model-based CF)의 특징 항목 간 유사성을 단순 비교하는 것에서 벗어나 데이터에 내재한 패턴을 이용해 추천하는 CF 기법이다. 파라미터를 이용하는 Parametric Machine Learning을 사용한..
2022.03.13 -
2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해나갈 예정입니다. 강의 자료의 저작권은 네이버 커넥트재단 부스트캠프 AI Tech에 있습니다. Collaborative Filtering(CF) 협업 필터링 많은 유저들로부터 얻은 기호 정보를 이용해 유저의 관심사를 자동으로 예측하는 방법 더 많은 유저와 아이템 데이터가 축적될수록 협업의 효과가 커지고 추천이 정확해질 것이라는 가정에서 출발한다. CF 기반 추천 시스템 최종 목적 유저 $u$가 아이템 $i$에 ..
Collaborative Filtering(협업 필터링)기반 추천 모델2022년 3월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거나 설명이 부족한 내용이 있을 수 있으며, 이는 학습을 진행하면서 꾸준히 내용을 수정하거나 추가해나갈 예정입니다. 강의 자료의 저작권은 네이버 커넥트재단 부스트캠프 AI Tech에 있습니다. Collaborative Filtering(CF) 협업 필터링 많은 유저들로부터 얻은 기호 정보를 이용해 유저의 관심사를 자동으로 예측하는 방법 더 많은 유저와 아이템 데이터가 축적될수록 협업의 효과가 커지고 추천이 정확해질 것이라는 가정에서 출발한다. CF 기반 추천 시스템 최종 목적 유저 $u$가 아이템 $i$에 ..
2022.03.11