분류 전체보기
-
Beam Search Greedy Decoding 먼저 이전에 공부했던 Attention 기반의 Seq2Seq 내용의 학습 과정을 확인해볼 필요가 있다. Seq2Seq with Attention Attention 기법을 사용한 Seq2Seq with Attention RNN 계열 모델인 LSTM을 여러개 이어서 encoder와 deocder로 만든 Seq2Seq에 관해 먼저 알아보고, 매 time step이 지날수록 이 Seq2Seq의 hidden state에 점차 많은 정보를 욱여넣게 되는 단점을 극복한 Seq2Seq with A glanceyes.com 기존 Seq2Seq 모델에서는 문장 전체를 보는 것이 아니라 근시안적으로 다음에 올 확률이 가장 높은 단어를 예측한다. 이처럼 현재 time step..
Beam Search와 NLP 모델의 성능을 평가하는 지표인 BLEU ScoreBeam Search Greedy Decoding 먼저 이전에 공부했던 Attention 기반의 Seq2Seq 내용의 학습 과정을 확인해볼 필요가 있다. Seq2Seq with Attention Attention 기법을 사용한 Seq2Seq with Attention RNN 계열 모델인 LSTM을 여러개 이어서 encoder와 deocder로 만든 Seq2Seq에 관해 먼저 알아보고, 매 time step이 지날수록 이 Seq2Seq의 hidden state에 점차 많은 정보를 욱여넣게 되는 단점을 극복한 Seq2Seq with A glanceyes.com 기존 Seq2Seq 모델에서는 문장 전체를 보는 것이 아니라 근시안적으로 다음에 올 확률이 가장 높은 단어를 예측한다. 이처럼 현재 time step..
2022.07.16 -
RNN 계열 모델인 LSTM을 여러개 이어서 encoder와 deocder로 만든 Seq2Seq에 관해 먼저 알아보고, 매 time step이 지날수록 이 Seq2Seq의 hidden state에 점차 많은 정보를 욱여넣게 되는 단점을 극복한 Seq2Seq with Attention에 관해 알아보고자 한다. 간단히 말하면 Seq2Seq with Attention은 decoder의 hidden state로 해당 time step에서의 결과를 내보낼 때, encoder의 어떠한 hidden state에 주목할지를 반영하여 해당 time step에서의 output을 내는 모델이다. Seq2Seq Seq2Seq란? Seq2Seq 모델은 RNN의 구조 중에서 many to many의 형태에 해당된다고 볼 수 있으..
Attention 기법을 사용한 Seq2Seq with AttentionRNN 계열 모델인 LSTM을 여러개 이어서 encoder와 deocder로 만든 Seq2Seq에 관해 먼저 알아보고, 매 time step이 지날수록 이 Seq2Seq의 hidden state에 점차 많은 정보를 욱여넣게 되는 단점을 극복한 Seq2Seq with Attention에 관해 알아보고자 한다. 간단히 말하면 Seq2Seq with Attention은 decoder의 hidden state로 해당 time step에서의 결과를 내보낼 때, encoder의 어떠한 hidden state에 주목할지를 반영하여 해당 time step에서의 output을 내는 모델이다. Seq2Seq Seq2Seq란? Seq2Seq 모델은 RNN의 구조 중에서 many to many의 형태에 해당된다고 볼 수 있으..
2022.07.14 -
신경망을 사용한 Matrix Factorization Matrix Factorization 추천 시스템에서 사용자와 아이템의 상호작용 행렬의 잠재 요인을 학습하기 위해 낮은 차원을 지닌 행렬 곱으로 분해하는 Matrix Factorization 방법이 기본적인 협업 필터링 모델로 자주 쓰인다. Matrix Factorization은 두 행렬 곱으로 나타내서 학습 데이터에 관해 잠재 요인을 학습하고 다시 이를 곱하여 원상태로 복원할 때 원래 학습 입력 데이터와 얼마나 유사한지 그 차이를 줄이는 방향으로 학습한다. 그래서 상호작용이 없거나 적은 유저의 새로운 상호작용 데이터가 들어왔을 때 Matrix Factorization을 통과하여 복원되는 결과를 가지고 해당 사용자가 어떠한 아이템을 소비하거나 관심을 ..
신경망을 사용한 Matrix Factorization 모델과 NeuMF(Neural Collaborative Filtering)신경망을 사용한 Matrix Factorization Matrix Factorization 추천 시스템에서 사용자와 아이템의 상호작용 행렬의 잠재 요인을 학습하기 위해 낮은 차원을 지닌 행렬 곱으로 분해하는 Matrix Factorization 방법이 기본적인 협업 필터링 모델로 자주 쓰인다. Matrix Factorization은 두 행렬 곱으로 나타내서 학습 데이터에 관해 잠재 요인을 학습하고 다시 이를 곱하여 원상태로 복원할 때 원래 학습 입력 데이터와 얼마나 유사한지 그 차이를 줄이는 방향으로 학습한다. 그래서 상호작용이 없거나 적은 유저의 새로운 상호작용 데이터가 들어왔을 때 Matrix Factorization을 통과하여 복원되는 결과를 가지고 해당 사용자가 어떠한 아이템을 소비하거나 관심을 ..
2022.07.10 -
LSTM(Long Short-Term Memory) 이전 포스팅에서 LSTM에 관해 자세히 정리했는데, 여기서 좀 더 나아가서 각 gate의 특징과 그 의미를 거시적인 관점에서 이해해볼 필요가 있어 보였다. https://glanceyes.tistory.com/entry/Deep-Learning-RNNRecurrent-Neural-Network 순차 데이터와 RNN(Recurrent Neural Network) 계열의 모델 2022년 2월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거 glanceyes.tistory.com LSTM이란? [출처] http..
LSTM과 GRU의 Gate별 특징과 구조 한번에 이해하기LSTM(Long Short-Term Memory) 이전 포스팅에서 LSTM에 관해 자세히 정리했는데, 여기서 좀 더 나아가서 각 gate의 특징과 그 의미를 거시적인 관점에서 이해해볼 필요가 있어 보였다. https://glanceyes.tistory.com/entry/Deep-Learning-RNNRecurrent-Neural-Network 순차 데이터와 RNN(Recurrent Neural Network) 계열의 모델 2022년 2월 7일(월)부터 11일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거 glanceyes.tistory.com LSTM이란? [출처] http..
2022.07.06 -
RNN(Recurrent Neural Network) RNN에 관해 이전에 여러 번 포스팅을 했지만, 이전에 다루지 못한 개념을 좀 더 보강하는 차원에서 다시 한 번 RNN에 관해 정리해 보았다. [RNN(Recurrent Neural Network)] https://glanceyes.tistory.com/entry/AI-Math-RNN-Recurrent-Neural-Network RNN (Recurrent Neural Network) 2022년 1월 17일(월)부터 21일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거 glanceyes.tistory.com [순차 데이터와 ..
RNN의 기본 개념과 자연어 처리에서의 RNN 학습 과정RNN(Recurrent Neural Network) RNN에 관해 이전에 여러 번 포스팅을 했지만, 이전에 다루지 못한 개념을 좀 더 보강하는 차원에서 다시 한 번 RNN에 관해 정리해 보았다. [RNN(Recurrent Neural Network)] https://glanceyes.tistory.com/entry/AI-Math-RNN-Recurrent-Neural-Network RNN (Recurrent Neural Network) 2022년 1월 17일(월)부터 21일(금)까지 네이버 부스트캠프(boostcamp) AI Tech 강의를 들으면서 개인적으로 중요하다고 생각되거나 짚고 넘어가야 할 핵심 내용들만 간단하게 메모한 내용입니다. 틀리거 glanceyes.tistory.com [순차 데이터와 ..
2022.07.01 -
Bag-of-Words 텍스트 마이닝 분야에서 딥 러닝 기술이 적용되기 이전에 자주 활용되었던 간단한 기법이다. 단어장에 등록된 단어가 어떠한 문장에 얼마나 등장했는지를 벡터(vector)로 표현하며, 단어장을 구성하는 과정을 필요로 한다. 먼저 텍스트 데이터 셋에서 unique한 단어들만 모아서 단어장(사전)을 구축한다. $$ \text{This is the most powerful device.}\\ \text{That is the strongest equipment.} $$ $$ \text{단어장(Vocabulary)}: \text{{this, is, the, most, powerful, device, that, strongest, equipment}} $$ 중복된 단어를 제거하고 최종적으로 단어장..
Bag-of-Words와 나이브 베이즈 분류Bag-of-Words 텍스트 마이닝 분야에서 딥 러닝 기술이 적용되기 이전에 자주 활용되었던 간단한 기법이다. 단어장에 등록된 단어가 어떠한 문장에 얼마나 등장했는지를 벡터(vector)로 표현하며, 단어장을 구성하는 과정을 필요로 한다. 먼저 텍스트 데이터 셋에서 unique한 단어들만 모아서 단어장(사전)을 구축한다. $$ \text{This is the most powerful device.}\\ \text{That is the strongest equipment.} $$ $$ \text{단어장(Vocabulary)}: \text{{this, is, the, most, powerful, device, that, strongest, equipment}} $$ 중복된 단어를 제거하고 최종적으로 단어장..
2022.06.22 -
NLP(Natural Language Processing) NLP(Natural Language Processing, 자연어 처리)는 크게 기본적으로 컴퓨터에게 주어진 단어, 문장, 문단 등을 이해하는 NLU(Natural Language Understanding)이 있고, 이러한 자연어를 상황에 따라 적절히 생성할 수 있는 NLG(Natural Language Generation)이 있다. NLP의 최신 기술 또는 연구 결과들이 발표되는 곳으로는 대표적으로 ACL,EMNLP, NAACL이 있다. NLP에 속하는 태스크 Low-Level Parsing 각 단어를 준비하기 위한 의미 단위에서 가장 낮은 레벨의 태스크라고 볼 수 있다. Tokenization 문장을 이루는 각 단어를 정보 단위로 고려하여 문..
NLP 분야와 이를 구성하는 다양한 태스크NLP(Natural Language Processing) NLP(Natural Language Processing, 자연어 처리)는 크게 기본적으로 컴퓨터에게 주어진 단어, 문장, 문단 등을 이해하는 NLU(Natural Language Understanding)이 있고, 이러한 자연어를 상황에 따라 적절히 생성할 수 있는 NLG(Natural Language Generation)이 있다. NLP의 최신 기술 또는 연구 결과들이 발표되는 곳으로는 대표적으로 ACL,EMNLP, NAACL이 있다. NLP에 속하는 태스크 Low-Level Parsing 각 단어를 준비하기 위한 의미 단위에서 가장 낮은 레벨의 태스크라고 볼 수 있다. Tokenization 문장을 이루는 각 단어를 정보 단위로 고려하여 문..
2022.06.22 -
AWS CodeDeploy 배포 과정에서 사전에 정의한 환경변수 사용하기 AWS CodeDeploy에서는 코드를 배포할 때 ~/.bashrc에서 정의한 환경변수를 쓸 수 없다. 그래서 배포 시 로컬에서 기대한 것과 달리 오류가 발생할 수 있다. 필자는 DB 연결을 환경변수로 정의했는데, AWS EC2에서 vi ~/.bashrc로 정의한 환경변수를 CodeDeploy 배포 과정에서 사용할 수 없어 DB 연결이 제대로 되지 않는 현상이 발생했다. etc/.profile.d/codedeploy.sh에 등록한다? etc/.profile.d/codedeploy.sh에 환경변수를 등록하면 된다는 글이 종종 보이는데, 예전 방법인 건지 적용이 안 된다. AWS Parameter Store 그래서 AWS Paramet..
AWS CodeDeploy로 배포할 때 환경변수 사용하는 방법, Parameter StoreAWS CodeDeploy 배포 과정에서 사전에 정의한 환경변수 사용하기 AWS CodeDeploy에서는 코드를 배포할 때 ~/.bashrc에서 정의한 환경변수를 쓸 수 없다. 그래서 배포 시 로컬에서 기대한 것과 달리 오류가 발생할 수 있다. 필자는 DB 연결을 환경변수로 정의했는데, AWS EC2에서 vi ~/.bashrc로 정의한 환경변수를 CodeDeploy 배포 과정에서 사용할 수 없어 DB 연결이 제대로 되지 않는 현상이 발생했다. etc/.profile.d/codedeploy.sh에 등록한다? etc/.profile.d/codedeploy.sh에 환경변수를 등록하면 된다는 글이 종종 보이는데, 예전 방법인 건지 적용이 안 된다. AWS Parameter Store 그래서 AWS Paramet..
2022.06.16