분류 전체보기
-
[딥러닝 NLP] Passage retrievalNLP 2022. 8. 14. 02:02
* KAIST 서민준교수님 강의자료의 QA 부분을 공부하고, 제가 이해한대로 적었습니다. https://seominjoon.github.io/kaist-ai605/ passage retrieval은 query 에 맞는 passage(문단, 문서)를 찾는 것 입니다. MRC model과 합쳐서 open domain QA 를 풀 수 있습니다. passage retrieval의 원리는 query와 passage들을 embedding 한 뒤 유사도를 측정하는 것 입니다. 즉 query와 passage의 의미를 잘 담도록 embedding 하는 것이 핵심입니다. 따라서 이 글에서는 주로 query와 passage embedding 에 대해서 설명합니다. embedding은 입력 data를 vector로 변화하는 ..
-
[딥러닝 NLP] Machine reading comprehension (MRC)NLP 2022. 8. 14. 01:01
* KAIST 서민준교수님 강의자료의 QA 부분을 공부하고, 제가 이해한대로 적었습니다. https://seominjoon.github.io/kaist-ai605/ Machine reading comprehension (MRC)는 말 그대로 기계 독해입니다. text로 된 지문(context)를 이해하는 것이 목표이며, 잘 이해했는지 주어진 질의(query, question)에 대해 답변을 잘 하는지로 평가합니다. 최근에는 Google, Naver 등 검색 엔진들에서 MRC를 활용하여, 질문을 입력하면 아래와 같이 이에 대한 답변을 맨 위에 띄워주고 있습니다. MRC 평가를 위한 QA dataset에는 세 가지 종류가 있습니다. - extractive answer datasets : 질의에 대한 답이 주..
-
[딥러닝] Graph Neural Networks(GNN) 2 - GNN : GCN, subgraph embedding, graph attention network(GAT), HAN, GTNDeep learning 2022. 8. 11. 00:45
https://u-b-h.tistory.com/7 에서 shallow encoder node embedding 방법인 random walk, Deep walk, node2vec, metapath2vec을 다루었습니다. 이 글은 그 shallow encoder 방식의 한계점을 보완하고자 더 DNN 스러운 deep한 방법인 GNN 에 대해서 설명하고자 합니다. GNN은 graph structure data를 위한 DNN입니다. 더 쉽게 이전 글에서 다뤘던 node embedding 으로 설명하면, GNN에 graph를 넣으면 각 node들의 embedding vector가 출력으로 나옵니다. 즉 node embedding task에서 GNN은 embedding vector를 만들어내는 function이라고도..
-
[딥러닝] Graph Neural Networks(GNN) 1 - Node embedding : background ~ random walk ~ deepwalk ~ node2vecDeep learning 2022. 8. 10. 23:43
이 글에서는 기본적인 GNN에 대한 내용과 shallow encoder node embedding 방법인 random walk, Deep walk, node2vec, metapath2vec을 다루고려고 합니다. image, text 등 graph와는 다른 data들에 대한 deep learning model들도 task에 관계없이 data에서 feature를 추출하는 것을 학습하는 것이 핵심입니다. GNN도 기본적으로 이들과 동일하게 graph 라는 data에서 feature를 학습하는 방법입니다. 학습된 모델로 입력 graph에서 뽑은 feature를 가지고 task에 맞게 사용하게 됩니다. graph 에서의 ML task - Node classification : node class 예측. node ..
-
[딥러닝] continual learning ( incremental learning, lifelong learning ) vs transfer learning vs multi task learning vs meta laerning 차이점, 비교Deep learning 2022. 7. 23. 11:18
우선 continual learning 에 대해 설명하기에 앞서 adaptive machine learning 이라는 큰 분야에서 사용되고 있는 learning 방법들의 이름이 많아 헷갈리지 않기 위해 이를 정리한다. - continual learning, incremental learning, lifelong learning 은 기술적으로 목표가 같은 learning 방법들이다. 단어 그대로 조금씩 차이는 있지만 같은 learning 방식이라고 이해해도 괜찮아 보인다. 이들은 공통적으로 dataset 여러 개를 순차적으로 학습하는데 (sequential learning) 학습을 진행할수록 성능이 좋아지는 good forward tranfer와 학습이 진행되더라도 이전 dataset 을 기억하는 forg..
-
[딥러닝] generative model : auto regressive(AR) model, VAEDeep learning 2022. 7. 12. 13:28
generative model 은 classification model과 달리 정답이 명확하지 않은데 어떤 것을 기준으로 학습하게 되나 ? 학습의 기준은 object function으로 표현된다. generative model의 objective function은 true data distribution과 generated distribution의 차이이다. 두 distribution 간 차이를 구하는 방법은 여러가지가 있지만, KL divergence를 사용했다. KL divergence 를 최소만드는 식을 풀다보면 - cross entropy loss를 최소화 하는 식이 유도되고,여기서 true data distribution p*를 모르니, true data distribution에서 sample되..
-
[딥러닝 NLP] transformer vs BERTNLP 2022. 6. 30. 14:52
자연어 처리 글을 보면 가장 많이 인용되고 있는 연구는 transformer와 BERT 입니다. 이 글에서는 transformer와 BERT의 차이를 간략히 정리해보았습니다. 자세히 이해하기 쉽게 설명해 놓은 글들이 워낙 많아 상세한 설명 및 성능은 생략하였습니다. 이해한 것을 간단히 정리하고, 주요하다고 생각하는 부분, 나중에 볼 때 헷갈리는 부분에 대해서만 정리하였습니다. transformer 이후 자연어 처리 분야에서는 transformer 구조가 자연어 처리 task 대부분에 사용되고 있습니다. transformer를 기준으로 자연어 처리 기법 전/후를 나눌 수 있을 정도라고 생각됩니다. BERT는 사전 학습 및 사전 학습 모델에 기본이 되고 있습니다. 두 연구는 자연어 처리라는 분야 안에서 기여..
-
Reinforcement Learning(강화학습) #1 강화학습 value-based method : Q learning, DQN, DDQNReinforcement Learning 2022. 6. 22. 01:07
이번 글에서는 MDP model을 모를 때(model free) 강화학습(RL)으로 최적 policy를 구하는 법에 대해서 알아보려고 한다. model을 알고 policy를 DP(dynamic programmingg)로 구할 때도 value-iteration과 policy-iteration이 있던 것과 같이, RL에서도 value-base 방법이 있고 policy-base 방법이 있다. 이 글에서는 이 중 value-base 방법에 대해서 설명하고자 한다. value-base 방법은 Q-learning - DQN - DDQN 순으로 발전했다. value-base 방법은 policy를 직접 구하지 않고 optimal value function 만을 구하고, optimal value function으로 부터..