728x90
Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable Evaluation and a Reasonable Approach키워드CompletionGraphKGKGCLLMyear2022저자Xin Lv VenueACL Findings 2022MemoPKGC. PLM의 입력으로 triple prompt + support prompt 사용.분류연구DONE생성 일시@2023년 11월 21일 오후 3:13최종 편집 일시@2023년 11월 27일 오전 3:10Working@inproceedings{Lv2022DoPM, title={Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable..
KG-BERT: BERT for Knowledge Graph Completion키워드CompletionGraphKGKGCPLMyear2019저자Liang YaoVenueArXiv 2019MemoKG-BERT.분류연구DONE생성 일시@2023년 11월 21일 오후 2:30최종 편집 일시@2023년 11월 22일 오후 12:19Working@article{Yao2019KGBERTBF, title={KG-BERT: BERT for Knowledge Graph Completion}, author={Liang Yao and Chengsheng Mao and Yuan Luo}, journal={ArXiv}, year={2019}, volume={abs/1909.03193}, url={https://api.seman..
Direct Preference Optimization: Your Language Model is Secretly a Reward Model키워드LLMyear2023저자Rafael Rafailov et al.VenueArXivMemoDPO. 분류연구DONE생성 일시@2023년 11월 19일 오후 5:54최종 편집 일시@2023년 11월 20일 오후 12:08Working@article{Rafailov2023DirectPO, title={Direct Preference Optimization: Your Language Model is Secretly a Reward Model}, author={Rafael Rafailov and Archit Sharma and Eric Mitchell and Stefano..
NLI (Natural Language Inference, 자연어 추론) 자연어 추론(NLI)는 자연어 처리(NLP, Natural language Processing)의 task의 일종이다. 주어진 문장(가설, hypohesis)이 다른 문장(전제, premise)에 대해 논리적으로 들어 맞는지 판단하는 것을 목표로 한다. NLI는 NLP의 대표적인 task로 AI 모델이 문장들 간의 의미와 관계를 잘 이해하는지 평가하는 데 사용 되기도 한다. 1.Premise, 전제 : 문맥이나 배경 정보를 제공 하는 단일 문장 또는 문장의 집합이다. Hypothesis를 비교하는 기준이 된다. 2.Hypothesis, 가설 : Premise와의 관계를 비교해야 하는 문장이다. NLI는 이 hypothesis가 pr..
Sparsity of Users’ Feedback User-Item interaction 메트릭스는 굉장히 크고 sparse 할 수 있다. 이 부분이 추천의 성능에 어려움을 가져다 주게 된다. 이럴 때, 주어진 User-Item interaction 외에 Auxiliary content information이 도움이 될 수 있다. Hybrid Recommender Systems Hybrid Recommender Systems는 content-based와 collaborative filtering 방식을 합친 특수한 추천 시스템이다. content-based : 아이템을 벡터화해서 유저가 선호하는 아이템을 추천 collaborative filtering : 유저-아이템 상호작용을 활용하여 유저가 선호하는 ..
추천시스템을 위해 DNNs을 활용하는 방법 Contextual Information 유저와 아이템의 Contextual Information을 통합하기 위해, 부가적인 정보를 어떻게 활용해서 의미있는 feature를 잡아내고, 그 features들을 추천시스템에 통합할 수 있을지 고민해야한다. User-Item Score Modeling Top-k recommendation을 위한 이전의 방식 (BPR, CML) 각 유저 u에 대한 각 아이템 i의 점수를 모델링을 할 때, User Encoder, Item Encoder를 이용해 유저와 아이템 임베딩 메트릭스 U와 V를 생성한다. 이렇게 얻은 두 메트릭스의 벡터 유사도(inner product 또는 유클리디안 거리...)를 통해 User-Item Scor..