본문 바로가기
728x90
반응형

분류 전체보기50

Learnable Item Tokenization for Generative Recommendation "Learnable Item Tokenization for Generative Recommendation"1) 저널 or 학회 및 년도ACM International Conference on Information and Knowledge Management (CIKM '24), 2024.2) 논문의 제목Learnable Item Tokenization for Generative Recommendation.3) 논문의 주제대형 언어 모델(LLM) 기반 생성형 추천 시스템에서 아이템 토큰화(Item Tokenization) 문제를 해결하기 위한 새로운 방법론 LETTER (LEarnable Tokenizer for generaTivE Recommendation) 제안.기존 토큰화 방식(ID 기반, 텍스트 기.. 2025. 2. 15.
Large Language Models for Next Point-of-Interest Recommendation "Large Language Models for Next Point-of-Interest Recommendation"1) 저널 or 학회 및 년도International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR '24), 2024.2) 논문의 제목Large Language Models for Next Point-of-Interest Recommendation.3) 논문의 주제다음 방문할 장소(Next Point-of-Interest, POI) 추천 시스템을 위한 대형 언어 모델(LLM) 기반 프레임워크(LLM4POI) 제안.위치 기반 소셜 네트워크(Location-Based Social Network,.. 2025. 2. 15.
Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System "Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System"https://arxiv.org/pdf/2404.11343 1) 저널 or 학회 및 년도ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD '24), 2024.2) 논문의 제목Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System.3) 논문의 주제대형 언어 모델(LLM)과 협업 필터링(CF)을 결합한 추천 시스템(A-LLMRe.. 2025. 2. 15.
라그랑주 승수법 (Lagrange Multipliers) 라그랑주 승수법 (Lagrange Multipliers)란?라그랑주 승수법은 제약 조건이 있는 최적화 문제를 풀기 위한 수학적 방법이야.즉, 어떤 함수의 극값(최대값 또는 최소값)을 찾되, 특정한 조건을 만족해야 할 때 사용하는 방법이지.1. 기본 개념우리는 보통 함수를 최적화(최대값, 최소값을 찾는 것)할 때, 단순히 미분해서 f'(x) = 0을 푸는 방식으로 해결할 수 있어.하지만, 어떤 제약 조건(constraint)이 주어졌을 때는 일반적인 미분만으로 풀기가 어려워져.예를 들어:"어떤 2차 함수의 최대값을 구하되, 반드시 원 위에서만 값을 찾아야 한다."이런 경우, 라그랑주 승수법을 사용하면 쉽게 최적화 문제를 해결할 수 있어.2. 문제 설정우리는 어떤 함수 f(x,y) 를 최적화(최대 또는 최소.. 2025. 2. 14.
728x90
반응형