DPO: Reward Model없이 사람선호를 학습할 수 있을까?| NeurIPS 2023 | 이승현 Published 2024-05-17 Download video MP4 360p Download video MP4 720p Recommendations 21:49 LLAMA2: 오픈소스 위한 LLM 레시피 - Pre-training | Meta 2023 | 김보섭 37:12 PR-453: Direct Preference Optimization 46:03 LLM 역사를 함께 거꾸로 읽어보시죠 ! | 강재욱 09:10 Direct Preference Optimization: Forget RLHF (PPO) 1:25:56 [CS224N] Lec08 Self-Attention and Transformers - and MAMBA! | 고명금 | 240518 40:14 LLM 학습 데이터가 고갈될까? | ArXiv 2022 | 이인규 20:21 AIKU 24-1 Seminar 13회 : 1 bit만 주세요(LLM 양자화) 44:32 Comparing Scale Parameter Estimators for Gaussian Process Regression (Motonobu Kanagawa, EURECOM) 35:38 DISL Review: SuRe: Summarizing Retrievals using Answer Candidates for Open-Domain QA of LLMs 1:26:30 [240312] AE & VAE (1) 2:06:48 [Math4Life] 기초수학STUDY - 미적 11.6~11.8, 선대 7.5 18:27 Lory Fully Differentiable Mixture of Experts for Autoregressive Language Model Pre training (Prince 1:28:12 [240319] Diffusion 13:36 AIKU 24-1 Seminar 13회 : 전공을 살려서 유익한 정보를 말해보자-DL in Radiation Oncology 03:51 240519_B.D.A 8기 데이터 분석 전처리 적용반 강의 복습 영상 - Feature_Selection(4)(boruta, SHAP, LIME) 56:08 [ISPL seminar]Fine-tuning Pre-trained Language Models for Few-shot Intent Detection 1:47:25 [240314] AE & VAE (2)