์ด๋ฒ์๋ "LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS" ๋ ผ๋ฌธ์ ํ๋ฒ ๋ฆฌ๋ทฐํด ๋ณด๊ฒ ์ต๋๋ค.๋ ผ๋ฌธ ๋งํฌ LoRA: Low-Rank Adaptation of Large Language ModelsAn important paradigm of natural language processing consists of large-scale pre-training on general domain data and adaptation to particular tasks or domains. As we pre-train larger models, full fine-tuning, which retrains all model parameters, becomes learxiv.orgAb..
Read more์ด๋ฒ์๋ "Parameter-Efficient Transfer Learning for NLP" ๋ ผ๋ฌธ์ ํ๋ฒ ๋ฆฌ๋ทฐํด๋ณด๊ฒ ์ต๋๋ค.๋ ผ๋ฌธ ๋งํฌ Parameter-Efficient Transfer Learning for NLPFine-tuning large pre-trained models is an effective transfer mechanism in NLP. However, in the presence of many downstream tasks, fine-tuning is parameter inefficient: an entire new model is required for every task. As an alternative, we propose transferarxiv.orgAbstract๋๊ท๋ชจ ์ฌ์ ..
Read more[LLM] Training language models to follow instructions with human feedback (Instruct GPT / RLHF) Review
์คํฐ๋ ์ค๋น๋ฅผ ํ๋ค๊ฐ ์ ๋ฆฌํ ๋ด์ฉ์ ํ๋ฒ Review๋ฅผ ํด๋ณด๊ฒ ์ต๋๋ค.Training language models to follow instructions with human feedbackAbstract์ธ์ด ๋ชจ๋ธ์ ํฌ๊ธฐ๋ฅผ ํค์ฐ๋ ๊ฒ๋ง์ผ๋ก๋ ์ฌ์ฉ์ ์๋์ ๋ ์ ๋ถํฉํ๋๋ก ๋ง๋๋ ๊ฒ์ด ์๋๋๋ค. ์๋ฅผ ๋ค์ด, ๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ์ ์ง์คํ์ง ์๊ฑฐ๋, ์ ํดํ๊ฑฐ๋, ์ฌ์ฉ์์๊ฒ ๋์์ด ๋์ง ์๋ ์ถ๋ ฅ์ ์์ฑํ ์ ์์ต๋๋ค. ์ฆ, ์ด๋ฌํ ๋ชจ๋ธ์ ์ฌ์ฉ์์ ์๋์ ๋ง์ถฐ์ ธ ์์ง ์์ต๋๋ค. ์ฌ๊ธฐ์๋ ์ธ๊ฐ์ ํผ๋๋ฐฑ์ผ๋ก ๋ฏธ์ธ ์กฐ์ ํ์ฌ ๋ค์ํ ์์ ์์ ์ฌ์ฉ์ ์๋์ ์ผ์นํ๋ ์ธ์ด ๋ชจ๋ธ์ ๊ฐ๋ฐํ๋ ๋ฐฉ๋ฒ์ ์ ์ํฉ๋๋ค.OpenAI API๋ฅผ ํตํด ์์ง๋ ๋ ์ด๋ธ๋ฌ๊ฐ ์์ฑํ ํ๋กฌํํธ์ ๋ฐ๋ชจ ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ์ด ์ํ๋ ๋์์ ์์ฐํ๋ ๋ฐ..
Read more์ด๋ฒ์ GPT-1 Model์ ๋ฐํ์ฌ ๋ ผ๋ฌธ์ ์ฝ๊ณ ๊ณต๋ถํ ๋ด์ฉ์ ๋ฆฌ๋ทฐํด ๋ณด๊ฒ ์ต๋๋ค.์ด ๋ ผ๋ฌธ์์๋ Transformer ๋ชจ๋ธ์ ๋ฐํ ์ค๋ช ์ด ํฌํจ๋์ด ์์ต๋๋ค. ๊ทธ๋์, ์ด๋์ ๋ Transformer Model์ ๋ฐํ ์ง์์ด ์์ด์ผ ์ดํดํ์ค์ ์์ต๋๋ค. ํ๋ฒ ์ฝ๊ณ ์์ฃผ์ธ์! [NLP] Transformer Model - ํธ๋์คํฌ๋จธ ๋ชจ๋ธ ์์๋ณด๊ธฐ์ด๋ฒ ๊ธ์์๋ Transformer ๋ชจ๋ธ์ ์ ๋ฐ์ ์ธ Architecture ๋ฐ ๊ตฌ์ฑ์ ๋ฐํ์ฌ ์์๋ณด๊ฒ ์ต๋๋ค. Transformer: Attention is All You Need Transformer ๋ชจ๋ธ์ 2017๋ ์ "Attention is All You Need"๋ผ๋ ๋ ผ๋ฌธ์ ํตํด์ ์๊ฐ๋์์ตdaehyun-bigbread.tistory.comAbstract์์ฐ์ด ์ด..
Read more์ด๋ฒ ๊ธ์์ Retrieve Augmented Generation (RAG)์ ๋ฐํ์ฌ ํ๋ฒ ์์๋ณด๊ฒ ์ต๋๋ค.Retrieve Augmented Generation (RAG) RAG(Retrieve-Augmented Generation)์ ๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ(LLM)์ ํ๊ณ์ ์ ๊ทน๋ณตํ๊ณ ๋ ์ ํํ๊ณ ํ๋ถํ ์๋ต์ ์ ๊ณตํ๊ธฐ ์ํด ๊ณ ์๋ ์ํคํ ์ฒ์ ๋๋ค.RAG๋ ํน์ ์ง์์ ๋ํด ์ธ๋ถ ์ง์ ๋ฒ ์ด์ค์์ ๊ด๋ จ ์ ๋ณด๋ฅผ ๊ฒ์ํ ํ, ์ด ์ ๋ณด๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ ์คํธ๋ฅผ ์์ฑํ๋ ๋ฐฉ์์ผ๋ก ์๋ํฉ๋๋ค.ํนํ ์ ๋ณด๊ฐ ํ๋ถํ ์๋ต์ ์์ฑํ๋ ๋ฐ ์ ๋ฆฌํฉ๋๋ค.RAG ArchitectureRAG(Retrieve Augmented Generation)์ ํฌ๊ฒ ์ธ ๊ฐ์ง ๋จ๊ณ๋ก ๊ตฌ์ฑ๋ฉ๋๋ค.Retrieve ๋จ๊ณ, Augmented ๋จ๊ณ, ๊ทธ๋ฆฌ๊ณ Gene..
Read more์์ LLM ์๊ฐ ๊ธ์์ Prompt Engineering์ ๊ดํ ์๊ฐ๋ฅผ ๊ฐ๋จํ ํ์ต๋๋ค. ์ด๋ฒ๊ธ์์ ๋ ์์ธํ ๋ค๋ค๋ณด๊ฒ ์ต๋๋ค.Prompt EngineeringPrompt Engineering์ด๋ ์์ฑํ ์ธ๊ณต์ง๋ฅ(AI), ํนํ LLM์ ํ์ฉํ์ฌ ์ํ๋ ๊ฒฐ๊ณผ๋ฅผ ์ป์ ์ ์๋๋ก ํจ๊ณผ์ ์ธ ํ๋กฌํํธ๋ฅผ ์ค๊ณํ๊ณ ๊ตฌ์ฑํ๋ ๊ณผ์ ์ ๋งํฉ๋๋ค. ์ด๋ AI์ ๋ฅ๋ ฅ์ ์ต๋ํ ํ์ฉํ์ฌ ๋ ๋์ ๊ฒฐ๊ณผ๋ฅผ ์ป๋ ๋ฐฉ๋ฒ์ ์ฐ๊ตฌํ๊ณ ์ ์ฉํ๋ ๊ธฐ์ ์ ๋๋ค.์๋ฅผ ๋ค์ด, ํน์ ํ ์ง๋ฌธ์ ํ์ ๋, ๋ต๋ณ์ ์ ํ์ฑ๊ณผ ํ์ง์ ๋์ด๊ธฐ ์ํด ํ๋กฌํํธ๋ฅผ ๋ ๊ตฌ์ฒด์ ์ด๊ณ ๋ช ํํ๊ฒ ๋ง๋๋ ๊ฒ์ด ๋ฐ๋ก Prompt Engineering์ ๋๋ค. ์ด๋ฅผ ํตํด ๋ชจ๋ธ์ด ๋ ๋์ ์ฑ๋ฅ์ ๋ฐํํ๊ณ , ์ฌ์ฉ์๋ ์ํ๋ ๊ฒฐ๊ณผ๋ฅผ ์ ํํ๊ฒ ์ป์ ์ ์์ต๋๋ค.ํจ์จ์ ์ธ ํ๋กฌํํธ ์์ฑ:..
Read moreLLM ํํธ ๋ถ๋ถ์ ๋ํ ๊ธ์ ์ฒ์์จ๋ณด๋ค์. ์์ผ๋ก ๋น๋ถ๊ฐ์ LLM์ ๊ดํ ๊ธ๋ง ์ฌ๋ฆด๊ฑฐ ๊ฐ์์..๊ณต๋ถ๋ฅผ ๊ทธ์ชฝ์ผ๋ก ํ๊ณ ์์ด์. ํ๋ฒ ์์ํด๋ณผ๊ป์.Large Language Model (LLM)LLM์ผ๋ก ๋ค์ด๊ฐ๊ธฐ ์ ์, ์ผ๋จ AI๊ฐ ์ด๋ ํ ๊ฐ๋ ์ธ์ง ํ๋ฒ ์ง๊ณ ๋์ด๊ฐ์ผ ํ ํ์๊ฐ ์์ต๋๋ค.AI๋ ์ธ๊ฐ์ ํ์ต ๋ฅ๋ ฅ, ์ถ๋ก ๋ฅ๋ ฅ, ์ง๊ฐ ๋ฅ๋ ฅ์ ์ธ๊ณต์ ์ผ๋ก ๊ตฌํํ๋ ค๋, ์ปดํจํฐ ๊ณผํ์ ์ธ๋ถ ๋ถ์ผ์ค ํ๋์ ๋๋ค.์ฆ, AI๋ ์ธ๊ฐ์ ์ธ์ง ๋ฅ๋ ฅ์ ๋ชจ๋ฐฉํ์ฌ ๋ฐ์ดํฐ๋ฅผ ์ฒ๋ฆฌํ๊ณ ๋ถ์ํ๋ ๊ธฐ์ ์ ๋๋ค. ํ๋ฒ ๋ค์ด์ด๊ทธ๋จ์ ๋ณด๊ณ ์ด๋ ํ Flow๋ก ๊ตฌ์ฑ๋๋์ง ์ค๋ช ์ ๋๋ฆฌ๊ฒ ์ต๋๋ค.INPUT (์ ๋ ฅ): AI ์์คํ ์ ์ฃผ์ด์ง๋ ๋ฐ์ดํฐ ๋๋ ์ ๋ณด์ ๋๋ค. ์๋ฅผ ๋ค์ด, ํ ์คํธ, ์ด๋ฏธ์ง, ์์ฑ ๋ฑ์ด ์ ๋ ฅ์ผ๋ก ๋ค์ด๊ฐ ์ ์์ต๋๋ค.ํ์ต, ์ถ๋ก , ์ง๊ฐ: ..
Read more