๐ฃ๏ธ Large Language Model (LLM)
2024.11.30
์ด๋ฒ์๋ "LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS" ๋
ผ๋ฌธ์ ํ๋ฒ ๋ฆฌ๋ทฐํด ๋ณด๊ฒ ์ต๋๋ค.๋
ผ๋ฌธ ๋งํฌ LoRA: Low-Rank Adaptation of Large Language ModelsAn important paradigm of natural language processing consists of large-scale pre-training on general domain data and adaptation to particular tasks or domains. As we pre-train larger models, full fine-tuning, which retrains all model parameters, becomes learxiv.orgAb..
๐ฃ๏ธ Large Language Model (LLM)
2024.11.18
์ด๋ฒ์๋ "Parameter-Efficient Transfer Learning for NLP" ๋
ผ๋ฌธ์ ํ๋ฒ ๋ฆฌ๋ทฐํด๋ณด๊ฒ ์ต๋๋ค.๋
ผ๋ฌธ ๋งํฌ Parameter-Efficient Transfer Learning for NLPFine-tuning large pre-trained models is an effective transfer mechanism in NLP. However, in the presence of many downstream tasks, fine-tuning is parameter inefficient: an entire new model is required for every task. As an alternative, we propose transferarxiv.orgAbstract๋๊ท๋ชจ ์ฌ์ ..
๐ฃ๏ธ Large Language Model (LLM)
2024.10.30
์คํฐ๋ ์ค๋น๋ฅผ ํ๋ค๊ฐ ์ ๋ฆฌํ ๋ด์ฉ์ ํ๋ฒ Review๋ฅผ ํด๋ณด๊ฒ ์ต๋๋ค.Training language models to follow instructions with human feedbackAbstract์ธ์ด ๋ชจ๋ธ์ ํฌ๊ธฐ๋ฅผ ํค์ฐ๋ ๊ฒ๋ง์ผ๋ก๋ ์ฌ์ฉ์ ์๋์ ๋ ์ ๋ถํฉํ๋๋ก ๋ง๋๋ ๊ฒ์ด ์๋๋๋ค. ์๋ฅผ ๋ค์ด, ๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ์ ์ง์คํ์ง ์๊ฑฐ๋, ์ ํดํ๊ฑฐ๋, ์ฌ์ฉ์์๊ฒ ๋์์ด ๋์ง ์๋ ์ถ๋ ฅ์ ์์ฑํ ์ ์์ต๋๋ค. ์ฆ, ์ด๋ฌํ ๋ชจ๋ธ์ ์ฌ์ฉ์์ ์๋์ ๋ง์ถฐ์ ธ ์์ง ์์ต๋๋ค. ์ฌ๊ธฐ์๋ ์ธ๊ฐ์ ํผ๋๋ฐฑ์ผ๋ก ๋ฏธ์ธ ์กฐ์ ํ์ฌ ๋ค์ํ ์์
์์ ์ฌ์ฉ์ ์๋์ ์ผ์นํ๋ ์ธ์ด ๋ชจ๋ธ์ ๊ฐ๋ฐํ๋ ๋ฐฉ๋ฒ์ ์ ์ํฉ๋๋ค.OpenAI API๋ฅผ ํตํด ์์ง๋ ๋ ์ด๋ธ๋ฌ๊ฐ ์์ฑํ ํ๋กฌํํธ์ ๋ฐ๋ชจ ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ์ฌ ๋ชจ๋ธ์ด ์ํ๋ ๋์์ ์์ฐํ๋ ๋ฐ..
๐ฃ๏ธ Large Language Model (LLM)
2024.10.25
์ด๋ฒ์ GPT-1 Model์ ๋ฐํ์ฌ ๋
ผ๋ฌธ์ ์ฝ๊ณ ๊ณต๋ถํ ๋ด์ฉ์ ๋ฆฌ๋ทฐํด ๋ณด๊ฒ ์ต๋๋ค.์ด ๋
ผ๋ฌธ์์๋ Transformer ๋ชจ๋ธ์ ๋ฐํ ์ค๋ช
์ด ํฌํจ๋์ด ์์ต๋๋ค. ๊ทธ๋์, ์ด๋์ ๋ Transformer Model์ ๋ฐํ ์ง์์ด ์์ด์ผ ์ดํดํ์ค์ ์์ต๋๋ค. ํ๋ฒ ์ฝ๊ณ ์์ฃผ์ธ์! [NLP] Transformer Model - ํธ๋์คํฌ๋จธ ๋ชจ๋ธ ์์๋ณด๊ธฐ์ด๋ฒ ๊ธ์์๋ Transformer ๋ชจ๋ธ์ ์ ๋ฐ์ ์ธ Architecture ๋ฐ ๊ตฌ์ฑ์ ๋ฐํ์ฌ ์์๋ณด๊ฒ ์ต๋๋ค. Transformer: Attention is All You Need Transformer ๋ชจ๋ธ์ 2017๋
์ "Attention is All You Need"๋ผ๋ ๋
ผ๋ฌธ์ ํตํด์ ์๊ฐ๋์์ตdaehyun-bigbread.tistory.comAbstract์์ฐ์ด ์ด..
๐ฃ๏ธ Large Language Model (LLM)
2024.09.15
์ด๋ฒ ๊ธ์์ Retrieve Augmented Generation (RAG)์ ๋ฐํ์ฌ ํ๋ฒ ์์๋ณด๊ฒ ์ต๋๋ค.Retrieve Augmented Generation (RAG) RAG(Retrieve-Augmented Generation)์ ๋๊ท๋ชจ ์ธ์ด ๋ชจ๋ธ(LLM)์ ํ๊ณ์ ์ ๊ทน๋ณตํ๊ณ ๋ ์ ํํ๊ณ ํ๋ถํ ์๋ต์ ์ ๊ณตํ๊ธฐ ์ํด ๊ณ ์๋ ์ํคํ
์ฒ์
๋๋ค.RAG๋ ํน์ ์ง์์ ๋ํด ์ธ๋ถ ์ง์ ๋ฒ ์ด์ค์์ ๊ด๋ จ ์ ๋ณด๋ฅผ ๊ฒ์ํ ํ, ์ด ์ ๋ณด๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ
์คํธ๋ฅผ ์์ฑํ๋ ๋ฐฉ์์ผ๋ก ์๋ํฉ๋๋ค.ํนํ ์ ๋ณด๊ฐ ํ๋ถํ ์๋ต์ ์์ฑํ๋ ๋ฐ ์ ๋ฆฌํฉ๋๋ค.RAG ArchitectureRAG(Retrieve Augmented Generation)์ ํฌ๊ฒ ์ธ ๊ฐ์ง ๋จ๊ณ๋ก ๊ตฌ์ฑ๋ฉ๋๋ค.Retrieve ๋จ๊ณ, Augmented ๋จ๊ณ, ๊ทธ๋ฆฌ๊ณ Gene..
๐ฃ๏ธ Large Language Model (LLM)
2024.09.14
์์ LLM ์๊ฐ ๊ธ์์ Prompt Engineering์ ๊ดํ ์๊ฐ๋ฅผ ๊ฐ๋จํ ํ์ต๋๋ค. ์ด๋ฒ๊ธ์์ ๋ ์์ธํ ๋ค๋ค๋ณด๊ฒ ์ต๋๋ค.Prompt EngineeringPrompt Engineering์ด๋ ์์ฑํ ์ธ๊ณต์ง๋ฅ(AI), ํนํ LLM์ ํ์ฉํ์ฌ ์ํ๋ ๊ฒฐ๊ณผ๋ฅผ ์ป์ ์ ์๋๋ก ํจ๊ณผ์ ์ธ ํ๋กฌํํธ๋ฅผ ์ค๊ณํ๊ณ ๊ตฌ์ฑํ๋ ๊ณผ์ ์ ๋งํฉ๋๋ค. ์ด๋ AI์ ๋ฅ๋ ฅ์ ์ต๋ํ ํ์ฉํ์ฌ ๋ ๋์ ๊ฒฐ๊ณผ๋ฅผ ์ป๋ ๋ฐฉ๋ฒ์ ์ฐ๊ตฌํ๊ณ ์ ์ฉํ๋ ๊ธฐ์ ์
๋๋ค.์๋ฅผ ๋ค์ด, ํน์ ํ ์ง๋ฌธ์ ํ์ ๋, ๋ต๋ณ์ ์ ํ์ฑ๊ณผ ํ์ง์ ๋์ด๊ธฐ ์ํด ํ๋กฌํํธ๋ฅผ ๋ ๊ตฌ์ฒด์ ์ด๊ณ ๋ช
ํํ๊ฒ ๋ง๋๋ ๊ฒ์ด ๋ฐ๋ก Prompt Engineering์
๋๋ค. ์ด๋ฅผ ํตํด ๋ชจ๋ธ์ด ๋ ๋์ ์ฑ๋ฅ์ ๋ฐํํ๊ณ , ์ฌ์ฉ์๋ ์ํ๋ ๊ฒฐ๊ณผ๋ฅผ ์ ํํ๊ฒ ์ป์ ์ ์์ต๋๋ค.ํจ์จ์ ์ธ ํ๋กฌํํธ ์์ฑ:..
๐ฃ๏ธ Large Language Model (LLM)
2024.09.11
LLM ํํธ ๋ถ๋ถ์ ๋ํ ๊ธ์ ์ฒ์์จ๋ณด๋ค์. ์์ผ๋ก ๋น๋ถ๊ฐ์ LLM์ ๊ดํ ๊ธ๋ง ์ฌ๋ฆด๊ฑฐ ๊ฐ์์..๊ณต๋ถ๋ฅผ ๊ทธ์ชฝ์ผ๋ก ํ๊ณ ์์ด์. ํ๋ฒ ์์ํด๋ณผ๊ป์.Large Language Model (LLM)LLM์ผ๋ก ๋ค์ด๊ฐ๊ธฐ ์ ์, ์ผ๋จ AI๊ฐ ์ด๋ ํ ๊ฐ๋
์ธ์ง ํ๋ฒ ์ง๊ณ ๋์ด๊ฐ์ผ ํ ํ์๊ฐ ์์ต๋๋ค.AI๋ ์ธ๊ฐ์ ํ์ต ๋ฅ๋ ฅ, ์ถ๋ก ๋ฅ๋ ฅ, ์ง๊ฐ ๋ฅ๋ ฅ์ ์ธ๊ณต์ ์ผ๋ก ๊ตฌํํ๋ ค๋, ์ปดํจํฐ ๊ณผํ์ ์ธ๋ถ ๋ถ์ผ์ค ํ๋์
๋๋ค.์ฆ, AI๋ ์ธ๊ฐ์ ์ธ์ง ๋ฅ๋ ฅ์ ๋ชจ๋ฐฉํ์ฌ ๋ฐ์ดํฐ๋ฅผ ์ฒ๋ฆฌํ๊ณ ๋ถ์ํ๋ ๊ธฐ์ ์
๋๋ค. ํ๋ฒ ๋ค์ด์ด๊ทธ๋จ์ ๋ณด๊ณ ์ด๋ ํ Flow๋ก ๊ตฌ์ฑ๋๋์ง ์ค๋ช
์ ๋๋ฆฌ๊ฒ ์ต๋๋ค.INPUT (์
๋ ฅ): AI ์์คํ
์ ์ฃผ์ด์ง๋ ๋ฐ์ดํฐ ๋๋ ์ ๋ณด์
๋๋ค. ์๋ฅผ ๋ค์ด, ํ
์คํธ, ์ด๋ฏธ์ง, ์์ฑ ๋ฑ์ด ์
๋ ฅ์ผ๋ก ๋ค์ด๊ฐ ์ ์์ต๋๋ค.ํ์ต, ์ถ๋ก , ์ง๊ฐ: ..