nlp

🗣️ Large Language Model (LLM)

[LLM] Training language models to follow instructions with human feedback (Instruct GPT / RLHF) Review

스터디 준비를 하다가 정리한 내용을 한번 Review를 해보겠습니다.Training language models to follow instructions with human feedbackAbstract언어 모델의 크기를 키우는 것만으로는 사용자 의도에 더 잘 부합하도록 만드는 것이 아닙니다. 예를 들어, 대규모 언어 모델은 진실하지 않거나, 유해하거나, 사용자에게 도움이 되지 않는 출력을 생성할 수 있습니다. 즉, 이러한 모델은 사용자의 의도에 맞춰져 있지 않습니다. 여기서는 인간의 피드백으로 미세 조정하여 다양한 작업에서 사용자 의도와 일치하는 언어 모델을 개발하는 방법을 제시합니다.OpenAI API를 통해 수집된 레이블러가 작성한 프롬프트와 데모 데이터를 사용하여 모델이 원하는 동작을 시연하는 데..

🗣️ Large Language Model (LLM)

[LLM] Improving Language Understanding by Generative Pre-Training (GPT-1 논문 Review)

이번엔 GPT-1 Model에 데하여 논문을 읽고 공부한 내용을 리뷰해 보겠습니다.이 논문에서는 Transformer 모델에 데한 설명이 포함되어 있습니다. 그래서, 어느정도 Transformer Model에 데한 지식이 잇어야 이해하실수 있습니다. 한번 읽고 와주세요! [NLP] Transformer Model - 트랜스포머 모델 알아보기이번 글에서는 Transformer 모델의 전반적인 Architecture 및 구성에 데하여 알아보겠습니다. Transformer: Attention is All You Need Transformer 모델은 2017년에 "Attention is All You Need"라는 논문을 통해서 소개되었습daehyun-bigbread.tistory.comAbstract자연어 이..

📝 NLP (자연어처리)/📕 Natural Language Processing

[NLP] BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension

이번엔, BART Model에 대하여 공부한 내용을 정리해 보겠습니다.What is BART?BART(Bidirectional and Auto-Regressive Transformers) 모델은 Facebook AI(현 Meta AI)에서 2019년에 소개한 sequence-to-sequence 모델입니다. BART는 BERT와 GPT의 장점을 결합한 모델입니다. BERT 모델의 Bidrectional(양방향)으로 언어 Sequence의 Token들을 Attention 매커니즘에 반영하여 문자를 Encoding 하는 내용, GPT의 Generative Decoder를 활용한, 이때까지의 입력을 바탕으로 새로운 출력을 만드는 Generative model 입니다.정리하면, 기본의 Sequence-to-Se..

📝 NLP (자연어처리)/📕 Natural Language Processing

[NLP] BERT (Bidrectional Encoder Representations from Transformers)

LLM관련 스터디를 하고 있는데, BERT 모델에 데하여 공부를 해야할 타이밍이여서, 하는김에 내용도 정리해 보도록 하겠습니다.그리고 BERT Model에 데하여 이해를 하려면 Transformer라는 모델에 데하여 어느정도 이해가 필요합니다.아래 참고글 남길테니 한번 보고 이 글을 읽어주세요!! [NLP] Transformer Model - 트랜스포머 모델 알아보기이번 글에서는 Transformer 모델의 전반적인 Architecture 및 구성에 데하여 알아보겠습니다. Transformer: Attention is All You Need Transformer 모델은 2017년에 "Attention is All You Need"라는 논문을 통해서 소개되었습daehyun-bigbread.tistory.c..

📝 NLP (자연어처리)/📕 Natural Language Processing

[NLP] Generative Adversarial Networks (생성적 적대 신경망, GAN)

생성적 적대 신경망 (GAN)?생성적 적대 신경망(GAN)은 두 개의 신경망인 생성자(Generator)와 판별자(Discriminator)가 경쟁적으로 학습하면서, 현실과 유사한 데이터를 생성하는 모델입니다. GAN은 특히 이미지 생성, 데이터 증강, 비디오 생성 등 다양한 응용 분야에서 매우 유용하게 사용됩니다.아래에서 GAN의 구성 요소, 학습 절차, 변형 모델, 응용 분야, 장점과 단점에 대해 자세히 설명하겠습니다. GAN의 구성 요소생성자(Generator):역할: 생성자는 임의의 노이즈 벡터를 받아들여 현실감 있는 데이터를 생성하는 역할을 합니다. 이 과정에서 생성자는 입력된 노이즈 벡터를 점차 고차원 데이터, 예를 들어 이미지를 생성하는 데 필요한 고차원 벡터로 변환합니다.목표: 생성자의 주..

📝 NLP (자연어처리)/📕 Natural Language Processing

[NLP] AutoEncoder (오토인코더)

NLP를 오랜만에 공부해보다 AutoEncoder에 대한 내용이 없는거 같아 한번 설명해 보겠습니다.오토인코더(Autoencoder)란?AutoEncoder(오토인코더)는 인공신경망을 기반으로 한 비지도 학습 모델로, 주어진 데이터의 효율적인 표현을 학습하는 데 중점을 둡니다. 이는 데이터를 압축하고 차원을 축소하거나, 노이즈를 제거하고 이상 탐지와 같은 다양한 응용 분야에 사용됩니다. 오토인코더(Autoencoder)의 작동 원리오토인코더는 입력 데이터를 압축하여 잠재 공간(latent space)이라는 저차원 표현으로 변환한 다음, 이를 다시 원래의 데이터로 복원하는 과정을 통해 학습합니다. 이러한 과정은 주로 다음 두 가지 주요 구성 요소로 이루어집니다.인코더(Encoder): 입력 데이터를 저차원..

📝 NLP (자연어처리)/📕 Natural Language Processing

[NLP] BPTT (Backpropagation Through Time)

BPTT (Backpropagation Through Time)BPTT(Backpropagation Through Time)는 순환 신경망(RNN, Recurrent Neural Network)의 학습을 위해 사용되는 Backpropagation(역전파) 알고리즘의 확장 버전입니다.여기서의 Backpropagation(오차역전파법)은?'시간 방향으로 펼친 신경망의 오차역전파법' 이란 뜻으로 BPTT(Backpropagation Through Time)이라고 합니다.이 BPTT를 사용하면 RNN을 학습할 수 있습니다. RNN에 관한 개념은 아래의 글에 적어놓았으니 참고해 주시면 될거 같습니다. [DL] RNN (Recurrent Netural Network) - 순환신경망1. RNN 이란?RNN은 Sequ..

📝 NLP (자연어처리)/📕 Natural Language Processing

[NLP] 추론 기반 기법 & Neural Network (신경망)

이번 글에서는 추론 기반 기법과 Neural Network(신경망)에 데하여 한번 알아 보겠습니다. 통계 기반 기법의 문제점단어를 Vector로 표현하는 방법은 최근에는 크게 두 부류로 나눌 수 있습니다. '통계 기반 기법'과 '추론 기반 기법' 입니다.두 방법이 단어의 의미를 얻는 방식은 서로 다르지만, 그 배경에는 모두 분포 가설이 있습니다.통계 기반 기법에서는 주변 반어의 빈도를 기초로 단어를 표현 했습니다.구체적으로는 단어의 Co-Occurance Matrix(동시 발생 행렬)을 만들고 그 행렬에 특잇값분해(Singular Value Decomposition, SVD)를 적용하여 밀집벡터를 얻습니다.그러나, 이 방식은 대규모 Corpus(말뭉치)를 다룰 때 문제가 발생합니다. 일단, 통계 기반 기..

📝 NLP (자연어처리)/📕 Natural Language Processing

[NLP] 통계 기반 기법 개선하기

앞에 글, Thesaurus(시소러스), Co-occurence Matrix(동시발생 행렬)부분에서 통계 기반 기법에 데하여 설명했습니다.Thesaurus(시소러스), Co-occurence Matrix(동시발생 행렬) 글입니다. 지금 내용과 연결되는 글이니까 한번 읽어보세요. [NLP] Thesaurus(시소러스), Co-occurence Matrix(동시발생 행렬)오랜만에 NLP 관련 글을 쓰네요.. 시간 나는대로 열심히 쓰고 올려 보도록 하겠습니다. Thesaursus - 시소러스시소러스(Thesaurus)는 단어와 그 의미를 연결시켜주는 도구입니다.주로 특정 단어와 의미daehyun-bigbread.tistory.com Pointwise Mutual Information (PMI) - 점별 상호정..

📝 NLP (자연어처리)/📕 Natural Language Processing

[NLP] Thesaurus(시소러스), Co-occurence Matrix(동시발생 행렬)

오랜만에 NLP 관련 글을 쓰네요.. 시간 나는대로 열심히 쓰고 올려 보도록 하겠습니다. Thesaursus - 시소러스시소러스(Thesaurus)는 단어와 그 의미를 연결시켜주는 도구입니다.주로 특정 단어와 의미적으로 유사한 단어(동의어)와 반대 의미를 가진 단어(반의어)를 제공하여, 글을 쓰거나 말을 할 때 다양한 표현을 사용할 수 있도록 돕습니다.다른 의미로 말하면, 유의어 사전으로 '뜻이 같은 단어(동의어)'나 '뜻이 비슷한 단어(유의어)'가 한 그룹으로 분류되어 있습니다.또한 NLP에서 이용되는 시소러스에서는 단어 사이의 '상위, 하위' 혹은 '전체, 부분'등 더 세세한 관계까지 정의해둔 경우가 있습니다.예를 들어서 아래의 그래프 처럼 관계를 정의합니다.이처럼 모든 단어에 데한 유의어 집합을 만..

Bigbread1129
'nlp' 태그의 글 목록