정신이 없어서 이어서 쓰는걸 까먹었네요.. 열심히 써보겠습니다 ㅠ# 현재 디렉토리는 /content이며 이 디렉토리를 기준으로 실습코드와 데이터를 다운로드 합니다. !pwd!rm -rf DLCV!git clone https://github.com/chulminkw/DLCV.git# DLCV 디렉토리가 Download되고 DLCV 밑에 Detection과 Segmentation 디렉토리가 있는 것을 확인!ls -lia !ls -lia DLCVOpenCV Darknet YOLO를 이용하여 image & 영상 Object Detection여기선 YOLO와 tiny-yolo를 이용하여 Object Detection을 해보겠습니다.import cv2import matplotlib.pyplot as pltimpor..
이번엔 Kubernetes(쿠버네티스), DevOps가 등장한 이유에 대하여 설명을 해보고자 합니다.Kubernetes(쿠버네티스)줄여서 k8s라고도 합니다.앞글에서 Container(컨테이너)에 대하여 살펴보았습니다. 2013년에 발표된 Docker(도커)는 컨테이너화된 애플리케이션을 패키징하고 배포하기 위한 공개 표준을 제공했습니다. Docker가 기존의 Container(컨테이너) 생태계에 큰 변화를 가져온 것은 사실입니다. 하지만 100개, 1,000개 이렇게 지속적으로 수요가 급증하는 Container(컨테이너)에 대한 관리는 어떻게 조정해야 할까요? 애플리케이션 Container(컨테이너) 간의 네트워킹은 어떤 방식을 사용해야 할까요? Container(컨테이너) Instance(인스턴스)는 ..
이번엔 Virtualization(가상화), Container 개념과 Docker에 대하여 한번 알아보겠습니다.What is Virtualization? (가상화)클라우드 컴퓨팅에서 Virtualization(가상화)는 H/W (하드웨어) 기능을 시뮬레이션 하여 App Server, Storage, Network와 같은 유용한 IT Service를 생성하는 SW Architecture 기술입니다.모든 규모의 비즈니스에서 IT 비용을 절감하면서 효율성, 대응력(민첩, 탄력성), 가용성 향상과 운영 자동화를 통해 IT 관리를 간소화 & 소유, 운영비용을 낮출수 있습니다. 이처럼 클라우드는 기업이 추가하는 비용 효율적인 부분을 만족시킨다는 특징이 있습니다. 최근 사용하고 있는 가상화는 하이퍼바이저를 이용한 V..
이번달 부터 Cloud, Docker, k8s에 데하여 공부를 해보려고 합니다.. 첫 글이에요!Cloud Computing 개요클라우드는 인프라에 사용되는 서버, 저장소, DB, 네트워크, SW, Data 분석등 사용자가 언제든지 인터넷, 모바일등을 통해 IT서비스를 제공받을수 있는 컴퓨팅 기술입니다. Agile 방법론을 통해 민첩 서비스 도입 & 탄력적인 확장, 축소, 자동화된 서비스 유지관리를 통해 운영비용을 낮추고, 비즈니스 요구사항에 변화를 빠르게 적용할 수 있는 환경을 제공한다는 것이 특징입니다.What is Cloud Computing?미국의 정보기술 연구 & 자문회사 Gartner(가트너)는 클라우드 컴퓨팅 기술을 다음과 같이 정의 했습니다.인터넷 기술을 이용해서 다수의 사용자에게 하나의 서..
LLM에서 MOE 기법을 적용하여 Medical Domain에서 Task를 수행하는 Reference를 찾아보면서 논문을 읽은 내용을 정리해 보려고 합니다.논문 원문 사이트 When MOE Meets LLMs: Parameter Efficient Fine-tuning for Multi-task Medical ApplicationsThe recent surge in Large Language Models (LLMs) has garnered significant attention across numerous fields. Fine-tuning is often required to fit general LLMs for a specific domain, like the web-based healthcare sy..
Large Vision Language Model을 Medical 도메인에 연관된 내용을 공부해보다가 논문을 읽어서 한번 정리해보겠습니다.논문 원문 사이트 Prompting Medical Large Vision-Language Models to Diagnose Pathologies by Visual Question AnsweringLarge Vision-Language Models (LVLMs) have achieved significant success in recent years, and they have been extended to the medical domain. Although demonstrating satisfactory performance on medical Visual Questio..
이번엔, BART Model에 대하여 공부한 내용을 정리해 보겠습니다.What is BART?BART(Bidirectional and Auto-Regressive Transformers) 모델은 Facebook AI(현 Meta AI)에서 2019년에 소개한 sequence-to-sequence 모델입니다. BART는 BERT와 GPT의 장점을 결합한 모델입니다. BERT 모델의 Bidrectional(양방향)으로 언어 Sequence의 Token들을 Attention 매커니즘에 반영하여 문자를 Encoding 하는 내용, GPT의 Generative Decoder를 활용한, 이때까지의 입력을 바탕으로 새로운 출력을 만드는 Generative model 입니다.정리하면, 기본의 Sequence-to-Se..
LLM관련 스터디를 하고 있는데, BERT 모델에 데하여 공부를 해야할 타이밍이여서, 하는김에 내용도 정리해 보도록 하겠습니다.그리고 BERT Model에 데하여 이해를 하려면 Transformer라는 모델에 데하여 어느정도 이해가 필요합니다.아래 참고글 남길테니 한번 보고 이 글을 읽어주세요!! [NLP] Transformer Model - 트랜스포머 모델 알아보기이번 글에서는 Transformer 모델의 전반적인 Architecture 및 구성에 데하여 알아보겠습니다. Transformer: Attention is All You Need Transformer 모델은 2017년에 "Attention is All You Need"라는 논문을 통해서 소개되었습daehyun-bigbread.tistory.c..
이번에는 Quantization(양자화), LoRA & QLoRA에 데하여 한번 알아보겠습니다.Quantization(양자화)? Quantization(양자화)는 딥러닝 모델의 메모리 사용량과 계산 효율성을 향상시키기 위한 기술로, 고정 소수점(fixed-point) 숫자 표현을 사용하여 모델의 가중치와 활성화 값을 표현하는 방식입니다. 이는 훈련된 모델의 정확성을 최대한 유지하면서도 성능을 개선하는 것을 목표로 합니다.Quantization(양자화)의 필요성딥러닝에서 Quantization(양자화)가 필요한 이유에 데하여 한번 알아보겠습니다.메모리 절감: 모델 파라미터의 크기를 줄여 메모리 사용량을 절감합니다.연산 속도 향상: 고정 소수점 연산은 부동 소수점 연산보다 빠르기 때문에 추론 속도가 빨라집니..
이번에는 Model Distillation (모델 증류)에 관한 내용에 데하여 한번 설명해 보도록 하겠습니다.What is Model Distillation (모델 증류)? 모델 증류는 딥러닝에서 큰 모델의 지식을 작은 모델로 전달하여, 작은 모델이 큰 모델의 성능을 최대한 모방하도록 하는 기법입니다.이 방법은 큰 모델(교사 모델, Teacher Model)이 복잡한 패턴과 지식을 이미 학습한 상태에서, 그 지식을 작은 모델(학생 모델, Student Model)에 전달하여 더 효율적인 모델을 만드는 것을 목표로 합니다. Model Distillation (모델 증류)의 필요성그러면 Model Distillation (모델 증류)가 필요한 이유는 무엇일까요?자원 효율성: 대형 모델은 높은 성능을 보이지만..