A A
패스트캠퍼스 환급챌린지 42일차 : 10개 프로젝트로 한 번에 끝내는 MLOps 파이프라인 구현 초격차 패키지 Online 강의 후기
본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다. (https://fastcampus.info/4oKQD6b)

 

오늘은 MLOps 구축을 위해 주로 사용되는 플랫폼들 중에서 제일 먼저 사용되는 머신러닝 모델의 개발부터 배포까지 전체 수명 주기(LifeCycle)을 관리하는 오픈소스 플랫폼인 MLFlow(02-06) 실습을 해보면서 MLflow의 마지막 단계이자, 모델을 직접호스팅 해보는 모델 서빙 내용에 관해서 다루었습니다.

 

일단 먼저, 서빙이라는 의미를 먼저 정리해 보았습니다. 서빙은 이제 학습된 모델을 실제 운영 환경에 배포해서 사용자나 시스템의 요청을 받아 데이터 전처리후, 결과를 inference(추론)하여 결과를 반환하는 전체적인 과정을 의미한다고 생각했습니다. 또한 단순히 파이썬 스크립트를 호출하는것을 넘어, MLflow를 사용해 모델을 RestAPI 형태의 웹 서버로 띄우는것을 실습했습니다.

 

그리고 이제 실제, 모델 Registry에 등록된 모델을 파일 경로가 아닌, 이제 디렉토리 URL의 형태로 모델을 호출하여, 실제 모델의 개발단계와 운영단계의 모델을 유연하게 교체하며 테스트 하는 방법을 익혔습니다. 또한 단순히 정적인 모델파일(pkl)형태의 파일을 활용하여 서버(API)형태로 활용한 다는 점이 매우 신기했고, 인상깊었습니다. 단순히 내가 개발할때 복잡한 프레임워크, RestAPI를 개발하지 않아도 단순히 코드 한줄이면 내가 개발한 모델이 HTTP 요청을 받을수 있는 API 서버가 된다는것이 신기했습니다. 

 

또한 단순히 코드를 수정하지 않고, MLflow Registry에서 모델의 stage 단계만 여러번 변경하면, API가 참조하는 모델을 실시간으로 전환을 할수 있는 점을 토대로 MLflow가 MLOps에서 매우 유용하고, 유연성을 잘 보여주는 프레임워크라고 생각했습니다. 나중에 MLOps 환경에서 개발을 할때 나중에 더 적극적으로 활용을 해봐야 겠다는 생각을 했습니다.

 

1개 클립 수강 인증 사진 1장, 학습 인증샷 1장
오늘자 날짜 + 공부 시작, 종료 시각 인증 사진