[주요업무]
□ 금융권 환경에 최적화된 온프레미스 LLMOps 운영
□ AI 모델의 실험부터 배포까지의 파이프라인 구축
□ GPU 클러스터 자원 관리 및 고가용성 서비스 아키텍처 설계
[상세역할]
□ 자동화된 배포 파이프라인(CI/CD) 구축
- ArgoCD, Tekton 등을 활용
□ 모델 서빙 및 인프라 최적화
- OpenShift기반의 컨테이너 오케스트레이션 환경고도화 및 운영
- vLLM 등을 활용한 LLM 및 이미지 모델 추론 성능 최적화
- GPU 리소스 파티셔닝 및 스케쥴링 효율화
□ 모니터링 및 운영 고도화
- Prometheus, Grafana 등을 활용한 시스템 리소스 및 모델 성능 모니터링
자격 요건
□ 학사 이상(컴퓨터 공학 유관 전공)
□ MLOps 유관 경력 3년 이상
- Kubernetes/Openshift 등 컨테이너 오케스트레이션 환경에서 운영 경험
- CI/CD 파이프라인 설계, 구축하여 운영해본 경험
- AI 모델 서빙 시스템 운영 경험
□ 파이썬 프로그래밍 및 비동기 처리에 대한 깊은 이해
□ Kubernetes/Openshift 등 컨테이너 오케스트레이션 기술
□ AI 기술동향 지식 : NLP, 언어모델, 생성형 AI 관련
□ DevOps Tools(Git, ArgoCD, Jenkins 등) 형상 관리 및 인프라 자동화 도구 활용 능력
□ Linux 시스템 내부 구조 및 네트워크 프로토콜(TCP/IP, HTTP/gRPC)에 대한 탄탄한 지식
우대사항
□ 금융권 프로젝트 수행
□ AWS, GCP 등 클라우드 환경에서의 인프라 운영 경험
□ 대규모 트래픽 있는 서비스 구축 및 운영 경험
□ 이미지 생성 모델 서빙 경험