| 구분 |
|
|---|---|
| 세부업무 및 자격요건/우대사항 |
○ 솔루션 분석 및 컨설팅 - 고객사의 비즈니스 요구사항과 IT 환경(레거시 시스템, 데이터 사일로, 보안 정책 등)을 심층적으로 분석하여, 핵심 문제와 자동화 기회 정의 - 고객과의 커뮤니케이션으로 AI 서비스 도입을 위한 최적의 기술 로드맵과 아키텍처 청사진을 제시 ○ 아키텍처 설계 및 기술 전략 수립 - 고객의 환경과 요수사항에 따라 Cloud 또는 Local LLM 중 최적의 모델 선택 및 조합 전략 수립 - 'Buy VS. Build' 관점에서 MCP 및 API 등의 개별 기술 요소를 평가하고, 전체 AI 서비스의 기술 아키텍처 설계 - AI Agent가 활용할 내/외부 시스템의 연동 방안을 설계하고, 데이터 흐름 및 보안 정책 정의 ○ 핵심 기능 개발 및 시스템 통합 - AI Agent가 사용할 핵심 Tool을 직접 설계하고, 고객사 레거시 시스템 등과 안정적으로 연동 - LangChain, LangGraph 등 Agent 프레임워크를 활용하여, 복잡한 비지니스 로직을 수행하는 자동화 워크플로우 구현 - AI Agent 단계에서의 프롬프트 엔지니어링 수행 - AI Agent의 핵심 컴포넌트를 개발하고, AI 서비스의 안정성과 확장성 확보 ○ 배포, 운영 및 고도화 - AI Agent 서비스가 고객사 환경에서 안정적으로 배포 및 운영될 수 있도록 MLOps 및 인프라 팀과 협업 - 데이터를 기반으로 서비스의 품질을 분석하고, 개선 및 고도화 수행 [자격요건] ○ PyTorch, Hugging Face Transformers 프레임워크 기반의 모델 개발 경험 ○ On-Premise 환경에서 LLM 기반 서비스(RAG, AI Agent 등)를 구축 및 운영 경험 ○ RESTful API를 직접 설계, 개발하고 명확한 문서를 작성한 경험 - 서로 다른 내부 시스템(e.g., Legacy System, ERP, MES)을 API 기반으로 연동하고 데이터를 통합해 본 경험 ○ SQL 및 NoSQL 데이터베이스를 능숙하게 다루고, 복잡한 쿼리를 작성하여 데이터를 연동한 경험 ○ Vector DB 등 외부 데이터 소스를 연동한 LLM 기반 검색/정보 시스템 구축 경험 ○ LangChain, LlamaIndex 등 LLM 애플리케이션 프레임워크 활용 경험 - LLM의 Tool Use(Function Calling) 기능을 실제로 활용하여 외부 시스템과 연동하는 기능을 구현한 경험 ○ 오픈소스 LLM을 직접 설치하고, 자체 데이터셋으로 파인튜닝(PEFT, LoRA 등)을 수행한 경험 - 특정 목적(ex: 분류, 추출, Function Calling)에 맞춰 Instruction-tuning 데이터셋을 직접 설계하고 구축한 경험 - 양자화(GPTQ, GGUF 등) 라이브러리를 사용하여 모델을 경량화하고, 성능 저하를 최소화해 본 실무 경험 [우대요건] ○ 제조, 중공업, 플랜트 등 유사 산업 도메인에서 AI 프로젝트를 수행해 본 경험 ○ LLM 경량화(Quantization, Pruning 등) 및 서빙 최적화(vLLM, TGI 등) 경험 ○ LLM을 활용한 웹 서비스 API 등 백엔드 시스템 설계 및 개발 경험 ○ Ontology, Knowledge Graph 관련 지식 또는 프로젝트 경험 ○ Kubernetes(k8s) 환경에 대한 이해 및 MLOps(Kubeflow, MLflow 등) 파이프라인 구축/운영 경험 ○ 모델의 추론 속도와 GPU 메모리 사용량을 직접 측정하고, 병목 현상을 찾아 개선해 본 경험 ○ 대용량 데이터 분산 처리(Spark 등) 및 워크플로우 자동화(Airflow 등) 경험 ○ MS Azure 등 클라우드 환경에서의 AI 서비스 개발 및 구축 경험 ○ NLP/ML 관련 국내외 우수 학회 논문 게재 경험 |
| 근무지역 | 서울 을지로 |
| 모집인원 | 0명 |
| 문의처 | '1:1 문의하기' 등록 |