Training
Contact
News
About Us
Member




Cloudera > Data-Analysts & Scientists

DSCI-273: Generative AI on Cloudera

생성형 AI(GenAI)와 대규모 언어 모델(LLM)은 모든 산업의 판도를 바꾸고 있는 매우 강력한 최신 기술입니다. GenAI와 LLM의 장점을 최대한 활용하기 위해서는, 이러한 새로운 기능들을 기존의 기업 데이터와 결합하는 것이 중요합니다. 이틀 동안 진행되는 본 과정에서는 Cloudera AI를 활용하여 LLM을 학습(Train)하고, 보강(Augment)하며, 조정(Fine-tune)하고, 호스팅(Host)하여 강력한 엔터프라이즈 AI 솔루션을 구축하는 방법을 배웁니다.

1,584,000 원 (VAT별도)

수강대상

데이터 사이언티스트, 머신러닝 엔지니어

교육목표

- 사용 사례에 맞는 적절한 LLM 모델 선택하기
- LLM을 위한 프롬프트 구성
- RAG(Retrieval Augmented Generation, 검색 증강 생성) 사용
- 기업 데이터를 사용하여 LLM 모델을 미세 조정(Fine-tune)하기
- AI 모델 레지스트리 사용 및 LLM 호스팅
- Crew AI를 사용해 AI 에이전트 만들기

강의내용

LLMs 소개
- LLMs 역사
- Transformers 작동 원리
- 다양한 타입의 LLMs
- LLMs의 한계

LLM 모델 선택
- LLM의 평가 방법
- 사용 사례에 따른 모델 선택
- Hugging Face Model Hub
- 실습: Open LLM Leaderboard
- 실습: Can you run it? LLM Version

Model Registries & Inference Services
- Cloudera AI Model Registry
- AI Inference Service
- 실습: Amazon Bedrock을 활용한 텍스트 요약

Prompt Engineering
- 프롬프트의 구성 요소
- Shot Prompting (예시 기반 프롬팅)
- 실습: Mistral을 활용한 프롬프트 엔지니어링

RAG (검색 증강 생성)
- Retrieval Augmented Generation (RAG)
- RAG 사용 사례
- 실습: 기업 데이터를 활용한 LLM 챗봇 강화
- 실습: NiFi, Pinecode, Llama2를 활용한 지능형 질의응답(QA) 챗봇 만들기

Fine Tuning
- Fine Tuning의 동기(이유)
- Fine Tuning의 기본 원리

Parameter Efficient Tuning
- Fine Tuning의 한계
- Parameter Efficient Tuning의 기본 원리

Fine Tuning a Foundation Model
- 양자화 (Quantization)
- Low Rank Adaptation
- 실습: QLoRA를 활용한 다중 작업용 파운데이션 모델 Fine Tuning

AI Agents
- AI Agents 소개
- AI Agent 아키텍쳐
- 실습: Crew AI를 활용한 에이전트 통합 관리





























자주 묻는 질문

DSCI-273: Generative AI on Cloudera 과정은 어떤 내용을 다루나요?
DSCI-273: Generative AI on Cloudera 교육 대상은 누구인가요?
DSCI-273: Generative AI on Cloudera 과정을 통해 무엇을 배울 수 있나요?
DSCI-273: Generative AI on Cloudera 교육 기간은 얼마나 되나요?
DSCI-273: Generative AI on Cloudera 수강료는 얼마인가요?
DSCI-273: Generative AI on Cloudera 다음 교육 일정은 언제인가요?
트레이노케이트는 Cloudera 공인 교육 기관인가요?