Training
Contact
News
About Us
Member




Cloudera > Data-Analysts & Scientists

DSCI-273: Generative AI on Cloudera

Generative AI(생성형 AI)와 대규모 언어 모델(LLM)은 모든 산업 분야에 혁신을 가져오고 있는 강력한 기술입니다. 이러한 기술을 최대한 활용하기 위해서는 기존의 엔터프라이즈 데이터와 결합하는 것이 필수적입니다.
이 2일 과정에서는 Cloudera AI를 활용하여 LLM을 학습, 확장, 미세 조정(fine-tuning), 배포하는 방법을 학습합니다. 이를 통해 강력한 엔터프라이즈 AI 솔루션을 구축할 수 있도록 지원합니다.

1,584,000 원 (VAT별도)

수강대상

엔터프라이즈 데이터, 생성형 AI(Generative AI), 대규모 언어 모델(LLM)의 잠재력을 최대한 활용하여 강력한 비즈니스 솔루션을 구현하고자 하는 데이터 사이언티스트 및 머신러닝 엔지니어

선수지식

Python 및 Git에 대한 기본 지식이 있으면 학습에 도움이 됨

교육목표

강의와 실습을 통해 참가자는 다음과 같은 내용을 학습하게 됩니다.

- 활용 사례에 적합한 LLM 모델 선택 방법
- LLM을 위한 프롬프트 구성 방법
- RAG(Retrieval Augmented Generation) 기술 활용
- 엔터프라이즈 데이터를 기반으로 LLM 모델을 미세 조정(Fine-Tuning)하는 방법
- AI 모델 레지스트리를 활용하여 LLM을 호스팅하는 방법
- Crew AI를 활용한 AI 에이전트 생성 방법

강의내용

LLM 소개
- LLM의 역사
- Transformer 작동 원리
- LLM의 다양한 유형
- LLM의 한계

LLM 모델 선택
- LLM 평가 방법
- 활용 사례별 모델 선택
- Hugging Face Model Hub 활용
- 실습: Open LLM Leaderboard 탐색
- 실습: LLM 버전 실행 테스트

모델 레지스트리 및 추론 서비스
- Cloudera AI 모델 레지스트리
- AI 추론 서비스
- 실습: Amazon Bedrock을 활용한 텍스트 요약

프롬프트 엔지니어링
- 프롬프트 구성 요소
- Shot Prompting 기법
- 실습: Mistral을 활용한 프롬프트 엔지니어링

검색 증강 생성(RAG)
- RAG 개요
- RAG 활용 사례
- 실습: 엔터프라이즈 데이터로 강화된 LLM 챗봇
- 실습: NiFi, Pinecone, Llama2를 활용한 지능형 QA 챗봇

파인 튜닝(Fine Tuning)
- 파인 튜닝의 필요성
- 파인 튜닝의 기본 원칙

효율적 파라미터 튜닝
- 파인 튜닝의 한계
- 효율적 파라미터 튜닝의 원칙

기반 모델 파인 튜닝
- 양자화(Quantization)
- Low Rank Adaptation
- 실습: QLoRA를 활용한 멀티태스크 기반 모델 파인 튜닝

AI 에이전트
- AI 에이전트 소개
- AI 에이전트 아키텍처
- 실습: Crew AI를 활용한 AI 에이전트 생성