Training
Contact
News
About Us
Member




Cloudera > Data-Analysts & Scientists

DSCI-273: Generative AI on Cloudera

생성형 AI(GenAI)와 대규모 언어 모델(LLM)은 모든 산업의 판도를 바꾸고 있는 매우 강력한 최신 기술입니다. GenAI와 LLM의 장점을 최대한 활용하기 위해서는, 이러한 새로운 기능들을 기존의 기업 데이터와 결합하는 것이 중요합니다. 이틀 동안 진행되는 본 과정에서는 Cloudera AI를 활용하여 LLM을 학습(Train)하고, 보강(Augment)하며, 조정(Fine-tune)하고, 호스팅(Host)하여 강력한 엔터프라이즈 AI 솔루션을 구축하는 방법을 배웁니다.

1,584,000 원 (VAT별도)

수강대상

데이터 사이언티스트, 머신러닝 엔지니어

교육목표

- 사용 사례에 맞는 적절한 LLM 모델 선택하기
- LLM을 위한 프롬프트 구성
- RAG(Retrieval Augmented Generation, 검색 증강 생성) 사용
- 기업 데이터를 사용하여 LLM 모델을 미세 조정(Fine-tune)하기
- AI 모델 레지스트리 사용 및 LLM 호스팅
- Crew AI를 사용해 AI 에이전트 만들기

강의내용

LLMs 소개
- LLMs 역사
- Transformers 작동 원리
- 다양한 타입의 LLMs
- LLMs의 한계

LLM 모델 선택
- LLM의 평가 방법
- 사용 사례에 따른 모델 선택
- Hugging Face Model Hub
- 실습: Open LLM Leaderboard
- 실습: Can you run it? LLM Version

Model Registries & Inference Services
- Cloudera AI Model Registry
- AI Inference Service
- 실습: Amazon Bedrock을 활용한 텍스트 요약

Prompt Engineering
- 프롬프트의 구성 요소
- Shot Prompting (예시 기반 프롬팅)
- 실습: Mistral을 활용한 프롬프트 엔지니어링

RAG (검색 증강 생성)
- Retrieval Augmented Generation (RAG)
- RAG 사용 사례
- 실습: 기업 데이터를 활용한 LLM 챗봇 강화
- 실습: NiFi, Pinecode, Llama2를 활용한 지능형 질의응답(QA) 챗봇 만들기

Fine Tuning
- Fine Tuning의 동기(이유)
- Fine Tuning의 기본 원리

Parameter Efficient Tuning
- Fine Tuning의 한계
- Parameter Efficient Tuning의 기본 원리

Fine Tuning a Foundation Model
- 양자화 (Quantization)
- Low Rank Adaptation
- 실습: QLoRA를 활용한 다중 작업용 파운데이션 모델 Fine Tuning

AI Agents
- AI Agents 소개
- AI Agent 아키텍쳐
- 실습: Crew AI를 활용한 에이전트 통합 관리