- Databricks 데이터 엔지니어링 입문
- LakeFlow Connect 표준 커넥터를 활용한 클라우드 스토리지 데이터 수집
- LakeFlow Connect 관리형 커넥터를 활용한 엔터프라이즈 데이터 수집
- 데이터 수집 대안
Lakeflow Jobs를 통한 워크로드 배포
- Databricks 데이터 엔지니어링 입문
- Lakeflow 작업 핵심 개념
- 작업 생성 및 스케줄링
- 고급 Lakeflow 작업 기능
Lakeflow Spark Declarative Pipelines으로 데이터 파이프라인 구축하기
- Databricks에서의 데이터 엔지니어링 소개
- Lakeflow Spark Declarative Pipelines 기초
- Lakeflow Spark Declarative Pipelines 구축하기
데이터 엔지니어링을 위한 DevOps 기본 소프트웨어 엔지니어링, DevOps 및 CI/CD 기본 사항
- 소프트웨어 엔지니어링(SWE) 모범 사례 소개에 대한 소개 PySpark 코드 모듈화
- PySpark 코드 모듈화 - 필수
- PySpark 모듈화 코드
- DevOps 기초
- CI/CD에서의 역할 DevOps
- 지식 확인/토론
Continuous Integration (CI)
- 프로젝트 계획
- 프로젝트 설정 탐색(필수)
- PySpark를 위한 단위 테스트 소개
- 단위 테스트 생성 및 실행
- 통합 실행 DLT를 사용한 테스트 및 Workflows
- DLT를 사용하여 통합 테스트 수행 그리고 Workflows
- Git을 사용한 버전 제어 개요
- 버전 제어와 Databricks Git 폴더 및 GitHub
Continuous Deployment 소개
- Databricks 자산 배포 개요(슬라이드)
- Databricks 프로젝트 배포
- 다음 단계

