· 학습 목표
PyTorch와 TensorFlow의 장단점 및 기본 구조를 이해한다.
· 주요 내용
1. Pytorch vs Tensorflow
2. Pytorch기반 신경망 구축 코드리뷰
[Chapter2. NLP]
· 학습 목표
자연어 처리의 기본 원리를 이해하고, 텍스트 전처리, 토큰화, 형태소 분석 등의 기초 작업을 학습한다.
· 주요 내용
1. 자연어 처리(NLP)의 개념
2. NLP의 기본 작업 (토큰화, 형태소 분석, 개체명 인식 등)
[Chapter3. 임베딩(Embedding)]
· 학습 목표
단어를 벡터로 표현하는 방법을 학습하고, 희소 표현의 문제를 해결하기 위한 Word Embedding 기술을 살펴본다.
· 주요 내용
1. Word Embedding 기법 소개 (One-hot Encoding, Word2Vec, GloVe 등)
2. 임베딩 벡터의 시각화
[Chapter4. Word2Vec]
· 학습 목표
단어 간의 의미 유사성을 파악하는 Word2Vec 알고리즘의 원리와 구현 방법을 학습한다.
· 주요 내용
1. Word2Vec 알고리즘의 개념과 작동 원리
2. Word2Vec의 학습 과정과 파라미터 설정
[Chapter5. Seq2Seq 모델]
· 학습 목표
시퀀스 데이터를 처리하고 생성하는 Seq2Seq 모델의 구조와 동작 방식을 학습하며, 자연어 생성을 실습한다.
· 주요 내용
1. 시퀀스-투-시퀀스(Seq2Seq) 모델의 개념과 구조
2. RNN과 LSTM을 이용한 Seq2Seq 모델의 구현 방법
3. Seq2Seq 모델의 학습과 테스트
[Chapter6. Transformer]
· 학습 목표
Attention 메커니즘을 기반으로 하는 Transformer 아키텍처의 구조와 작동 방식을 학습하고, 자연어 처리에 적용하는 방법을 익힌다.
· 주요 내용
1. Transformer 모델의 개념
2. Attention 메커니즘의 기본 원리와 작동 방식 소개
3. Transformer 아키텍처의 구조와 주요 구성 요소

