Deep Learning 31
- LoRA 훈련의 90%를 결정하는 '캡셔닝'의 모든 것
- 12-(3) PEFT가 필요한 이유는 무엇이며, 어떤 상황에서 특히 효과적인가요?
- 12-(2) 모델 크기를 키우는 것만으로는 성능이 일정 시점 이후 둔화되는 이유는 무엇일까요?
- 11-(3) BERT와 GPT 이후 등장한 주요 사전학습 모델에는 어떤 것들이 있으며, 특징은 무엇인가요? 구글링 등을 통해 자유롭게 리서치해서 정리해보세요.
- 11-(2) Hugging Face Transformers 라이브러리는 무엇이며, 어떤 기능을 제공하나요?
- 11-(1) BERT와 GPT의 주요 차이점은 무엇인가요? 각각의 기본 구조와 작동 방식, 적합한 NLP 응용 분야를 위주로 설명해주세요.
- MIT 6.S191: Large Language Models (Google) 강의
- 10-(4) Transformer 모델은 Seq2Seq 구조와 어떤 점에서 근본적으로 다른가요?
- 10-(3) Attention 메커니즘이 Seq2Seq 모델의 어떤 문제를 해결하는 데 도움이 되나요?
- 10-(2) FastText가 Word2Vec과 다른 점은 무엇이며, 어떤 장점이 있나요?
- 10-(1) 텍스트 데이터를 모델에 적용하기 전에 어떤 전처리 과정을 거치나요?
- Focal loss에 관하여
- 디버깅에 대한 고찰
- VAE: Variational Autoencoder
- 프로젝트 구조를 통한 효율적인 협업 관리
- 9-(4) Diffusion 모델이 이미지 생성에서 어떻게 활용되며, 어떤 장점이 있나요?
- 9-(3) GAN에서 생성자(Generator)와 판별자(Discriminator)의 역할은 각각 무엇인가요?
- 9-(2) Fully Convolutional Networks(FCN)의 주요 특징과 기존 CNN 기반 분류 모델과의 차이점은 무엇인가요?
- 9-(1) Semantic Segmentation이란 무엇이며, 이미지 분류(Classification)와 어떤 차이가 있나요?
- 생성형 모델(Generative Model)에 대한 이해
- 8-(2) mAP(mean Average Precision)의 개념이 무엇이며 객체 인식에서 어떻게 활용되는지 설명해주세요.
- 8-(1) YOLO(You Only Look Once) 모델의 주요 특징과 장점은 무엇인가요?
- Object Detection 분야의 근간이 되는 Faster R-CNN
- [ViT 이해하기(1)] Attetion 매커니즘에 대하여
- 7-(3) Transfer Learning(전이 학습)이란 무엇이며, 이미지 분류 모델에서 어떻게 활용할 수 있나요?
- 7-(2) 데이터 증강(Data Augmentation)이란 무엇이며, 이미지 데이터에서 주로 사용하는 증강 기법에는 어떤 것들이 있나요?
- 7-(1) 이미지를 모델에 입력하기 전에 리사이징(Resizing)과 정규화(Normalization)를 하는 이유는 무엇인가요?
- 6-(2) 오토 인코더가 적용되기 적합한 상황에 대해 설명하고, 오토 인코더를 구성하는 인코더(Encoder)와 디코더(Decoder) 비교
- 6-(1) CNN을 구성하는 각 레이어의 역할에 대해 설명해보세요.
- 4-(2) 딥러닝의 성능향상을 위해 고려하는 하이퍼파라미터의 종류
- 4-(1) 딥러닝과 머신러닝 간의 포함관계에 대해 설명해주세요.