Deep Learning 72
- LoRA 훈련의 90%를 결정하는 '캡셔닝'의 모든 것
- [코드잇 스프린트] 프로젝트#3 log
- 17-(2) Streamlit, FastAPI로 구성된 시스템에 Triton 기반 추론 서버를 통합하려면 어떤 구조로 설계하는 것이 바람직하다고 생각하나요?
- 17-(1) 모델 서빙이란 무엇이며, 왜 필요한가요? 실제 서비스 환경에서 서빙 프레임워크가 어떤 역할을 하나요?
- 16-(3) 현존하는 AI 웹/앱서비스를 하나 선정하세요. (가상의 서비스로 해보는 것도 좋아요.) 그 서비스가 지금까지 학습한 Docker, 추론 최적화, Streamlit, FastAPI로 구현되었다고 가정하고, 전체 아키텍처를 작성해보세요. 만약 가능하다면, 보안 요소(CORS 등)/멀티유저 요청 처리 방안(비동기 처리, 대기 큐 등)/클라우드 배포 구조(GCP, AWS)/모니터링 및 로깅 전략 까지 포함하여 작성해보세요.
- 16-(2) FastAPI를 활용하여 AI 모델을 통합한 웹 API를 구현할 때, 기능별로 나눠서 구성하는 것이 바람직합니다. 전체적인 API 서버 코드 구조는 어떻게 구성되면 좋을지 자유롭게 작성해보세요.
- 16-(1) Streamlit을 사용해서 AI 모델을 웹 애플리케이션에 통합하려면 모델 로드, 사용자 입력, 결과 출력의 단계를 거쳐야합니다. 각각의 단계에 대해 설명해주세요.
- 15-(3) 양자화나 모델 경량화 후 실제 서비스에서 성능이 저하되지 않도록 하기 위해 어떤 테스트나 확인 절차가 필요할까요?
- 15-(2) 양자화 기법인 Post-Training Quantization과 Quantization-Aware Training의 차이를 설명해보세요.
- 15-(1) 딥러닝 모델을 ONNX, TensorRT 등의 포맷으로 변환해야 하는 이유는 무엇인가요?
- 14-(3) Kubernetes의 기본 개념은 무엇이며, Docker와는 어떤 관계가 있나요?
- 14-(2) Docker Compose는 어떤 상황에서 유용하며, 일반 Dockerfile과 어떤 차이가 있나요?
- 14-(1) Docker 이미지와 컨테이너의 차이를 설명해보세요.
- [코드잇 스프린트] 프로젝트#2 log
- 13-(3) RAG 시스템에서 'Agent'는 어떤 개념인지, 어떻게 구현할 수 있는지 구글 등에서 리서치하여 정리해보세요.
- 13-(2) RAG 시스템의 성능을 평가하는 방법에는 어떤 것들이 있고, 독립 평가와 종단간 평가의 차이는 무엇인가요?
- 13-(1) LangChain을 사용해 RAG 시스템을 구축할 때 어떤 주요 구성 요소들이 필요하고, 각각 어떤 역할을 하나요?
- 12-(3) PEFT가 필요한 이유는 무엇이며, 어떤 상황에서 특히 효과적인가요?
- 12-(2) 모델 크기를 키우는 것만으로는 성능이 일정 시점 이후 둔화되는 이유는 무엇일까요?
- 12-(1) LLM이 생성한 텍스트에서 할루시네이션(Hallucination)이란 무엇이고, 왜 문제가 되나요?
- [제 46회 ADsP] 데이터분석 준전문가 / 전공자 3일 벼락치기 시험 후기
- 11-(3) BERT와 GPT 이후 등장한 주요 사전학습 모델에는 어떤 것들이 있으며, 특징은 무엇인가요? 구글링 등을 통해 자유롭게 리서치해서 정리해보세요.
- 11-(2) Hugging Face Transformers 라이브러리는 무엇이며, 어떤 기능을 제공하나요?
- 11-(1) BERT와 GPT의 주요 차이점은 무엇인가요? 각각의 기본 구조와 작동 방식, 적합한 NLP 응용 분야를 위주로 설명해주세요.
- 구글 Gemini PRO 1년 프로모션 활용하기(~10/6)
- [Part 3] Study log 2025.08.15 ~ 10.09
- 10-(4) Transformer 모델은 Seq2Seq 구조와 어떤 점에서 근본적으로 다른가요?
- 10-(3) Attention 메커니즘이 Seq2Seq 모델의 어떤 문제를 해결하는 데 도움이 되나요?
- 10-(2) FastText가 Word2Vec과 다른 점은 무엇이며, 어떤 장점이 있나요?
- 10-(1) 텍스트 데이터를 모델에 적용하기 전에 어떤 전처리 과정을 거치나요?
- OOF
- Object Detection의 앙상블 기법: WBF
- Stratified Group Sampling(층화 샘플링): 데이터 불균형을 해결하기 위한 샘플링 방법론
- Focal loss에 관하여
- 디버깅에 대한 고찰
- VAE: Variational Autoencoder
- 프로젝트 구조를 통한 효율적인 협업 관리
- 9-(4) Diffusion 모델이 이미지 생성에서 어떻게 활용되며, 어떤 장점이 있나요?
- 9-(3) GAN에서 생성자(Generator)와 판별자(Discriminator)의 역할은 각각 무엇인가요?
- 9-(2) Fully Convolutional Networks(FCN)의 주요 특징과 기존 CNN 기반 분류 모델과의 차이점은 무엇인가요?
- 9-(1) Semantic Segmentation이란 무엇이며, 이미지 분류(Classification)와 어떤 차이가 있나요?
- 생성형 모델(Generative Model)에 대한 이해
- 8-(2) mAP(mean Average Precision)의 개념이 무엇이며 객체 인식에서 어떻게 활용되는지 설명해주세요.
- 8-(1) YOLO(You Only Look Once) 모델의 주요 특징과 장점은 무엇인가요?
- Object Detection 분야의 근간이 되는 Faster R-CNN
- [ViT 이해하기(1)] Attetion 매커니즘에 대하여
- 7-(3) Transfer Learning(전이 학습)이란 무엇이며, 이미지 분류 모델에서 어떻게 활용할 수 있나요?
- 7-(2) 데이터 증강(Data Augmentation)이란 무엇이며, 이미지 데이터에서 주로 사용하는 증강 기법에는 어떤 것들이 있나요?
- 7-(1) 이미지를 모델에 입력하기 전에 리사이징(Resizing)과 정규화(Normalization)를 하는 이유는 무엇인가요?
- CV에서 강력한 Data Augmentation을 제공하는 Albumentations 패키지
- Weights & Biases (W&B)를 이용해서 학습/추적/비교/공유까지
- 6-(2) 오토 인코더가 적용되기 적합한 상황에 대해 설명하고, 오토 인코더를 구성하는 인코더(Encoder)와 디코더(Decoder) 비교
- [PyTorch] `nn.Module` vs. `Dataset`: 왜 `super().__init__()` 호출 여부가 다른가?
- 6-(1) CNN을 구성하는 각 레이어의 역할에 대해 설명해보세요.
- [PyTorch] nn.Module 클래스 super().__init__()의 역할
- [PyTorch] 컴퓨터 비전의 동반자, torchvision
- [PyTorch] 모델을 똑똑하게 학습시키는 트레이너, torch.optim
- [PyTorch] 파이토치의 심장, torch.nn 패키지에 대해
- 5-(2) PyTorch에서 텐서란 무엇이고, NumPy의 Array(배열)과 어떤 차이가 있나요?
- 5-(1) 딥러닝 프레임워크인 PyTorch와 TensorFlow 비교.
- [Part 2] Study log 2025.06.09 ~ 08.14
- 4-(2) 딥러닝의 성능향상을 위해 고려하는 하이퍼파라미터의 종류
- 4-(1) 딥러닝과 머신러닝 간의 포함관계에 대해 설명해주세요.
- [서버 구축] 남는 노트북 WSL을 개인 딥러닝 서버로 세팅하기
- 3-(2) 부스팅은 어떤 특징을 가진 앙상블 기법인가요?
- 2-(4) K-폴드 교차 검증에서 K의 값을 선택할 때 고려해야 할 점
- 2-(3) 모델 학습시 발생할 수 있는 bias와 variance에 대해.
- 2-(2) 손실 함수(loss function)란 무엇이며, 왜 중요한가요?
- 2-(1) 지도 학습과 비지도 학습의 차이
- [VSCode] 유용한 기능 및 단축키 모음
- [VSCode] Python 개발 환경 기본 셋팅 가이드
- [Python] python fomatter: ruff와 black