구글 Gemini pro 1년 프로모션 활용하기(~10/6)
🔵 Intro 바야흐로 LLM의 시대가 도래하면서 언어모델을 하나쯤은 구독을 해야하는 세상이 되었다. 이제 시간이 지날수록 거대 AI기업에 디지털 세금을 강제로 납부하지 않으면 경쟁력이 떨어지는 시기가 올것이고, 이건 예전에 SF 영화에서나 보던 거대 AI기업이 전세계를 지배하는 세상이 올지도 모르겠다. 아무튼, 각설하고 개인적으로 일을 해야하니까 ...
그래서 일단 기록합니다.
🔵 Intro 바야흐로 LLM의 시대가 도래하면서 언어모델을 하나쯤은 구독을 해야하는 세상이 되었다. 이제 시간이 지날수록 거대 AI기업에 디지털 세금을 강제로 납부하지 않으면 경쟁력이 떨어지는 시기가 올것이고, 이건 예전에 SF 영화에서나 보던 거대 AI기업이 전세계를 지배하는 세상이 올지도 모르겠다. 아무튼, 각설하고 개인적으로 일을 해야하니까 ...
🟢 TBU ⚪ TBU.. 🟢 예시 답안 (코드잇 제공) Transformer 모델은 Seq2Seq 구조와 비교했을 때, 가장 큰 근본적인 차이점은 RNN을 사용하지 않고, 전적으로 Attention 메커니즘만으로 시퀀스를 처리한다는 점입니다. 전통적인 Seq2Seq 모델은 RNN, LSTM, GRU 같은 순환 신경망 구조를 ...
🟢 TBU ⚪ TBU.. 🟢 예시 답안 (코드잇 제공) Attention 메커니즘은 Seq2Seq(Sequence-to-Sequence) 모델이 가지는 중요한 한계를 해결하는 데 큰 도움을 줍니다. 기본적인 Seq2Seq 모델은 입력 시퀀스를 인코더가 하나의 고정된 벡터로 요약하고, 디코더는 이 벡터만을 바탕으로 전체 출력을...
🟢 TBU ⚪ TBU.. 🟢 예시 답안 (코드잇 제공) FastText는 Word2Vec과 비슷한 방식으로 단어 임베딩을 학습하는 모델이지만, 단어를 더 작은 단위인 서브워드(Subword)로 분해해서 학습한다는 점에서 차이가 있습니다. Word2Vec은 단어 전체를 하나의 단위로 보고 벡터를 학습합니다. 예를 들어 ‘app...
🟢 TBU ⚪ TBU.. 🟢 예시 답안 (코드잇 제공) 텍스트 데이터를 모델에 적용하기 전에 반드시 전처리 과정을 거쳐야 합니다. 텍스트는 구조화되지 않은 형태로 존재하기 때문에, 이를 수치적으로 처리 가능한 형태로 변환해주는 것이 전처리의 핵심 목적입니다. 가장 기본적인 전처리는 불필요한 문자 제거입니다. 예를 들어, HT...
🟣 TBU ⚪ 모델의 성적표: mAP (mean Average Precision)
🟣 Object Detection의 앙상블 기법: WBF (Weighted Boxes Fusion) Object Detection 모델들은 동일한 이미지에 대해 서로 다른 위치에 bounding box를 예측하는 경우가 많음. 이러한 불일치를 줄이고 성능을 향상시키기 위해 앙상블 기법을 적용할 수 있음. 그 중 하나가 Weighted Boxes Fu...
🟣 TBU ⚪ 모델의 성적표: mAP (mean Average Precision)
🟣 ‘Focal Loss’ for Semantic Segmentation ⚪ Focal Loss란? 딥러닝에서 가장 기본적인 loss 함수 중 하나는 Cross Entropy Loss다. 하지만 다음과 같은 상황에서는 성능이 떨어질 수 있다: Class imbalance가 심한 경우 (예: 배경 vs. 소수 클래스) 모델이 쉬운 예시(...
🔵 Intro 예전 면접에서 받았던 질문 중에 기억에 남는 질문이 ‘디버깅 하는 방식을 저에게 알려주시겠어요?’ 라는 질문이었다. 아니.. 디버깅하는데 무슨 방식이 있어? 과거 C/C++ 면접에서 디버깅을 하는 방식은 비주얼스튜디오의 기능인 중단점(break point)였다. 그런데 이 기능은 어느 정도 숙달도 필요할 뿐더러 수많은 변수의 값을 ...