본문 바로가기
NLP

01. Classical vs Deep Learning Model

by devmin67 2024. 10. 10.

1. Natural Language Processing (NLP) - 왼쪽 초록색 영역

  • 전통적인 NLP는 딥러닝이 등장하기 전부터 사용된, 자연어 처리 기술을 의미합니다. 주로 통계 기반 방법이나 규칙 기반 방법을 사용합니다.

사례:

  • Bag of Words (BoW): 문서에서 단어의 등장 빈도를 기반으로 텍스트를 벡터화하는 방법.
  • TF-IDF (Term Frequency-Inverse Document Frequency): 특정 단어가 문서에서 얼마나 중요한지 가중치를 부여하는 방법.
  • n-grams: 연속된 단어들의 패턴을 모델링하는 방법으로, 예를 들어 2-gram은 두 개의 단어 쌍이 자주 등장하는 패턴을 학습.
  • Hidden Markov Models (HMM): 자연어 문장에서 단어의 순서를 확률적으로 모델링하는 기법으로, 품사 태깅이나 음성 인식에서 사용됨.

이 기술들은 주로 수학적 통계나 규칙 기반의 모델에 의존하며, 언어의 구조를 이해하기 위해 딥러닝이 아닌 다른 알고리즘을 사용합니다.

2. Deep Learning - 오른쪽 파란색 영역

  • 딥러닝은 인간의 두뇌처럼 다층 신경망을 사용해 데이터를 학습하는 방법입니다. 주로 이미지, 영상, 텍스트 등의 복잡한 데이터에서 비선형 패턴을 학습하는 데 뛰어난 성능을 보입니다.

사례:

  • Convolutional Neural Networks (CNN): 주로 이미지 처리에 사용되며, 이미지 분류와 객체 인식에서 매우 강력한 성능을 발휘합니다.
  • Recurrent Neural Networks (RNN): 시계열 데이터나 순차적인 데이터에 적합한 모델로, 시간에 따른 정보를 처리할 수 있습니다.
  • Transformer 모델: 현재 딥러닝 기반의 NLP에서 주로 사용되며, BERT, GPT 같은 대규모 언어 모델들이 이 구조를 기반으로 합니다.

이 영역은 텍스트뿐만 아니라 다양한 데이터 형태를 학습하며, NLP를 포함한 여러 분야에서 활용되고 있습니다.

3. DNLP (Deep Natural Language Processing) - 교차 영역

  • DNLP딥러닝을 활용한 자연어 처리 기법을 의미합니다. 전통적인 자연어 처리 모델과 달리, 딥러닝 기반 모델은 대규모 데이터에서 자동으로 언어의 패턴을 학습하고, 더 높은 성능을 낼 수 있습니다.

사례:

  • Word2Vec: 단어를 벡터로 변환하는 딥러닝 기반 방법으로, 단어 간의 유사도를 계산하고 의미적 관계를 학습합니다.
  • BERT (Bidirectional Encoder Representations from Transformers): 문맥을 양방향에서 이해할 수 있는 딥러닝 모델로, 텍스트 분류, 질문 응답, 문장 완성 등의 다양한 NLP 태스크에서 높은 성능을 보입니다.
  • GPT (Generative Pretrained Transformer): 언어 생성 모델로, 텍스트를 생성하거나 완성하는 데 뛰어난 성능을 발휘합니다. 자연어 대화를 이해하고 답변을 생성하는 데 사용됩니다.

DNLP는 전통적인 NLP보다 더 많은 데이터와 계산 자원을 필요로 하지만, 그만큼 더 복잡한 문제를 해결할 수 있습니다.

4. Seq2Seq (Sequence-to-Sequence) - 작은 교차 영역

  • Seq2Seq 모델은 입력된 시퀀스를 다른 시퀀스로 변환하는 딥러닝 모델입니다. 번역, 텍스트 요약, 질의응답 같은 자연어 처리 작업에서 널리 사용됩니다. 이 모델은 인코더-디코더 구조로 이루어져 있으며, RNN 또는 Transformer 기반으로 구현됩니다.

사례:

  • 번역 모델: Google Translate에서 사용하는 모델은 Seq2Seq 구조로, 한 언어의 문장을 다른 언어의 문장으로 변환합니다.
  • 텍스트 요약: 긴 문서를 입력으로 받아, 중요한 내용을 간단하게 요약하는 모델. 기계 번역과 비슷한 원리로 작동합니다.
  • 음성 인식: 음성 데이터를 받아 텍스트로 변환하는 작업도 Seq2Seq 모델의 한 예입니다.

'NLP' 카테고리의 다른 글

Langchain  (0) 2024.10.11
04. sequence-to-sequence  (0) 2024.10.10
03. Bag-of-words  (0) 2024.10.10
02. END-TO-END Deep learning Model(종단 간 학습 모델)  (0) 2024.10.10