본문 바로가기

분류 전체보기32

Langchain # Langchain이란?보통 언어 모델이 해결할 수 있는 것은 단순한 지시만으로는 해결할 수 없는 문제를 해결하곤 합니다. 번역, 요약, 말투 변경, 작문 등이 여기에 해당합니다.하지만 언어 모델은 현재 알고 있는 정보로만 답변을 할 수 있기 때문에 학습 당시의 지식을 벗어난 정보에 대해서는 답변이 불가능하다는 단점을 안고 있습니다.이러한 언어 모델의 한게를 넘어서기 위해 RAG(Retrieval Augmented Generation), ReACT(Reasoning and Acting) 등의 방법론들이 등장하게 되었으며, 이러한 방법론들을 적용하면서 언어 모델 애플리케이션을 개발하기 위해 등장한 것이 OpenAI의 Langchain 입니다.* Model I/O: 프롬프트 준비, 언어 모델 호출, 결과 .. 2024. 10. 11.
04. sequence-to-sequence Sequence-to-Sequence(Seq2Seq) 모델은 입력 시퀀스를 다른 출력 시퀀스로 변환하는 모델로, 주로 자연어 처리(NLP) 분야에서 많이 사용됩니다. Seq2Seq 모델은 번역, 요약, 질문-응답, 대화 생성 등 입력과 출력이 모두 시퀀스 형태인 문제를 해결하는 데 적합한 구조입니다.Seq2Seq 모델의 주요 개념입력 시퀀스(input sequence): 모델에 들어오는 연속된 데이터(시퀀스)로, 예를 들어 번역 문제에서는 원문이 입력 시퀀스가 됩니다.출력 시퀀스(output sequence): 모델이 생성하는 연속된 데이터(시퀀스)로, 번역 문제에서는 번역된 문장이 출력 시퀀스입니다.인코더(Encoder): 입력 시퀀스를 고정된 크기의 **벡터 표현(컨텍스트 벡터)**으로 변환하는 신경.. 2024. 10. 10.
03. Bag-of-words Bag-of-Words(BoW) 방식은 텍스트 데이터를 수치적으로 표현하는 매우 간단한 방법 중 하나입니다. 이 방식은 주어진 문서나 텍스트에서 단어의 출현 여부 또는 출현 빈도를 바탕으로 텍스트를 벡터 형태로 변환합니다.BoW의 주요 특징:단어 순서 무시: 텍스트에서 단어의 순서는 고려되지 않습니다. 즉, 문서 내 단어들이 어떤 순서로 배치되어 있는지는 중요하지 않고, 단지 그 단어가 해당 문서에 존재하는지, 몇 번 등장했는지만 따집니다.단어 빈도 사용: 각 문서에 등장하는 단어들의 빈도를 카운팅하여 벡터로 표현합니다. 예를 들어, 두 문서가 있을 때, 각 문서에서 등장하는 단어의 빈도를 세어 수치로 변환합니다.고정 크기의 벡터: 문서가 아무리 길거나 짧더라도, 사전에 정의된 고정된 크기의 벡터로 변환.. 2024. 10. 10.
02. END-TO-END Deep learning Model(종단 간 학습 모델) - seq2seq도 end-to-end모델의 한 종류이다. End-to-End 딥러닝 모델이란, 입력 데이터에서 출력까지 모든 과정을 하나의 통합된 시스템에서 학습하는 모델을 의미합니다. 이 모델은 각 단계의 특성 추출이나 피처 엔지니어링을 수작업으로 하지 않고, 모든 학습 단계를 신경망이 자동으로 처리하게 합니다. 즉, 데이터의 전처리, 특성 추출, 모델 학습, 예측까지 전체 프로세스가 신경망 안에서 이루어집니다.이 방식은 특히 딥러닝 모델이 강력한 성능을 발휘할 수 있는 복잡한 작업에 적합합니다.End-to-End 모델의 주요 특징:모든 단계가 하나로 연결됨: 입력에서 출력까지 중간 단계 없이 직접 학습이 이루어집니다. 사람이 개입해서 중간에 피처를 설계하거나, 추가적인 데이터 처리 과정을 만들 필요.. 2024. 10. 10.
01. Classical vs Deep Learning Model 1. Natural Language Processing (NLP) - 왼쪽 초록색 영역전통적인 NLP는 딥러닝이 등장하기 전부터 사용된, 자연어 처리 기술을 의미합니다. 주로 통계 기반 방법이나 규칙 기반 방법을 사용합니다.사례:Bag of Words (BoW): 문서에서 단어의 등장 빈도를 기반으로 텍스트를 벡터화하는 방법.TF-IDF (Term Frequency-Inverse Document Frequency): 특정 단어가 문서에서 얼마나 중요한지 가중치를 부여하는 방법.n-grams: 연속된 단어들의 패턴을 모델링하는 방법으로, 예를 들어 2-gram은 두 개의 단어 쌍이 자주 등장하는 패턴을 학습.Hidden Markov Models (HMM): 자연어 문장에서 단어의 순서를 확률적으로 모델링하.. 2024. 10. 10.
05. 경사하강법 들어가기전에) **딥러닝에서 "차원의 저주"(Curse of Dimensionality)**는 데이터의 차원이 높아질수록, 즉 특성(feature)의 개수가 많아질수록 발생하는 문제들을 말합니다. 차원이 높아지면, 데이터 분석과 학습 과정에서 여러 가지 어려움이 생길 수 있습니다. 딥러닝 및 머신러닝 모델이 고차원 데이터에서 학습할 때 성능 저하나 학습의 어려움을 겪게 되는 이유는 차원의 저주 때문입니다.차원의 저주에서 발생하는 문제들데이터가 희소해짐(Sparsity):차원이 높아지면 데이터가 차지하는 공간이 기하급수적으로 커집니다. 이로 인해 데이터가 희소해지며, 데이터 포인트들이 서로 멀리 떨어져 있게 됩니다.예를 들어, 2차원에서는 데이터 포인트들이 비교적 밀집해 있지만, 차원이 증가하면 포인트들이.. 2024. 10. 10.