분류 전체보기 143

Advanced RAG, 2025 LLM Trend

sparse retrieval(유사 문서 필터링모듈 ) -> 속도 빠름.Dense Retrieval(안전 대책..) -> 느림 근데 전문성 높은 문서에서는정밀한 의미구분 어려울 수 있음.  저 두개를 모두 활용하자! -> Hybrid Searching 기법. 각각의 벡터DB -> 3:4비율로 종합, 지금 우리 하고있는 방식임. 근데 유사도 계산법이 달라서.. 이 점수 자체를 쓰는것보단 rerank를 하는 것이 더 좋음.   chunk 검색시 문제점: 사용자의 질문을 온전하게 이해하지 못하는 경우 / 사용자의 질문과 유사한 쿼리를 찾는 경우사용자의 쿼리랑 비슷한걸 찾으면 안되고 그 의도에 해당하는걸 찾아야 한다. 대안1) 질문을 다양하게! Query를 서로 다른 N개의 문장으로 변환 -> 문장별 검색된 c..

AI/LLM 2025.02.25

Modular RAG

Modular를 젤 잘하는법? -> class화. node..base 클래스만들어놓고 활용하기# LangGraph 기반 RAG 시스템을 구성하기 위해, 각 모듈이 상속해야 할 Base 메서드를 정의합니다.class BaseRAGModule: # 각 모듈은 LangGraph Workflow의 노드 역할을 합니다. node_id: str # 각 모듈은 다음 노드로 전달할 데이터를 반환하는 `run` 메서드를 가져야 합니다. def run(self, state: State) -> State: raise NotImplementedError def __call__(self, state: State) -> State: return self.run(state) # ..

AI/LLM 2025.02.25

Embedding, Chunking

colpali:  PDF 내용을 text로 chunking 안하고 이미지로 처리하는 모델Milvus로 다중 모달 검색에 ColPali 사용 Milvus v2.4.x 문서 Milvus 벡터 데이터베이스 문서Milvus v2.4.x 문서milvus.ioImplement Multimodal RAG with ColPali and Vision Language Model Groq(Llava) and Qwen2-VL | by Plaban Nayak | The AI Forum | Medium Implement Multimodal RAG with ColPali and Vision Language Model Groq(Llava) and Qwen2-VLIntroductionmedium.comvidore/colqwen2.5-..

AI/LLM 2025.02.24

구조

RNN은 seq2seq이어서 대규모의 데이터 병렬처리가 어려웠는데 트랜스포머부터는 가능. multi head attention의 head들을 각각 다른 gpu에 뿌려서 학습가능. 트랜스포머는 작은모델 6층/6층 큰모델 12층씩gpt4는 디코더 층도 100 200 넘어감 rnn은 번역, 요약 등등 모델이 다 따로 있었는데 트랜스포머는 다양한 task 동시에 가능--대규모 데이터 + 컴퓨팅파워anthropic: openai에서 탈출한 사람들이 만듦. 기술은 그대로 갖고있되,,, 반기를 들음meta llama, deepseek, X groq3 Multi Lingual을 놓치고 있따! gpt는 58개국어가능한데 아직 다른애들은 x.. 그래도 다개국어 가능--transformer까지는 지도학습이었음.BERT는 t..

AI/LLM 2025.02.24

Langchain

langchain 생태계? 그림 참고하기 1, 2의 retriever 차이? community는 langchain이 다른걸 활용할 수 있게 의존성을 떨어뜨린 것. 외부 검색도구 등의 tool 활용가능하도록.langchain - chains, agents, retrieval strategieslangchain-community: model IO(model, prompt, example selector, output parser), retrieval(retriever, document loader, vector store, text splitter, embedding model), Agent tooling(tool, toolkit)langchain core: LCEL 지원   RunnableWithMessa..

AI/LLM 2025.02.10

Lost in the Middle: How Language Models Use Long Contexts 논문 리뷰

Lost in the Middle: How Language Models Use Long Contexts 링크: https://arxiv.org/abs/2307.031720. 요약 및 기여점Stanford에서 2023년에 낸 논문이 논문은 언어 모델들이 긴 context 내에서 정보를 처리할 때, context의 중간에 위치한 정보에 대해 성능이 저하되고, 관련 있는 정보기 입력의 초반 혹은 후반에 있을 때는 성능이 향상되는 경향을 보인다는 것을 보여주었음.RAG를 포함하여 긴 문맥을 처리하는 과정에서 공통적인 양상을 보임정보 위치, Context 길이, 모델 구조, 질문의 위치, 모델 크기, 훈련 데이터에 변화를 주며 실험을 하였음1. 관련 연구How Do Language Models Use Contex..

SNU/논문리뷰 2024.08.19
반응형