본문 바로가기

전체 글128

RAT: Retrieval Augmented Thoughts ElicitContext-Aware Reasoning in Long-HorizonGeneration 논문 리뷰 안녕하세요 오늘 리뷰해볼 논문은 RAT: Retrieval Augmented Throughts 입니다. 뜻을 직역하면 검색증강을 통해 생각하게 하겠다 정도로 해석할 수 있겠는데요 벌써 느낌이 오긴합니다. LLM 자체에게 생각을 하게 해서 Agent 형태의 모듈들이 많이 만들어지고 있고, Self-RAG, CRAG 등 다양한 RAG 방법론 또한 모델에게 다시 생각을 통해서 원하는 결과를 낼 수 있도록 해주는 방법론 들 입니다. https://arxiv.org/abs/2403.05313 RAT: Retrieval Augmented Thoughts Elicit Context-Aware Reasoning in Long-Horizon Generation We explore how iterative revising.. 2024. 3. 20.
LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS 쉽게 논문 코드 리뷰 오늘 리뷰할 논문은 현재 많이 쓰이고 있는 LLM Fine Tunning 기법인 LoRA 에 대해서 리뷰를 하려고 합니다. 저는 LoRA 에 전반적인 메커니즘은 알고는 있지만 조금 더 깊게 알아보고 싶어서 리뷰를 해보겠습니다. LoRA: Low-Rank Adaptation of Large Language Models An important paradigm of natural language processing consists of large-scale pre-training on general domain data and adaptation to particular tasks or domains. As we pre-train larger models, full fine-tuning, which retra.. 2024. 3. 15.
Self Consitency prompt CoT 를 향상시키는 기법으로 기본 아이디어는 CoT 에 LLM 에 중간에 생각의 과정을 만들고 생각 Temprature 에 따라 다양하게 샘플링이 가능하기 때문에 모델이 여러개의 추론과정과 결과에 대해서 샘플링이 가능하다. (Temrature가 0이면 안된다) 결국 여러개의 샘플링 된 결과중에서 일관성있는 결과를 통해서 최종적인 정답으로 만든다 방식 : 결과에 대한 값을 투표, Softmax에 의한 확률로 고르는 방법도 있고, 값들의 평균확률 등 다양하게 있다 실험 결과에서는 Majority vote 즉 투표로 일관성있게 많은 답변인게 성능이 제일 좋게 나왔다. class CoT(Basemodel): throught: str = Field(description="step by step throught.. 2024. 3. 7.
파이썬 위치 기반 매개변수, 키워드 기반 매개변수 안녕하세요 오늘은 우연하게 알게된 파이썬의 모르는 문법들을 설명해드리려고 합니다. 위치기반 매개변수(positial only) 키워드기반 매개변수(keyword only) 입니다. def function(a,b,c,d,e,f): print(a,b,c,d,e) 다들 많이 함수에서 쓰기 때문에 아실수도 있지만 생소한 내용입니다. * , / 를 활용해서, 위치기반과, 키워드기반을 지정을 할 수 있습니다. def function(a,b,/,*,e,f) foo(1,2) foo(a=1,b=2) foo(1,2,"","") 첫번째 foo 함수는 정상적으로 실행이 됩니다. 두번째는 error 가 나는데요. 위치기반 파라미터이기 때문입니다. 세번째 역시 키워드기반이기 때문에 명시를 해주어야합니다. 파라미터를 아래의 예제를.. 2024. 3. 7.
InstructGPT : Training language models to follow instructions with human feedback 안녕하세요 모든 논문을 리뷰하기에는 너무 가내수공업이 많이 들고 그래서 짧게나마 제가 읽고 , 봤었던 논문에 대한 생각을 정리를 위해 Summary를 만들어보았습니다. https://openai.com/research/instruction-followinghttps://arxiv.org/abs/2203.02155 Training language models to follow instructions with human feedback Making language models bigger does not inherently make them better at following a user's intent. For example, large language models can generate outputs t.. 2024. 3. 6.
Entropy 는 무엇인가? Entropy : 정보를 표현하는데 필요한 최소 평균 자원량 (코딩을 잘한것) 하트와 뻐큐중에 뭐가 더 엔트로피가 높을까? 하트가 높다 Cross Entropy : 동일하게 정보를 표현한다.비효율적인 것 (코딩을 못한것) KL 다이버전스 : Entropy - Cross entorpy + 양수가 되는것 2024. 3. 6.