본문 바로가기

전체 글128

Build with AI (Google Developer Groups) Build with AI United 2024 | Festa!Festa에서 당신이 찾는 이벤트를 만나보세요.festa.io 행사 정보행사명 : Build with AI United날짜 및 시간: 2024년 4월 27일 (토) 오전 11시장소: 강남 SC컨벤션세션 1 : "백만 토큰 윈도우로는 무엇을 할 수 있을까? : Gemini 1.5 Pro와 새로운 가능성"언어 모델의 발전BERT, Transformer 모델의 등장GPT-3 (2020년), Gemini (2023년)GPU 발전: 초기 100개에서 Llama3 시대의 40,000개로 증가공개 기반 모델의 확산2024년 4월 기준, 200개 이상의 기반 모델 존재언어 모델의 특성 및 발전 방향토큰: 텍스트를 작은 단위로 나누는 기본 요소 (예: 단어, .. 2024. 4. 27.
ORPO: Monolithic Preference Optimization without Reference Model 한글 리뷰 및 학습방법 안녕하세요 오늘 소개해드릴 논문은 ORPO로 LLAMA3 가 나오고 거의 대부분 Training에 쓰이고 있는 최적화 방법입니다. 놀라운 건 이걸 KAIST에서 발표했네요. 역시 다릅니다.   ORPO: Monolithic Preference Optimization without Reference ModelWhile recent preference alignment algorithms for language models have demonstrated promising results, supervised fine-tuning (SFT) remains imperative for achieving successful convergence. In this paper, we study the cru.. 2024. 4. 24.
Vector DB의 Indexing 이란? Vector DB 인덱싱 개요 벡터 데이터베이스 인덱싱(Vector Database Indexing)은 고차원의 데이터를 효율적으로 관리하고 검색하기 위해 사용되는 기술입니다. 이 기술의 주된 목표는 검색 정확도와 검색 속도 사이의 최적의 균형(trade-off)을 찾는 것입니다. 인덱싱은 데이터를 구조화된 인덱스에 저장함으로써, 추후에 이루어지는 검색이 더 빠르고 정확하게 이루어질 수 있도록 합니다. 기술의 필요성 대용량의 데이터셋 내에서 특정 데이터를 빠르게 찾아내는 것은 매우 중요한 문제입니다. 특히, 이미지, 비디오, 오디오와 같은 멀티미디어 데이터들이나, 사용자의 선호도를 반영한 추천 시스템 등에서 사용되는 고차원 벡터들은 전통적인 데이터베이스 인덱스 기법으로는 효율적으로 관리하기 어렵습니다. .. 2024. 4. 23.
Introducing Meta Llama 3: The most capable openly available LLM to date 리뷰 https://ai.meta.com/blog/meta-llama-3/?utm_campaign=llama3&utm_content=video&utm_medium=organic_social&utm_source=twitter 로그인되어 있지 않음 이 페이지를 보려면 로그인하세요. ai.meta.com GitHub - jh941213/LLaMA3_cookbook: Here's how to use Lama3 for beginners and what services are being used. Here's how to use Lama3 for beginners and what services are being used. - jh941213/LLaMA3_cookbook github.com TakeOut 오늘은 최신 오.. 2024. 4. 22.
효과적인 Attention 매커니즘 infini-attention 의 Code 리뷰 https://github.com/jlamprou/Infini-Attention/blob/main/infiniAttention.py Infini-Attention/infiniAttention.py at main · jlamprou/Infini-Attention Efficient Infinite Context Transformers with Infini-attention Pytorch Implementation + QwenMoE Implementation + Training Script + 1M context keypass retrieval - jlamprou/Infini-Attention github.com + 블로그가 잘안보이는 관계로 https://github.com/jh941213/Code_revi.. 2024. 4. 18.
Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention 논문 리뷰 오늘 소개해드릴 논문은 Long-Context에서 효과적인 방법을 위한 새로운 메커니즘 infini-attention에 관한 내용입니다. https://arxiv.org/abs/2404.07143 Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention This work introduces an efficient method to scale Transformer-based Large Language Models (LLMs) to infinitely long inputs with bounded memory and computation. A key component in our proposed approach .. 2024. 4. 16.