본문 바로가기

Python/Deep Learning8

Llama 코드예시, 최적화 Llama 2 실행 및 속도 최적화 가이드Transformer와 Llama 2 간단 소개Transformer란?Transformer는 자연어 처리(NLP)와 컴퓨터 비전(CV) 분야에서 널리 사용되는 딥러닝 모델 아키텍처입니다. Google이 2017년 발표한 논문 "Attention is All You Need"에서 소개되었으며, 핵심 개념은 Self-Attention 메커니즘입니다. 이 구조는 번역, 요약, 생성 등 다양한 언어 작업에서 높은 성능을 제공합니다.Llama 2란?Llama 2는 Meta(구 Facebook)가 공개한 최신 대규모 언어 모델로, OpenAI의 GPT 시리즈와 유사하게 자연어 처리 작업을 위한 강력한 성능을 제공합니다. Llama 2는 다양한 크기(7B, 13B, 70B)의.. 2025. 1. 27.
딥러닝 Transformer 정리 Transformer 모델 개요Transformer는 2017년에 Google의 연구자들이 발표한 혁신적인 자연어 처리(NLP) 모델로, 주로 기계 번역, 텍스트 생성, 감정 분석 등 다양한 NLP 작업에서 뛰어난 성능을 보여주고 있습니다. Transformer는 기존의 RNN(Recurrent Neural Network)이나 LSTM(Long Short-Term Memory) 모델의 한계를 극복하기 위해 설계되었습니다.주요 특징Self-Attention Mechanism:Transformer의 핵심 아이디어는 Self-Attention입니다. 이는 입력 시퀀스의 각 단어가 다른 단어와의 관계를 고려하여 가중치를 부여하는 방식입니다. 이를 통해 문맥을 이해하는 데 도움을 줍니다.병렬 처리:Transfor.. 2025. 1. 24.