공부 메모장
close
프로필 배경
프로필 로고

공부 메모장

  • 분류 전체보기 (50)
    • 개발 (13)
    • k8s (6)
    • Terraform (4)
    • AI (27)
  • Github
  • 홈
  • 태그
  • 방명록
Manus AI 체험기

Manus AI 체험기

얼마 전, 핫했던 Manus AI 에 waitlist를 신청했었다.기대도 안하고 까먹고 있던 와중에, 승인 메일이 왔다.1. 가입메일에 적힌 링크를 통해 가입하자마자, 보너스 크레딧 1000이 내 계정에 들어왔다.이 크레딧을 가지고 AI에게 어떤 작업을 시킬 수 있는지 궁금해서 바로 써봤다.2. Llama 4 모델 조사 & 블로그 글 작성예전 같았으면 직접 조사하고 정리해서 블로그 글을 썼겠지만, 이번엔 자료조사부터 마크다운 초안 작성까지 전부 Manus AI에게 맡겨보았다.그 결과물을 거의 손대지 않고 그대로 블로그에 올렸다. Meta의 Llama 4: 다중 모달 AI의 새로운 시대를 여는 혁신 입력 프롬프트는 단순하게 했다.이번에 라마4 모델이 나왔던데, 이 부분에 대해서 자료조사를 하고, 블로그 글..

  • format_list_bulleted AI
  • · 2025. 4. 6.
  • textsms

Meta의 Llama 4: 다중 모달 AI의 새로운 시대를 여는 혁신

Meta가 2025년 4월 5일, 차세대 AI 모델 시리즈인 Llama 4를 공개했습니다. 이번 출시는 AI 기술 발전에 있어 중요한 이정표가 될 것으로 보입니다. Llama 4는 네이티브 다중 모달 기능과 혁신적인 혼합 전문가(Mixture of Experts, MoE) 아키텍처를 갖춘 최초의 오픈 웨이트 모델로, AI 개발 생태계에 새로운 가능성을 제시합니다.이 글에서는 Llama 4의 주요 특징, 이전 모델과의 차이점, 그리고 AI 커뮤니티에 미치는 영향에 대해 자세히 살펴보겠습니다.Llama 4 모델 시리즈 소개Meta의 Llama 4는 Scout, Maverick, Behemoth 세 가지 모델로 구성되어 있으며, 각각 다른 크기와 성능 특성을 가지고 있습니다.Llama 4 Scout: 효율성과..

  • format_list_bulleted AI
  • · 2025. 4. 6.
  • textsms
MCP(Model Context Protocol)란?

MCP(Model Context Protocol)란?

최근 인공지능(AI) 분야에서는 AI 모델이 외부 데이터 소스 및 소프트웨어와 효율적으로 상호작용할 수 있도록 돕는 MCP(Model Context Protocol)가 주목받고 있습니다. 이 글에서는 MCP의 개념, 기술적 구조, 기존 API 방식과의 차이점, 그리고 주요 활용 사례에 대해 살펴보겠습니다.MCP란 무엇인가?MCP는 대규모 언어 모델(LLM)이 외부 데이터와 시스템을 더 효과적으로 활용할 수 있도록 설계된 개방형 표준 프로토콜입니다. 기존에는 AI가 API(Application Programming Interface)를 통해 다른 프로그램과 상호작용할 수 있었지만, MCP는 이러한 기능을 더욱 직관적이고 유연하게 만들어줍니다. 예를 들어, AI가 단순히 “오늘 뉴욕의 날씨는 어떤가요?”라는..

  • format_list_bulleted AI
  • · 2025. 3. 23.
  • textsms
vLLM과 Ollama 비교

vLLM과 Ollama 비교

AI 애플리케이션을 개발할 때, LLM(Large Language Model)의 성능과 활용도를 고려해야 한다.최근 경량 LLM 프레임워크로 주목받는 vLLM과 Ollama는 각기 다른 장점을 가지고 있어 사용 목적에 따라 적절한 선택이 필요하다.이를 비교하여 어떤 환경에서 어떤 프레임워크를 선택하는 것이 적합한지 살펴본다.vLLM과 Ollama란?vLLM SKYPILOT에서 개발한 GPU 기반 LLM 추론 최적화 프레임워크이다. 빠른 토큰 생성과 효율적인 메모리 관리가 특징이며, 대규모 AI 애플리케이션에 적합하다. PagedAttention 기술을 활용해 메모리를 최적화하고, PyTorch 및 TensorFlow와 쉽게 통합할 수 있다. 특히, 여러 개의 요청을 병렬 처리하여 추론 성능을 극대..

  • format_list_bulleted AI
  • · 2025. 2. 12.
  • textsms

DPO(Direct Preference Optimization)와 SFT(Supervised Fine-Tuning)의 차이점

대규모 언어 모델(LLM)을 개발하거나 기존 모델을 개선할 때, 주로 사용되는 학습 방식은 SFT(Supervised Fine-Tuning)와 DPO(Direct Preference Optimization)이다. 이 두 방법은 학습 목표와 접근 방식에서 큰 차이가 있으며, 각각의 장점과 단점을 고려하여 상황에 맞게 선택해야 한다. 이 글에서는 두 방법의 특징과 차이를 설명하고, 어떤 상황에서 각각의 방법이 적합한지 알아본다. SFT란 무엇인가?SFT(Supervised Fine-Tuning)는 지도 학습 방식을 기반으로 모델을 미세 조정하는 방법이다. 주어진 입력(Prompt)에 대한 "정답" 또는 "모범 응답" 데이터를 학습하여 모델이 특정 작업에서 더 나은 성능을 발휘하도록 만든다. 이 과정에서 모델..

  • format_list_bulleted AI
  • · 2024. 11. 27.
  • textsms

텍스트를 벡터로 변환하는 임베딩 모델의 과정

임베딩 모델은 텍스트를 수치화하여 고차원 공간의 벡터로 변환하는 과정을 통해 컴퓨터가 텍스트를 이해할 수 있도록 한다. 이러한 벡터화 과정은 자연어 처리(NLP)에서 핵심적인 역할을 하며, 검색, 분류, 추천 시스템 등 다양한 응용 분야에 활용된다. 이번 글에서는 예시 문장을 기반으로 임베딩 모델이 텍스트를 벡터로 변환하는 과정을 단계별로 설명한다. 1. 텍스트 전처리: 토크나이징(Tokenization)텍스트 벡터화의 첫 번째 단계는 텍스트를 더 작은 단위인 토큰으로 나누는 작업이다. 문장을 단어 또는 서브워드 단위로 분리하며, 이는 임베딩 모델이 입력으로 받을 수 있는 형식으로 변환하기 위함이다.예를 들어,"나는 사과를 먹었고, 저녁에는 오렌지를 먹을 예정이다."라는 문장은 다음과 같이 토큰화된다.[..

  • format_list_bulleted AI
  • · 2024. 11. 27.
  • textsms
  • navigate_before
  • 1
  • 2
  • 3
  • 4
  • 5
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (50)
    • 개발 (13)
    • k8s (6)
    • Terraform (4)
    • AI (27)
최근 글
인기 글
최근 댓글
태그
  • #k8s
  • #ollama
  • #terraform
  • #Rag
  • #AWS
  • #쿠버네티스
  • #kubernetes
  • #Retrieval Augmented Generation
  • #rocky linux 9
  • #테라폼
전체 방문자
오늘
어제
전체
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바