🟣 AI & ML35 아이폰의 애플 인텔리전스는 어떻게 학습되었을까? Apple Foundation Model(AFM) 논문 살펴보기 - 03 이전 포스트:2024.12.29 - [🟣 AI & ML] - 아이폰의 애플 인텔리전스는 어떻게 학습되었을까? Apple Foundation Model(AFM) 논문 살펴보기 - 022024.11.17 - [🟣 AI & ML] - 아이폰의 애플 인텔리전스는 어떻게 학습되었을까? Apple Foundation Model(AFM) 논문 살펴보기 - 01 AFM paper link: https://arxiv.org/abs/2407.21075 5. Powering Apple Intelligence FeaturesAFM 모델은 iPhone, iPad, Mac의 Apple Intelligence 시스템을 지원하기 위해 설계되었습니다. 기본 모델이 우수한 성능을 가졌더라도, 중요한 것은 이러한 각 운영 체제에.. 2025. 1. 6. 아이폰의 애플 인텔리전스는 어떻게 학습되었을까? Apple Foundation Model(AFM) 논문 살펴보기 - 02 이전 포스트:2024.11.17 - [🟣 AI & ML] - 애플의 AI 인텔리전스는 어떻게 학습되었을까? Apple Foundation Model(AFM) 논문 살펴보기 - 01 AFM paper link: https://arxiv.org/abs/2407.21075 4. Post-Training사후 학습(post-training) 단계에서는 사전 학습된 AFM 모델의 지시 수행(instruction following), 추론(reasoning), 글쓰기(writing) 능력을 강화합니다.Apple Intelligence의 주요 특징은 5장에서 설명할 어댑터(adapter)지만, 전반적인 성능 향상은 사후 학습 단계에서 이루어집니다.사후 학습은 크게 2단계로 이루어지며, 큰 맥락에서는 일반적인 LLM의.. 2024. 12. 29. 아이폰의 애플 인텔리전스는 어떻게 학습되었을까? Apple Foundation Model(AFM) 논문 살펴보기 - 01 TL;DR지난 10월 애플 인텔리전스(Apple intelligence)를 탑재한 iOS 신규 버전이 출시되었습니다. 애플 인텔리전스를 통해 각종 텍스트 작업이나 앱 간 상호작용, 이미지 편집 작업 경험을 개선할 수 있다고 합니다. 애플 인텔리전스의 타겟 시장이 주로 모바일 디바이스인 만큼, 경량의 온디바이스(on-device) 모델 구축에 특히 집중한 것으로 보입니다. 이번 포스트에서는 애플 인텔리전스의 파운데이션 모델에 대한 기술 보고서라 할 수 있는 논문 'Apple Intelligence Foundation Language Models' 를 살펴보며 애플이 모델을 어떻게 구성했는 지 살펴보겠습니다.본 주제는 3회에 나누어 다룰 예정되며, 이번 포스트에선 사전 학습(pre-training) 파트를 .. 2024. 11. 17. Runway의 AI 영상 생성(Video Generation) 서비스 Gen-3 Alpha 사용해보기 Runway는 대표적인 AI 기반 영상 생성 서비스 중 하나입니다. OpenAI의 Sora는 아직 일반 사용자가 이용할 수 없으며, 어느 정도 퀄리티를 보장할 수 있는 영상 생성 서비스는 Runway와 Luma AI 정도인 것 같습니다. Runway는 현재 Gen-3 Alpha 와 Gen-3 Alpha Turbo 모델이 플래그십 모델이며, 웹 서비스 또는 API로 이용할 수 있습니다. Luma AI는 Dream Machine 이라는 모델을 결제 후 API로 이용할 수 있습니다. Runway 홈페이지 Luma 홈페이지 Runway는 결제를 하지 않아도, 약 120크레딧의 일회성 무료 크레딧을 기본 제공합니다. 영상 하나당 50 - 100 크레딧 정도가 소모되므로 체험정도만 할 수 있겠습니다. 본 포스트에서.. 2024. 10. 26. 규모 대비 성능을 크게 높인 Ai2의 오픈소스 거대 멀티모달 모델(LMM) Molmo 살펴보기 TL;DR앨런(Allen) AI 연구소와 워싱턴대가 협력하여 구축한 Ai2의 멀티모달 모델군 Molmo와 데이터셋 Pixmo가 공개되었습니다. 자체 구축한 고품질 데이터셋을 활용해 모델 크기 대비 성능을 크게 높였고, 대화형 모델에 맞게 평가 방법을 개선하여 체계적인 검증을 수행한 점이 눈에 띕니다. 무엇보다, 데이터셋을 공개한다는 것이 연구자들에게는 반갑습니다. 이번 포스트에서는 Molmo의 논문 및 블로그를 참고하여 모델 구조와 훈련 방법, 검증 결과를 간단히 살펴보겠습니다. 원문 및 데모 링크: https://molmo.allenai.org논문 링크: https://arxiv.org/abs/2409.17146 Molmo And Pixmo: Open Weights And Open Data For .. 2024. 10. 1. Phi-3.5와 PGVector 벡터 DB를 이용한 검색증강생성(RAG) 시스템 구축하기 Phi 모델 구동 방법 참고:2024.09.22 - [🟣 AI & ML] - Microsoft의 Phi-3.5 모델 Mac Silicon 환경에서 구동하기PGVector 설치 방법 참고:2024.05.13 - [🟣 AI & ML] - 검색증강생성(RAG) - LangChain과 PGVector를 이용한 간단한 RAG 시스템 구축해보기 지난 포스트에서 Microsoft의 Phi-3.5 모델을 구동하는 법을 살펴보았습니다. 이번 포스트에서는, 이 Phi-3.5가 특정 문서의 정보를 참고하여 답변할 수 있게하는 RAG 시스템을 PGVector를 이용하여 구축해보겠습니다. 시스템의 대략적인 구조는 다음과 같습니다. RAG 시스템 구축 프로세스는 크게 두 단계로 구성됩니다. Step 1: 사전 작업 단계로, .. 2024. 9. 26. Meta, Llama 3.2 출시: 경량 모델(1B, 3B)과 비전(Vision) 모델 공개 TL;DRMeta에서 Llama 3.2를 출시했습니다. 드디어 이미지 처리가 가능한 비전 모델이 포함되었고, Gemma나 Phi 수준의 경량 모델에 비견할 1B 및 3B 모델도 출시되었습니다. 특히, Llama 기반 앱 개발 및 배포를 간편하게 하는 Llama Stack의 출시도 눈에 띕니다. 이번 포스트에서는 먼저 Meta 공식 블로그 Llama 3.2 소개 포스트를 간단히 요약해 살펴보겠습니다. 원문 링크: https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices Llama 3.2: Revolutionizing edge AI and vision with open, customizable modelsLlama 3.2: 개방.. 2024. 9. 26. Microsoft의 Phi-3.5 모델 Mac Silicon 환경에서 구동하기 이전 글에서 Google의 Gemma 모델을 Mac에서 구동해보았습니다. 이번 포스트에서는 Gemma와 함께 sLM으로 널리 이용되는 Microsoft의 Phi-3.5-mini 모델을 비슷한 방법으로 구동해보겠습니다. 거의 같은 구조이지만, 약간은 다른 설정을 가집니다. 2024.09.22 - [🟣 AI & ML] - Google의 Gemma 2 모델 Mac Silicon 환경에서 구동하기 Phi-3.5 모델은 지난 8월 공개되었고, 일반 sLM 모델인 Phi-3.5-mini 모델과 함께 이미지 작업이 가능한 vision 모델, MoE(Mixture of Experts) 모델을 함께 공개했습니다. 모델 규모는 3.8B으로 Gemma 2B 모델보다는 조금 더 큰 규모를 가집니다. 자세한 내용은 Micros.. 2024. 9. 22. 이전 1 2 3 4 5 다음