애플은 대규모 언어모델을 iPhone 상에서 로컬로 동작시키는 것을 목표로하고 있다

IT Search
0

 애플 연구자가 "LL Mina flash: Efficient Large Language Model Inference with Limited Memory"라는 제목의 논문을 프리프린트 서버 arXiv에 공개했는데, 이 논문에서는 "메모리가 한정된 디바이스 상에서 대규모 언어 모델(LLM)의 추론을 효과적으로 수행할 수 있는 길을 열어주는 해결책", 즉 iPhone 등의 디바이스 상에서 LLM을 동작시키기 위한 기술이 제시되어 있고, Apple은 장래적으로 iPhone 상에서 LLM을 동작시키는 것을 목표로 하고 있다고 생각된다.



연구팀은 논문에서, 스마트폰 등 모바일 디바이스에서는, 기존 LLM 실행에 사용되던 RAM보다 플래시 메모리 스토리지가 더 풍부한 용량을 갖는다는 점에 주목하고 있다. 그리고 "Windowing(윈도우 처리)"과 "Row-Column Bundling(행렬 번들)"이라는 두 가지 기술을 사용하여, 플래시 메모리 처리량을 극대화하는 것을 목표로 하고 있다.


"윈도 처리"란, AI 모델이 매번 새로운 데이터를 로드하는 것이 아니라, 이미 처리한 데이터의 일부를 재사용하는 것. 이를 통해 메모리를 정기적으로 페치할 필요성이 줄어들고, 프로세스가 보다 빠르고 원활해진다. 또, "행렬 번들"은 플래시 메모리의 시퀀셜 데이터 액세스에 맞추어 데이터 청크의 크기를 늘리는 기술.


via : https://arxiv.org/abs/2312.11514


애플 연구팀은, "윈도 처리"와 "행렬 번들" 두 가지를 결합하면, 이용 가능한 D램의 최대 두 배 크기로 AI 모델을 실행할 수 있게 되고, 그 추론 속도는 표준 프로세서에서 CPU로 했을 때의 4~5배, GPU로 했을 때의 20~25배에 필적한다고 한다.


원래 데이터센터에서 동작하는 LLM을 스마트폰 등 모바일 기기에서 로컬로 동작시키는 시도는 이미 구글이 실용화 단계로 진행하고 있고, 구글은 멀티모달 AI인 제미니의 최소 크기 모델인 "제미니 나노"를 픽셀 8 프로에 도입해 클라우드가 아닌 디바이스 상에서 움직이는 로컬 AI로 작동시킨다고 밝힌 바 있다.


한편, Apple은 2011년부터 버추얼 어시스턴트 "Siri"를 iPhone을 비롯한 Apple 디바이스에 탑재하고 있지만, Siri는 오늘날의 Chat GPT나 Bing Chat, Gemini와 같이 인간다운 대화문을 생성하는 챗봇이 아니라, 어디까지나 음성 입력에 의한 조작을 가능하게 하는 보조 도구일 뿐.



"Apple은 구글이나 Microsoft에 AI 기술에서 뒤처져 있다"고 되어 있었지만, 2023년 들어 Apple이 독자적으로 "Ajax"라고 불리는 LLM을 이미 구축했으며, "Apple GPT"라고 사내에서 불리는 독자적인 챗봇 AI를 개발하고 있는 것으로 보도되고 있다. Apple 관련 뉴스 사이트인 MacRumors에 의하면, 이 Ajax는 OpenAI의 GPT-3 혹은 GPT-4에 필적하도록 설계되어 있으며, 2000억의 파라미터로 동작한다고 한다.


2023년 11월 팀 쿡 CEO는, 자세한 내용을 밝히지는 않았지만, "생성 AI에 관해, 우리는 연구를 진행하고 있습니다. 그리고, 생성 AI가 중심이 되는 제품을 선보일 때가 머지않아 올 것입니다"라고 발언해, Apple이 생성 AI 개발에 착수하고 있음을 인정하고 있다.


최종적으로 Apple의 생성 AI에 대한 대처는, Siri에 포함될 가능성이 있는데, 2023년 10월에는 이미 소프트웨어 엔지니어링 그룹이 iOS 18에 AI 기능을 탑재하고, 시리와 메시징 앱에 LLM을 통한 문장 생성이 응용될 것으로 보도되었다. 또한 생성 AI를 Xcode 등 개발 도구로 통합하는 것도 검토되고 있으며, Microsoft의 GitHub Copilot처럼 코드를 쓸 때 자동 보완해주는 코딩 지원 AI 도입도 계획되어 있다고 한다.



또 해통국제증권의 제프 푸 애널리스트는, 애플이 2024년 후반쯤 선보일 iOS 18에, 아이폰과 아이패드에서 이용 가능한 생성 AI 기능을 탑재할 것으로 예상하고 있는데, 푸 씨에 따르면, 2023년 10월 애플은 이미 수백 대로 구축된 AI용 서버를 준비했으며, 2024년에는 더 증축할 예정이라고 한다.


이번에 발표된 논문은, LLM을 iPhone 상에서 동작시키는 것을 상정한 것이라고 할 수 있는데, 연구팀은 "이번 브레이크스루는 자원이 제한된 환경에 고도의 LLM을 도입해, 적용성과 접근성을 확대하는 데 특히 중요합니다. 희소성 인식, 컨텍스트 적응형 읽기 및 하드웨어 지향 설계의 통합을 통해 메모리가 제한된 장치에서 LLM을 효과적으로 추론할 수 있는 길이 열립니다"라고 코멘트하고 있다.

댓글 쓰기

0댓글

댓글 쓰기 (0)