![퀘이사존](https://img2.quasarzone.com/editor/2024/05/23/b88a0afb7311b8dfb08bece946c3a43a.webp)
출처 : PCWorld
2023년, Microsoft는 클라우드에서 실행되는 대규모 언어 모델에 대한 큰 믿음을 가지고 있었습니다. Microsoft Build에서 새로운 Copilot+ PC의 NPU에서 특별히 실행되도록 설계된 소형 언어 모델인 Phi Silica를 출시했습니다. 4월에는 로컬 PC에서 실행할 수 있을 정도로 작은 모델인 Phi-3-mini를 발표했습니다. Phi Silica는 Phi-3-mini에서 파생된 것으로, 월요일에 Microsoft가 발표한 Copilot+ PC에서 실행되도록 특별히 설계되었습니다.
AI와의 대부분의 상호 작용은 클라우드에서 이루어지며, Microsoft의 기존 Copilot 서비스는 PC에서도 Microsoft 원격 서버와 통신합니다. Copilot과 같은 클라우드 기반 서비스는 대규모 언어 모델(LLM)로 알려져 있으며, 수십억 개의 매개 변수를 통해 Copilot의 답변 정확도를 높입니다.
![퀘이사존](https://img2.quasarzone.com/editor/2024/05/23/fb47511d8490a0e9efd7785fbb92b9b0.webp)
하지만 곧 출시될 Microsoft의 Recall PC 검색 엔진은 NPU에 의존하며, 개인 정보 보호를 위해 로컬에서 실행됩니다. 사용자는 Recall 인덱싱 시크릿 또는 익명 검색을 원하지 않습니다. LLM은 일반적인 PC에서 실행하기에는 너무 많은 메모리와 저장 공간을 필요로 합니다. 이것이 바로 소규모 언어 모델, 즉 SLM의 정당성입니다.
Microsoft는 리콜 및 기타 AI가 이러한 종류의 SLM에 의존할 것이라고 밝혔습니다. 파이 실리카는 33억 개의 매개 변수 모델을 사용하며, Microsoft는 이 작은 언어 모델에서도 정확도와 속도 모두를 위해 미세 조정했습니다. Microsoft는 블로그 게시물에서 “Windows는 NPU 및 배송 인박스용으로 맞춤 제작된 최첨단 소규모 언어 모델(SLM)을 갖춘 최초의 플랫폼입니다.”라고 말합니다.
그러나 경영진은 또한 Phi Silica를 “즉시 사용 가능한” 솔루션이라고 언급했는데, 이는 SLM이 Copilot의 로컬 버전인 Copilot+ PC 자체에 제공될 것인지에 대한 의문을 제기합니다. Microsoft는 아직 이 질문에 대한 답변을 내놓지 않았지만, Copilot+ PC가 출시되는 6월 23일까지는 답변을 내놓을 예정입니다. |