AI搭載PCの要件は
半導体製造販売大手のIntel社とMicrosoft社が新たに登場したCore Ultraプロセッサの発表と合わせ、AI処理を高速に行える「AI搭載PC」に関する定義を共同で定めました。AI搭載による意味合いを含め、今回はこの話題を取り上げ解説します。
三つの要件
AI搭載PCの要件 | PCにCPUとGPUおよび「NPU」プロセッサを搭載していること |
キーボードに「Copilotキー」を搭載していること | |
Microsoft社「Copilot」に対応していること |
NPUとは
いわゆるSoC(System-on-a-Chip)と言われる装置やシステム動作に必要な機能のすべてを一つの半導体チップに実装したものをIntelが今回「Core Ultra」として発表、このチップに新たに搭載されたプロセッサがNPU(Neural Processing Unit)と呼ばれるものです。
これまでローカルでは処理できなかったAIを用いた機能・動作をローカル側にて実現する切り札として開発されたもの。Qualcomm社やAMD社の製品には既に搭載されてきましたが、満を持してPC市場で高いシェアを誇るIntel社までメインストリーム製品に実装を始めたことでノート型PCへのNPU実装率は急速に上がっていくことが予見されます。
演算・推論方式の進化
AIによる演算方式は大きく「2フェーズ」、一つはクラウド側で行なわれる学習(マシーンラーニング)したものにプログラマーが作成したモデル(生成AI)にデータを読み込ませて逐次記憶させます。
二つめは推論(インファレンス)により、学習済みモデルが逐次読み込みデータを判別する方式。ユーザーがAIアプリケーション等を活用する際は、主に後者の推論の機能を利用しています。
推論も大きく2つあり、1つがクラウド側のプロセッサで行なわれる推論処理。データをクラウドにアップロードしたら推論処理が行なわれてクライアントマシーンに結果を返します。
上記に対して「エッジAI」ないし「オンデバイスAI」と呼ばれるクライアントデバイス上のプロセッサにてその処理を行うことができます。つまりAI搭載PCとされるのは、クライアント上のプロセッサで処理が行なわれるAI推論が可能なPCまたその推論処理専用のNPU(Neural Processing Unit)搭載により定義づけられることとなったのです。
AI搭載PCの所在地
これまでもエッジAIやオンデバイスAIによる推論処理は行なわれてこなかったのか?という疑問を持った方もおられることと思います。
AI搭載PCにおける処理が「クライアントデバイス上のプロセッサにて処理されるAI推論」との定義からも分かるよう、その処理はNPUのみを用いて行なわれるものではありません。
CPUやGPUにて処理されるエッジAIアプリケーションは、Adobe Creative CloudアプリやPhotoshopのAI処理などがその典型ですが、CPUやGPUに最適化された処理が行われ、その意味なら既にほとんどがAI搭載とも言えるのです。
当初、業界肝いりで「AI」PCと謳われ始めたのは、NPUを搭載という狭義の条件。マーケティング観点では「NPUを搭載したクライアントPCだけでAI推論処理を行なえる」もの。あくまでマーケティングに過ぎず、非常に曖昧だった「AI」PCの意味を両社がタッグを組み定義づけたのは将来的な普及に向けた画期的な流れと言えるのではないか?と感じさせるものです。