読み書きプログラミング

日常のプログラミングで気づいたことを綴っています

AI PC調査

今年はいよいよAI真っ盛りな一年になりそうです。

AlphaGoクローンの移植をきっかけに、せっかく、(学習じゃなくて)推論方面で色々ノウハウを持てたので、応用できたらと推論系調査備忘録。

プラットフォーム iOS/iPadOS macOS Android Windows
フラグシッププロセッサ A17 Pro M3 Snapdragon 8 Gen 3/Dimensity 9300 Ryzen 7040U/Core Ultra
上記プロセッサNPU性能 35TOPS(実力は8.75FLOPS) 18TOPS(実力は9FLOPS) 45TOPS/33TOPS 10TOPS/11TOPS
今年発売予定プロセッサ A18 M4? Snapdragon X Elite
ランタイム Core ML Core ML TensorFlow Lite DirectML
フォーマット mlmodel/mlpackage mlmodel/mlpackage tflite ONNX
変換対象 TensorFlow/PyTorch TensorFlow/PyTorch TensorFlow TensorFlow/PyTorch/...

以下、根拠のない印象。


ランタイムを使った開発の情報はあまりなく、相変わらずまだ開発者が少ない印象。

Core MLは現在、生成AI関連のウェイトをNeural Engine用にコンパイルする時間が非常に長く、推論の速さを活かすのが難しい。
AI Readyを謳おうと思うとCore MLの大改造が必要で、WWDCに向けて大忙しのはず。
メモリも今のiPhone/iPadで標準的な6〜8GBはちょっと苦しい。
今年のモデルから16GBが標準になるんじゃないか。
今のところ、Core MLやMPSGraphよりMetal生書きのサードパーティの生成AI実装のほうが優秀。

TensorFlow Lite、盛り上がっているのか不明。Pixel 8 ProやGalaxy S24のAI機能も果たしてTensorFlow Liteの上に作られているのかどうか。

DirectMLもこれから?
NPUを使おうと思うとこれを介する必要があるが、普通の開発者はNPU使わず、GPUでPyTorchおよびその関連ランタイムを使いそう。
PCメーカがAI PCをアピールするために同梱アプリを作るところから始まりそう。