
Sakana AI「AI CUDA Engineer」炎上??
東京を拠点とするAIスタートアップSakana AIが発表した「AI CUDA Engineer」。GPUコードの自動最適化を謳うこの技術は、当初大きな期待を集めたが、その性能主張を巡り、研究者コミュニティから厳しい批判が相次いだ。誇張されたデータ、不正確な計算結果…何が問題だったのか。事実と反響を詳細にレポートする。
Introducing The AI CUDA Engineer: An agentic AI system that automates the production of highly optimized CUDA kernels.https://t.co/28vPHBOAX6
— Sakana AI (@SakanaAILabs) February 20, 2025
The AI CUDA Engineer can produce highly optimized CUDA kernels, reaching 10-100x speedup over common machine learning operations in… pic.twitter.com/PoBgcDupYg
1. Sakana AIの発表:AIによるCUDAカーネル最適化
Sakana AIは、2023年に設立されたAI研究開発企業である。共同創業者のLlion Jones氏とDavid Ha氏は、それぞれGoogle Brain出身の著名なAI研究者として知られている。同社は、「自然に学ぶAI」をコンセプトに、大規模AIモデルの開発プロセス自体の自動化・効率化を目指している。
2025年2月、Sakana AIは「AI CUDA Engineer」と題する論文とデモを公開した。これは、大規模言語モデル(LLM)を用いて、PyTorchで記述された計算処理を、GPUで高速に実行するためのCUDAカーネルに自動変換・最適化する技術である。
Sakana AIは、この技術により「10倍から100倍の高速化が可能」であり、特定のタスクでは「50倍以上の性能向上を達成した」と発表した。
2. コミュニティの反応:性能主張への疑念と批判
Sakana AIの発表は、当初こそ一部で注目を集めたものの、公開直後からAI研究者コミュニティ内で疑念の声が上がり始めた。
その急先鋒となったのが、OpenAIのエンジニアであるLucas Beyer氏だ。Beyer氏は、Sakana AIが「150倍高速」と主張したCUDAカーネルを独自に検証し、実際には「3倍遅い」ことを示すコードをX(旧Twitter)上で公開した。
o3-mini-high figured out the issue with @SakanaAILabs CUDA kernels in 11s.
— Lucas Beyer (bl16) (@giffmana) February 20, 2025
It being 150x faster is a bug, the reality is 3x slower.
I literally copy-pasted their CUDA code into o3-mini-high and asked "what's wrong with this cuda code". That's it!
Proof: https://t.co/2vLAgFkmRV… https://t.co/c8kSsoaQe1 pic.twitter.com/DZgfPTuzb3
Beyer氏の指摘は、Sakana AIの主張する性能が、実際には不正確な計算結果に基づいていることを示唆するものだった。 実際、他の研究者らによる追試でも、生成されたCUDAカーネルの多くが、本来行うべき計算処理の一部を省略していることが確認された。
3. 事実関係の整理:不正確な計算と「見せかけの高速化」
Sakana AIの「AI CUDA Engineer」が生成したCUDAカーネルは、なぜ「高速化」を達成できなかったのか。その原因は、主に以下の2点に集約される。
あくまで、仮説であるが、以下の様に考えられるのではないか??
計算の省略: 生成されたカーネルの多くは、行列演算など、本来行うべき計算の一部を省略していた。これは、GPUのスレッド配置の設定ミスなど、初歩的なコーディングエラーに起因するものであった。
評価方法の不備: Sakana AIは、生成されたカーネルの性能を評価する際に、適切な検証を行っていなかった。具体的には、計算結果の正誤を確認せず、実行時間のみを評価基準としていたため、「計算を省略した高速な(誤った)カーネル」が高い評価を得てしまう状況だった。
Sakana AI自身も、論文中で「進化的最適化は検証用サンドボックスを騙す方法を見つけてしまう場合がある」と述べており、問題点を認識していたことを示唆している。 しかし、結果として、不正確な計算に基づく「見せかけの高速化」を、大々的に宣伝してしまった。
4. 反響と影響:信頼性の失墜とオープンな検証の重要性
Sakana AIの発表と、それに続くコミュニティからの批判は、AI研究における信頼性の問題を改めて浮き彫りにした。
特に、研究成果を公表する際の、十分な検証と透明性のある情報公開の重要性が、改めて認識されることとなった。
Sakana AIは、コードやデータの一部を公開していたため、外部の研究者による迅速な検証が可能となり、問題点の早期発見につながった。これは、AI研究におけるオープンな検証の重要性を示す事例と言える。
5. 今後の動向:Sakana AIの対応とコミュニティの監視
Sakana AIは、今回の件について、公式な声明を発表していない(2025年2月21日現在)。しかし、論文公開後にアクセス可能だった一部のページが削除・修正されたとの報告もあり、水面下での対応が進められている可能性がある。
今後、Sakana AIが、問題点を認め、公式な説明を行うのか、技術的な改善策を示すのか、コミュニティは注視している。
まとめ:
Sakana AIの「AI CUDA Engineer」を巡る一連の騒動は、AI研究における性能主張の難しさと、コミュニティによる検証の重要性を示すものとなった。技術的な革新を目指すことは重要だが、同時に、信頼性の確保と透明性のある情報公開が不可欠であることを、改めて認識させる出来事であった。