SRAMチップ回路パターン — AI推論チップの基板
SRAMベースのAI推論チップアーキテクチャ(イメージ)

Anthropic、英FractileのAI推論チップ調達へ交渉

当サイトは、Amazonアソシエイトおよび各種アフィリエイトプログラムにより適格販売から収入を得ています。

Claudeが儲かりすぎている、というのが今のAnthropicが抱える問題の一つだ。

年間収益のrun-rateが300億ドル(約4.5兆円)を超え、推論インフラへの需要がNVIDIA・Google・Amazonの供給ペースを上回り始めている。そこにUKのスタートアップ、Fractileが浮上した。

この記事でわかること

  • FractileのSRAMアーキテクチャが何を変えるのか
  • Anthropicがなぜ「4本目の供給ルート」を探しているのか
  • 2027年商用化予定の技術に今から注目する理由

AnthropicのAI推論チップ調達先に英Fractile:初期交渉の中身

The Informationが報じた内容によると、AnthropicはUKのAIチップスタートアップ「Fractile」からAI推論チップを購入する初期交渉に入っている。現時点では量や納期のコミットメントはなく、探索的な段階だが、Anthropicが半導体調達の選択肢を広げようとしていることは明確だ。

現在、AnthropicはNVIDIA・Google(TPU)・Amazon(Trainium)という3つのルートで推論インフラを調達している。Fractileが加われば4本目の柱になる。

Fractileとはどんな会社か

Fractileは2022年設立のUK拠点スタートアップ。創業者のWalter Goodwin博士はオックスフォード大学ロボティクス研究所出身で、チームにはNVIDIA・Graphcore・Imagination Technologiesの出身者が揃っている。

同社が開発しているのは「Memory Compute Fusion Architecture」と呼ぶSRAMベースの推論チップだ。公式クレームは「従来比25倍高速・10分の1コスト」で、特定条件下のシミュレーションでは最大100倍の高速化も示している。

DRAMを使わない演算:何が変わるのか

現在のAI推論インフラが抱える根本的なボトルネックは「データをDRAMとプロセッサの間で往復させるコスト」にある。LLMの推論では巨大なモデルの重みをメモリから何度も読み込む必要があり、このメモリ帯域がスループットと消費電力の制約になっている。

FractileのアーキテクチャはSRAMをチップ内に統合し、演算とメモリを物理的に同一ダイ上に配置することでこの問題を根本から回避する。外部DRAMへのアクセスを極力排除し、チップ内部でデータの往来を完結させる。

項目 従来(DRAM依存) Fractile(SRAM統合)
メモリアクセスレイテンシ 高い(外部DRAM往復) 低い(オンチップ)
推論速度(主張) ベースライン 通常25倍・最大100倍(条件依存)
コスト(主張) ベースライン 10分の1
商用化時期 現在 2027年頃

ただし、Fractileが公式にマーケティングする数値は「25倍高速・10分の1コスト」であり、「最大100倍」はLlama2-70B対H100というシミュレーション上の特定条件での値だ。いずれも独立した第三者によるベンチマーク検証は現時点では存在しない。この手の「インメモリコンピューティング」系スタートアップが過去10年でデモよりも量産出荷に至れなかった歴史は、冷静に見ておく必要がある。

なぜAnthropicは今これを動かしているのか

ここが本質だと思っています。問題はチップ性能よりも供給の構造にある。

Claudeの収益がここまで急拡大すると、NVIDIAだけに依存し続けることは事業上のリスクになる。1社の製品ロードマップや価格交渉力に推論コストが左右される状況は、Googleがかつて自社TPU開発に踏み切った理由とまったく同じだ。

推論コストはAI企業の死活問題

GPT-4oやClaudeのような大型モデルを大規模に動かすコストは、今もAPIの収益構造を圧迫している。Anthropicは2026年初に$26Billionを年間収益目標として掲げていたが、実際には2026年4月時点でrun-rateが$30Bを超えている。この急拡大の状況下で、推論コストを大幅に圧縮できる技術は、仮に25倍でも10倍でも、戦略的な意味が大きい。

少し先を見通すと、こういう構図が浮かぶ。Fractileの技術が2027年に商用ラインに乗った場合、最初の採用企業は他社より大幅に低いコスト構造で推論を走らせられる。AI企業間の競争はモデル性能だけでなく「誰が安く推論できるか」の争いに移行しつつある。

日本のAI開発者・企業への影響

直接的な影響は2027年以降になる。ただ、この流れには今から注目しておく価値がある。

日本企業がClaude APIを使ってサービスを構築している場合、Anthropicが推論コストを大幅削減できれば将来的なAPIコスト低下につながる可能性がある。また、国内のAIスタートアップや研究機関にとっては、SRAM統合型チップという設計アプローチ自体が今後の半導体開発の参照点になり得る。

今すぐ取るべきアクション

✅ Fractileの進捗をウォッチリストに入れる(2027年商用化が近づく段階で情報が増える)

✅ Anthropicの調達戦略の変化を追う(他のチップ交渉情報も今後出てくる可能性が高い)

✅ 推論コスト競争の動向をLLM APIの採用判断に組み込む(今後2〜3年で構図が変わる)

編集部の見解

この段階で「Fractileが本当に25倍を実現するか、あるいはそれ以上を達成するか」という問いに答えを出すことはできない。

ただ、Anthropicがこのアーキテクチャに目を向けているという事実は、現在の推論インフラが抱える限界を彼ら自身が認識していることの証拠でもある。NVIDIAのH100・H200は確かに強力だが、LLMの推論という特定ワークロードに対して「最適解か」と問われれば、そうではない可能性がある。

この流れは見過ごせない。GPUが全盛の時代に特化型推論チップがどこまで食い込んでくるか、2027年は一つの分水嶺になりそうだ。

よくある質問

Q: FractileはいつAI市場で使えるようになりますか? A: 商用準備が整うのは2027年頃の見通し。現在は初期交渉段階であり、量産出荷の時期は未定です。

Q: 25倍高速・10分の1コストというのは本当ですか? A: Fractileが公式にマーケティングする数値は「25倍高速・10分の1コスト」です。「100倍」はシミュレーション上の特定条件での最大値であり、独立ベンチマーク検証はまだありません。「最良条件下での理論値」として受け取るのが適切です。

Q: 日本でFractileのチップを入手できますか? A: 現時点では一般購入は不可。まずAnthropicのような大口顧客向けに供給される形になるとみられます。

まとめ

  • Anthropicが英FractileとSRAM推論チップの初期交渉中: 商用化は2027年頃で、数量・納期のコミットなし
  • 技術の核心はDRAM非依存アーキテクチャ: 推論ボトルネックをチップ設計から解決する手法で、実現すれば推論コスト構造が変わる
  • 今動く必要はないが、流れは追うべき: Anthropic・Google・Amazonが半導体を内製化・多様化する動きは、LLM API全体のコスト低下につながる可能性がある

AIインフラの競争はGPU性能よりも「誰が安く推論できるか」に軸足が移ってきた。Fractileがその一石になるかどうか、2027年は答えが出る年になるかもしれません。

👉 関連記事:Claude・ChatGPT・Gemini を1ヶ月使い倒した AI ツール使い分けガイドGoogle第8世代TPU戦略を解説【2026年】Intel Arc Pro B70:AI推論GPU $949の自作市場的評価

Source: WCCFtech / Tom’s Hardware

関連記事

NVIDIA GB200 CEO
NVIDIAのCEO、1兆ドル規模のGPU需要を予測:データセンター近代化の鍵を握る
2024年10月14日
在宅ワーク環境を5,000円以下で改善するAmazonガジェット5選
2026年4月21日
UBISOFT
Ubisoftの未来は?テンセントによる買収の噂に公式声明
2024年10月8日