2025年10月20日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
AWS障害でOpenAI影響、Gemini 3情報流出、長文処理革新技術登場
AWS米国東部リージョンの大規模障害がOpenAIやChatGPTのサービスに影響を与え、多くの開発者が対応に追われました。
一方、GoogleのGemini 3と思われる「lithiumflow」と「orionmist」が評価基盤LMArenaで発見され、次期モデルリリースの噂が広がっています。
また、無制限の長文処理を可能にする新推論戦略「RLM」がGPT-5を上回る精度を達成し注目を集めています。
それでは各トピックの詳細を見ていきましょう。
目次
- AWS大規模障害、OpenAIなど多くのサービスに影響
- LMArenaにGemini 3か、新たなコードネームが浮上
- AlibabaのGPU効率化技術、NVIDIA新製品の需要を高める可能性
- DRAM供給不足、2026年まで続く見通し【続報】
- AIコーディングツール市場、公式ツールの台頭で成長鈍化
- DeepSeek、高性能な3B OCRモデルをHugging Faceで公開
- LayerX、AI基盤を刷新し「AIエージェント」事業を本格化
- FT紙のGPU価格記事に計算ミスか、8倍の誤差を指摘する声
- 新推論戦略「RLM」、長文処理でGPT-5を上回る精度
AWS大規模障害、OpenAIなど多くのサービスに影響
- AWSの米国東部リージョン(us-east-1)で大規模な障害が発生し、世界中の多くのウェブサイトやサービスに影響が広がっています。
- この障害により、OpenAIやChatGPTのSSO(シングルサインオン)にも問題が発生したと報告されています。
- 障害は数時間にわたり、多くの開発者や企業が対応に追われました。
Financial Times: (翻訳) 速報:Amazonのクラウド事業が月曜日に障害に見舞われました。Snapchat、Lloyds Bank、BTなどのウェブサイトがすべて障害に見舞われました。
The New York Times: (翻訳) Amazonは、数百のウェブサイトやアプリが停止を報告したため、クラウドサービス事業で問題が発生していると発表しました。以下にわかっていることをまとめます。
Bloomberg: (翻訳) 世界最大のクラウドプロバイダーであるAmazon Web Servicesは、Perplexity、Coinbase、Robinhoodなど、いくつかの企業のサービスを低下させる広範囲な障害に見舞われました。
LMArenaにGemini 3か、新たなコードネームが浮上
- モデル評価基盤LMArenaで、Googleの次期モデル「Gemini 3」と噂される未発表モデルが複数確認されました。
- 今回確認されたのは「lithiumflow」と「orionmist」というコードネームで、それぞれGemini 3 ProとFlashに相当するのではないかと推測されています。
- Google関係者による意味深な投稿も相まって、リリースの憶測が広がっています。
Bindu Reddy: (翻訳) LMArenaでGemini 3のプレビューが見られるという噂です。モデルのコードネームは「lithiumflow」と「orionmist」。神話的で魔法のようなモデルが姿を現しました。
Haider.: (翻訳) タイムラインはGemini 3.0でいっぱいで、Googleが正式に発表したようです:orionmist:gemini 3.0 pro、lithiumflow:gemini 3.0 flash。なんてことだ、AGIがハンドテストに合格し、ペリカンとPSコントローラーのベンチマークも公開されている。ローガン、これがあなたのローンチの秘密計画ですか?
Chubby♨️: (翻訳) 3隻の船?3隻?深読みしたくはないが、ローガンが再び謎めいた「出荷した」という言葉を発したとき、それはGemini 3を強く示唆しているように思える。
AlibabaのGPU効率化技術、NVIDIA新製品の需要を高める可能性
- 先日お伝えしたAlibabaのGPU使用量を82%削減する技術「Aegaeon」に関する続報です。
- この技術はKVキャッシュのプレフィルを重視するため、結果としてNVIDIAの分散型推論アーキテクチャ(Vera Rubin NVL144 CPXなど)の需要を高める可能性があるとの分析が出ています。
- 単純なGPU使用量削減だけでなく、将来のデータセンターの設計にも影響を与える可能性が指摘されています。
ML_Bear: これが話題になってる論文らしい👀 Alibabaが、LLMのサービング時のNVIDIA GPUの使用量を82%削減できるというGPUプーリング「Aegaeon」を発表。論文はSOSP 2025採択。 複数のモデル間でコンピュートリソースを効率的に共有することで、大幅なコスト削減と効率化を実現すると主張とのこと。
パウロ: これ、私の結論はむしろ Vera Rubin NVL144 CPXが最強で、爆売れ確定
パウロ: 論文読むと kvプレフィルが出来る能力がめちゃくちゃ重要で、Rubin CPX構造、つまり分散型推論が大勝利な気がしてならない
DRAM供給不足、2026年まで続く見通し【続報】
- AIサーバー需要の急増によるDRAMの供給不足は続いており、UBSやMicronの幹部が「2026年まで続く」との見通しを新たに示しました。
- 特にAIに使われるHBM(広帯域メモリ)の需要が供給を大きく上回っていることが主な要因とされています。
- この状況により、SK hynixやSamsungなどの主要メモリメーカーは引き続き大きな恩恵を受けると見られています。
Jukan: (翻訳) UBS:DDRとNANDの価格が大幅に引き上げられ、SK hynixとSamsungが最も恩恵を受ける UBS(T. Arcuri、2025年10月20日) UBSはDDRとNANDの契約価格の予測を引き上げ、DRAM価格は2025年第4四半期から2026年前半にかけて上昇し続けると予想しています。
パウロ: やっぱりメモリですね データセンターDDRの需要が2倍 スマホ20%増でどえらいことに 半導体に投資している人は絶対に読んで 以下、日本語訳 UBS:DDRおよびNAND価格が大幅に上昇、SKハイニックスとサムスンが最も恩恵を受ける UBS(T・アルクリ、2025年10月20日)
Jukan: (翻訳) Micron Technologyの最高事業責任者(CBO)であるSumit Sadana氏:DRAM市場の不足は2026年まで深刻化し、需給の不均衡は極めて厳しい状況が続くでしょう。日経アジアによると、Sadana氏はAIアプリケーションで使用される広帯域メモリ(HBM)について言及しました。
AIコーディングツール市場、公式ツールの台頭で成長鈍化
- AIコーディングツール市場の成長に鈍化の兆しが見られるとの分析が報告されています。
- Similarwebのデータによると、Claude CodeやCodex CLIといった公式ツールの登場以降、サードパーティ製ツールのトラフィックが減少しているとのことです。
- 開発者の間では、用途に応じて公式ツールを使い分ける動きが定着しつつあるようです。
松本 勇気 (Yuki Matsumoto) | LayerX CTO: コード生成から、より外側の工程(設計・検証・ドキュメンテーション)に移りつつあると予想している。プロトタイピングにおいてコード生成は有用ではありつつ。
ML_Bear: これは面白いデータだ。Claude Code、Codex、Gemini CLIなどのモデル提供側のツールが強力すぎるから野良のコーディングAIツールの市場が伸びてないのかな? それらのユーザー数の推移とかも合わせて出してみてほしいな👀 (Claudeとかが公開しないかもだけど)
Iaiso: Similarwebの最新レポートによると https://t.co/LFpVlDdRYj LovableやCursorのサイトへのトラフィックがClaude CodeとCodex CLIのサブスクリプションがはじまった5月と8月でガツンと下がっていて面白い たしかにWebでプロトタイピングするツールの需要は減った気がしている
DeepSeek、高性能な3B OCRモデルをHugging Faceで公開
- AIスタートアップのDeepSeekが、30億パラメータの高性能なOCR(光学文字認識)モデルをHugging Faceで公開し、注目を集めています。
- このモデルはトークン効率に優れ、A100 GPU1基で1日あたり20万ページ以上を処理できるとされています。
- DeepSeek VL2と同じアーキテクチャを採用しており、TransformersやvLLMなどですぐに利用可能です。
Vaibhav (VB) Srivastav: (翻訳) さあ行こう!DeepSeekがHugging Faceで3BのOCRモデルをリリースしました🔥 トークン効率が良く、A100-40Gで1日あたり20万ページ以上を処理できるように最適化されています。DeepSeek VL2と同じアーキテクチャで、TransformersやvLLMなどで使用できます🤗
LayerX、AI基盤を刷新し「AIエージェント」事業を本格化
- LayerXが、既存のAIプラットフォーム「Ai Workforce」を「AIエージェント基盤」へと大幅に刷新したことを発表しました。
- AIワークフローとAIエージェントを組み合わせ、単発のタスク処理だけでなく、より複雑で連続的な業務の自動化を目指します。
- 同社CTOは、今後のAIネイティブSaaSは成果報酬型が主流になり、実行力と資金力が重要になるとの見解を示しています。
小賀昌法 KOGA Masanori: 提案資料の作成、契約書のリスク分析、基幹システム連携など、幅広いユースケースで、AIワークフロー×AIエージェントによる“業務の自動化”が現実になりつつあります。読みやすい内容になってますので、ぜひご一読ください! https://t.co/NiJGhY1R4k
福島良典 | LayerX: 大幅アップグレード! LayerXのAIプラットフォーム「Ai Workforce」が「AIエージェント基盤」に大幅アップグレード。AIワークフローとAIエージェントの掛け合わせで業務自動化の範囲を拡大 https://t.co/sDVbSOk9qS @PRTIMES_JPより
福島良典 | LayerX: Ai WorkforceがAgentic Workflowを提供開始。事前定義された精度の高いWorkflowをAgentが呼び出す形にして、「せーのでぽん」ではできない業務自動化を実現していきます。
FT紙のGPU価格記事に計算ミスか、8倍の誤差を指摘する声
- Financial Timesが報じたGPUレンタル価格に関する記事に、計算ミスがあるとの指摘が上がっています。
- 記事は現在の価格がAIバブルを示唆していると論じていますが、サーバー単位とGPU単位の価格を取り違えたため、計算が8倍ずれているとされています。
- この指摘により、伝統的なメディアによる専門的な技術分野の報道の難しさが浮き彫りになりました。
パウロ: うわっ、ファイナンシャルタイムズ、恥ずかしい初歩的なミス 現在のGPUレンタル価格がAIバブルを示唆しているという記事はサーバーごとと、GPUごとの経済を混同したため、すべての計算が8倍の誤差で間違っている 簡単な数学的なミスを犯している 正しく計算すると サブスケーラにとっては強気
パウロ: トレイごとに計算してしまったんか... 伝統的なメディアは基本構成が理解できていないから、しょーもないミスしちゃいますね アホすぎる
新推論戦略「RLM」、長文処理でGPT-5を上回る精度
- 長大なテキストを扱う新しい推論戦略「Recursive Language Models(RLM)」が発表されました。
- プロンプトを分解・再帰的に処理することで、事実上無制限の長さの入力に対応できるとされています。
- 132kトークンのテストではGPT-5を大幅に上回る精度を達成したと報告されており、今後のLLMの進化に影響を与える可能性があります。
Kol Tregaskes: (翻訳) 再帰的言語モデルは、AIが大量のテキストを処理するのに役立ち、132kトークンのテストでGPT-5を110%以上上回り、1クエリあたり0.234ドルで64.9%の精度を達成しました。コーディング環境を使用してテキストをチャンクに分割して処理します。テストでは、1,000万トークン以上を失うことなく管理できることが示されています。