2025年11月19日 夜のAIニュースまとめ

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。

(ほぼ)毎日AIニュースが届きます
ぜひご登録ください

GoogleとOpenAIの新モデル競争が激化、AIチップ市場も活況

Googleのエージェント開発IDE「Antigravity」がWindsurfとの関連性で注目を集める中、Gemini 3 Deep Thinkが推論ベンチで圧倒的なスコアを記録しました。

これに対しOpenAIは新コーディングモデル「GPT-5.1-Codex-Max」のリリースを示唆。一方、ハードウェア面ではTenstorrentが8億ドル規模の資金調達を交渉中です。

Hugging Face CEOは現状を「LLMバブル」と警鐘を鳴らしています。

では、それぞれのニュースを詳しく確認していきましょう。

目次

  1. Googleの新IDE「Antigravity」にCognition AIとの関連性の指摘
  2. Gemini 3 Deep Think、推論ベンチでGPT-5.1超えSOTA【続報】
  3. OpenAI、新コーディングモデル「GPT-5.1-Codex-Max」を示唆
  4. Nvidia対抗のTenstorrentが大型資金調達
  5. Hugging Face CEO警鐘「AIバブルでなくLLMバブル」
  6. Gemini 3性能向上の背景判明、スケーリング則は継続
  7. Sakana AIの論文やビジネスモデルに厳しい意見
  8. AIエージェント開発、高度な手法と着実な手法で議論

Googleの新IDE「Antigravity」にCognition AIとの関連性の指摘

  • 先日お伝えした、Googleが公開したエージェント開発用IDE「Antigravity」の続報です。
  • VS Codeベースで、Gemini 3 ProやClaude Sonnet 4.5など複数のモデルをサポートする点が特徴です。
  • 一部で、Cognition AIが開発した「Windsurf」のコードが残っているとの指摘があり、両社の関係性にも注目が集まっています。
Kenn Ejima: おお、AntigravityのUIは完全にWindsurfだ! そしてSonnetもGPT-OSSも使える。これはアツい… https://t.co/Po28FU8lOh

Iaiso: Antigravityの中身見たら魔改造Windsurfだった。Codeiumの部分がJetSkiという名前になっていた。CDP連携やシェルのインタラプトとかGeminiCLIで作ってた機能も作ってあって細かい

Kenn Ejima: わはは、Windsurfのコード流用がバレとる。ソースコードの所有権はCognitionに渡ってるはずだけどGoogle大丈夫かな?

Gemini 3 Deep Think、推論ベンチでGPT-5.1超えSOTA【続報】

  • 先日お伝えした、Gemini 3の高度な推論能力を持つモデル「Deep Think」の続報です。
  • 抽象的な推論能力を測るベンチマーク「ARC-AGI-2」で、GPT-5.1のスコアを倍以上上回る45%を達成し、新たなSOTA(最高性能)を記録したことが明らかになりました。
  • この結果は、AIの推論能力が新たな段階に入ったことを示唆しています。
Kol Tregaskes: (翻訳) Gemini 3 Deep ThinkプレビューがARC-AGI-2の半非公開評価で45%に到達 - 昨日GPT-5.1によって達成されたばかりの以前のフロンティア最高値18%を2倍以上上回りました! - Gemini 3 Deep Thinkプレビュー:タスクあたり77.16ドルで45% - Gemini 3 Pro:タスクあたり0.81ドルで31% - ARC-AGI-1について

Rohan Paul: (翻訳) 💸 Gemini 3.0 Pro、特にGemini 3 Deep Thinkは、他のフロンティアモデルよりもはるかに高いスコアでARC-AGI推論リーダーボードのトップに躍り出ました。タスクあたりのコストは大きく異なります。ARC-AGIベンチマークは、モデルに隠されたルールを推測させるパズルのようなテストです。

Jeff Dean: (翻訳) Gemini 3とGemini 3 Deep Thinkは、ARC-AGI-2ベンチマークにおいて、コストと精度のパレートフロンティアを少し押し広げています。

OpenAI、新コーディングモデル「GPT-5.1-Codex-Max」を示唆

  • OpenAIの次期モデルに関する続報です。GoogleのGemini 3発表の直後、新たにエージェント型のコーディングモデル「GPT-5.1-Codex-Max」を近日中にリリースすることを示唆しました。
  • このモデルは、長期的なプロジェクト規模の作業に対応可能な、よりスマートで高速なモデルと説明されています。
  • 大手AI企業間のモデル開発競争がさらに激化しそうです。
TestingCatalog News 🗞: (翻訳) 速報🚨: OpenAIは、より大きなプロジェクト向けにGPT-5.1-Codex-Maxを導入する予定です!「Codexは現在、最新のフロンティアエージェントコーディングモデルであるGPT-5.1-Codex-Maxを搭載しています。前身よりもスマートで高速であり、長期間のプロジェクト規模の作業が可能です。」

Chubby♨️: (翻訳) これがOpenAIのGoogleへの返答、GPT-5.1 maxです。「Codexは、我々の最新のフロンティアエージェントコーディングモデルであるGPT-5.1-Codex-Maxを搭載しています。それは以前のモデルよりも賢く、速く、長期にわたるプロジェクト規模の作業が可能です。」

まつにぃ: Gemini3に負けじとOpenAIも手札を切るか。 「GPT-5.1-Codex-Max 」が登場か。

Nvidia対抗のTenstorrentが大型資金調達

  • Nvidiaの競合とされるAIチップスタートアップのTenstorrentが、8億ドル規模の資金調達を交渉中であると報じられました。
  • プレマネー評価額は32億ドルに達すると見られており、これは前回の評価額から60%増となります。
  • Nvidiaの市場支配に挑むチップスタートアップへの期待の高さがうかがえます。
Stephanie Palazzolo: (翻訳) 【新規】Nvidiaの挑戦者であるTenstorrentが、プレマネー評価額32億ドルで8億ドルを調達中です。これは、チップスタートアップがまだNvidiaの優位性に大きな影響を与えていないにもかかわらず、前回の評価額から60%の上昇となります。

The Information: (翻訳) 独占記事:Tenstorrent、Fidelity主導のラウンドで評価額30億ドルに迫る Nvidiaへの挑戦者であるTenstorrentは、Fidelity主導のラウンドで評価額30億ドルでの資金調達を交渉中です。 Stephanie Palazzolo、Anissa Gardizy、Wayne Maによる詳細記事はこちら👇

Hugging Face CEO警鐘「AIバブルでなくLLMバブル」

  • Hugging FaceのCEO、Clement Delangue氏が現在の市場は「AIバブル」ではなく「LLMバブル」であるとの見解を表明。
  • 全ての課題を解決できる単一の巨大モデルを構築するという考え方に資金や注目が集中しすぎていると指摘しています。
  • 同氏は、LLMは冷蔵庫のような基盤技術であり、その上でどのようなアプリケーション(コカ・コーラ)が生まれるかが重要だと述べています。
TechCrunch: (翻訳) Hugging FaceのCEOは、「AIバブル」ではなく「LLMバブル」の中にいると語る

hardmaru: (翻訳) 「すべての注目、すべての焦点、すべてのお金は、大量の計算によって1つのモデルを構築でき、それがすべての企業とすべての人々のすべての問題を解決するという考えに集中していると思います」と@ClementDelangue氏は言います。「現実には、あなたが見ることになるのは

piqcy: これはけっこう的を得てるかも。冷蔵庫が儲かっているという話はあまり聞かないけど冷蔵庫の中身の食品は無限大なわけで、LLMモデル単品はいずれ収益源というよりインフラになってくのかもしれない。 冷蔵庫に置いておくだけで美味しくなるみたいな機能が生み出せるかも注目でありつつ

Gemini 3性能向上の背景判明、スケーリング則は継続

  • Googleの次期モデル「Gemini 3」に関する続報です。Google関係者が、性能向上の背景には事前学習と事後学習の双方の改善があったと明かしました。
  • これは、計算量、データ量、パラメータ数を増やすことで性能が向上するというスケーリング則が、まだ限界に達していないとの見方を強めるものです。
  • AI業界では、今後もさらなる大規模モデルの開発競争が続くと予想されます。
パウロ: Gemini 3の秘密 シンプルに事前学習と事後学習を改善した はい、トランスフォーマースケーリング則が継続

福島良典 | LayerX: Pre-trainingでのスケールはまだ終わらず!

Jeff Dean: (翻訳) @OriolVinyalsMLが、Gemini 3をGemini 2.5より良くするための超秘密のレシピを漏らしてしまいました。それは、事前学習を改善し、事後学習を改善することです!😅

Sakana AIの論文やビジネスモデルに厳しい意見

  • 元Googleの著名な研究者が設立したことで注目されるSakana AIに対し、厳しい意見が相次いでいます。
  • 過去に発表した論文の質や、具体的なプロダクトがない中での高い評価額に対して、そのビジネスモデルの持続可能性を疑問視する声が上がっています。
  • 特に、一部の論文はインターン任せで品質にばらつきがあるとの指摘も出ており、今後の動向が注視されます。
シェイン・グウ: AICudaEngineerはひどい論文でした。誰でもミスはあるけれど、あれはミスのレベルではなく、素人がメジャーリーグに草野球感覚で乗り込んできたような場違いさ。プロンプト論文なのに。OpenAIやNvidiaの研究者が総ツッコミ。しかも恥ずかしいのは、多くの論文を学生インターンに書かせていると言われる

シェイン・グウ: しかも、開発責任のほぼ全てが(主に日本人の)AppliedEngineerチームにのしかかる構造になっていると思う。論文は10年前のGoogleのように余裕の表れです。現状では、海外の研究者たちは論文執筆に専念し、自由研究出来なくなくなれば(元DeepMindの研究者の様に)他社へ飛ぶだけという可能性がありま

Odashi: Sakanaの論文は秋葉さんが著者にいるかいないかでクオリティが分かれてるイメージある

AIエージェント開発、高度な手法と着実な手法で議論

  • AIエージェントを活用した開発手法を巡り、開発者の間で議論が活発化しています。
  • サブエージェント等を駆使する高度な手法が共有される一方、一度に一つの機能開発に集中し、丁寧なコードレビューを重視する着実な進め方も提唱されています。
  • GoogleのAntigravityのような新しいツールの登場もあり、エージェント開発のベストプラクティスを模索する動きが続いています。
Ian Nuttall: (翻訳) 私の持論:ペースを落とせ。 - 計画モードでチャットする。 - 一度に1つの機能を構築する。 - コードをレビューしてフィードバックを与える。 - セッションの概要を記録する。 - 前回の概要を/newエージェントに渡す。 - MCPは非常に慎重に選ぶ。 - 一度に最大2つのエージェント(フロントエンド1つ、バックエンド1つ)。ゆっくり>雑。

しば田 | Programming x AI: AntigravityのAgent Managerめっちゃ良くないか。 作業中のWorkspacesごとに稼働中のエージェントが見れる。終わったら共通のInboxに集約。 複数プロジェクトで並列開発をする身としては大正解すぎるんだが https://t.co/t5O0RboHp4

しば田 | Programming x AI: うん、Terminalも起動できるし最高だこれ。 しかし全く、UIがどんどんコード読ませない方向で進化しているなぁぁぁ

Subscribe to ML_Bear Times

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください