2025年12月02日 朝のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
DeepSeek新モデルが数学でGPT-5に匹敵、Google TPU増産加速
中国DeepSeekが推論特化モデル「V3.2」を発表し、数学オリンピックで金メダル級の成果を達成。限られた計算資源での躍進が注目を集めています。
一方、Morgan StanleyはGoogle TPUの生産予測を上方修正。2027年に500万基、2028年に700万基と大幅増産が見込まれ、半導体不足は長期化する見通しです。
他にも、謎のAI「Whisper Thunder」の正体がRunway Gen-4.5と判明、NVIDIAのSynopsysへの20億ドル出資など、重要な動きが続いています。
それでは、本日の主要トピックを順に確認していきましょう。
目次
- DeepSeek続報: 新モデルV3.2は数学でGPT-5に匹敵
- Google TPU生産予測が上方修正、半導体不足は長期化へ【続報】
- 謎のAI「Whisper Thunder」の正体はRunwayの新モデルGen-4.5
- NVIDIA、チップ設計ツール大手Synopsysに20億ドル出資
- 続報: Claude Opus 4.5、コーディング性能で高評価
- MistralとArcee AI、新たなオープンモデルを準備中
- Hugging Face、Transformersライブラリのv5 RC版を公開
DeepSeek続報: 新モデルV3.2は数学でGPT-5に匹敵
- 以前、数学特化モデルについてお伝えした中国のAI企業DeepSeekの続報として、新たに推論特化モデル「V3.2」および「V3.2-Speciale」が発表されました。
- ベンチマークによってはGPT-5やGemini 3.0 Proを上回る性能を示し、特に国際数学オリンピック(IMO)で金メダル級の結果を達成したと報告されています。
- 限られた計算資源でのこの成果は、米中間のAI開発競争で大きな注目を集めています。
パウロ: DeepSeek V3.2 Speciale beats both GPT-5 and Gemini 3.0 Pro... How come you guys train?
Jukan: (翻訳) では、現在、中国と米国の差はどれくらいなのでしょうか?いくつかの指標では、中国が先行しているようにさえ感じられます。 https://t.co/mYZd4pv44z
Chubby♨️: (翻訳) クジラが帰ってきた!なんてこった、あの評価を見てください、SOTA、いくつかのベンチマークではGemini 3.0 proやGPT-5 highさえも上回っています。彼らは料理していました!V3.2:バランスの取れた推論と長さ。GPT-5レベルのパフォーマンスを持つあなたの毎日のドライバー。V3.2-Speciale:最大限の推論能力 https://t.co/QfMlt76kN8
Google TPU生産予測が上方修正、半導体不足は長期化へ【続報】
- Morgan StanleyがGoogleのAIアクセラレータ「TPU」の生産数に関する新たな予測を発表しました。
- 2027年には500万基、2028年には700万基に達すると予測されており、以前の報道からさらに生産が加速する見込みです。
- この大規模な増産はNVIDIA製GPUと合わせてAI半導体の需要を押し上げ、HBM(広帯域メモリ)などの供給不足は2027年前半まで緩和しないとの見方が強まっています。
パウロ: うわあああああ モルガン・スタンレー TPU 2026年320万基 2027年500万基 生産と予想
Jukan: (翻訳) モルガン・スタンレーのアナリスト、チャーリー・チャン氏は、2027年から2028年にかけてTPUの購入が増加することを示すサプライチェーンのシグナルを検出したと述べ、これに基づき、2027年には500万個、2028年には700万個のTPUが生産されると予測しています。 https://t.co/4mRKzyqc1f
パウロ: これが本当だったらHBMがさらに20%ぐらい上振れするので、さらにDRAM無くなるね DRAM全体のキャパの半分がHBMになる感じ スマホもPCもハイエンドしか作ることが出来ない チーン
謎のAI「Whisper Thunder」の正体はRunwayの新モデルGen-4.5
- 先日話題となった謎の動画生成AI「Whisper Thunder」の正体が、Runway社の新モデル「Gen-4.5」であることが発表されました。
- このモデルは動画の動きの質、プロンプトへの忠実性、視覚的な忠実度で新たな基準を打ち立てたとされています。
- Artificial Analysisのリーダーボードでトップスコアを記録し、SOTA(最高水準)を更新したと注目を集めています。
Soumith Chintala: (翻訳) ウィスパーサンダーがその姿を現した。かなり良さそうだ。グーグルに競争相手がいてくれて嬉しい。彼らが速く走りすぎているのではないかと心配していたからだ!!!
TestingCatalog News 🗞: (翻訳) Runwayは、ビデオリーダーボードで1,247ポイントを獲得した新しいSOTAビデオ生成モデルであるGen-4.5をリリースしました。新しいトップ1👀 https://t.co/KGQyyaK6SU
Kol Tregaskes: (翻訳) Runwayは、1247 EloポイントでArtificial AnalysisのテキストからビデオへのリーダーボードをリードするフロンティアビデオモデルであるGen-4.5(以前の「Whisper Thunder(別名David)」)を発売します。https://t.co/aC18MpDMYc - 動きの品質、プロンプトの順守、視覚的忠実度に優れています。 - 以前のモデルをベースに...
NVIDIA、チップ設計ツール大手Synopsysに20億ドル出資
- NVIDIAが、半導体の設計ソフトウェア(EDA)で世界トップシェアを誇るSynopsysに20億ドルを出資し、戦略的パートナーシップを拡大すると発表しました。この提携は、AIを活用してチップ設計そのものを革新することを目的としています。NVIDIAのCEOジェンスン・フアン氏は、これにより物理シミュレーションなどが加速されると述べており、半導体開発の未来を形作る動きとして注目されます。
Evan: (翻訳) Nvidia $NVDAとSynopsys $SNPSは、「業界全体の設計とエンジニアリングに革命を起こす」ための拡大された戦略的パートナーシップを発表しました。NVIDIAは、この取引の一環としてSynopsysの普通株式に20億ドルを投資しました。「この複数年にわたるパートナーシップは、強力な既存のパートナーシップに基づいています。https://t.co/edy2GSiV3i
パウロ: Nvidia チップ設計ツールのSynopsysに20億ドル投資 AIを埋めこむんだね
TechCrunch: (翻訳) Nvidiaの20億ドル規模のSynopsysへの賭けは、チップ設計スタックに対する支配力を強化する https://t.co/h82xaZatFa
続報: Claude Opus 4.5、コーディング性能で高評価
- AnthropicのAIモデルに関する続報です。最新モデル「Claude Opus 4.5」が、特にコーディング用途で開発者からの評価を高めています。
- 以前のモデルよりもツールの呼び出しに積極的になるなどの挙動の変化が見られますが、的確な判断力やテイストが優れているとの声が上がっています。
- その実用性の高さから、他のAIアシスタントからClaude Codeに戻ってくる開発者も観測されています。
Oikon: ここ数日でClaude Codeになんやかんや戻ってくる人たちを沢山観測してる。Claude Opus 4.5 のインパクトが大きいのもあるだろうけど。
Alex Albert: (翻訳) Opus 4.5:7.5-8/10で役立ちます。ようやくこのモデルに文章を書いてもらうことを信頼できるようになり、実際に何が重要かについて優れた判断力とセンスを持っています。コーディングに関しては、以前のモデルのように同じ雰囲気のコーディングの運命のループにはまらず、永遠に機能し続けることができるように感じます。いくつかのことは
Masahiro Nishimi | Generative Agents: 人に相談する、人を増やす、という判断をする前に、Claude Codeに相談しよう(教訓)
MistralとArcee AI、新たなオープンモデルを準備中
- フランスのMistral AIが「Mistral Large 3」「Ministral 3」という2つの新モデルを準備中であると報じられています。
- 米国のArcee AIも「Trinity」と名付けられた新たなMoE(専門家混合)モデルファミリーを発表し、オープンソースモデル開発の勢いが再び加速しています。
Lisan al Gaib: (翻訳) Mistral Large 3とMinistral 3が登場します https://t.co/rb0jrOSFg8
Lisan al Gaib: (翻訳) Arcee AIがAllen AIに加わり、アメリカのオープンウェイトモデルを推進 Arcee AIがTrinity Nano & Miniを発表: - 6B + 26B MoE(1B/3Bアクティブ) - 128人のエキスパート、8人アクティブ、1人共有 - GQA + ゲート付きアテンション - 128kコンテキスト - 512個のH200 GPUでbf16で事前トレー...
TestingCatalog News 🗞: (翻訳) Mistral AIは2つの新しいオープンモデルをリリースする準備をしています: - Mistral-Large-3-675B-Instruct-2512-NVFP4 - Ministral-3-3B-Instruct-2512 近々大きなオープンリリースがあります👀 https://t.co/oEmjJnG74C
Hugging Face、Transformersライブラリのv5 RC版を公開
- Hugging Faceが、同社の主要ライブラリである「Transformers」のバージョン5のリリース候補(RC)版を公開しました。前回のメジャーアップデートから5年ぶりとなる今回は、トークナイゼーションの改善やモデル追加の簡素化など、エコシステムとの相互運用性を高める大幅な変更が含まれています。多くの開発者にとって重要なアップデートとなりそうです。
Hugging Face: (翻訳) 本日、transformers バージョン 5 RC をリリースします!🤗 これにより、エコシステムの仲間との e2e 相互運用性が可能になり、新しいモデルの追加が容易になり、ライブラリが簡素化されます 🙌🏻 詳細については、ブログをご覧ください: https://t.co/ysZW3btRgR https://t.co/PVKFRsH9Z2
Thomas Wolf: (翻訳) これはかなり驚くべきことです https://t.co/7kEnyLinQb