2025年12月05日 朝のAIニュースまとめ

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。

(ほぼ)毎日AIニュースが届きます
ぜひご登録ください

MetaのメタバースからAIへのシフトとGPT-5の科学的躍進

Metaがメタバース部門の予算を最大30%削減する方針が報じられ、市場はAIへのリソース集中を好感。一方、OpenAIのGPT-5が理論物理学の査読付き論文で核心的アイデアを創出し、AIによる科学的発見の新時代を示しました。

また、Mistral Large 3がオープンソースコーディングモデルで首位を獲得し、GoogleのNotebookLMも大幅な機能拡張を実施するなど、各社の開発競争が加速しています。

では、本日の各ニュースを詳しくご紹介していきます。

目次

  1. Meta、メタバース部門の予算を最大30%削減か
  2. OpenAIのコーディングモデルCodex-Max、API公開【続報】
  3. GoogleのNotebookLMが大幅アップデート、文字数制限を拡張
  4. [続報] Mistral Large 3、オープンソースコーディングモデルで首位に
  5. GPT-5が理論物理学の論文の核心的アイデアを創出
  6. Kaggle、AIエージェント講座を自習ガイドとして公開【続報】

Meta、メタバース部門の予算を最大30%削減か

  • Metaが、メタバース部門の予算を最大30%削減することを検討していると報じられました。
  • CEOのMark Zuckerberg氏が主導してきたメタバースへの巨額投資が期待された成果を上げていないことが背景にあると見られています。
  • この報道を受け、同社の株価は上昇しており、市場はAIへのリソース集中を好意的に受け止めているようです。
Evan: (翻訳) Mark Zuckerberg氏とMeta Platforms $METAは、メタバース構築のためのリソースを大幅に削減すると予想されています。 幹部らは来年、メタバースグループの予算を最大30%削減する可能性について議論したと報じられています - Bloomberg

Bloomberg: (翻訳) MetaのZuckerberg氏は、仮想世界での生活というアイデアが定着しなかったことを受け、メタバースへの取り組みを最大30%削減する計画です。

Financial Times: (翻訳) Meta、AIに焦点を移すためメタバースへの支出を削減

OpenAIのコーディングモデルCodex-Max、API公開【続報】

  • 先日リリースされた、エージェントによるコーディングに特化したOpenAIの最新モデル「GPT-5.1-Codex-Max」の続報です。
  • 新たにAPI経由での利用が可能になり、よりスマートで高速なコーディングエージェントの構築が期待されます。
  • このモデルはCursorなどの開発ツールにも統合されており、開発者からは特定のタスクで既存モデルを上回る性能を発揮するとの声も上がっています。
Alexander Embiricos: (翻訳) GPT-5.1-Codex-MaxをAPIにリリースしました! APIキー経由でCLIでCodexを使用している場合でも、@cursor_aiや@codeのような他のツールでCodexを使用している場合でも、どこでもCodexエージェントがより速く、より賢くなりました。 Cursorがそれを最大限に活用するためにハーネスをどのように更新したかについての詳細はこちら

Lee Robinson: (翻訳) 特定のモデルは特定の単一のエージェントハーネス内でのみ最適に機能するという誤解があります。それはもっと微妙な問題です。 モデルをうまく機能させるには、ハーネス内の指示(プロンプトなど)とツール(検索、編集、ファイル読み取りなど)を調整する必要があります。あなたはできます

Bindu Reddy: (翻訳) GPT 5.1 Codex Maxがリリースされました SonnetとOpus 4.5が完全にあきらめてしまう特定の問題をワンショットで解決できることがわかりました! Sonnetをプライマリとして、OpusまたはCodexをフォールバックとして推奨します

GoogleのNotebookLMが大幅アップデート、文字数制限を拡張

  • GoogleのAIノートツール「NotebookLM」がアップデートされ、チャットのカスタマイズにおける文字数制限が500文字から10,000文字へと大幅に拡張されました。
  • これにより、より詳細なペルソナ設定が可能になります。
  • また、iOSアプリ版ではインフォグラフィックやスライドデッキの生成機能も順次展開される予定で、さらなる利便性向上が期待されます。
NotebookLM: (翻訳) 小さい(けれど強力な)アップデート: チャットのカスタマイズの文字数制限を500文字から10,000文字に拡大しました。これにより、はるかに詳細なペルソナを作成できるようになりました。 試せるサンプルプロンプトをいくつか紹介します。お気に入りを返信で共有してください(このスレッドをブックマークしてください!) 1. The

TestingCatalog News 🗞: (翻訳) iOS向けNotebookLMアプリは、まもなくインフォグラフィックとスライドデッキを生成する機能を取得します。 * 順次展開中

[続報] Mistral Large 3、オープンソースコーディングモデルで首位に

  • 先日発表されたMistral AIの「Mistral Large 3」が、LMSys Arenaのリーダーボードでオープンソースのコーディングモデルとして首位を獲得しました。
  • GPT-5.1やGrok 4.1といったクローズドモデルに匹敵する能力を持つと評価されており、オープンソースモデルの性能向上を示す結果となっています。
まつにぃ: Mistral何気にすごいな。 GPT5.1HighやGrok4.1と並ぶモデル能力なのか。 QwenMAXとも並んでるから、普通に触ってみないといけないな。

Kol Tregaskes: (翻訳) Mistral Large 3がLMArenaのオープンソースコーディングリーダーボードでトップに。

TestingCatalog News 🗞: (翻訳) Mistral Large 3がCode Arenaでトップ1のオープンソースモデルになりました! 数日中にCodestralが登場?👀

GPT-5が理論物理学の論文の核心的アイデアを創出

  • AIが科学研究の新たな段階に入ったことを示す出来事として、GPT-5が理論物理学の査読付き論文における主要なアイデアを創出したことが報告されました。
  • この論文は学術誌「Physics Letters B」に掲載されており、OpenAIのGreg Brockman氏もこの成果に言及しています。
  • AIが未知の科学的発見に貢献する可能性を示唆しています。
Greg Brockman: (翻訳) 主要なアイデアがGPT-5から得られた、査読付きの理論物理学論文:

Kol Tregaskes: (翻訳) GPT-5は、朝永-シュウィンガーフレームワークを用いて非線形量子力学が相対論的共変性に違反する条件を導出する物理学論文の核心的なアイデアを生み出しました。 - 謝辞では、結果のチェック、LaTeXのフォーマット、および関連事項について、GPT-5、Gemini 2.5 Pro、およびQwen-Maxに謝意を表しています。

Rohan Paul: (翻訳) GPT-5は、完全な査読を経る評価の高いジャーナルであるPhysics Letters Bに受理された論文の重要なアイデア(非線形量子ダイナミクスについて)を提案しました。👏

Kaggle、AIエージェント講座を自習ガイドとして公開【続報】

  • 以前お伝えした、KaggleとGoogleが共催した「AIエージェント集中講座」の教材が、自習形式の学習ガイドとして公開されました。
  • このガイドには5日間のコースの教材が含まれており、ホワイトペーパーや録画されたライブストリームなどを通じて、自分のペースでAIエージェントの構築を学べます。
Kaggle: (翻訳) 📢 @Google との5日間のAIエージェント集中コースが、自分のペースで学べる学習ガイドとして利用可能になりました! ホワイトペーパー、ポッドキャスト、コードラボ、録画されたライブストリームにアクセス 👇

Subscribe to ML_Bear Times

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください