2026年04月02日 夜のAIニュースまとめ

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。

(ほぼ)毎日AIニュースが届きます
ぜひご登録ください

OpenAIの次期モデルの噂とSakana AIの商用プロダクト発表

OpenAIの次期モデル「Spud」や「buko」に関する噂が浮上し、AI能力のさらなる飛躍が期待されています。

また、Sakana AIが初の商用プロダクトとなる自律型リサーチアシスタントを発表したほか、Anthropicも汎用AIエージェントへの注力を明らかにしました。

本日の注目ニュースを順番に掘り下げていきましょう。

目次

  1. OpenAI、次期モデル「Spud」「buko」の噂が浮上
  2. Google、軽量モデル「Gemma 4」を近く発表か
  3. Sakana AI、初の商用プロダクト「Sakana Marlin」発表
  4. チューリング、NVIDIAの次世代GPU「B300」を導入
  5. Anthropic、AIエージェント「Cowork」に注力か
  6. Yann LeCun氏、自己回帰モデルの限界を指摘
  7. AIエージェントの対話的操作、「Planモード」は不要か
  8. Gemini Embedding 2、タスク指定で検索品質が大幅向上
  9. OpenAIのCodex、エコシステムの成長が加速
  10. AI需要でCPUが不足、Intel x86復権の兆しか

OpenAI、次期モデル「Spud」「buko」の噂が浮上

  • OpenAIの共同創設者であるGreg Brockman氏が、新たな事前学習基盤となるモデル「Spud」について言及し、これがAIの能力を大きく飛躍させると述べました。
  • また、内部エンドポイントで「buko」というコードネームを含む8つの新しいモデルスラッグが確認され、複数の新モデルのリリースが近いのではないかと噂されています。
  • OpenAIの社長であるBrad Lightcap氏も、モデルの訓練サイクルが急速に短縮していると述べ、年末までには現在のモデルが歩行者に見えるだろうと語っています。
leo 🐾: (翻訳) 🚨 スクープ:本日、OpenAIの内部エンドポイントで8つの新しいモデルスラッグが公開されました。そのうち3つは「big-」というプレフィックスを持ち、8つのうちほとんどがコードネーム「buko」を持っています。このような大規模な展開はこれまで見たことがありません... 👀 (エイプリルフールではありません笑)

Chubby♨️: (翻訳) 彼らのモデルについてのGreg Brockman氏の発言:ChatGPT「Spud」は、長年の研究を1つの飛躍に凝縮した強力な新しい事前学習基盤であり、AIの能力における明確でエキサイティングなジャンプとして世界に示されるでしょう。

Haider.: (翻訳) OpenAIのブラッド・ライトキャップ氏は、モデルのトレーニングサイクルが崩壊し、GPT-5.1から5.4への急速なジャンプを促進していると述べています。GPT-5.4はリリースから数日で、すでに10億ドルのランレート収益を上げ、毎日5兆トークンを処理しています。「年末までには、今日のモデルを笑うことになるでしょう。それらは平凡に見えるでしょう。」

Google、軽量モデル「Gemma 4」を近く発表か

  • Googleが新しい軽量モデル「Gemma 4」を近くリリースするとの憶測が広がっています。
  • リークアカウントや複数の開発者が言及しており、特にエッジデバイスでの活用が期待される小型モデルの性能に注目が集まっています。
  • この発表への期待から、ローカルで動作するモデルを試す好機と捉える声も上がっています。
TestingCatalog News 🗞: (翻訳) 速報🚨:Gemma 4はGoogleから木曜日にリリースされる可能性が高いです!ローカルモデルをテストするには良い日です👀

Kol Tregaskes: (翻訳) Gemma 4(あるいは新しいGemmaであることは確か)が本日リリースされます。

Chubby♨️: (翻訳) ついにGemma 4が登場。このリリースを本当に楽しみにしています。エッジで動作する小さなモデルこそが未来です。

Sakana AI、初の商用プロダクト「Sakana Marlin」発表

  • Sakana AIが、初の商用プロダクトとなる自律型リサーチアシスタント「Sakana Marlin」を発表し、βテスターの募集を開始しました。
  • ビジネス向けの高度な調査を最大8時間かけて実行する「Ultra Deep Research」機能を特徴としています。
  • このプロダクトは、同社が以前発表した「AIサイエンティスト」の自律ワークフロー技術と独自の推論エンジンを基盤にしています。
hardmaru: Sakana AI 初の商用プロダクトを発表できることを誇りに思います!🐟 「Sakana Marlin」は、あなたの Virtual CSO として機能する自律型の「Ultra Deep Research」アシスタントです。テーマを一つ与えるだけで、先日 Nature 誌で発表した「AIサイエンティスト」の自律ワークフロー技術と独自の推論

Robert Lange: (翻訳) 新しいUltra Deep ResearchアシスタントMarlin @SakanaAILabs 🐠 ビジネス指向の研究を自動化するためのテスト時スケーリングの限界を押し広げます。AB-MCTSとThe AI Scientistの上に構築されています!エージェントが実世界のアプリケーションや長時間実行にスケールするのを見るのは非常に楽しみです。

Ino.Ichi: Sakana Marlinのβテスターの募集です🎣8時間かけて調査してくれるDeep Researchで非常に有能なアシスタントです!このプロダクトの裏側では純粋な研究プロジェクトの成果であるAB-MCTSが使われています!研究成果が実プロダクトに結びついたSakana AIならではのプロダクトだと思います👏 https://t.co/WtITs9VjTr

チューリング、NVIDIAの次世代GPU「B300」を導入

  • 自動運転AIを開発するチューリングが、NVIDIAの最新GPU「B300」を搭載したノードの本格利用を開始したと発表しました。
  • 288GBという広大なVRAMを持つBlackwellアーキテクチャのGPUを活用し、自動運転AIの研究開発を加速させるとしています。
  • このニュースは、次世代の高性能GPUが早くも実用段階に入っていることを示し、多くの開発者から驚きの声が上がっています。
Yu Yamaguchi | チューリング CTO: チューリング、4月からB300 GPUノードを本格的に利用開始しました。 288GB VRAMを持つBlackwell Ultraを活用し、自動運転AIの研究開発を加速させていきます https://t.co/xeh6KiU74b

エチレン: B300って既に一般導入されてたんだ

charm: 文字通り桁違いのメモリで笑ってしまった

Anthropic、AIエージェント「Cowork」に注力か

  • Anthropicの幹部が、汎用AIエージェント「Cowork」が、ヒット商品となった「Claude Code」よりも広い市場に到達するとの期待を示しました。
  • 先日のソースコード流出は事故であったと報告されていますが、この一件で同社の自律エージェント開発への注力が明らかになった形です。
  • 流出コードを解析した開発者からは、そのコードを書いたとされる人物の貢献度の高さを指摘する声も上がっています。
Bloomberg: (翻訳) Anthropicのトップエグゼクティブは、同社の汎用AIエージェントであるCoworkが、スタートアップをAIの巨人に変えるのに貢献したヒット商品であるClaude Codeよりも広い市場に到達すると予想しています。

TechCrunch: (翻訳) Anthropicは、漏洩したソースコードを削除しようとして数千のGithubリポジトリを削除しました。同社によれば、これは事故だったとのことです。

Kenn Ejima: (日本語訳) 他の会社なら、ソースコード51万2000行、内部モデルのコードネーム、プロダクトロードマップの全容をリークした人間は、昼までに荷物をまとめて出ていくことになる。 Borisはサイドプロジェクトだったものをここまで育て上げた。Claude

Yann LeCun氏、自己回帰モデルの限界を指摘

  • MetaのAI研究責任者であるYann LeCun氏が、現在の主流である自己回帰型モデルの限界について言及しました。
  • 同氏は、より人間らしい推論や計画能力を持つAIの実現には、JEPA(Joint Embedding Predictive Architectures)のような新しいアーキテクチャが必要であると主張しています。
  • この発言は、次世代のAIモデルのアーキテクチャに関する議論を活発化させる可能性があります。
Rohan Paul: (翻訳) ヤン・ルカンが今日FBに投稿しました。👀

AIエージェントの対話的操作、「Planモード」は不要か

  • AIエージェント開発ツール「Codex (OpenClaw)」の開発者であるPeter Steinberger氏が、事前に計画を生成させる「Planモード」をほとんど使わないと発言し、話題を呼んでいます。
  • 同氏は、事前に巨大な計画を生成させても読まずに実行してしまうことが多く、エージェントと有意義な対話をしながら実装を進める方が簡単だと感じていると述べています。
  • この考え方は、AIエージェントとのより効果的な協業スタイルを示唆するものとして、多くの開発者から共感を得ています。
Peter Steinberger 🦞: (翻訳) 私はプランモードを使いません。Codexにこの機能が追加された主な理由は、習慣を変えるのに苦労しているクロードピルの人々のためのものです。エージェントと話すだけでいいのです。

Joanne Jang: (翻訳) codexはプロジェクトから成績の悪いメンバーを外し、現場に入ります。私たちは極端な当事者意識を見るのが大好きです。

Harrison Chase: (翻訳) langsmithでエージェントを最適化する

Gemini Embedding 2、タスク指定で検索品質が大幅向上

  • Googleのテキスト埋め込みモデル「Gemini Embedding 2」において、用途に応じたタスクタイプを指定することで検索品質が大幅に向上することが報告されています。
  • ある開発者が1万件のデータセットで検証したところ、Q&A検索タスクを指定した場合、単純な類似検索に比べてMRR(Mean Reciprocal Rank)が46%も高かったとのことです。
  • この結果は、埋め込みモデルを利用する際に、タスクに応じて適切なプロンプトを指定することの重要性を示しています。
Kazunori Sato: Gemini Embedding 2のタスクタイプ性能を1万件のNQ Openデータセットで測ってみたら、類似検索に比べてQ&A検索は46%もMRRが高かった。これタスクタイプ指定しないと損すぎる。 https://t.co/L71mRiHwZt

Kazunori Sato: ちなみにGemini Embedding 2でも任意のプロンプトでタスク指定可能。用途に応じてタスクを指定すれば類似検索に比べて検索品質を改善できる。 - テキスト埋め込みモデルに対する自動プロンプト最適化|レトリバ広報 https://t.co/JHg7OGi6I3 #zenn

OpenAIのCodex、エコシステムの成長が加速

  • OpenAIのAIコーディングアシスタント「Codex」のエコシステムが活発化しています。
  • コア部分がオープンソースであることがエコシステムの成長を後押ししており、利用が急速に拡大していると報告されています。
  • 新たにプロジェクト管理ツール「Linear」との連携プラグインも発表され、開発ワークフローとの連携がさらに強化されています。
Tibo: (翻訳) Codexの成長がすごい。まだ来週でもないのに。4月1日に働く人なんているの?

OpenAI Developers: (翻訳) 仕事とチケットを同期させましょう。Codexアプリの@linearプラグイン。

Tibo: (翻訳) ああ、気にしないでください。Codexのコアをオープンソースにすることにしたのを思い出しました。なぜなら、すべてがまだ初期段階で楽しいので、エコシステムが繁栄するのを見るのは素晴らしいことだからです。そして、その見返りに多くのことを学ぶことができます。ふぅ。

AI需要でCPUが不足、Intel x86復権の兆しか

  • AIエージェントの普及などによる計算資源の需要増を受け、CPU市場が活況を呈していると報じられています。
  • 特にIntelは2026年に入ってから複数回の価格改定を実施しており、CPUが不足している状況がうかがえます。
  • この需要増を背景に、長らく主流であったx86アーキテクチャが再評価され、復権する可能性が指摘されています。
パウロ: やっぱりCPUが足りないですね Intel良さそう 自作は死んだ CPU市場動向まとめ(2026年) 1. 価格改定の動向(Intel) * 値上げの実施: 2026年に入り、すでに2回の価格改定を実施。 * 2月:10~15%値上げ * 3月16日:さらに15%値上げ(1月比で累計約20%上昇) * 今後の見通し:

パウロ: CPUの需要爆増とx86の復権

パウロ: Intelの復活は年初のこのnoteで解説しています x86の復権ともう一つの成長エンジンを詳細まで解説しています 是非、読んでみてください

Subscribe to ML_Bear Times

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください