2025年11月03日 朝のAIニュースまとめ

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。

(ほぼ)毎日AIニュースが届きます
ぜひご登録ください

OpenAI・Anthropic合併検討の証言とQwen3新機能のダブル注目

Ilya Sutskeverの証言によりOpenAIとAnthropicの合併交渉があったことが明らかになりました。Dario Amodei氏が統合後のトップに就任する可能性もあったようです。

一方、AlibabaのQwen3-Maxに「Deep Thinking」機能が追加され、82,000トークンもの広大な思考バジェットを持つことが注目されています。

また、LLMの物理世界理解に関する議論や、RLファインチューニングでFP16がBF16より安定するという技術知見も話題となっています。

それでは各トピックの詳細を見ていきましょう。

目次

  1. Ilya証言録で判明、OpenAIとAnthropicが合併検討
  2. Alibaba Qwen3-Max、「Deep Thinking」機能追加【続報】
  3. LLMの限界めぐる議論、物理世界の学習が次世代AIの鍵か
  4. RLファインチューニング、BF16よりFP16が安定
  5. AI需要によるメモリ価格高騰、ついに購入制限の動き【続報】
  6. Codex、使用量過剰請求のバグを修正しクレジット返金
  7. ChatGPT音声モードに新UI、自分の発話も文字起こし
  8. Kaggle Advent Calendar 2025が今年も開催

Ilya証言録で判明、OpenAIとAnthropicが合併検討

  • OpenAIの共同創業者Ilya Sutskever氏の新たな証言録が公開され、Sam Altman氏の解任後にAnthropicとの合併が検討されていたことが明らかになった。
  • この合併案では、AnthropicのCEOであるDario Amodei氏が統合後のOpenAIのトップに就任する可能性があったが、Sutskever氏の反対などもあり実現しなかった。
  • また、証言録ではAltman氏が「一貫して嘘をつくパターン」があったとするメモの存在も示唆されており、解任劇の背景にある内部対立の深刻さが改めて浮き彫りになっている。
The Information: (翻訳) OpenAIの共同創業者であるイリヤ・サツケバーは、サム・アルトマンの最初の解雇につながった内部対立に関する新たな詳細を共有しました。これには、アルトマンが「一貫した嘘のパターン」を示したと主張するメモも含まれています。詳細はこちら: https://t.co/o6r3bHdE7h

Chubby♨️: (翻訳) 新たに公開されたイリヤ・サツケバー氏の証言録取書から、アンソロピックが2023年のサム・アルトマン氏解任後、OpenAIとの合併を検討していたことが明らかになった。この合併案では、アンソロピックCEOのダリオ・アモデイ氏がOpenAIの責任者になる可能性があった。 サツケバー氏は、実務上およびガバナンス上の理由からこの計画に反対した。

Rohan Paul: (翻訳) 🔥 イリヤ・サツケバーからの新情報。 アンソロピックは23年11月にサム・アルトマンが解雇された後、OpenAIとの合併を一時的に検討した。イリヤ・サツケバーの証言録によると、この合併案は実務上およびガバナンス上の問題で頓挫する前に、ダリオ・アモデイを責任者に据える可能性があった。 サツケバーの証言

Alibaba Qwen3-Max、「Deep Thinking」機能追加【続報】

  • AlibabaのフラッグシップLLM「Qwen3-Max」の続報として、新たに「Deep Thinking」機能が追加されました。
  • この機能は82,000トークンという広大な思考バジェットを持ち、より複雑で深い思考を要するタスクに対応できるとされています。
  • 一部のユーザーからは、GPT-5 ProやGrok-4 Heavyに匹敵する性能の可能性が指摘されており、今後の性能評価が注目されます。
Junyang Lin: (翻訳) よし、今そこにある。試してみて。 https://t.co/PCrSVxa8qs

TestingCatalog News 🗞: (翻訳) Qwen3-Max ThinkingがQwen Chatで利用可能になりました。82kトークン相当の思考バジェットが付いています。

まつにぃ: 私の環境でもQwen3 MAXきてますね。 Thinking枠が8万Tokenという中々すごい量があります。 WEB検索との併用もできそうです。 あとProにしては生成速度結構早いぞ?? https://t.co/bpyphHUywf

LLMの限界めぐる議論、物理世界の学習が次世代AIの鍵か

  • スタンフォード大のFei-Fei Li氏が提起した「LLMは物理世界を理解できない」という問題について、議論がさらに活発化しています。
  • テキストデータのみで学習する現行LLMの限界が改めて指摘される中、MetaやGoogle DeepMindなどが進める研究が注目されています。
  • テキストだけでなく動画データなどを通じて物理世界を学習させるアプローチが、次世代AIのアーキテクチャを考える上で重要だとされています。
Rohan Paul: (翻訳) フェイフェイ・リ博士(@drfeifei)がLLMの限界について述べたことをさらに考察するために。 この研究は、AIモデルがテキストのみから学習する場合、感情や抽象的なアイデアのようなものはかなりうまく扱えるが、感知を必要とするものにはひどく苦労することを示しています。

Rohan Paul: (翻訳) LLMの限界に関するフェイフェイ・リの説明にさらなる文脈を与える、素晴らしい@AIatMetaの研究。 この論文は、AIが現実世界のビデオから学習すると、隠れていても物体が存在し続ける、あるいは形が保たれるといった基本的な物理的概念を習得し始めることを証明しています。

Rohan Paul: (翻訳) この考えは多くの側面から収束しつつある。 TransformerベースのLLMは、我々を人間レベルのAIに導くことはないだろう。 あの有名なヤン・ルカン氏のインタビュー。 「MLMをスケールアップするだけでは、人間レベルのAIには到達しない。そんなことはありえない。絶対にだ。オーケー、絶対に」

RLファインチューニング、BF16よりFP16が安定

  • LLMの強化学習(RL)によるファインチューニングにおいて、広く使われているBF16(16ビット浮動小数点数)よりもFP16を使用する方が学習が安定し、高性能が得られるという研究結果が注目されている。
  • 学習時と推論時の方策間の誤差が不安定性の原因であり、FP16に戻すことでこのミスマッチがほぼ解消されることが示された。
  • この知見は、特にDPOやRLHFといった手法でモデルを最適化する際の実用的なTipsとして開発者の間で共有されている。
Masahiro Tanaka: こういう話は、調査は大変だろうが、聞くのは面白い。例えばlossだけでなくレイヤごとに値域に応じてFP16をスケーリングすれば、BF16より良い気もする。 Pretrainingのlossは問題ないのに、ダウンストリームタスクでBF16よりFP16が良いのを経験したこともある。現場ではなかなか原因までは追いにくい。

Rohan Paul: (翻訳) RLファインチューニングは、トレーニングと推論の両方をFP16で実行することで安定します。 FP16はミスマッチを大幅に削減し、収束を高速化します。 ミスマッチが発生するのは、生成が1つのエンジンを使用し、勾配更新が別のエンジンを使用するためです。 BF16の精度は7ビットなので、丸め処理によって2つのエンジンが

webbigdata: 強化学習(GRPO)においてFP16 > BF16になる説は、諸説入り乱れていますが、ハードウェア or 実装依存の可能性もある感じですね A100はモデル崩壊しやすくてH100だと崩壊をほとんど見た事がないという意見も見ました 直近でGRPOで高みを狙う際はH100やTPUを使うと良いのかもしれません

AI需要によるメモリ価格高騰、ついに購入制限の動き【続報】

  • 既報の通り、AIサーバー向けの需要拡大を背景にメモリやSSDの価格高騰が続いています。
  • この影響が個人消費者にも及び始め、一部の小売店ではまとめ買いが相次ぎ、購入制限を設ける動きが出てきました。
  • 半導体メーカーはハイパースケーラーからの大口需要を優先しており、個人や中小企業向けの供給不足と価格高騰は当面続くと見られています。
パウロ: ついに来ましたね パニック 転売ヤー続出、偽物が出回る季節になってきました

パウロ: DRAMメーカー、NANDメーカーもハイパースケーラ以外の発狂二重発注なんてもう相手にしないでしょうね どうせ1億円未満のしょぼいPOでしょうし 愚鈍な購買は偽物を香港のブローカーから買ってください

パウロ: 超大正解ですっ

Codex、使用量過剰請求のバグを修正しクレジット返金

  • AIコーディングツールCodexで、クラウドタスクの使用量を過剰に請求するバグがあったことが判明しました。
  • この問題に対し、Codexはバグを修正し、影響を受けたユーザーに過剰請求分のクレジットを全額返金、さらにレート制限をリセットしたと発表しました。
  • 多くの開発者が利用するツールだけに、迅速な対応が評価されています。
Alexander Embiricos: (翻訳) Codexのレート制限を全員リセットし、金曜日午後1時(太平洋時間)までのCodexクレジット使用量をすべて返金しました。お楽しみください! 理由:木曜日に、ユーザーが20ドルと200ドルのプランを選択できるクレジットを導入しました。しかし、クラウドタスクの使用量を約2~5倍過剰請求するバグがありました。

Greg Brockman: (翻訳) 一度に複数のことを行うためのコーデックス:

Kenn Ejima: ChatGPT ProでCodexのリミット99%到達なんてことある? https://t.co/s0ka9oOuPh

ChatGPT音声モードに新UI、自分の発話も文字起こし

  • ChatGPTのAndroidアプリで、ボイスモードの新しいUIが一部ユーザーに一時的に表示されたと報告されています。
  • 新UIでは自分の発話もリアルタイムで文字起こしされ、対話の正確性や利便性の向上が期待されます。
  • まだ公式発表はありませんが、近いうちに正式リリースされる可能性があります。
ChatGPT研究所: 【速報】ChatGPTボイスモード最新アップデートか 研究所所有のAndroidアカウントで、ChatGPTボイスモードの新しいUIが一時的に確認されました。※ 公式発表はありません。 新UIは左上に「ChatGPT Voice」と表示され、ユーザー自身の発話もリアルタイムで文字起こしされるようになっています。 https://t.co/TB6AsDMyG8

Kaggle Advent Calendar 2025が今年も開催

  • データサイエンスコンペティションプラットフォームKaggleの知見を共有する年末の恒例企画「Kaggle Advent Calendar 2025」の参加者募集が開始された。
  • 毎年多くのKaggle参加者が自身の学びやコンペの解法などを記事にして投稿しており、コミュニティの活性化に繋がっている。
  • 初心者からベテランまで、多くの参加が呼びかけられている。
u++: 今年も枠を作りました。自分のブログのURLでも登録できます&「何か書きます」で枠を取って大丈夫です&他のカレンダーと兼ねてもOKです。初めての方も、常連の方もお気軽に是非! Kaggle Advent Calendar 2025 https://t.co/Yo3KuUYHAS #Qiitaアドカレ #Qiita

Subscribe to ML_Bear Times

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください