2025年09月11日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
OpenAIとOracleの3000億ドル契約、Gemini 3のリーク情報が浮上
今週のAI業界は大型投資と次世代モデルの情報で盛り上がっています。OpenAIとOracleが5年間で3000億ドル規模の計算資源契約を締結し、Googleの次世代Gemini 3では軽量モデルでも現行高性能版を上回る可能性が示唆されました。
一方、Perplexityは評価額200億ドルで追加資金調達を実現し、NVIDIAは次世代メモリへの高い要求でAIハードウェアの進化を牽引。OpenAI Evalsの音声対応や、Claudeの記憶機能など実用面の進化も進んでいます。
それでは各トピックの詳細について見ていきましょう。
目次
- OpenAI、Oracleと3000億ドル規模の契約報道【続報】
- Gemini 3のリーク情報、Flash版が2.5 Pro超えか
- Perplexity、評価額$20Bで$200Mを追加調達【続報】
- NVIDIA、次世代HBM4に11Gbpsの高速化を要求か【続報】
- OpenAI Evals、音声入出力のネイティブサポート開始
- Claude Webアプリに記憶機能と匿名モード追加か【続報】
- Alibaba、新LLM「Qwen3-Next」のリリースを予告【続報】
- Gemini Embeddings、Batch API対応で50%割引【続報】
- 【続報】米国のエントリー求人35%減、AI影響が深刻化
- LLM推論の非決定性、原因はGPUの並列化戦略と判明
OpenAI、Oracleと3000億ドル規模の契約報道【続報】
- OpenAIとOracleの提携に関する続報です。
- ウォール・ストリート・ジャーナルが、両社が5年間で3000億ドル規模の計算資源に関する契約を締結したと報じました。
- これは以前報じられた300億ドルを大幅に上回る規模で、AIデータセンターへの投資が記録的なレベルで続いていることを示しています。
- 報道を受け、Oracleの株価は急騰しています。
Rohan Paul: (翻訳) 🚨 重大ニュース:OpenAIがOracleから今後約5年間で3000億ドル相当のコンピューティングパワーを購入する契約を締結したとWSJが報じました。 過去最大級のクラウド契約の一つであり、この取引は、懸念にもかかわらずAIデータセンターへの支出が記録的なレベルに達し続けていることを浮き彫りにしています。
Rohan Paul: (翻訳) 🚀 AIクラウド容量契約により、Oracleの株価は43%急騰し、過去最高を記録しました。 OpenAIによる5年間で3000億ドルの新規購入により、Oracleの時価総額は現在1兆ドルに迫り、ラリー・エリソンをトップへと押し上げました。 Oracleは4つの数十億ドル規模の契約を発表し、残りの履行義務(RPO)があると述べました。
パウロ: これはデカすぎ GPUっつ 以下、引用 米オープンAIは、企業向けソフトウエア大手オラクルから今後5年ほどで3000億ドル相当のコンピューティングパワーを購入する契約を結んだ。オープンAIの足元の売上高をはるかに超える巨額契約だ。事情に詳しい複数の関係者が明らかにした。 https://t.co/Ue9U1Gs7vE
Gemini 3のリーク情報、Flash版が2.5 Pro超えか
- Googleの次世代モデル「Gemini 3」に関するリーク情報が話題となっています。
- 情報によると、Gemini 3は今月中ではないものの、近いうちにリリースされる見込みです。
- 特に注目すべきは、軽量モデルである「3.0 Flash」が、現行の高性能モデル「2.5 Pro」を上回る性能を持つ可能性が示唆されている点です。
Chubby♨️: (翻訳) Gemini 3の最初のリーク情報が入ってきました: - 3.0 flashは2.5 proを上回る性能になる。 - 今月中ではないが、もうすぐ。
Kol Tregaskes: (翻訳) Gemini 3はもうすぐですが、今月中ではありません。
まつにぃ: ちょいちょいリークお漏らしするflowithですが、Gemini3は割と近いうちに来るらしく Gemini 3 Flash > Gemini 2.5 Pro らしい。 昨今のモデルは全体的にAgent能力爆上げして来てるので、何よりもまずそこが強くなることを願ってます。
Perplexity、評価額$20Bで$200Mを追加調達【続報】
- AI検索エンジンPerplexityの資金調達に関する続報です。
- 評価額200億ドルで新たに2億ドルの資金調達を行ったと報じられました。
- わずか2ヶ月前に180億ドルの評価額で資金調達を完了したばかりで、企業価値が急上昇しています。
- 年間経常収益(ARR)は1億5000万ドルを突破し、2億ドルに迫る勢いであることも伝えられています。
Rohan Paul: (翻訳) 速報💰 Perplexityが評価額200億ドルで2億ドルを調達。 この新たな資金調達は、同社が評価額180億ドルで1億ドルを調達してからわずか2ヶ月後のことで、総資金調達額は15億ドル近くになります。 年間経常収益は1億5000万ドルを超えた後、2億ドルに近づいていると報じられています。
TechCrunch: (翻訳) AI搭載の検索スタートアップの評価額は、2ヶ月前の180億ドルから急上昇しました。
NVIDIA、次世代HBM4に11Gbpsの高速化を要求か【続報】
- NVIDIAの次世代メモリHBM4への要求に関する続報です。
- 同社がSamsungとSK Hynixに対し、データ転送速度を11Gbpsに引き上げるよう要求していると報じられました。
- これは当初目標の9Gbpsから10Gbpsへと引き上げられた後、さらに高い目標が設定された形となります。
- AIアクセラレータの性能向上に向け、メモリへの要求がますます高まっていることを示しています。
Jukan: (翻訳) NVIDIAはSAMSUNGとSK HYNIXに対し、HBM4の速度を従来の9Gbps→10Gbpsの目標からさらに引き上げ、11Gbpsにするよう要請しました。
Jukan: (翻訳) これについて補足すると、 NVIDIAは当初、HBM4に9Gbpsを要求していました。 しかし、Samsungがd1bで失敗し、代わりにd1cとSF4をHBM4に適用したところ、10Gbpsを超える速度を達成できることが判明しました。 Micronは10Gbpsは不可能だと述べましたが、SK Hynixは次のように回答しました。
Jukan: (翻訳) 私は嘘をつきません…言ったでしょう?NVIDIAは本当にサムスンやハイニックスのようなHBMメーカーに速度を11Gbpsに上げるように頼んだのです。
OpenAI Evals、音声入出力のネイティブサポート開始
- OpenAIのモデル評価ライブラリ「Evals」が、音声入力をネイティブでサポートし、音声グレーダーも利用可能になったと発表されました。
- これにより、開発者は音声応答をテキストに書き起こすことなく、直接評価できるようになります。
- 音声AIモデルの開発と評価の効率化が期待されます。
OpenAI Developers: (翻訳) 🗣️ Evalsがネイティブの音声入力と音声グレーダーをサポートするようになりました。モデルの音声応答を、テキストへの書き起こしなしで評価できます。クックブックガイドで始めましょう。
Greg Brockman: (翻訳) 音声用Evals:
Claude Webアプリに記憶機能と匿名モード追加か【続報】
- AnthropicのAI「Claude」の記憶機能に関する続報です。
- Webアプリ版において、過去の会話を記憶する「メモリ機能」と、チャット履歴を残さずに利用できる「Incognitoモード」が追加される可能性が浮上しました。
- これはアプリケーションのコード内で関連する文字列が確認されたことによるもので、モバイルアプリに続きWebアプリにも機能が展開される可能性があります。
Tibor Blaho: (翻訳) 最近のデプロイで編集された文字列が実際のメッセージに置き換えられたため、メモリ合成とシークレットモードが間もなくClaudeウェブアプリに搭載される可能性があります。 - Claudeには2種類のメモリがあります - 通常のメモリ(毎晩更新されますが、プロジェクトチャットは含まれません)
Alibaba、新LLM「Qwen3-Next」のリリースを予告【続報】
- AlibabaのQwenシリーズに関する続報です。同社のQwenチームが、次世代LLM「Qwen3-Next」のリリースを予告しました。
- 具体的なリリース日や性能は未公開ですが、コミュニティでは期待が高まっています。
- モデル構成情報も一部公開されており、GPT-OSS-120Bより軽量なモデルになる可能性が示唆されています。
Qwen: (翻訳) あなたの夢のLLMは何ですか?🥝 Qwen3-Nextがもうすぐ登場します👀。気に入っていただけると嬉しいです!
pao: Qwen3-Next気になる。 80B-A3Bはgpt-oss-120bとアクティブの割合はほぼ似た感じで、少し軽量という感じ。これでgpt-ossより強いなら、かなりお強い。 modeling_xxx.pyも変わってるのでアーキテクチャもちょっと触っているのかもしれない(知らない) https://t.co/0q7M5Klnef
Gemini Embeddings、Batch API対応で50%割引【続報】
- 先日お伝えしたGemini APIのバッチモードに、新たに埋め込みモデル「Gemini Embeddings」が対応しました。
- これにより、通常価格から50%割引でモデルを使用できます。
- このモデルはOpenAI互換レイヤーを通じても利用でき、既存環境への導入も容易です。
Logan Kilpatrick: (翻訳) 開発者の皆様に朗報です。SOTAのGemini EmbeddingsモデルがBatch APIでサポートされるようになりました(通常価格より50%割引)。また、このモデルはOpenAI互換レイヤーを通じてもご利用いただけます。
【続報】米国のエントリー求人35%減、AI影響が深刻化
- AIの雇用への影響に関する続報です。CNBCによると、米国のエントリーレベルの求人募集が2023年1月以降で約35%減少したと報じられました。
- 法律専門職など、これまで若手のキャリアの出発点とされてきた分野でもAIによる代替が進んでおり、従来のキャリアパスが脅かされつつあります。
- 英国での求人減も既報ですが、米国でも同様の傾向が具体的な数字で示された形です。
Rohan Paul: (翻訳) 💼 AIはエントリーレベルの役職を圧迫し、組織図をフラット化させており、最初の仕事からリーダーシップへの慣れ親しんだ道のりを脅かしています。 CNBCが記事を公開しました。 2023年1月以降、エントリーレベルの求人募集は35%減少し、経験1年未満の人の新規採用は減少しました。
Chubby♨️: (翻訳) AIは進化しており、あらゆる分野で人間を質的に上回る史上初のテクノロジーであるため、従来の歴史的なテクノロジーと比較することはできません。 「労働市場データによると、米国全体のエントリーレベルの求人募集は2023年1月以降、約35%減少しています。
Chubby♨️: (翻訳) AIのゴッドファーザー、ジェフリー・ヒントン氏:「しかし、超知能AIが登場したとき、それらの人々がどのような仕事をするのかは明らかではありません。ですから、私たちはかなり大規模な失業を目の当たりにすることになると信じています。」
LLM推論の非決定性、原因はGPUの並列化戦略と判明
- LLMの推論結果が、温度設定を0にしても入力が同じであれば常に同じ出力になるとは限らない「非決定性」の問題について、新たな研究が発表されました。
- これまでは並列処理の演算順序の不確定性などが原因と考えられていましたが、実際にはバッチサイズによるGPUの並列化戦略の変化と、浮動小数点演算の丸め誤差が影響していることが実証されました。
- この研究では、決定論的な推論を保証するためのライブラリも公開されており、LLMの再現性向上に貢献することが期待されます。
webbigdata: LLMが温度0でも同じ入力に対して同じ出力にならない(決定論的ではない)現象は知られていた ・並行処理で演算順序が不確定 ・浮動小数点演算の丸め誤差 が原因と考えられていたが前者は誤解。実際はバッチサイズによってGPUの並列化戦略が変化する事と後者が影響しており決定論的な実装を実証
pon / Hiromu Nakamura | LayerX: llmがtemperature=0でも決定論的にならない理由について。バッチ不変カーネルライブラリ公開してます!とかえぐ。 https://t.co/JUU4bPqBY7
Qwen: (翻訳) @thinkymachines チームの素晴らしい仕事です!Qwen モデル (Qwen3-235B-A22B & Qwen3-8B & Qwen 2.5-VL) がこの実験の基盤として役立ったことに興奮しています。これこそが私たちが構築する理由です。困難な問題に取り組む研究者に力を与え、新しい科学的洞察を解き放つためです。待ちきれません。