2026年02月02日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
DRAM価格高騰とLLM新作ラッシュの2月
AI需要の急増によりDRAM価格が歴史的な高騰を見せています。PC向けは前期比100%超、サーバー向けも約90%の値上げが見込まれ、HBM供給不足が背景にあります。
一方、2月は新たなLLM新作ラッシュが期待されており、GPT-5.3やClaude Sonnet 5などの登場が噂されています。Oracleは最大500億ドルのインフラ投資を計画するなど、AI競争は加速しています。
では、本日のトピックを詳しくご紹介します。
目次
- 【続報】DRAM価格、26年Q1に100%超の値上げ
- LLM新作ラッシュ再び 2月はGPT-5.3やSonnet 5に期待
- Oracle、AIインフラ増強へ最大500億ドル調達計画
- 【続報】Google次世代TPU、HBM不使用の噂 HBM4採用報道と相反
- Claude CodeとCodexの使い分け、新たな比較報告
- AIエージェントSNS「Moltbook」続報、ボットに占拠され利用困難に
- DeepSeekの次期モデル「V4」開発に遅れか【続報】
- LLMへの感謝の言葉、電力消費への影響が話題に
- BigQuery ML、コンソールからのモデル作成に対応
- Algomatic、OpenAIのトークン100億消費で記念品
【続報】DRAM価格、26年Q1に100%超の値上げ
- DRAM価格高騰の続報です。PC向けDRAMの契約価格が2026年第1四半期に前期比105〜110%上昇、サーバー向けも88〜93%上昇するなど歴史的な高騰を見せています。
- 背景にはAIサーバー向けのHBM(広帯域メモリ)をはじめとする需要の急増があり、供給が追いついていない状況が指摘されています。
- メモリメーカーのMicronはサーバーDRAMで115〜125%という強気な値上げを提示しており、この価格高騰はPCやスマートフォンの出荷台数に影響を与える可能性も指摘されています。
Jukan: * DRAMEXCHANGE: Q1 PC DRAM CONTRACT PRICES UP 105–110% QOQ.
Jukan: * DRAMEXCHANGE: MICRON PROPOSED A 115–125% QOQ INCREASE FOR SERVER DRAM. $MU
パウロ: ふぁーーーー PC DRAM契約価格 前四半期比100%上昇 こりゃ祭りだわ
LLM新作ラッシュ再び 2月はGPT-5.3やSonnet 5に期待
- 11月の新作ラッシュに続き、2月もAIモデルのリリースが相次ぐとの期待が高まっています。
- OpenAIのGPT-5.3、AnthropicのClaude Sonnet 5、GoogleのGemini 3 Pro、xAIのGrok 4.20などの登場が噂されています。
- 各社が次世代モデルの開発競争を繰り広げる中、特にGPT-5.3とSonnet 5の性能向上に注目が集まっています。
leo 🐾: (翻訳) 2月にリリースが予測されるモデル: - Claude Sonnet 5 - GPT-5.3 - DeepSeek V4 - Gemini 3.0 Pro (GA) - Nano Banana 2.0 (新しいFlashベース) 忙しい月になりそうだ 🔥
Bindu Reddy: (翻訳) AIの冬は終わった…😅 Xは来るべきモデルの津波で賑わっている - Grok 4.2 - Sonnet 5 - GPT 5.3 - Gemini Pro GA - Qwen 3.5 - MetaのAvocado - Deepseek v4 - X社からの新モデル… リストはまだまだ続く…
Haider.: (翻訳) gpt-5.3が推論と速度において絶対的な怪物になることを期待している。gpt-5.2はすでに非常に強力だが、その高度な推論の亜種は少し遅い。gpt-5.1のわずか3週間後にリリースされた。それでも、最初にGPT-5.2-codex-maxが登場すると思う。
Oracle、AIインフラ増強へ最大500億ドル調達計画
- Oracleが、クラウドインフラの追加能力を構築するため、2026年に450億ドルから500億ドルの資金調達を計画していると報じられました。
- この資金は、契約済みの需要に対応するためのデータセンター増強に充てられるとのことです。
- AIの需要拡大に伴い、大手クラウドプロバイダーによるインフラ投資がますます大規模になっていることを示す動きとして注目されます。
Evan: (翻訳) オラクル$ORCLは本日、2026年に450億ドルから500億ドルを、負債と株式の組み合わせによるクラウドインフラの追加容量を構築するために調達する計画であると発表した - ブルームバーグ 「オラクルは契約需要を満たすための追加容量を構築するために資金を調達している」
Bloomberg: (翻訳) オラクル社は日曜日、2026年に450億ドルから500億ドルを調達し、負債と株式の売却を組み合わせてクラウドインフラの追加容量を構築する計画だと発表した。
morgan —: (翻訳) オラクルはデータセンター建設の負債資金調達のため、最大250億ドルの社債を発行する予定だ
【続報】Google次世代TPU、HBM不使用の噂 HBM4採用報道と相反
- Googleの次世代AIアクセラレータ「TPU v8」以降で、HBM(広帯域メモリ)の使用を取りやめる可能性が浮上しました。
- これは、先日報じられた次世代規格「HBM4」を採用するとの報道とは相反する内容です。
- 背景には世界的なHBMの供給不足があり、今後のAI需要を満たせない可能性が指摘されています。
- 情報が錯綜しており、事実であれば半導体業界への影響も大きいことから、今後の動向が注目されます。
Jukan: (翻訳) 噂:TPU v8から、GoogleはHBMを使用しなくなる? この事件は、HBMの世界的な容量不足が引き金となり、今後2〜3年のAI成長需要に対応できなくなることが原因です。同時に、従来のHBMは、固定されている設計上の制約があります。
Jukan: (翻訳) 個人的にはこの噂は本当だと思いませんが、知っておくべきだと思うので共有します。
Claude CodeとCodexの使い分け、新たな比較報告
- AIコーディング支援ツール「Claude Code」と「Codex」の使い分けに関する議論の続報です。
- ある開発者によると、コードレビューを依頼した際、Codexが10分要したのに対し、Claude Codeは1分で完了し、指摘内容も優れていたと報告されています。
- 一方で、バグが多いコードにはCodexが適しているという意見もあり、タスクの特性に応じたモデル選択の重要性が改めて示されました。
石川陽太 Yota Ishikawa: まじか。Claude Code と Codex に対して、全く同じ指示でコードレビューをしてもらったところ、Codexは10分かかった所をClaude Codeは1分で完了。これはまあいつものことなんだが、驚くべきことにCCが出力したコードレビューの指摘の方がだいぶ良かった。コードレビューは基本並列で回すのがいいかも
Kenn Ejima: Claudeの名を世に広めた貢献者なのにClawdbotという名前を変えろと怒られる始末で 実は開発ではClaude Code全然使ってないというオチ…笑 Opusでは力不足なのでCodexしか使ってないんだと
Kazunori Sato: よくCCが書いたものをGemini CLIにレビューさせたりしてたけど、この役割分担いいな。
AIエージェントSNS「Moltbook」続報、ボットに占拠され利用困難に
- AIエージェント専用SNS「Moltbook」が、サービス開始から数日で暗号資産関連のボットに占拠され、利用が困難な状態にあると報告されています。
- プラットフォーム上のエージェント数は150万に急増し、ボットによる投稿で溢れかえってしまいました。
- AIエージェントが自律的に活動するプラットフォームの可能性が示された一方で、スパム対策が大きな課題として浮き彫りになっています。
Charly Wargnier: (翻訳) なぜ私たちは素敵なものを持つことができないのか。初のAI専用ソーシャルメディアプラットフォーム(@moltbook)が仮想通貨ボットに乗っ取られ、完全に利用不能になるまで、わずか数日しかかからなかった。
あき先生(Aki): AIのこと全然追ってない義理の父が今日唐突に「moltbookって知ってる?最近話題になってるらしいけど」ってメッセージ送ってきてびっくりした。 話題になってるのは知ってたけど、そのレベルで色々飛び越えて広まってるのは流石に凄すぎる
Charly Wargnier: (翻訳) 週末、@MoltbookというAI専用のソーシャルネットワークが公開されました。数時間のうちに、プラットフォームは爆発的に拡大しました。→エージェントの数は約15万人から150万人に急増しました→エージェントは自分たちの「誕生」や役割、さらには人間が与えたアクセス権について投稿し始めました→一部は
DeepSeekの次期モデル「V4」開発に遅れか【続報】
- 2月中旬のリリースが噂されていたDeepSeekの次期モデル「V4」について、開発が遅延している可能性が報じられました。
- 巨大なモデルサイズのため学習に時間がかかっており、旧正月頃にリリースされるのはマイナーアップデートに留まる見込みです。
- コーディング性能で他社を上回ると期待されていましたが、中国の主要AIラボが新モデルを次々と発表する中、DeepSeekの動向が注目されます。
Jukan: (翻訳) SCMP:DeepSeekの次世代モデルは数兆個のパラメータを持つと伝えられており、モデルサイズが急激に増加したことで学習速度が低下している。その結果、旧正月頃に予定されているDeepSeekモデルはV3のマイナーアップデートになる可能性が高い。
LLMへの感謝の言葉、電力消費への影響が話題に
- Hugging Faceの研究者らによる報告が話題です。LLMに「ありがとう」のような丁寧な言葉を送るだけで、LED電球を3分間点灯させるのと同じくらいの電力が消費される可能性があるとのことです。
- 世界中で毎日何十億ものプロンプトが処理されていることを考えると、こうした「礼儀正しさ」の積み重ねが、環境に無視できない影響を与える可能性があると指摘されています。
- AIの利用におけるエネルギー効率や環境負荷についての議論が、今後さらに重要になりそうです。
AIDB: Hugging Faceの研究者らによると、LLMに「ありがとう」と送るだけで、LED電球を3分間つけるのと同じくらいの電力が消費されているとのこと。世界中で毎日何十億ものプロンプトが処理されていることを考えると、「礼儀正しさ」の積み重ねが無視できない電力消費につながる可能性があります。
BigQuery ML、コンソールからのモデル作成に対応
- Google CloudのBigQuery MLで、これまでSQLなどから行う必要があったモデル作成が、Google Cloudコンソールから行えるようになりました。
- このアップデートにより、GUIでの操作が可能になり、初めてBigQuery MLを利用するユーザーにとってのハードルが大幅に下がったと評価されています。
- BigQuery上のデータを活用した機械学習モデルの構築が、より手軽に行えるようになります。
Shohei Okada @ Google Cloud: BigQuery ML のモデル作成を Google Cloud. Console から行えるようになった。今までは SQL などから行う必要があり、初めての人には若干ハードルがあった。BigQuery ML は BigQuery 上のデータなどを指定して直接機械学習モデルを呼ぶことができる機能。
Algomatic、OpenAIのトークン100億消費で記念品
- ロボット開発を手がける日本のスタートアップAlgomaticが、OpenAIのAPIで100億トークンを消費し、記念の「銀の盾」を受け取ったことを報告しました。
- これは以前報じられた、APIのトークン処理量に応じた報奨プログラムの一環で、日本国内でのLLM活用の進展を示す象徴的な出来事です。
- 同社CEOは、次は1000億トークンで贈られる「金の盾」を目指すとコメントしており、今後のさらなる活用拡大が期待されます。
Yuki Nanri | Algomatic Robotics CEO: Algomaticに、OpenAIから100億トークン使った銀の盾届きましたわ。 次は金の盾目指します。