2025年12月26日 朝のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
メモリ不足深刻化とコーディングツール競争激化
MicrosoftとGoogleがHBM確保に奔走する一方、SK Hynixは次世代HBM4の量産を前倒しする可能性が浮上しています。
一方、AIコーディングツール市場ではGitHub CopilotがCursorなどの競合にシェアを奪われる展開に。小型モデルの進化やGrokのTesla統合など、幅広い動きが見られました。
では、本日の各トピックを詳しくお伝えします。
目次
- OpenAI Codex、年末年始は利用上限が倍増
- AI向けメモリ不足、MicrosoftとGoogleも確保に奔走か【続報】
- Samsung、独自GPU開発とASIC事業参入か
- SK Hynix、HBM4量産計画を前倒しか 延期報道から一転【続報】
- GitHub Copilot、競合にシェアを奪われ苦戦と報道
- 2.6Bの小型モデルLFM2、博士レベルの知識を問うGPQAで高スコア
- GrokのTesla搭載が実現 Xでの情報検証機能も好評【続報】
OpenAI Codex、年末年始は利用上限が倍増
- OpenAIが、年末のホリデーギフトとして、AIコーディング支援ツール「Codex」の利用上限を一時的に2倍に引き上げると発表しました。
- この措置は2026年1月1日まで続き、多くの開発者が休暇中のプロジェクトで活用する機会となりそうです。
Tibor Blaho: (翻訳) OpenAIとAnthropicは、OpenAIはCodexユーザー向け、AnthropicはProおよびMaxプラン向けに、1月1日までホリデーギフトとして使用制限をリセットし、2倍にしました。
Oikon: Codexも対抗してレートリミットをリセットし、2026/1/1までレートリミット上限を2倍にしてきたw\n\nClaudeには負けんという意志を感じる🤣
Greg Brockman: (翻訳) すべてのCodexユーザーに感謝の意を表して、1月1日までCodexの利用上限を引き上げます。
AI向けメモリ不足、MicrosoftとGoogleも確保に奔走か【続報】
- AIインフラの増強に伴うHBM(広帯域幅メモリ)の供給不足問題の続報です。
- 新たにMicrosoftとGoogleがHBMの確保に苦戦しており、韓国のSamsungやSK Hynixに供給を懇願していると報じられました。
- 担当幹部が確保に失敗すれば解雇されるほどのプレッシャーに晒されているとの情報もあり、巨大テック企業も巻き込むメモリの需給逼迫の深刻さが浮き彫りになっています。
Jukan: (翻訳) メモリ供給を確保できない役員はクビになる(笑)
パウロ: MicrosoftとGoogle メモリー確保に必死\n\n【独占】韓国に駐在するマイクロソフトとグーグル、供給を懇願…サムスンとSKの量を確保できなければ解雇
パウロ: まさに 2012年までのHynixは万年赤字 債権管理団の中で全く投資できず\n\n愛人に新聞誌面で公開ラブレターを出すぐらい空気の読めないSKグループ チェ会長が周囲の反対を押し切り買収\n\n巨額の設備投資でDRAM、NANDの競争力回復、そして使い道がないと言われたHBMへの逆張り投資でAI特需を豪運で引く
Samsung、独自GPU開発とASIC事業参入か
- Samsungが独自開発のGPUを搭載したアプリケーションプロセッサ「Exynos 2800」を計画しており、ASIC(特定用途向け集積回路)事業への本格参入も報じられています。
- データセンター向けチップ開発を強化する動きと見られ、半導体業界での競争がさらに激化することが予想されます。
- この動きは市場から好意的に受け止められており、Samsungの今後の展開に注目が集まっています。
Jukan: (翻訳) SamsungがASIC事業に参入!! LFG!!
パウロ: これめちゃくちゃ良い判断だわ\nSamsung データセンターのExynos開発へ\nセカンドBroadcomを狙う
パウロ: Samsung 一時期ボロカス言われてたけど、動きが活発になってきたね\nなんだかんだ強いよね
SK Hynix、HBM4量産計画を前倒しか 延期報道から一転【続報】
- 以前報じられた量産計画の延期から一転、SK Hynixが次世代メモリHBM4を来年2月に量産開始する可能性があると報じられました。
- これが実現すれば世界初となり、AIサーバーの需要急増に対応する動きとして注目されます。
- この動向は、AI半導体市場における同社の技術的優位性と、サプライチェーンへの影響を示すものとして重要です。
パウロ: SK HynixついにHBM4きたかっ\n一番乗り確保?\n\n[独自] SK hynix 来年2月に世界初のHBM4量産へ\n\nSK hynix (000660)
パウロ: だからSK Hynixの売上推移を見ると\n🟦のHBMと強い相関で🟩のサーバー用メモリ(LPDDR+DDR)が伸びるんですよ
パウロ: HBMを使うのはGPUやAI ASICだけじゃないからね\nBroadcomのJericho 4 AI ネットワーキングチップも使うんですよ
GitHub Copilot、競合にシェアを奪われ苦戦と報道
- The Informationは、Microsoftのコーディング支援ツールGitHub Copilotが、CursorやDevinといった新しい競合に市場シェアを奪われていると報じました。
- 報道によると、Goldman Sachsのような大口顧客もCopilotへの支出を削減しているとのことです。
- AIコーディングツール市場の競争激化が鮮明になり、先行していたCopilotの優位性が揺らいでいます。
The Information: (翻訳) GitHub CopilotはCursorやDevinのような新しいライバルに市場シェアを奪われており、Goldman Sachsのような一部の大口顧客はMicrosoftのコーディングツールへの支出を削減している。詳細はこちら:
2.6Bの小型モデルLFM2、博士レベルの知識を問うGPQAで高スコア
- Liquid AIが発表した2.6Bパラメータの小型モデル「LFM2-2.6B-Exp」が、博士レベルの専門知識を問う高難度のベンチマークGPQAで42%のスコアを記録しました。
- このスコアは、専門家レベルには及ばないものの、強化学習を用いることで小型モデルながら高い性能を達成した点で注目されています。
- 巨大モデルだけでなく、トレーニング手法の工夫によっても性能向上が可能であることを示す好例であり、スマートフォンなどエッジデバイスでの活用が期待されます。
Chubby♨️: (翻訳) これはすごい:2.6BモデルでGPQAで42%!\n\nこれはあなたのiPhoneで実行でき、博士号レベルの知識を持っています。信じられない
Rohan Paul: (翻訳) Liquid AIのLFM2-2.6B-ExpはGPQAで42%を獲得しました - 2.6Bパラメータモードとしては驚異的です。\n\nこのレベルのスコアにははるかに大きなモデルが必要ですが、LFM2-2.6Bはアーキテクチャではなくトレーニングシグナルを変更することでこれを実現しています - 同じベースチェックポイントの上にRLを追加するだけです。\n\nGPQA
GrokのTesla搭載が実現 Xでの情報検証機能も好評【続報】
- xAIのAI「Grok」に関する続報です。
- 以前より報じられていたTeslaの車載システムへのGrok統合が実現し、車と対話できる機能が注目されています。
- また、X上でGrokを呼び出し情報の真実性を検証する機能も、多くのユーザーから高く評価されています。
Tech Dev Notes: (翻訳) 誰もがXのGrok機能を気に入っています
Chubby♨️: (翻訳) 衝撃的です、未来はここにあります。テスラのGrokは「ナイトライダー」を現実のものにしています。\n\n子供の頃、私はいつも自分の車と話せることを夢見ていました。今、それがここにあります、すごい!\n\n📹 Ray | Tesla and TSLA News TikTok
Tech Dev Notes: (翻訳) Grokipediaの記事が150万件を突破しました