2025年09月05日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
OpenAIのチップ計画からMetaの巨額投資まで - AI業界の最新動向
OpenAIがBroadcomとの提携で2026年から独自AIチップの量産計画を進めています。一方Metaは、2028年までにAIインフラに約6000億ドルという驚異的な投資を行うことを発表しました。
技術面では、Moonshot AIの「Kimi-K2」がコンテキスト長を256kに倍増させ、MetaはLLM推論を3〜5倍高速化する「SBD」技術を発表するなど、性能向上の競争が激化しています。
大手エンターテイメント企業によるMidjourney訴訟にWarner Bros.が参加するなど、AI技術を巡る法的課題も拡大しています。
それでは各トピックの詳細を見ていきましょう。
目次
- OpenAI、独自AIチップを2026年から量産か【続報】
- Moonshot AI「Kimi-K2」が更新、コンテキスト長256kに倍増
- Meta、AIインフラへ6000億ドル投資と発表【続報】
- 【続報】Warner Bros.もMidjourneyを提訴
- LayerX、学生向けにAI/GPU使い放題のCEO直下インターン募集
- xAI、GrokのUI改善とシアトル新オフィス開設を発表【続報】
- Meta、LLMの推論を高速化する新技術SBDを発表
OpenAI、独自AIチップを2026年から量産か【続報】
- 以前報じられたOpenAIの独自AIチップ開発に関する続報です。
- Financial Timesの報道によると、半導体大手のBroadcomと提携し、2026年から量産を開始する計画とのことです。
- この計画は、NVIDIAへの依存度を下げ、自社ワークロードのコストを削減する狙いがあると見られています。
- 先日Broadcomが発表した100億ドル規模の新規受注が、この提携に関連する可能性も示唆されています。
Financial Times: (翻訳) OpenAI、Broadcomと共に自社AIチップの量産を開始へ https://t.co/eM3SceFVsI
Jukan: (翻訳) OPENAI、BROADCOMと独自のAIチップの量産を開始へ - FT
Kol Tregaskes: (翻訳) FTの報道によると、OpenAIは2026年からBroadcomと共に自社AIチップを内製用に量産する予定です。 - 2026年量産目標 - Broadcomと共同設計、TSMで製造予定 - 100億ドルの受注 - OpenAI自身のワークロード用で、外部販売はしない - 目標はコスト削減 https://t.co/NqVcTQhN3I
Moonshot AI「Kimi-K2」が更新、コンテキスト長256kに倍増
- 注目を集めているMoonshot AIのLLM「Kimi-K2」に、アップデート版「K2-0905」が登場しました。
- コンテキスト長が128kから256kへと倍増したほか、エージェントとしてのツール利用やフロントエンドのコーディング能力が向上しています。
- OpenRouterやClineなどのプラットフォームで既に利用可能となっており、開発者からの注目がさらに高まっています。
OpenRouter: (翻訳) 新しいKimi K2アップデートが公開されました! 🔧 より正確なエージェントコーディングと優れたスキャフォールド汎化 🎨 Web、3D、UIタスクのフロントエンドコーディングの改善 📏 コンテキスト長が256kに拡張(128kから) 👉 こちらでお試しください:https://t.co/C5HK7uQkWK
Cline: (翻訳) .@Kimi_MoonshotがKimi-K2-0905をリリースしました。概要はこちら: > 2倍のコンテキストウィンドウ(131kから256kへ) > Clineのようなエージェントハーネスでのツール使用の改善のためにトレーニング > フロントエンドが著しく向上 Clineで今すぐお試しください 🌔 https://t.co/yW2G9JqhEG
Rohan Paul: (翻訳) Kimi K2がメジャーアップグレードをリリース Instruct-0905 - コーディング、特にフロントエンドとツール呼び出しが向上 - コンテキストが最大256Kトークンに - Claude Code、Roo Codeなどのエージェントフレームワークとのよりクリーンな統合 https://t.co/j5zCIRrVcC
Meta、AIインフラへ6000億ドル投資と発表【続報】
- 先日お伝えしたMetaのAI投資に関する続報です。
- 同社はAIインフラに対し、2028年までに約6000億ドルを投じるという、さらに大規模な計画を新たに明らかにしました。
- この動きはトップクラスのAI研究者の獲得競争とも連動しており、AI開発の主導権確保に向けた強い意志の表れと見られます。
Jukan: (翻訳) ザッカーバーグ:2028年までに約6000億ドルを投資 - ザッカーバーグは、Metaが2028年までにAIインフラに約6000億ドルを投資すると述べています。 - Metaはすでに2025年に700億ドル、2026年に約1000億ドルの設備投資を計画しています。 - 実際に6000億ドルに達するには、2027年に約2000億ドル、2028年に約3000億ドルに支出を増やす必要がありま...
The Information: (翻訳) Metaの新しいAI組織は、AIの立て直しを計画しており、それには人材とテクノロジーへの大規模な投資が含まれます。同社は次のことを行いました。• Meta Superintelligence Labsの新しい共同リーダーを雇うために数十億ドルを費やしました • トップAIに有利な報酬パッケージを提供しました
【続報】Warner Bros.もMidjourneyを提訴
- 既報のDisneyやUniversalなどによるMidjourneyに対する著作権侵害訴訟に、新たにWarner Bros. Discoveryが加わりました。
- 訴状では、スーパーマンやバットマンといった同社のキャラクターが無断でコピー・配布されていると主張しています。
- 生成AIと著作権を巡る法的な議論が、大手スタジオを巻き込みさらに激化しています。
Rohan Paul: (翻訳) 速報:📺 ワーナー・ブラザース・ディスカバリーがミッドジャーニーを提訴。ミッドジャーニーがスーパーマン、バットマン、バッグス・バニーなどの著作権で保護されたキャラクターをコピーして配布していると主張。これは6月初旬のディズニーとNBCユニバーサルからの訴訟に続くものです。訴状はこれを直接的な侵害、公開としています https://t.co/RciIh1Y1KJ
Bloomberg: (翻訳) ワーナー・ブラザースは、AIスタートアップのMidjourneyが知的財産を盗んだとして訴訟を起こした。同社は、ワンダーウーマンやスーパーマンなどのキャラクターの画像や動画を顧客が許可なく生成できるようにしたと主張している。https://t.co/tx8z5anhcw
LayerX、学生向けにAI/GPU使い放題のCEO直下インターン募集
- 株式会社LayerXが、CEO直下での学生向けインターンシップの募集を開始しました。
- 参加者には月10万円のAI利用クレジットとGPU利用環境が提供され、AIネイティブな才能を持つ学生が自由に開発に取り組める環境を整えています。
- 高騰するAI開発コストの課題に対応し、若手人材の育成に投資する取り組みとして注目されます。
福島良典 | LayerX: 久々にCEO直下インターン募集します。AI開発はかなりお金がかかるようになっているため、学生向けに才能を解き放つという意味で始めます!月10万円のAI利用+GPU利用環境を用意します。ぜひ野心ある方のご応募お待ちしてます! https://t.co/jW3mFxdfXS https://t.co/TSKd0OUg1s
福島良典 | LayerX: 本日始めたCEO直インターンについてのnoteです。13年前の自分だったら絶対参加するという観点で考えて作ってます!AI & GPUが触り放題です。 https://t.co/EbJO0UpDtJ AIネイティブな才能・野心にbetします。「AI触り放題CEO直インターン」の募集|福島良典 | LayerX @fukkyy https://t.co/zWHa58efsj
xAI、GrokのUI改善とシアトル新オフィス開設を発表【続報】
- xAIのAIチャットボット「Grok」に関するアップデートの続報です。
- Web版において、チャット機能の名称が「Chat」から「Ask」に変更されたほか、共有リンクの短縮URL対応が予定されています。
- 新たにシアトルにオフィスを開設することも発表され、事業拡大の動きが続いています。
Tech Dev Notes: (翻訳) xAIはGrok Webでチャットの名前をAskに変更しました https://t.co/Xrn5lpuJPw
Tech Dev Notes: (翻訳) xAIはまもなく共有リンク用の短いURLをサポートします https://t.co/S4fJgwSkxk
Tech Dev Notes: (翻訳) xAI 新オフィス、シアトル
Meta、LLMの推論を高速化する新技術SBDを発表
- Metaが、LLMの推論を高速化する新技術「Set Block Decoding (SBD)」を発表しました。
- この技術は、将来の複数のトークンを並行してサンプリングすることで、フォワードパスの回数を3〜5倍削減します。
- アーキテクチャの変更が不要で、既存のKVキャッシュとの互換性も保たれるため、既存モデルの高速化に貢献すると期待されています。
Aran Komatsuzaki: (翻訳) MetaがLLM向けの新しい推論アクセラレータであるセットブロックデコーディング(SBD)を発表。SBDは複数の将来のトークンを並行してサンプリングし、フォワードパスを3〜5倍削減し、アーキテクチャの変更を必要とせず、KVキャッシュと互換性を保ち、NTPトレーニングのパフォーマンスに匹敵します。https://t.co/Ov1ZO22Rce