2026年04月20日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
AIインフラの最新動向とAnthropicモデルを巡る課題
GoogleとMarvellによるAIチップの共同開発や、SK Hynixの次世代メモリ量産開始など、AIインフラの強化が進んでいます。
一方で、Anthropicの最新モデルではセキュリティ上の懸念や実質的な利用コストの増加が報告され、実運用における課題も浮き彫りになっています。
それでは、本日の注目ニュースを掘り下げていきましょう。
目次
- GoogleとMarvellがAIチップを共同開発
- SK HynixがNVIDIA向けSOCAMM2の量産開始
- Claude Code 4.7のセキュリティ提案に懸念
- AI Agent普及によるCPU不足でGPU展開不可の予測【続報】
- Sakana AIのEDINET-BenchがICLR 2026採択【続報】
- 米国防総省がMythosをリスク指定も一部機関は利用【続報】
- Opus 4.7のトークン消費量増加が判明【続報】
- LLMの評価に関する包括的なドキュメント公開
- CodexのSubagent活用手法が話題【続報】
- AI生成小説の印象は文体より骨格
GoogleとMarvellがAIチップを共同開発
- GoogleがMarvellと協力し、2種類の新しいAI関連チップを開発中であると報じられています。
- 1つはTPUと連携して動作するメモリプロセッシングユニット(MPU)で、もう1つはAIモデルの実行に最適化された新しいTPUです。
- データセンターにおけるAIインフラのさらなる強化に向けた動きとして注目を集めています。
Evan: (翻訳) 報道によると、GoogleはMarvellと2つの新しいAI関連チップの開発について協議しているとのことです。1つはGoogleのTPUと連携するように設計されたメモリプロセッシングユニットで、もう1つはAIモデルの実行に特化して構築された新しいTPUです。
パウロ: GoogleはMarvellと二つのASICを設計中 ひとつはメモリープロセシングユニット PIMくるかー
Compute King: (翻訳) 噂:GoogleがMarvellとAI推論チップの開発で提携を模索。筆者注:Marvell
SK HynixがNVIDIA向けSOCAMM2の量産開始
- SK Hynixが、1c LPDDR5Xプロセスに基づく192GBの次世代メモリモジュール「SOCAMM2」の量産を開始しました。
- このモジュールはNVIDIAのVera Rubinプラットフォームに搭載される予定で、従来のRDIMMと比較して帯域幅が2倍以上、電力効率が70%向上しています。
- 大規模言語モデル(LLM)の推論時におけるメモリボトルネックの解消に大きく寄与すると期待されています。
パウロ: SK Hynix公式 1c DRAMでの192GByteb SOCAMM2 量産開始 Vera Rubinに搭載へ
Jukan: (翻訳) 業界筋によると、今年のSOCAMM2のサプライチェーンの優先順位はSamsung > SK hynix > Micronとのことです。興味深いのは、Samsungが1bプロセスで製造しているのに対し、SK hynixは1cプロセスを使用している点です。
パウロ: (翻訳) 歴史的に、HBM(広帯域メモリ)は複数のダイを積層することで歩留まりの低下が指数関数的に悪化するため、実績のある高歩留まりの前世代DRAMプロセスを利用するのが通例でした。しかし、Samsungは1c nm DRAMを導入することで「超格差」戦略を実行しています。
Claude Code 4.7のセキュリティ提案に懸念
- AnthropicのClaude Code 4.7に対して環境変数の管理方法を提案させたところ、セキュリティ上問題のある方法が提示されたとの報告が相次いでいます。
- モデルが実務におけるセキュリティの常識を完全に理解していない可能性が指摘されています。
- 開発者の間では、安全なコードを生成させるために、システムプロンプト等で毎ターン安全ルールを明示的に注入する対策が推奨されています。
mizchi: claude code 4.7 に環境変数の管理方法を提案させたら全部アウトな方法だったので信用が無になった
mizchi: 安全ルールを書いて信用するな、機械的に弾けと言ってる
mizchi: いや、これは普通の人はインターネットに他人に責任を負う可能性があるセンシティブな情報を書きたがらないだけで、インターネットに書かれたドキュメントの総量が足りないのが理由です
AI Agent普及によるCPU不足でGPU展開不可の予測【続報】
- AIエージェントの普及に伴うCPU需要急増に関する続報です。
- 今後2年以内にCPU不足が原因でGPUを展開できなくなるケースが発生するとの予測が話題になっています。
- 複雑なオーケストレーション等にはCPUの役割が重要であり、現在のGPU偏重の投資に対しCPUの重要性を再評価する議論が活発化しています。
Jukan: (翻訳) 根拠なしに言っているわけではありません。
パウロ: (翻訳) 複雑なオーケストレーションやリサーチエージェントはトークンを生成する必要がありません。CPUは予想以上に重要ですが、GPUやAI ASICを軽視すべきではありません。
パウロ: AI AgentでどうしてCPUが必要なのかは、きちんと元の論文を読んで、このnoteで解説していますので、読んでみてください。CPUの重要性は確かに上がります。
Sakana AIのEDINET-BenchがICLR 2026採択【続報】
- Sakana AIが昨年公開した日本語金融ベンチマーク「EDINET-Bench」に関する続報です。
- 同データセットが、機械学習のトップカンファレンスであるICLR 2026に採択されました。
- 実世界でのモデル評価において、英語以外の多様なデータセットの重要性が国際的に認められた形となります。
hardmaru: (翻訳) EDINET-Benchをリリースしたチームを非常に誇りに思います。今週、日本の金融データセットがICLR 2026で認められたことは素晴らしいことです。現実世界でモデルを評価するためには、英語以外のより多様なデータセットが必要です。
Kosuke Nakago: EDINETのデータを用いて会計不正検知などのBenchmark taskを用意したEDINET-Benchが #ICLR2026 に採択されました 🎉 Blogも再更新されていて、Posterなども乗っているので是非ご覧くださいっ。
米国防総省がMythosをリスク指定も一部機関は利用【続報】
- 強力なサイバー攻撃能力が懸念されるAnthropicの未発表モデル「Mythos」に関する続報です。
- 米国防総省の一部が同モデルをサプライチェーンリスクと見なす一方、米国の安全保障機関がプレビュー版を利用していることが判明しました。
- また、シンガポールの金融当局もMythosへの懸念から、国内の銀行に対してサイバーセキュリティの強化を促しており、各国の複雑な対応が浮き彫りになっています。
Rohan Paul: (翻訳) 米国の安全保障機関は、国防総省の一部がAnthropic自体を「サプライチェーンリスク」だと主張しているにもかかわらず、AnthropicのMythos Previewを使用しています。Anthropicによると、Mythosは異常に強力なサイバー攻撃・防御能力を持っており、アクセスは約40に制限されていると報じられています。
Bloomberg: (翻訳) Anthropicの最新AIモデル「Mythos」に対する懸念がアジアに広がる中、シンガポールの金融規制当局は銀行に対し、サイバーセキュリティの脆弱性を塞ぐよう強く求めています。
Opus 4.7のトークン消費量増加が判明【続報】
- Anthropicの最新モデル「Opus 4.7」に関する続報です。
- 前バージョンのOpus 4.6と比較して、テキストで1.46倍、画像で最大3倍のトークンを消費することが確認されました。
- トークンあたりの単価は据え置かれているものの、実質的な利用コストの大幅な増加につながっています。
- この仕様変更に対し、一部の開発者からは「最悪のリリース」といった不満の声も上がっています。
Oikon: Opus 4.7はOpus 4.6と比較して、テキストに対して1.46倍のトークンを使用し、画像に対しては最大3倍のトークンを使用している
Chubby♨️: (翻訳) 依然として4.7よりもOpus 4.6の方が好きです。Anthropic史上最悪のリリースです。
LLMの評価に関する包括的なドキュメント公開
- LLM-as-a-Judgeを基本とした、LLMの評価手法に関する詳細なドキュメントが公開され、開発者の間で話題となっています。
- 開発環境と本番環境における評価の違いや、時間スケールに基づく本番環境での評価目的の整理など、実務に直結する内容がまとめられています。
- LLMを実際のプロダクトに組み込む際のベストプラクティスとして、多くのエンジニアから高く評価されています。
龍一郎 (f.k.a Asei Sugiyama): LLM の評価についてまとめたドキュメントが公開されました。基本は LLM-as-a-Judgeなんですが、開発環境と本番環境の違いや、本番環境での評価の目的を時間スケールをもとに整理したりと、割と頑張って書きました
CodexのSubagent活用手法が話題【続報】
- OpenAIのCodexに関する続報です。以前追加された「Subagent」機能を活用し、タスクを並列稼働させる新しい設計・開発手法が注目を集めています。
- 長寿命のスレッドを維持しつつ、必要なタスクをサブエージェントに委譲することで、非常に効率的な開発体験が得られると報告されています。
- 開発環境におけるAIエージェントの統合がさらに進み、Codexが開発者にとってのユニバーサルアプリになりつつあるとの声も聞かれます。
Alexander Embiricos: (翻訳) Codexでのサブエージェントとステアリングの組み合わせはかなり魔法のようです。私は徐々に長寿命のスレッドに移行しています。私がプロンプトを出したり、自動化がpingを打ったりするため、スレッドはほぼ常にアクティブです。そして、何か新しいものが必要なときは、「サブエージェントを並列に使ってXをして」と言います。
Alexander Embiricos: (翻訳) オーケー、これはかなりクールだ。
Greg Brockman: (翻訳) codexは開発者にとってのユニバーサルアプリになりつつあります:
AI生成小説の印象は文体より骨格
- AI生成小説を大量に分析した結果、作品の印象を大きく左右するのは「文体」ではなく「骨格」であることが判明しました。
- AIで小説を執筆する際、使用するモデルを変更するよりも、プロンプトで骨格レベルの設計指示を行う方が作品の雰囲気を効果的に変えられると報告されています。
- AIを活用した創作活動において、プロンプトエンジニアリングの新たな指針となる知見として注目されています。
AIDB: AI生成小説を大量に分析した結果、作品の印象を左右しているのは「文体」より「骨格」でした。 AIで小説を書くときは、使うモデルを変えるより、プロンプトで骨格レベルの設計指示をするほうが作品の雰囲気は変わるそうです。