2026年03月31日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
人気パッケージaxiosへの攻撃とAI人材獲得競争の激化
人気パッケージ「axios」へのサプライチェーン攻撃が発生し、AI開発コミュニティに波紋が広がっています。
また、LayerXによる新卒AI人材への1000万円超オファーなど、人材獲得競争の激化を象徴する動きも注目を集めました。
その他、LLMの長期利用が人間の思考力に与える影響についての研究結果も報告されています。
本日の主要な動向を順番に確認していきましょう。
目次
- npmパッケージaxiosにサプライチェーン攻撃、AI開発にも影響
- LayerX、AI人材に新卒年収1000万円超を提示
- AIエージェント、ハーネス最適化で小規模モデルが大規模超え
- NVIDIA Rubin Ultraのスペックダウン噂、原因はパッケージの反り問題か
- MS Copilot新機能、OpenAIが起草しAnthropicが批評【続報】
- Claudeの不安定さ、原因はサーバー不足か【続報】
- Alibaba、Qwen 3.6 PlusをOpenRouterで先行公開
- SBInt、日本語文書に強いOCRモデル「Sarashina2.2」をOSS公開
- LLMの長期利用は思考力に影響を与える可能性、研究で示唆
npmパッケージaxiosにサプライチェーン攻撃、AI開発にも影響
- 週に3億回以上ダウンロードされる人気のnpmパッケージ「axios」の特定バージョンに、マルウェアが仕込まれるサプライチェーン攻撃が発生し、大きな混乱を呼んでいます。
- axiosは多くのAI・Web開発プロジェクトで直接的・間接的に利用されており、Andrej Karpathy氏をはじめとする著名な開発者も注意喚起を行っています。
- 開発者コミュニティでは、依存関係のバージョンを固定(pinning)する、信頼できるソースのみを利用するなどの対策が急務となっています。
Andrej Karpathy: (翻訳) 今回は、週に3億ダウンロードされている最も人気のあるHTTPクライアントライブラリであるnpm axiosの新しいサプライチェーン攻撃です。システムをスキャンしたところ、数日前にgmail/gcal cliを試していたときにgoogleworkspace/cliからインポートされた使用法が見つかりました。インストールされているバージョンは(幸いにも)
Yuchen Jin: (翻訳) くそー、npmで最も広く使われているパッケージの1つがサプライチェーン攻撃を受けた。1週間前はLiteLLMのPythonライブラリだった。OpenAIかAnthropicは、オープンソースプロジェクトに無料のトークンを与えて、彼らのコード上でサイバーセキュリティエージェントを実行させることを真剣に検討すべきだ。
mizchi: axios絶対なんか問題起きるからやめた方がいいよってすべての取引先で言い続けた答え合わせが出た
LayerX、AI人材に新卒年収1000万円超を提示
- 株式会社LayerXが、新卒エンジニア採用において年収1000万円を超えるオファーを開始することを発表し、大きな注目を集めています。
- この動きは、AIをネイティブに活用できる人材を高く評価し、その生産性に見合った報酬で積極的に採用する同社の意思表示とされています。
- 生成AI時代における人材獲得競争の激化と、若手エンジニアの価値評価の変化を象徴する出来事として、業界内で広く議論されています。
福島良典 | LayerX: 数値だけ先行してもという話なのですが、新卒エンジニアの年収1000万超オファーを始めます。AI nativeな人材に積極投資する意思の表明です。
松本 勇気 (Yuki Matsumoto) | LayerX CTO: 生成AI時代の先端を切り開く人材を育成する目的で、新卒の報酬体系も変化させています。学生の皆さん、ぜひLayerXでLLM活用の先端にチャレンジしませんか。
Yuya Matsumura: ごりごりにAIを活用してAIを作っている学生の皆様、お待ちしております!!
AIエージェント、ハーネス最適化で小規模モデルが大規模超え
- スタンフォード大学の研究で、AIエージェントの性能はモデル自体の性能だけでなく、テスト環境やプロンプト(ハーネス)の最適化で大幅に向上することが示されました。
- 論文では、小規模なClaude Haiku 4.5でも、最適化されたハーネスを用いることで、ベースラインのClaude Codeを上回るスコアを達成したと報告されています。
- この結果は、適切な「ハーネス」を構築すれば、小規模なローカルモデルでも大規模モデルに匹敵する性能を引き出せる可能性を示唆しています。
Rohan Paul: (翻訳) スタンフォード大学の論文によると、AIエージェントはモデル自体だけでなく、モデルの周りのハーネスを最適化することで性能が向上することが示されました。TerminalBench-2でClaude Haiku 4.5を使用した場合、最適化されたハーネスは37.6%のスコアを記録し、Claude Codeの27.5%を上回りました。本当の話は、モデルが賢くなったということではなく、
Chelsea Finn: (翻訳) Claude Codeのようなエージェントは、手作業で設計されたハーネスに大きく依存して素晴らしいことを行います。私たちは、エージェントが最終的なパフォーマンスに関してハーネスをどのように最適化できるかを示します。重要なアイデアは、すべての経験をファイルシステムに保存し、エージェントがそれを選択的に検査できるようにすることです。論文:https://t.co/AsNRE9KzyF
Junyang Lin: (翻訳) モデル+ハーネスは、今やモデルだけを上回っています。エージェントのパフォーマンスは、ハーネスの設計と品質に大きく影響される可能性があります。私はこれが正しい方向だと信じています。素晴らしい仕事です!
NVIDIA Rubin Ultraのスペックダウン噂、原因はパッケージの反り問題か
- 以前報じられたNVIDIAの次世代AIアクセラレータ「Rubin Ultra」が2ダイ構成へスペックダウンする噂の続報です。
- 背景にはパッケージングの反り(warpage)問題があり、この技術的課題がスペックダウンの原因と見られています。
- この問題を受け、NVIDIAが次世代パッケージング技術「CoPoS」の採用を前倒しする可能性も浮上しています。
Jukan: (翻訳) 興味深い。最近CoPoSの噂が絶えないのは、Rubin Ultraのパッケージングに反りの問題があったからかもしれない。Rubin Ultraの反り問題は、CoPoSの採用を加速させる可能性がある。https://t.co/eKlHixAwdB
パウロ: The HBM configuration requires a vertical stack of sixteen 4GB (64Gb) DRAM core dies. This necessitates an increase in die area compared to the current 3GB HBM4 DRAM die, which measures 11mm x 10mm. F...
パウロ: ああっ CoWoS-L x2 のDie to Die インターコネクトをEMIB-Tでやろうとしたの? さすがに野心的すぎるでしょう
MS Copilot新機能、OpenAIが起草しAnthropicが批評【続報】
- 以前お伝えしたCopilotの複数モデル活用機能「Critique」の続報です。同機能は「Copilot Researcher」と名称変更されました。
- このシステムでは、OpenAIモデルが回答の草案を作成し、それをAnthropicモデルが監査・批評することで、より信頼性の高いアウトプットを生成する仕組みが採用されています。
- 単一モデルの自己評価によるハルシネーションのリスクを低減するアプローチとして、ビジネス利用におけるAIの品質向上に貢献することが期待されます。
Rohan Paul: (翻訳) マイクロソフトはCopilot Researcherを、OpenAIが下書きし、Anthropicが監査する2モデルシステムに変えました。単一のモデルは、計画、検索、執筆、そして自己判断をしなければならず、これこそがビジネスユーザーが、洗練されているように見えても根拠の薄い文書の幻覚を心配する理由です。
Satya Nadella: (翻訳) M365 Copilotに搭載された新しいマルチモデル深層調査システム、Critiqueをご紹介します。複数のモデルを連携させて、最適な回答やレポートを生成できます。https://t.co/m4RlQmCKzs
TestingCatalog News 🗞: (翻訳) マイクロソフトは、M365 Copilot向けのマルチモデル深層調査ソリューションであるCritiqueを発表し、Dracoベンチマークで57.4のスコアを達成しました。未来はマルチモデルです👀
Claudeの不安定さ、原因はサーバー不足か【続報】
- 以前から不安定さが指摘されているAnthropicのClaudeについて、その原因がサーバー不足にある可能性が報じられました。
- The Informationによると、同社の急成長がサーバーの信頼性維持を困難にしているとのことです。
- ユーザーから報告が相次いでいる「すぐに利用上限に達してしまう」という問題も、需要の急増にインフラが追いついていないことを示唆しています。
The Information: (翻訳) Anthropicの急成長は、基本的な制約、つまりClaudeを確実に稼働させ続けるためのサーバーが不足しているという問題にぶつかっています。https://t.co/9bthzj98mM
Chubby♨️: (翻訳) 1日の上限に達するのは、その日、親友に別れを告げるような気分だ。
Plat 🖼️: Claude Proレートリミット厳しすぎない? 普通にWeb版で喋ってるだけで制限きたんだけど
Alibaba、Qwen 3.6 PlusをOpenRouterで先行公開
- Alibabaの最新モデル「Qwen 3.6 Plus」が、LLMハブのOpenRouterで早期プレビュー版として公開されました。
- これにより、開発者や研究者は正式リリースに先駆けて、最新モデルの性能をいち早く試すことができます。
- プレビュー期間中は無料で利用可能ですが、プロンプトや生成結果はモデル改善のために収集されるとのことです。
Qwen: (翻訳) 私たちの新しいモデルがOpenRouterで早期プレビューとして公開されました。ぜひ試してみてください!フィードバックをお待ちしています〜😎
Qwen: (翻訳) @Alibaba_Qwen の Qwen 3.6 Plus プレビューが、期間限定で OpenRouter で無料で公開されました!この無料期間中、プロンプトと補完は収集され、モデルの改善に使用される場合があります。https://t.co/VTrG0FJuhr
SBInt、日本語文書に強いOCRモデル「Sarashina2.2」をOSS公開
- ソフトバンク系のSBIntuitionsが、文書画像の解析に特化したOCRモデル「Sarashina2.2-OCR」をMITライセンスで公開しました。
- 同社が以前公開した視覚言語モデルに続く、Sarashinaシリーズの新たなモデルです。
- レイアウトを維持したままMarkdown形式に変換でき、日本語特有の縦書き文書や図表の検出にも強いという特徴があります。
- 複雑な日本語文書を高精度にデータ化できるツールとして、活用が期待されます。
toshi_456: SBIntで開発したOCRモデルをMITライセンスで公開しました!
Odashi: 会社の方でSarashinaのOCRモデルを試してもらっていますが、良かったり悪かったりという感じらしい
おじろ | 223: 早すぎワロタ
LLMの長期利用は思考力に影響を与える可能性、研究で示唆
- LLM(大規模言語モデル)の長期的な使用が、人間の思考力に影響を与える可能性を示唆する研究結果が報告されています。
- The Economist誌によると、長期間LLMを使用すると、批判的思考や創造的思考が難しくなる可能性があるとのことです。
- 一方で、韓国の研究では、4日間LLMの使用を中断したところ、仕事の速度は落ちたものの、自分で考えるプロセスが明確になり、仕事への責任感や手応えを感じやすくなったという結果も出ています。
The Economist: (翻訳) 最近の研究によると、AIを長時間使用すると、批判的かつ創造的に考えることが難しくなる可能性があります。しかし、脳を健康に保つ方法はあります https://t.co/VZzLwzcMtg
AIDB: 韓国の研究チームは、ふだんからLLMをよく使う人たちに、4日間、あえて使わずに過ごしてもらいました。 すると、仕事が遅くなったり、調べものや文章づくりが大変になったりする一方で、自分で考える流れがはっきりし、仕事への責任感や手応えを感じやすくなることもわかりました。 https://t.co/Euh6YL0CnI