2026年01月19日 夜のAIニュースまとめ

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。

(ほぼ)毎日AIニュースが届きます
ぜひご登録ください

OpenAIのARR200億ドル突破とAI計算能力の加速

OpenAIの年間経常収益が200億ドルを突破し、わずか2年で10倍の成長を達成しました。この急成長を支えるのは計算能力の3倍スケールです。

一方、AMD CEOは今後5年でAI計算能力が100倍になると予測。しかし供給面ではABFなど半導体部材の枯渇が深刻化しています。

また、Tesla「Dojo」の開発再開や、数百のAIエージェントが100万行のコードを生成する実験など、AI技術の進化も加速しています。

それでは、今回のトピックについて詳しくご紹介します。

目次

  1. Tesla、スパコン「Dojo」開発を再開【続報】
  2. AI半導体部材の供給不足が深刻化、ABFも枯渇懸念【続報】
  3. OpenAIのARRが200億ドル突破と報道【続報】
  4. Codexはトップダウン、Claude Codeはボトムアップな思考
  5. 研究: LLMは「禁止」より「指示」に従う傾向
  6. AMD CEO、今後5年でAI計算能力は100倍になると予測
  7. AIエージェント数百体が協調、100万行のコードベース生成
  8. RTX5090を2基搭載した個人向け機械学習PCの構築事例が話題
  9. Google、Vertex AI Vector Search 2.0の活用法を解説【続報】

Tesla、スパコン「Dojo」開発を再開【続報】

  • 以前報じたスパコン「Dojo」プロジェクトの中止から一転、Teslaが開発を再開すると発表しました。
  • 自社開発のAIチップ「AI5」の設計が順調に進んだことが背景にあります。
  • 次世代版とみられる「Dojo3」は、ネットワーキングと推論を重視した新設計でゼロから構築されるとの見方もあり、同社のAIインフラ開発が再び注目されています。
Evan: (翻訳) Tesla $TSLA のイーロン・マスクCEOは、「AI5チップの設計が良い状態になったので、TeslaはDojo3の作業を再開する」と述べました。

パウロ: うおおおお イーロンマスク Dojo3 再開

パウロ: イーロンマスクは前のDojoのアーキテクチャは捨てて、ネットワーキング重視、推論重視の新規アーキテクチャをゼロからだろうね ソフトウェアのしがらみもないから一気に革新的なものを作りそう

AI半導体部材の供給不足が深刻化、ABFも枯渇懸念【続報】

  • AIサーバー需要の急増を受けた半導体関連部材の供給不足問題の続報です。
  • 既報のガラスクロスやBT材に加え、新たに味の素ビルドアップフィルム(ABF)も枯渇状態にあると指摘されています。
  • 供給不足を背景に日東紡など関連部材メーカーの株価が上昇しており、海外でも注目を集めています。
  • TSMCの生産能力が限界に達していることも一因とみられ、代替としてSamsungやIntelが受け皿になるとの観測も出ています。
パウロ: ガラスクロス ABF BT材 GPU, AI ASICとHBM, SOCAMM2で圧倒的に足りないし、さらにCPUまで来ているのにっ

パウロ: 海外で日東紡がかなり話題になっている うひょー ワイの影響力もあったかもっ

Jukan: (翻訳) ドイツ銀行:TSMCの生産能力が満杯になるにつれて、サムスンとインテルはアップルやNvidiaを含む「6大顧客」から恩恵を受けると予想される。ドイツ銀行は最近発表した調査レポートで、世界的な半導体ファウンドリ大手TSMCが「嬉しいジレンマ」に直面していると述べた。

OpenAIのARRが200億ドル突破と報道【続報】

  • 先日お伝えしたOpenAIの年間経常収益(ARR)120億ドル達成の続報です。新たにARRが200億ドルを突破したと報じられました。
  • 2023年の20億ドル、2024年の60億ドルから急成長を遂げており、AIサービスの需要が爆発的に拡大していることを示しています。
  • この成長は計算能力の増強に支えられており、同社の計算能力は年々3倍の規模でスケールしているとのことです。
  • ChatGPTが実験的なツールから、日常生活やビジネスまで幅広く利用されるインフラへと変化していることが背景にあるとみられます。
daka | Microsoft | AI: OpenAIがARRを公開 OpenAI は現在、年間収益が 200 億ドルを超えると報告しており、計算能力は年々 3 倍にスケールしている。 以下詳細👇 ① 日常から仕事までのインフラ化 ChatGPTは実験ツールでは終わらず、 宿題、旅行計画、健康相談から、 コード、マーケ、財務、マネジメントまで https://t.co/2OHlfxzx2X

Kenn Ejima: 綺麗なT2D3の軌跡を辿ってるんだが 初期値が高すぎてイメージしにくいな

Codexはトップダウン、Claude Codeはボトムアップな思考

  • AIコーディング支援ツール「Codex」と「Claude Code」の比較について、思考様式の違いという新たな視点が話題になっています。
  • 大規模な新機能開発において、Codexはトップダウンで根本的な解決策を提示する傾向があるとの指摘がされています。
  • 一方、Claude Codeはボトムアップ的なアプローチをとり、リファクタリングなどのタスクでは見落としが多い提案をすることがあるようです。
  • この違いは、タスクの性質に応じて適切なAIモデルを選択することの重要性を示唆しています。
Kenn Ejima: この規模の新機能だとCodexでないと厳しい Claude Codeだとこの後のリファクタリングでさえ「一見良さそうだが実際やってみると見落としだらけの地獄」な提案をしてくる Codexはそのリファクタリングは根本的な解決にならないと指摘する Codexはトップダウン Claude Codeはボトムアップ https://t.co/bZS9DYYm5a

まつにぃ: チーン。 さらばCodex、Github Copilot。 Claude Codeで凌ぐ。 https://t.co/pBsiOC54IG

azukiazusa: Claude Code がいくつかの解決策を示した時、数字で回答しようとするとフィードバックを送信してしまう

研究: LLMは「禁止」より「指示」に従う傾向

  • LLMは「やっていいこと」(肯定的指示)には95%以上の精度で従う一方、「やってはいけないこと」(否定的指示)を拒否する精度は13〜40%に留まるという研究結果が発表されました。
  • この「指示への準拠」と「禁止事項の遵守」における能力の非対称性は、モデルの大規模化やRAGを導入しても、ほとんど改善されないことが判明しています。
  • LLMの安全性や信頼性に関わる重要な課題であり、今後の研究開発における大きな焦点となりそうです。
AIDB: LLMは「やっていいこと」には95%以上正しく対応できる。しかし「やってはいけないこと」を正しく拒否できる割合は13〜40%にとどまる。 この非対称性は、モデルを大規模化しても、RAGを導入しても、ほとんど改善しないことが判明しました。 https://t.co/RegLPUsgRh

AMD CEO、今後5年でAI計算能力は100倍になると予測

  • AMDのCEOであるリサ・スー氏が、今後4〜5年でAIの計算能力がさらに100倍に急増するとの見通しを示しました。
  • また、AIのアクティブユーザーは現在の10億人から50億人に増加するとも予測しており、AI技術の普及がさらに加速するという考えを明らかにしています。
  • この予測は、AIの進化と社会への浸透が今後も指数関数的に進むことを示唆しており、業界のリーダーによる強気な見方として注目されます。
Rohan Paul: (翻訳) AMDのCEOであるリサ・スーは、今後4〜5年でAIの計算能力がさらに100倍に急増すると予測しています。そして、AIのアクティブユーザーは10億人から50億人に増加するでしょう。

AIエージェント数百体が協調、100万行のコードベース生成

  • AIエージェントの進化に関する続報です。OpenAIのGreg Brockman氏が「エージェントは魔法のようだ」と投稿し、その進化への期待を改めて示しました。
  • その期待を裏付けるように、開発ツールCursorのチームが、数百のAIエージェントを協調させて100万行を超えるコードベースを生成する実験記録を公開し、大きな注目を集めています。
  • 一方で、AIエージェントが人間のチームワークに与える影響については慎重な意見も出ており、今後の議論の焦点となりそうです。
Greg Brockman: (翻訳) エージェントはちょっと魔法のようだ

Itomaru: (翻訳) Cursorチームによる、数百のAIエージェントを拡張して大規模なコードベースを生成する実験。

龍一郎 (f.k.a Asei Sugiyama): チームで働くのは一人だけでこなせない分量をこなすだけではなくて、それなりの目的があったはずなんだけど、それ抜きに「AI エージェントがすごいから人を減らそうぜ」って議論はよろしくないと思う

RTX5090を2基搭載した個人向け機械学習PCの構築事例が話題

  • NVIDIAの最新GPU「RTX5090」を2基搭載した機械学習用PCを自作したという記事が、開発者やKaggleコミュニティで話題になっています。
  • 高性能GPUを2基搭載するには、電源容量、マザーボードのスロット間隔、そして排熱フローの設計が重要となり、記事ではそれらの課題をどう解決したかが解説されています。
  • この構成を実現するためには家庭用の100V電源では不十分な場合が多く、200Vコンセントの設置工事が必要になるなど、ハイエンドな個人環境構築の実際が示されています。
セコン: 複数GPUを使った学習をしたくなってきたので、RTX5090 x2 構成の機械学習PCを自作してみました。電源・スロット厚・排熱フローあたりを考える必要があったので、事例の一つとなればなぁ〜と記事にしてみました! https://t.co/WRq9EFhUOZ

Jun Koda: やはり200Vコンセントを用意しないと

arutema47: > 電源を繋げるべくNEMA規格の20A250V対応の壁コンセント(パナソニックのWF2520Bを選んだ)を工事して設置し、そこから200V20A供給(最大4000W)を可能とした やはりKaggleやるからには第二種電気工事士!

Google、Vertex AI Vector Search 2.0の活用法を解説【続報】

  • 先日発表された「Vertex AI Vector Search 2.0」の続報です。Google CloudのSato Kazunori氏が、同サービスとAgents for Data Analytics (ADK) を用いたエージェント型RAGの具体的な構築方法を解説しました。
  • テキストデータを入れるだけでエンベディングが自動生成され、ハイブリッド検索が利用可能になります。ADKによりSQLライクなフィルターを動的に構成することもできます。
  • Google検索を支えるScaNN技術を基盤としており、数億行のデータに対してもミリ秒単位での高速検索を実現します。
Kazunori Sato: Vertex AI Vector Search 2.0とADKでエージェント型RAGを10分で作る記事を書いた(英語)。テキストデータを入れるとエンべディングが自動生成されハイブリッド検索をすぐ使える。SQLライクなフィルタをADKで動的に構成。Google検索を支えるScaNNで数億行もミリ秒で検索。 https://t.co/uY0DlxqXMX https://t.co/DX0oq9mNV2

Subscribe to ML_Bear Times

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください