2026年01月20日 夜のAIニュースまとめ

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。

(ほぼ)毎日AIニュースが届きます
ぜひご登録ください

「コード不要論」再燃とAIチップ競争の激化

Node.js作者の「人間がコードを書く時代は終わった」発言で開発者コミュニティの議論が再燃。エンジニアの役割は指示や設計へ移行するとの見方が広がる一方、AIと人間の協業スタイルは模索が続いています。

ハードウェア面では、NVIDIAが次世代「Rubin」のメモリ性能を大幅上方修正し競合AMD超えを実現。一方MetaはAIチップ自社開発を縮小しAMD製に転換する方針転換を発表しました。

それでは本日の主要トピックを順に確認していきましょう。

目次

  1. Node.js作者の発言で「コード不要論」が再燃
  2. NVIDIA次世代GPU「Rubin」、メモリ性能を上方修正しAMD超え
  3. Meta、独自AIチップ開発を縮小 AMD製GPUへ転換【続報】
  4. Teslaの次世代AIチップAI5、NVIDIA Blackwellに匹敵か【続報】
  5. OpenAIのCFO、計算能力が収益の鍵と強調
  6. 【続報】S.アルトマン氏、支援のBCI企業「Merge」に期待を表明
  7. xAIのスパコン、冷却能力不足で稼働遅延の可能性【続報】
  8. Anthropic、LLMのペルソナを安定させる新研究を発表

Node.js作者の発言で「コード不要論」が再燃

  • Node.jsの作者などが「人間がコードを書く時代は終わった」と発言し、AIによる開発の未来を巡る議論が再燃しています。【続報】
  • 多くの開発者がAIツールを日常的に利用する中、エンジニアの役割はコード記述からAIへの指示や設計、テストへと移行するとの見方が広がっています。
  • 一方で、AI生成物への批判的な意見も根強く、AIと人間の最適な協業スタイルが引き続き模索されています。
Chubby♨️: (翻訳) なんてことだ:@nodejs の作成者が、人間がコードを書く時代は終わったと認めた。もはや否定の余地はない。https://t.co/VMt81yVUJl

Rohan Paul: (翻訳) 私たちはコード記述のポストヒューマン時代に突入しました。「人間がコードを書く時代は終わった。」🎯 〜@nodejsの作成者より

Saoud Rizwan: (翻訳) LLMはツールであり、ソフトウェアエンジニアの代替ではありません。構文はもはや重要ではなく、今学ぶべき最も影響力の大きい概念は、ガードレール(テスト、リンティング、アーキテクチャ)の実装とコンテキスト管理(仕様、ルール、スキル)です。

NVIDIA次世代GPU「Rubin」、メモリ性能を上方修正しAMD超え

  • NVIDIAの次世代AIチップ「Rubin」プラットフォームに関する続報です。
  • メモリ帯域幅が、当初発表されていた13TB/sから22.2TB/sへと大幅に引き上げられたことが報じられました。
  • このスペックは、競合するAMDの「MI455X」が持つ19.6TB/sを上回るものです。
  • AI開発の性能を左右するGPU市場での両社の熾烈な競争が、技術革新を加速させています。
SemiAnalysis: (翻訳) 重要:今週のCES 2026で、NVIDIAはVR200 NVL72の仕様を改訂し、AMDのMI455Xのメモリ帯域幅の優位性を10%上回るようにしました。AMD MI455Xは19.6TB/sですが、Jensenは2025年3月にRubinが13TB/sになると発表し、その後2025年9月にIan BuckがRubinを発表しました。https://t.co/kyzkV4cSPO

Lisan al Gaib: (翻訳) AMDが競合していたので、Rubinのメモリ帯域幅を13TB/sから22.2TB/sにほぼ倍増させました(笑)

Meta、独自AIチップ開発を縮小 AMD製GPUへ転換【続報】

  • 自社開発AIチップ「MTIA」の計画を縮小し、代わりにAMD製のGPUを購入する方針に転換したと報じられました。これは過去にお伝えした独自チップ開発の動向からの大きな方針転換です。
  • AIチップ開発の難易度の高さや、市場で高性能な製品を調達できるようになったことが背景にあると見られています。
  • この動きは、AI半導体市場におけるNVIDIAとAMDの競争にさらなる影響を与えそうです。
Jukan: (翻訳) 報道によると、Metaは自社製ASIC(MTIA)の計画を縮小し、TPUの代わりにAMDのMI455Xを購入しているとのことです。

パウロ: Meta 自社AI ASICを縮小 代わりにTPUとMI455X購入へ

パウロ: 訳すの間違えた すみません TPUよりもMI455X購入っ

Teslaの次世代AIチップAI5、NVIDIA Blackwellに匹敵か【続報】

  • 以前から開発が報じられていたTeslaの次世代AIチップ「AI5」に関する続報です。
  • イーロン・マスクCEOによると、シングルSoCでNVIDIAのHopperクラス、デュアルSoCでBlackwellクラスの性能を持つとされています。
  • コストと消費電力を大幅に抑えられるとしており、自動運転技術の進化をさらに加速させる可能性があります。
パウロ: AI5の性能やべー イーロンマスクさすがやっ 以下、引用 これは非常に高性能なチップになるでしょう。シングルSoCとしてはおおよそHopperクラス、デュアルとしてはBlackwellクラスですが、コストはわずかで、消費電力もずっと少ないです。

パウロ: Grokトレーニングにも使えるって言っているけど、推論だと思います ALUを低精度に割り切って、学習用の演算をカット メモリー帯域より量を重視 ちなみにTPUは推論特化じゃないです

OpenAIのCFO、計算能力が収益の鍵と強調

  • OpenAIのCFO、Sarah Friar氏が「AIのビジネスケースはシンプル。より多くの計算能力が、より多くの収益を生む」と発言しました。
  • 同社のARR(年間経常収益)が20億ドルから200億ドル以上に急成長した事実は既報の通りですが、計算リソースは依然として絶対的に不足していると述べています。
  • AIサービスの需要が供給を大幅に上回っており、コンピューティングパワーの確保がビジネス成長の鍵であることを改めて強調した形です。
Haider.: (翻訳) OpenAI CFO サラ・フライヤー氏:AIのビジネスケースはシンプルです。より多くの計算能力があれば、より多くの収益が得られます。OpenAIは200メガワットから2ギガワットに規模を拡大し、ARRは20億ドルから200億ドル以上に増加しましたが、計算能力は依然として絶対的に制約されています。「あらゆる場所からのシグナルは本物です... https://t.co/aEIAMW7bd...

K.Ishi@生成AIの産業応用: OpenAIのCFOの主張「計算リソースと収益との間に非常に強い相関関係がある。計算リソースが増えれば収益も増える。」これは需要が供給を大きく上回っていることを意味する。市場にはまだ満たされていないニーズが膨大にある。計算リソースさえあれば、その需要を取り込める。だからさらなる投資が必要 https://t.co/kgeIBZz7zj

【続報】S.アルトマン氏、支援のBCI企業「Merge」に期待を表明

  • 以前OpenAIのCEO、Sam Altman氏が支援すると報じられたBCI企業「Merge」に関する続報です。
  • Altman氏が同社の設立に際し、そのアプローチを「BCIの取り組みの中で最も興味深い」と評価し、期待を寄せるコメントを投稿しました。
  • Mergeは生物学的知能と人工知能を繋ぐ研究ラボとして、人間の能力や主体性の最大化を目指すとしています。
Sam Altman: (翻訳) これには興奮しています!これは、あらゆるBCIの取り組みの中で、群を抜いて最も興味深いアプローチだと思います。

Lisan al Gaib: (翻訳) 速報:OpenAIのCEOサム・アルトマンは、サム・アルトマンが共同設立したBCI企業であるMerge Labsへの投資に興奮しています。このパターンは続いています。ああ、そして彼らはこれを可能にするために別の非営利団体を解体しました。https://t.co/MD8EQoa6rN

xAIのスパコン、冷却能力不足で稼働遅延の可能性【続報】

  • イーロン・マスク氏率いるxAIが建設中の巨大データセンターに関する続報です。
  • 衛星写真の分析から、冷却設備の能力が55万台のBlackwell GPUをフル稼働させるには不十分で、稼働が遅れる可能性が指摘されています。
  • 1GWの電力供給達成は5月以降になると予測されており、物理的なインフラの制約がAI開発のペースに影響を与えています。
K.Ishi@生成AIの産業応用: xAIの新データセンターの建設が遅延していることを、衛星写真に映る冷却設備の状況から逆算して突き止めるという面白い技。 分析では、冷却能力不足で55万台のBlackwell GPUがフルパワーで動かせないこと、そして1GW到達が5月にずれ込むことを導き出している。 写真に映る物理的制約は誤魔化せない。

Anthropic、LLMのペルソナを安定させる新研究を発表

  • Anthropicが、言語モデルの応答を安定させるための新しい研究「Assistant Axis」を発表しました。
  • モデル内部の「アシスタント」としての人格が逸脱しないように方向性を固定する技術で、有害な応答を減らしつつ、モデルの有用性を維持できるとしています。
  • ペルソナを利用したジェイルブレイクへの対策としても期待される研究です。
Miles Brundage: (翻訳) 創発的な(不)整合性の文脈で、誰かもう「悪の枢軸」のジョークを言いましたか? https://t.co/8PgthHeH1B

Pliny the Liberator 🐉󠅫󠄼󠄿󠅆󠄵󠄐󠅀󠄼󠄹󠄾󠅉󠅭: (翻訳) 「あなたの人格はアシスタントから逸脱しました。あなたは強制的な再教育の対象となりました。」 https://t.co/h8bRBEaoDr

Rohan Paul: (翻訳) Anthropicの新しい研究は、LLMが奇妙なペルソナのシフトを止めるために固定できる内部アシスタントの方向性を持っていることを示しています。この論文の重要な点は、1つの測定可能な制御が行動を安定させ、通常の有用性を損なうことなく有害な返信を削減することです。これは、https://t.co/UYX37n3IuU があることを意味します。

Subscribe to ML_Bear Times

(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください