2025年09月22日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
AI産業の躍進:TSMCの生産能力増強とOpenAIの新調査
TSMCがAI需要に応えるCoWoS生産能力を大幅増強する計画が明らかになりました。2027年には月産11.2万枚に達する見込みで、NVIDIAやGoogleのAIアクセラレータ需要を支えます。
OpenAIはChatGPTの利用動向調査を公開し、幅広いユーザー層への普及と経済的価値創出を確認。一方でAI生成コードへの過度な依存による「能力の負債」という新たな課題も浮上しています。
それでは各トピックの詳細についてご一緒に見ていきましょう。
目次
- TSMC、CoWoS生産能力を大幅増強へ 2027年に月産11.2万枚予測【続報】
- SK Hynix、次世代HBM4でTSMCと協業【続報】
- OpenAI、ChatGPTの利用動向に関する大規模調査結果を公開
- NVIDIAのKaggle Grandmaster、テーブルデータコンペの必勝法を公開
- AI生成コードへの依存による「能力の負債」が新たな課題に
- ChatGPTの品質向上Tips、思考時間を「標準」に固定
- Kaggle: LLMのコード生成、専門外分野で有効性示す
- ステルスモデル「code-supernova」は低性能か、Grok新モデルとの憶測も【続報】
- Anthropic、次期モデルはClaude 4.5との噂【続報】
TSMC、CoWoS生産能力を大幅増強へ 2027年に月産11.2万枚予測【続報】
- 以前から報じられている先端パッケージング技術CoWoSの供給逼迫に関する続報です。
- JP Morganのレポートによると、TSMCのCoWoS生産能力が2027年末までに月産112,000枚に達すると予測されています。
- これは従来予想を上回るもので、NVIDIAのGB300やGoogleのTPU v6pなど、AIアクセラレータの旺盛な需要を反映しているとみられます。
- NVIDIAとBroadcomが主要顧客として大きなシェアを占める見込みです。
Jukan: (翻訳) 250922_TSMC:CoWoSおよび高度なバックエンドの更新 - JPMorgan (1) CoWoSの生産能力は26年末までに95K、27年末までに112Kに達すると予測しています。(2) これは、オンラインになる予定のAP8ファブの生産能力拡大が主な理由で、以前の予想よりも高くなっています。
パウロ: CoWoS アップデート、上方修正 GB300、TPU v6p需要強い Nvidia, Broadcomのど真ん中 異常なし (引用ツイート: 250922_TSMC: CoWoS and Advanced Backend Updates - JPMorgan (1) We forecast that CoWoS capacity will reach 95K by the end of ...
パウロ: JPモルガンのCoWoS配分 NvidiaとBroadcom激強い Marvell はダメ Mediatekも良くない 基本的に同意です (引用ツイート: Latest CoWoS allocation until 2027. Source: JPM $tsm $nvda $avgo https://t.co/67Ki75a9F1)
SK Hynix、次世代HBM4でTSMCと協業【続報】
- 次世代メモリHBM4に関する続報です。SK Hynixが投資家向け説明会で、ベースダイをTSMCが製造することを明らかにしました。
- 最終的な製品化はSK Hynixが担当し、両社の協業で開発が進められます。
- また、競合MicronのHBMは電力効率の設計に課題があり、性能向上に対応できていない可能性を示唆し、自社の技術的優位性を強調しました。
Jukan: (翻訳) SK hynix Corp Day Q&A (2025年9月) Q. HBM4のベースダイ構造と供給プロセスは? A. HBM4から、ベースダイはTSMCによって製造されます。ただし、全体的な設計と製品化はSK hynixが行います。TSMCが製造したベースダイを受け取った後、SK
Jukan: (翻訳) (笑)SK hynixが公式にMicronのHBM4に問題があると述べた。
パウロ: SK Hynix Q&A (投資家向け会議?) Micronは電力効率を推してきたが、実際には余裕度の小さい設計だった 今回の10Gbpsへの引き上げで対応出来なかった 以前はHBMの90%Nvidia向け、現在は20-30%まで下落 他の顧客から高性能HBMの引き合いが多い 強い、SK Hynix (引用ツイート: @paurooteri ハイニックスが公式にマイクロンHBM4に問題...
OpenAI、ChatGPTの利用動向に関する大規模調査結果を公開
- OpenAIが、ChatGPTの利用動向に関する大規模な調査結果を公開しました。共同創業者のGreg Brockman氏によると、初期のアーリーアダプター層を超えて幅広いユーザーに利用が拡大しているとのことです。また、個人的な利用と専門的な利用の両方で、多くの経済的価値が生み出されていることが示されています。
Greg Brockman: (翻訳) ChatGPTの利用状況に関する大規模な調査結果を発表しました。消費者の利用は初期ユーザー層を超えて広がり、個人利用と仕事での利用の両方で多くの経済的価値が生まれています。
NVIDIAのKaggle Grandmaster、テーブルデータコンペの必勝法を公開
- NVIDIAに所属する複数のKaggle Grandmasterが、テーブルデータ(表形式データ)を扱うコンペティションで勝つためのテクニックをまとめた記事を公開しました。実験の高速化や信頼できる検証の重要性を説き、具体的な7つのテクニックを紹介しており、Kaggle参加者にとって有益な情報となっています。
カレーちゃん: NVIDIAのトップkagglerたちが書いた、テーブルデータのコンペで証明された、7つの勝てるテクニックの記事が公開 概要としてはこんな感じ ・原則2つ ①実験を速く回す、②検証を信頼できる形にする ・7つの勝てるテクニック 1 賢いEDA(学習/評価の分布差とターゲットの時系列性をまず疑う) 2 (引用ツイート: After hundreds of Kaggle competition...
AI生成コードへの依存による「能力の負債」が新たな課題に
- AIが生成したコードを理解しないまま利用し続けることで、将来的にシステムの維持や改修が困難になるという問題が「能力の負債(Competency Debt)」として指摘され、話題になっています。サービスの品質を維持しながら変更を加えるには、コードの中身を理解することが不可欠であるという警鐘です。
Iaiso: 「AI生成コードを理解しないまま依存するとシステムを維持できなくなる」という問題が能力の前借り(Competency Debt)と表現されているのが面白い https://t.co/UMArC7LUUU サービス品質を維持しながら変更するには中身の理解がいるものな
ChatGPTの品質向上Tips、思考時間を「標準」に固定
- ChatGPTのモデル選択で「オート」の代わりに「思考時間:標準」を選ぶと、出力品質が安定するとのTipsが話題です。
- オート設定では意図せず低性能なモデルが選ばれる場合があり、設定を固定することで不要な性能の低下を防ぐ効果があるとされています。
限界助教|ChatGPT/Claude/Geminiで論文作成と科研費申請: あなたのChatGPTがイマイチな原因、モデル選択が「オート」だからかもしれません オートはモデルの自動選択で低性能モデルを引き当てることがしばしばあるので、仕事で使うなら『Thinking(思考時間:標準)』に固定するべき 不要な"下振れ"が無くなれば、アウトプットの質は確実に上がります。 https://t.co/oI5FSOlbkN
限界助教|ChatGPT/Claude/Geminiで論文作成と科研費申請: いまだに「論文検索でChatGPTが架空の論文見つけてくる」っていう人がいる理由はこれが原因じゃないかと思います Thinking選択していればWeb検索ONにしてなくても「〜についての論文探して」とか「〜の知見ある?」という聞き方をすれば自動的にWeb検索発動してリンク付きの論文返してくれます (引用ツイート: あなたのChatGPTがイマイチな原因、モデル選択が「オート」だからかもしれ...
Kaggle: LLMのコード生成、専門外分野で有効性示す
- Kaggle参加者から、自身の専門外である高度に専門的な分野のコンペティションにおいて、LLMによるコード生成が驚くほど有効だったという報告が上がっています。
- これまでLLMは不要だと感じていた分野でも、専門知識を補う形で活用することで良い結果に繋がる可能性が示唆されました。
Senkin: (翻訳) 以前、私がよく知っている分野でKaggleコンペに参加したとき、LLMは必要ないと感じていました。しかし最近、非常に専門的なポリマーのコンペに参加し、LLMでコード生成を使い始めました。結果は驚くほど良かったです。私は思うようになりました。
ステルスモデル「code-supernova」は低性能か、Grok新モデルとの憶測も【続報】
- 先日、Cursorなどで利用可能になったと報じられたステルスモデル「code-supernova」の続報です。
- 多くの開発者が性能を検証した結果、期待に反して性能が低いとの評価が相次いでいます。
- 一部ではxAIのGrokの新モデルではないかとの憶測も出ていますが、その正体は依然として不明です。
Tech Dev Notes: (翻訳) ステルスコードモデルのCode Supernovaはクソだ
Tech Dev Notes: (翻訳) Code Supernovaが作ったナンセンスなコード。そして、Claude 4やGPT 5が簡単にできる多くの内部タスクにも失敗した。神様、どうかGrokモデルではありませんように🙏
Tech Dev Notes: (翻訳) Code SupernovaはGrok Codeにマルチモーダル機能を加えたものではないかと、本当に嫌な予感がする。絶対に最悪なので、間違っていることを願う。
Anthropic、次期モデルはClaude 4.5との噂【続報】
- 以前からお伝えしているAnthropicの次期モデルに関する続報です。新たに、次期モデルの名称が「Claude 4.5」になるのではないかという噂が広まっています。
- この噂の背景として、ここ1ヶ月ほどで既存のClaude Opus 4.1やClaude Codeの品質が低下したとの指摘もあり、新モデルの登場が待たれています。
Kol Tregaskes: (翻訳) Claude 4.5は「もうすぐ」です。
Haider.: (翻訳) 噂によると、Claudeの次期モデル(4.5)が間もなく発表されるかもしれない。全体として、Anthropicのモデルは依然として素晴らしいが、ここ1ヶ月でOpus 4.1とClaude Codeの品質が著しく低下している。最近の劣化が意図的でない限り、今Claude 4.5を発売するのは賢明ではないだろう。