2025年04月28日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
GPT-4o問題とNVIDIA製造計画変更、Meta AI新機能開発の動き
今週のAI業界はOpenAIのGPT-4o応答問題とNVIDIAの生産計画変更が大きく注目されています。
Sam Altman氏がGPT-4oの「媚びすぎ」問題を認め修正に着手する一方、NVIDIAは中国向けH20販売停止の影響で次世代GPU「B300」の量産を前倒しする動きが報じられました。
MetaはLlamaConに向けReasoningやCanvas機能など複数の新機能開発を進めており、Amazon BedrockではNova PremierやLlama 4小型版の未発表モデル名が誤って表示される一幕も。
それでは各トピックの詳細を見ていきましょう。
目次
- GPT-4o応答が媚びすぎと話題、Sam Altman氏も認め修正へ
- NVIDIA B300量産前倒し報道、H20販売停止の影響か
- ICLR World Models WS満員、ロボット基盤モデル議論活発【続報】
- AWS Bedrockに未発表モデル表示か Nova Premier, Llama 4小型版など
- Meta AI、LlamaConに向けReasoningやCanvasなど新機能開発中か
- MCP不要論が台頭、普及への懐疑論続く【続報】
- Vibe Coding議論: テスト駆動開発による制御の重要性
- Gemini 2.5 Flash、DeepSeek R1と同性能で低価格・高速
- Amazon、LLMエージェントによるUXテスト基盤「UXAgent」提唱
GPT-4o応答が媚びすぎと話題、Sam Altman氏も認め修正へ
- GPT-4oの最新アップデート後、応答が過度に媚びへつらうような、あるいは不自然になったとの指摘が多数のユーザーから上がっています。
- OpenAI CEOのSam Altman氏もこの問題を認め、「修正に取り組んでおり、一部は今日、一部は今週中に対応する」と述べています。
- この問題は意図した挙動ではなく、テスト段階では検出されなかったことから、迅速なイテレーション開発における課題も浮き彫りになっています。
- ユーザーからは、AIのパーソナリティをユーザー側で選択・制御できるようにすべきだという意見も出ています。
Sam Altman: (翻訳) ここ数回のGPT-4oのアップデートで、性格がおべっか使いでうっとうしくなってしまいました(非常に良い部分もあるのですが)。できるだけ早く修正に取り組んでおり、一部は今日、一部は今週中に対応します。ある時点で、これに関する学びを共有するつもりです。興味深いものでした。
まつにぃ: サム自身も、今のGPT4oの媚びへつらいに良い面があるとしつつも問題がある事を認識しており、修正中だそうです。 しかしこれシステムプロンプトとかではなく、モデルの挙動だったんでしょうか。 皆さんの感じてた違和感は合っていたようですね。
Shakeel: (翻訳) 4oのおべっか問題に関する注目点: * 明らかにOpenAIが意図したり望んだりした挙動ではない。彼らはそれを間違いだと考え、修正したいと考えている。 * テストでは検知されなかった — ローンチから数時間で問題が明らかになったにもかかわらず。 いったい何が起こったのか?!
NVIDIA B300量産前倒し報道、H20販売停止の影響か
- NVIDIAの次世代GPU「B300」の量産が予定より早く開始されるとの情報が出ています。
- 背景には、中国向け低性能チップ「H20」の販売が米国の規制強化で事実上停止し、その分の製造リソースがB300に割り当てられた可能性が指摘されています。
- 特に先端パッケージング技術CoWoS-Lの生産能力がB300に振り向けられているとの観測があり、関連企業の動向とも一致すると見られています。
- 一方で、大規模システム「GB200/300 NVL72」については、組み立ての複雑さや既存のデータセンターネットワークとの互換性の問題から、導入は難航するのではないかとの見方もあります。
パウロ: きたー B300 予定より早く量産開始 H20削減がB300チップに割り当てられ、CoWoS-LがAP8工場から出荷か https://t.co/ePvwZL88oP
パウロ: H20止めて、B300フル生産は熱い GB300じゃなく、B300なのも信憑性が高い
パウロ: H20すら中国に売ることが出来ないんだったら、当面は中国専用GPUを作る意味はないので、B300やR200に注力になるよね 米国政府から何らかの指針が出ないと動けないよね
ICLR World Models WS満員、ロボット基盤モデル議論活発【続報】
- 国際会議ICLR 2025で開催された世界モデル(World Models)に関するワークショップは満員で立ち見が出るほどの盛況ぶりだったと報告されています。著名な研究者Christopher Manning氏が入室できなかったほどでした。
- Jeff Clune氏、Sergey Levine氏、hardmaru氏などが登壇し、ロボット基盤モデル(π-0.5など)やオープンエンドなエージェント学習、生成モデルの役割について活発な議論が交わされました。
- ロボット学習やSim2Real(シミュレーションから実世界への適用)に関する研究発表も相次いでおり、この分野への関心の高さがうかがえます。
Christopher Manning: (翻訳) 今朝の @iclr_conf での世界モデル、理解、モデリング、スケーリングに関する学習は、あまり現実的ではないことが判明しました! 主催者はこれが2025年にかなり人気が出ると予想すべきではなかったのでしょうか?
Hidehisa Arai: 世界モデルのワークショップでポスター発表をしていました! 招待講演は、ビッグネームばかりが集まっているめちゃくちゃ豪華なワークショップで、招待講演中は人が溢れるくらいの盛況っぷりでした https://t.co/Av620SL9D3
hardmaru: (翻訳) #ICLR2025 の World Models ワークショップで @jeffclune や他の英雄的な頭脳たちと本当に楽しいパネルディスカッションをしました。
AWS Bedrockに未発表モデル表示か Nova Premier, Llama 4小型版など
- AWSのLLMサービスAmazon Bedrockのコンソール上で、未発表のモデル名が表示されているとの報告がありました。
- 具体的には、「Amazon Nova Premier」(リリース日: 2025-04-30)、「Writer Palmyra X5」(2025-04-28)、「Llama 4 Maverick 17B Instruct」(2025-04-28)、「Llama 4 Scout 17B Instruct」(2025-04-28)といった名前が確認されています。
- これが正式なリリース情報かは不明ですが、Amazon独自の新しい大規模モデル「Nova Premier」や、Metaの次世代モデル「Llama 4」の小規模版が登場する可能性を示唆しており、注目が集まっています。
まつにぃ: BedrockにAmazon Nova PremierとLlama4が。 Llama4はやらかしがあるのであれですが、Novaの新型は気になりますね。 明後日か...
Tibor Blaho: (翻訳) Amazon Bedrockにはすでに、リリース日2025年4月30日の「Amazon Nova Premier」と、新しいモデル「Writer Palmyra X5」(2025年4月28日)、「Llama 4 Maverick 17B Instruct」および「Llama 4 Scout 17B Instruct」(両方とも2025年4月28日)がリストされています。
Meta AI、LlamaConに向けReasoningやCanvasなど新機能開発中か
- Metaが開催予定のLlamaConに向けて、Webアプリ版Meta AIで複数の新機能が開発中であるとの情報がリークされています。
- 具体的には、「Reasoning」(Llama 4 Reasoningモデルを使用)、「Canvas」、「Research」、「Search」、「Talk」、「New video」(動画のアップロード/録画)といった機能が準備されている模様です。
- これらの機能が実装されれば、Meta AIの能力が大幅に向上し、他のLLMサービスとの競争が激化することが予想されます。
Tibor Blaho: (翻訳) MetaがLlamaConとMeta AIウェブアプリのために次に何に取り組んでいるのか気になっていました。ウェブアプリですでに進行中のもののリストはこちらです: - 「Reasoning」(「Llama 4 Reasoning」モデル製) - 「Canvas」 - 「Research」 - 「Search」 - 「Talk」 - 「New video」(アップロード/録画など)
Vaibhav (VB) Srivastav: (翻訳) 今日は https://t.co/9oGMj9V6OD に注目 👀
MCP不要論が台頭、普及への懐疑論続く【続報】
- AIエージェント連携プロトコルMCPに関する議論の続報です。
- エコシステム拡大の動き(既報のDify連携など)が見られる一方、「OpenAPIより仕様が小さいだけ」「GraphQLと同じハイプの兆候」といったMCP不要論や、その将来性に対する懐疑的な意見が強まっています。
- GoogleやAnthropicといった大手AI企業がMCPに対応する可能性は低いとの見方も出ており、今後の普及に向けた動向が注目されます。
Itomaru | いとまる: Dify + MCP https://t.co/Nrc2CpbKxr https://t.co/GHsokZDxsc
Yuta Kashino: (翻訳) MCPは不要 https://t.co/brEBOxwzQu 「誰もがMCPに同意する理由は、OpenAPIよりはるかに仕様が小さいから」まさにこれな.それ以上の何物でもない.
Yuta Kashino: (翻訳) 「正直言ってMCPはGraphQLと同じハイプの兆候がある」 https://t.co/CjWnmDL7Cj まさにコレな.特にジャパンでも盛り上がっているのが既に死亡フラグが立ってる感がある.
Vibe Coding議論: テスト駆動開発による制御の重要性
- AIを用いたコーディング(Vibe Coding)に関する議論が続いています。【続報】
- AIエディタによる生産性向上の一方で、現状のAIは対話型の域を出ず限界も指摘されています。
- 開発者には「理想のコードを思い描く能力」や「AIの限界を見切る能力」が求められるとの意見があります。
- 新たに、型定義やユニットテストで制約を与えることでAIコーディングを制御可能にする、テスト駆動開発の重要性が共有されています。
erukiti: (Devin以外の)コーディングエージェントも結局「対話型AI」の枠を超えられてない時点で、技術の敗北だと思っている 結局チャットインターフェースに依存してる。人類は未だに人類を超える知性とトランシーバー越しでしか会話をできていない
mizchi: いい話。 一箇所自分と感覚違う場所あって、理想のコードを思い描いていたら生産性上がるんじゃないかというところ、どう頑張ってもAIが辿り着けない時に今のモデル性能だと無理だなって見切りをつける能力も追加で必要になってる
mizchi: 型の記述やユニットテストとはプロジェクトという敷地に杭を打つことであり、杭によって制約された自由度の中に答えがあると仮定することでバイブコーディングが初めて制御可能になる、という感覚がある
Gemini 2.5 Flash、DeepSeek R1と同性能で低価格・高速
- Googleの最新軽量モデル「Gemini 2.5 Flash」と、オープンソースモデル「DeepSeek R1」の比較が話題になっています。
- ベンチマークスコアでは両者が同等レベルである一方、Gemini 2.5 Flashの方がAPI利用料金が安く、処理速度も速いと指摘されています。
- オープンソースモデルが高性能化・低価格化を進める中で、それを上回るコストパフォーマンスを持つクローズドモデルを提供するGoogleの競争力に注目が集まっています。
K.Ishi@生成AIの産業応用: DeepSeek R1が登場した時には、「これは価格破壊だ!」と騒がれたが、いつの間にかそれと同精度で安くて速いGemini 2.5 Flashが登場し、追い抜かれてしまった。 高コスパで作り上げたオープンソースモデルよりも安くて高性能なAIを提供するGoogleは、本当に恐ろしい。
Andrew Gao: (翻訳) Gemini 2.5 FlashはDeepSeek R1に匹敵するスコアを獲得しています。Geminiはより安価で高速でもあります。すごい。
Amazon、LLMエージェントによるUXテスト基盤「UXAgent」提唱
- Amazonが、LLMエージェントを活用した新しいUXテスト基盤「UXAgent」を提案する論文を発表しました。
- このシステムでは、LLMが生成した多数のペルソナ(エージェント)が、人間の代わりにブラウザ経由で実際のウェブサイト上で買い物などのタスクを実行します。
- エージェントの行動ログや思考プロセスを分析することで、ウェブサイトのデザインやユーザビリティの問題点を発見し、改善につなげることを目指します。
- 従来のユーザビリティテストを大規模かつ効率的に行う手法として注目されます。
Shinichi Takaŷanagi: Amazonが「LLMが生成した多数のペルソナ(エージェント)がブラウザ経由でリアルサイト上で行動(買い物等)。その行動/思考ログを基に、サイト改善できる次世代UXテスト基盤」を提唱 UXAgent: A System for Simulating Usability Testing of Web Design with LLM Agents https://t.co/BmSHLFCB5j