2025年08月05日 朝のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
大手各社の新AIモデル発表が近づく - OpenAIとAnthropicに注目
AI業界で大きな動きが加速しています。OpenAIが今週GPT-5の発表を示唆し、同時にAnthropicもClaude Opus 4.1のリリースが間近と思われます。
一方で技術開発も進み、Alibabaがテキスト-画像生成モデル「Qwen-Image」をオープンソース化し、GoogleのAIシステムは人間の介入なしに20件のセキュリティ脆弱性を自律発見しました。
競争は半導体分野にも及び、SamsungがNVIDIAのHBM認証に合格したとの噂も広がっています。
それでは、これらの最新動向について詳しく見ていきましょう。
目次
- OpenAI、GPT-5を今週発表か 幹部が示唆【続報】
- Anthropic、Claude Opus 4.1を準備中か UIがリーク
- Alibaba、画像生成AI「Qwen-Image」をオープンソースで公開
- Kaggle、ゲーム対戦でAIを評価する新基盤を発表
- Samsung、NVIDIAのHBM認証通過の噂 供給難からの回復なるか
- GoogleのAIバグハンター、20件の脆弱性を自律発見
- xAIの画像生成「Imagine」、Androidアプリでも提供開始【続報】
- OpenAI、出力を検証する「Universal Verifier」開発か
- LLMのツール利用も全てプロンプト、内部処理の解説が話題に
- atmaCup閉幕後、ModernBERTの有効性などが議論に【続報】
OpenAI、GPT-5を今週発表か 幹部が示唆【続報】
- OpenAIの次期モデルGPT-5に関する続報です。
- Sam Altman CEOやGreg Brockman社長など複数の幹部が「重要な週になる」と相次いで発言し、今週中の発表への期待が最高潮に達しています。
- これに先立ちChatGPTの週間アクティブユーザーが7億人を突破したことも明かされており、新モデルへの注目が一層高まっています。
- 一部では、新しいモデルは単一の「GPT-5」ではなく、複数の特殊モデル群として提供される可能性も噂されています。
Greg Brockman: chatgpt is growing very fast. lots of new signups, but also people starting to use it much more throughout their work and daily lives. (引用ツイート: This week, ChatGPT is on track to reach 700M weekly acti...
Chubby♨️: (翻訳) 正直に言って、GPT-5が今週リリースされるのはほぼ確定でしょう。どう考えても、これ以上のことは望めません。今週は驚異的な一週間になるでしょう。
ChatGPT研究所: 【GPT-5、今週か】 今日GPT-5来るかも、と思って張っていましたが、今日は来なそうですね。 先ほどChatGPTのプロダクト責任は『今週は重要な週になる』と発言。今週の何処かでは期待できそうです...! また、ChatGPTは今週でWAUが7億ユーザーを突破する見込みとのことです。3月末は5億人でした。 https://t.co/m6iqdU5B3z
Anthropic、Claude Opus 4.1を準備中か UIがリーク
- Anthropicの次期モデル「Claude Opus 4.1」のものとされるUIスクリーンショットがリークされ、話題となっている。
- 画像には「Opus 4.1 is here」というメッセージやプランのアップグレードを促すボタンが確認でき、リリースが近いことを示唆している。
- OpenAIのGPT-5の噂が飛び交う中、Anthropicも新モデルを投入し、競争がさらに激化することが予想される。
ʟᴇɢɪᴛ: (翻訳) Claude Opus 4.1の準備。これだよ、これ!もっと!
まつにぃ: Claude Opus 4.1 の内部 UI がリーク!! ここで畳み掛けるかAnthropic。 ヘッダーには「Opus 4.1 is here」、新設ボタンは「Upgrade plan」とあります。 Reddit でも A/B テスト報告が相次ぎ、AnthropicもGPT5に重ねてくるかもしれません。 怒涛の夏の陣。 (引用ツイート: preparations for Claude O...
Tibor Blaho: (翻訳) Claude Opus 4.1 (「claude-leopard-v2-02-prod」) 「Opus 4.1が登場 - 最新モデルで問題解決能力をさらに向上させましょう。」
Alibaba、画像生成AI「Qwen-Image」をオープンソースで公開
- Alibabaが、20Bパラメータを持つテキスト-画像生成モデル「Qwen-Image」をApache 2.0ライセンスでオープンソース公開した。
- 特に、画像内に高品質なテキストを描画する能力に優れており、英語ではGPT-4oに匹敵し、中国語ではクラス最高レベルの性能を持つとされている。
- アーティストのエドワード・ホッパー風の絵画を生成するなど、その高い表現力が注目を集めている。
Junyang Lin: (翻訳) そう、これだ!エドワード・ホッパー風の絵を描くという私の夢を叶えてくれるqwen-image。特にそのテキストレンダリング機能が大好きだ。画像に英語でも中国語でもどんな言葉でも入れられる。本当に魅力的だ!
Kol Tregaskes: (翻訳) Qwenは本日、独自の(オープンソースの)画像モデルをリリースしました。
Wolfram Ravenwolf: (翻訳) えええ?Qwenの画像モデル?🤯わあ、なんてサプライズ!3年前にStable Diffusionが私のAIへの情熱を再燃させてくれたので、画像モデルはいつも私の心の中で特別な場所を占めています。これで遊ぶのが待ちきれません!
Kaggle、ゲーム対戦でAIを評価する新基盤を発表
- Google傘下のKaggleが、AIモデルがゲームで直接対戦する新評価基盤「Kaggle Game Arena」を発表しました。
- チェスのような戦略ゲームの明確なルールと勝敗を通じて、AIの戦略的思考や問題解決能力を客観的に評価します。
- このプロジェクトにはGoogle DeepMindも協力しており、AIの能力評価における新たな標準となることが期待されます。
Google AI: (翻訳) 本日、AIモデルやエージェントがチェス♟️をはじめとする戦略的ゲームで直接対決できる新しいベンチマークプラットフォーム、@Kaggle Game Arenaを発表しました。 なぜゲームなのか、ですって?🤔 ゲームは、モデルがどのように課題に取り組むかを理解するのに役立つため、AIの評価に最適です。
Kaggle: (翻訳) ゲームをベンチマークとして使用するパイオニアである@GoogleDeepMindと、Game Arenaのリサーチアドバイザーとして提携できることを誇りに思います。 The Keywordブログで私たちの協力についての詳細をご覧ください。
Walter Reade: (翻訳) これは本当に、本当に、目が離せません!Kaggle Game Arenaのご紹介 - 複雑なゲームでモデルが競い合う様子をご覧ください。モデルの能力を検証可能かつ動的に測定できます。
Samsung、NVIDIAのHBM認証通過の噂 供給難からの回復なるか
- HBM市場で苦戦が報じられていたSamsungが、NVIDIAのHBM3E 12-Hi認証テストに合格したとの噂が広まっています。
- これが事実であれば、これまでSK Hynixが優位を占めてきた市場の競争環境が大きく変わる可能性があります。
- この動きに関連し、NVIDIAがHBM3E 12-Hiの価格を引き下げたとの情報も出ており、価格競争が激化する兆しです。
- 一方で、SamsungのHBM技術に対する懐疑的な見方も根強く、今後の正式な発表が注目されます。
パウロ: (翻訳) 噂:サムスンがNvidiaのHBM3E 12Hi認定試験に合格
パウロ: ここでSamsung 認証通過だと色々変わるぞ Micronダメージデカいかも
パウロ: まじでっ ここにきて、Samsung Nvidia同盟かっ HBM4もパッケージ? 確かに全部出来るのはSamsung だけ 面白くなってきたぞっ (引用ツイート: @paurooteri NVIDIA)
GoogleのAIバグハンター、20件の脆弱性を自律発見
- Googleは、Geminiを搭載したAIベースのバグ発見システム「Big Sleep」が、20件のセキュリティ脆弱性を自律的に発見したと発表した。
- 発見された脆弱性には、広く使用されているライブラリであるFFmpegやImageMagickのものが含まれており、すべてProject Zeroによって確認済み。
- 人間の介入なしにAIがバグを発見・報告した初のケースとなり、ソフトウェアのセキュリティを向上させる新たなアプローチとして期待されている。
TechCrunch: (翻訳) Google、AIベースのバグハンターが20件のセキュリティ脆弱性を発見したと発表 | TechCrunch
Rohan Paul: (翻訳) 希少で厄介なバグを見つけるのは、今やAIの仕事です。GoogleのAIベースのバグハンターは、FFmpegやImageMagickなどの広く使われているライブラリで20のセキュリティ脆弱性を発見し、Project Zeroがすべての発見を確認しました。これは、人間が介在しない、AIモデルによる初の完全自律的な成果です。
TestingCatalog News 🗞: (翻訳) Googleはバグハンターエージェントをテストしており、最近の実行で20の脆弱性を発見したと報告されています。「Geminiを搭載したAIベースの『Big Sleep』システム」また一つ、仕事のプロフィールが消えるでしょう🤖
xAIの画像生成「Imagine」、Androidアプリでも提供開始【続報】
- xAIのGrokに搭載されている画像・動画生成機能「Imagine」が、AndroidアプリのPremiumユーザー向けにも提供が開始された。
- スクロールするだけでライブで画像が生成されるUIや、画像アップロードから即座に動画生成が開始される機能などが報告されている。
- iOS版に続きAndroid版でも利用可能となり、マルチモーダルAIアシスタントとしての機能が拡充されている。
Tech Dev Notes: (翻訳) ImagineがGrok Androidアプリに展開中です。当初はSuperGrokヘビーユーザー向けです。
Tech Dev Notes: (翻訳) Grok AndroidアプリのImagineのUI
Tech Dev Notes: (翻訳) プレミアムユーザーは1時間後にGrokのImagineにアクセスできるようになります。Grokアプリをアップデートしてください。
OpenAI、出力を検証する「Universal Verifier」開発か
- The Informationの報道によると、OpenAIはモデルの出力を検証する「Universal Verifier」と呼ばれる技術を開発している。
- この技術は、数学やコーディングといった客観的な正解が存在する領域での成功を、ビジネス上の意思決定や創造的な文章作成といった、より主観的な領域に応用するのに役立つ可能性がある。
- モデルの信頼性と能力を向上させるための重要な内部技術として注目される。
Stephanie Palazzolo: (翻訳) OpenAIは、数学やコーディングなどの分野での成果を、ビジネス上の意思決定や創造的な文章作成など、より主観的な分野に活かすのに役立つ「ユニバーサルベリファイア」を開発しました。詳細はこちらでご覧いただけます。
The Information: (翻訳) AIアジェンダ:なぜ「ユニバーサルベリファイア」はOpenAIの秘密兵器なのか OpenAIの「ユニバーサルベリファイア」は、コーディングや数学以外の分野でモデルのパフォーマンスを向上させるのに役立つ可能性があります。 @steph_palazzolo の詳細を読む 👇
The Information: (翻訳) OpenAIのGPT-5は、従来よりも多くの計算能力を消費することなく、高品質のコードとテキストベースの回答を生成すると言われています。詳細をご覧ください。
LLMのツール利用も全てプロンプト、内部処理の解説が話題に
- LLMがツール定義や関数呼び出しをどのように単一のトークン列として処理しているかを解説した技術記事が話題です。
- APIを抽象化するライブラリの裏側では、最終的にすべてがテキストプロンプトとして組み立てられています。
- この本質的な仕組みを理解することが、効果的なプロンプトエンジニアリングに不可欠だと指摘されています。
福島良典 | LayerX: 大事。すべてはプロンプトとして組み立てられる。 How LLMs Actually Process Your Prompts, Tools, and Schemas | Hippocampus's Garden https://t.co/8FoTyCvT8b @shion_hondaより
福島良典 | LayerX: 変に抽象化されたフレームワークを使うとここら辺の理解ができなくなる。学習段階ではまず素のプロンプトで全部組み立ててみるというのをやってみるとよく理解できる。コンテキストエンジニアリングとはプロンプトエンジニアリング。
Shion Honda: (翻訳) 「このツールの説明はプロンプトに入れるべきか、それともパラメータとして渡すべきか?」この質問を何度か受けたので、新しい記事を書きました。LLMの内部では、すべてが1つのトークンストリームになることは自明ではありません。実際の仕組みはこちらです👇
atmaCup閉幕後、ModernBERTの有効性などが議論に【続報】
- 先日閉幕したデータ分析コンペ「atmaCup #20」の続報です。
- 上位入賞者による解法共有が続いており、新たに「LLMよりもModernBERTのようなエンコーダーのみのアーキテクチャが有効だった」といった具体的な技術的議論が活発化しています。
- その他、問題をマルチクラス分類として捉え直すアプローチや、多数のモデルをアンサンブルする手法なども共有されています。
chumajin: atmaCup せっかくやったので、解法載せました。 後でも自分で見れるようにしておこう。 https://t.co/2O6zOwxBMI #atmaCup #udemy
rt4kaido: 4位解法書きました〜! 4th Place Solution https://t.co/e8D1XFkDpm #atmaCup
kami: 参加はしなかったけど解法読んで勉強させてもらってます! LLMよりModernBertのほうが強かったっぽいのは何か理由あるんだろうか。 クソデカLLMの事前知識で殴るより、encoder onlyのアーキテクチャ的な長所が大事だったのかな? #atmaCup