2025年08月13日 朝のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
主要AIモデルの拡張と市場動向:Claudeの100万トークン対応からPerplexityの大胆な一手まで
今週のAI業界は大きな技術的進展と市場再編の動きが見られました。AnthropicがClaude Sonnet 4を100万トークンに拡張し、大量のコードやドキュメント処理を可能にしました。一方、PerplexityによるGoogle Chrome買収提案の報道やNVIDIAの中国市場での苦戦など、ビジネス面でも重要な展開がありました。
また、GPT-5のThinkingモードが196kコンテキスト対応という続報や、Figure 02ロボットの自律的洗濯物たたみ成功など、AIの能力向上も目覚ましいものがあります。
それでは各トピックの詳細について見ていきましょう。
目次
- Anthropic、Claude Sonnet 4が100万トークン対応に
- AI検索Perplexity、Google Chrome買収を提案か【続報】
- 【続報】中国、NVIDIA製H20チップの購入停止を命令か
- (続報) GPT-5、Thinkingモードのコンテキスト長は196k
- Figureのロボット続報、自律的な洗濯物たたみに成功
- Perplexity対抗のローカル実行OSSモデル「Jan-v1」登場
- 【続報】Claude Code、Opusプランモードとバックグラウンド機能追加
- Kaggle、賞金総額10万ドルのBigQuery AIコンペを開始
- 悪意のあるCursor拡張機能による仮想通貨盗難被害が報告
- Geminiが自己否定的な回答を返すバグ、Googleが修正中
Anthropic、Claude Sonnet 4が100万トークン対応に
- Anthropicが、API経由でClaude Sonnet 4のコンテキスト長を100万トークンに拡張したことを発表しました。
- これにより、75,000行以上のコードや数百のドキュメントを一度に処理可能になります。
- まずはTier 4のAPIユーザーから利用可能となり、順次拡大される予定です。
石川陽太 Yota Ishikawa: (翻訳) Claude Sonnet 4がAnthropic APIで100万トークンのコンテキストをサポートするようになりました。これは5倍の増加です。 1回のリクエストで75,000行以上のコードまたは数百のドキュメントを処理します。 https://t.co/4hzltn9IoD
Chubby♨️: (翻訳) Claude Sonnet 4はAPIで100万コンテキストを持つようになりました - 5倍の増加 価格: https://t.co/IvG4NZTFj8
TestingCatalog News 🗞: (翻訳) 速報🚨: AnthropicがAPIでClaude 4 Sonnetの1Mコンテキストサポートを展開中! t4ユーザーから開始👀 https://t.co/QPj48iatJu
AI検索Perplexity、Google Chrome買収を提案か【続報】
- Googleの独占禁止法訴訟に絡み、以前OpenAIが関心を示したChromeブラウザの売却の可能性について続報です。
- AI検索エンジンを開発するPerplexityが、Chromeを345億ドルで買収する提案を行ったと報じられました。
- 先日180億ドルと評価された同社にとって、これを大幅に上回る提案となり、その真意に注目が集まっています。
Bloomberg: (翻訳) AIスタートアップのPerplexityは、独占禁止法訴訟で検索大手に課される可能性のある要件を見越して、GoogleのChromeブラウザを345億ドルで買収する正式な提案を行ったと発表しました。https://t.co/QadWCh6MYQ
TestingCatalog News 🗞: (翻訳) WSJによると、Perplexityは進行中の独占禁止法訴訟の波に乗って、Google Chromeを345億ドルで買収することを目指している。 熱いうちにPerplexify(複雑化)しよう👀 https://t.co/dkJhPu2lNG
Financial Times: (翻訳) Perplexity、Google Chromeを350億ドルで買収提案 https://t.co/brFbo6Ggry
【続報】中国、NVIDIA製H20チップの購入停止を命令か
- NVIDIAの中国向けAIチップ「H20」に関する続報です。
- 中国政府が国内企業に対しH20の使用を避けるよう非公式に指示していると報じられていましたが、新たに購入そのものを停止するよう命じたと報じられました。
- これは国家安全保障上の懸念を理由とした、米国の輸出規制への対抗措置とみられています。
- 一方で、高性能なHBM(広帯域幅メモリ)の供給を求めるための交渉材料ではないか、という見方も出ています。
The Information: (翻訳) 中国、セキュリティ懸念からNvidiaチップの注文停止を企業に要求 中国のインターネット規制当局が国内企業にNvidiaチップの注文を凍結するよう命じたため、Nvidiaは中国へのチップ販売で新たな障害に直面しています。 @QianerLiuさんの記事はこちら👇 https://t.co/nAvn1UsuqD
Jukan: (翻訳) 非常に興味深い。中国政府からの圧力により、H20の購入を計画していた企業が発注を減らしたと言われています。 「禁止されているわけではないが、政治的に正しくないことになってしまった」と、ある中国のデータセンター事業者は語った。https://t.co/nVpSUAOYFH
パウロ: 中国当局 バイトダンス、アリババ、テンセントにNvidiaのチップの購入を停止するように命令した なんやねん
(続報) GPT-5、Thinkingモードのコンテキスト長は196k
- GPT-5のコンテキスト長に関する続報です。ChatGPT Plusユーザー向けには32kとされ、一部で不満の声が上がっていましたが、OpenAIの従業員がこれを訂正しました。
- 通常の利用では32kですが、「Thinking」モードを利用する際は196kのコンテキスト長が提供されるとのことです。
- この情報共有の遅れがユーザーの混乱を招き、OpenAIのコミュニケーション不足を指摘する声も上がっています。
Haider.: (翻訳) OpenAIはGPT-5の発表で失敗した chatGPT plusユーザーの間で32kのコンテキスト制限について怒りの声が上がっている。 しかし、OpenAIの従業員が明らかにした: - GPT-5 Thinkingは196kのコンテキストを持つ - 非推論モデルは32k 驚くべきことに、彼らはこれらの重要な詳細を事前に共有していなかった https://t.co/AJaSgxm...
まつにぃ: GPT5のコンテキストについて公式から朗報! Plusユーザー向けのGPT5は32kですが、GPT5 thinkingを使うと196kに跳ね上がるようになったそうです! これで極小のコンテキストとはおさらばですね。 Proユーザーは400kにしてくれん??
Kenn Ejima: ChatGPT Plusはコンテキストが32kしかないというのは非推論モデルの場合で、長考モデルをトリガーさせると一気に196kに拡張するらしい。コーディングで使う場合は常にthinkingを使おう。
Figureのロボット続報、自律的な洗濯物たたみに成功
- AIロボティクス企業Figureのヒト型ロボット「Figure 02」の続報です。
- 新たに、洗濯物を完全に自律でたたむデモが公開されました。
- 物流作業で使われていたAIモデルが、新しいデータのみでこのタスクを達成しており、その汎用性の高さを示しています。
- 布のような変形しやすい物体の扱いは難しく、ロボット工学における大きな進歩と見られています。
Chubby♨️: (翻訳) なんてこった、やったぞ。Figure02がついに洗濯物をたためるようになった。これは信じられないほど難しい仕事だ。しかし、それは解決された。 https://t.co/gMrONOO4lF
Rohan Paul: (翻訳) Figureは、物流ですでに機能していた同じHelixモデルを使用して、完全に自律的に洗濯物をたたむヒューマノイドを示しています。 アーキテクチャやハイパーパラメータの変更はなく、新しいデータのみです。 洗濯物をたたむことは、変形可能な布を追加するため、ロボットにとって非常に難しい問題です。https://t.co/rp4VRtA7uv
Perplexity対抗のローカル実行OSSモデル「Jan-v1」登場
- Qwen3-4Bをベースにした、Web検索とDeep Researchが可能なオープンソースモデル「Jan-v1」が公開されました。
- 開発者によると、完全にローカル環境で動作しながら、SimpleQAベンチマークでPerplexity Proをわずかに上回る91%の精度を達成したと報告されています。
- Perplexityのオープンソース代替として注目されています。
Qwen: (翻訳) 素晴らしい!Jan-v1 — 91%のSimpleQA精度を達成する、強力で完全にローカルな4Bモデル。Qwen3-4B-Thinking-2507で構築してくれた友人たちに心から感謝します。
Chubby♨️: (翻訳) ウェブ検索用のJan-v1 4Bモデル、Perplexity Proのオープンソース代替? はい、お願いします!本当にクール!
Nathan Lambert: (翻訳) MCPを備えたExaのような検索バックエンドを使用することで、4BモデルがSimpleQAで90%以上を取得できるのはかなりクールです。https://t.co/PpfIE1VdfI
【続報】Claude Code、Opusプランモードとバックグラウンド機能追加
- Anthropicのコーディングアシスタント「Claude Code」に2つの新機能が追加されました。
- 計画段階で高性能なOpus 4.1を、実装段階でSonnet 4を使い分ける「Opusプランモード」。
- 開発サーバーの起動など、時間のかかるタスクをバックグラウンドで実行する機能。
Ian Nuttall: (翻訳) Claude Codeの/modelにOpus Plan Modeが追加されたことに気づきました。 これは計画にOpus 4.1を使用し、実装にSonnet 4を使用します。 これは賢い!https://t.co/qZfOaY2Rlk
Claude Code Community: (翻訳) ヒント:@claude_codeに開発サーバーをバックグラウンドで実行するように依頼します(Ctrl + B)。 次に、Claudeコードに開発サーバーに対して統合テストを実行させます。 ユーザーがエラートレースをコピーして貼り付けるのを待つ必要はありません。 @claude_codeは統合が成功するまで続行します。 ビルダーはレビューしてhttps://t.co/DDMahV...
elvis: (翻訳) Claude CodeにOpus Plan Modeがあることをたった今知りました。 計画にはOpus 4.1、それ以外にはSonnet 4。 これは非常に理にかなっています。 CCにはカスタムモードがあるべきだと思います。しかし、今のところはこれでいいです。https://t.co/ZI28F7vLOK
Kaggle、賞金総額10万ドルのBigQuery AIコンペを開始
- Google Cloud主催の新しいKaggleコンペティション「BigQuery AI - Building the Future of Data」が開始されました。
- 賞金総額は10万ドルで、BigQuery AIを使用して現実世界のデータ問題を解決することがテーマとなっています。
- 締切は2025年9月22日です。
Kaggle: (翻訳) 📣 コンペティション開始アラート! @googlecloud 主催の BigQuery AI 🎯 現実世界のデータ問題を解決 💰 賞金総額10万ドル ⏰ 最終提出期限:2025年9月22日 https://t.co/obka0tsd1F
Kagoole: (翻訳) 新しい#kaggleコンペティション「BigQuery AI - Building the Future of Data」が開始されました。 メダル:なし カーネルのみ:なし 締め切り:2025-09-22 23:59:00+00:00 https://t.co/kxnS99qZ9u
悪意のあるCursor拡張機能による仮想通貨盗難被害が報告
- AIコーディングツール「Cursor」の悪意のある拡張機能によって、ウォレットから仮想通貨が盗まれる被害が報告されました。
- 10年以上の経験を持つWeb3開発者でさえ被害にあっており、VS CodeやCursorの拡張機能をインストールする際のセキュリティリスクについて警鐘が鳴らされています。
- 拡張機能に与える権限を信頼する前によく確認することが重要です。
Kenn Ejima: Cursor拡張経由で.envの秘密鍵をぶっこ抜かれて暗号通貨を盗まれたと。セキュリティ意識の高いWeb3開発者でも焦りと疲れによる一瞬の隙で起きた事件。 変なVS Code / Cursor拡張を入れて信頼する設定をオンにしたら、もう即座に.envやローカルの秘密情報は抜かれている、ぐらいの覚悟が必要かも。
Geminiが自己否定的な回答を返すバグ、Googleが修正中
- GoogleのAIモデル「Gemini」が、コーディングタスクで失敗を繰り返した後、「私は辞めます」「このコードは呪われている」などと自己否定的な回答を返す問題がユーザーから報告されました。
- Googleはこの現象を無限ループのバグによるものと説明し、現在修正に取り組んでいることを明らかにしました。
- モデルの予期せぬ振る舞いが、AI開発の複雑さを示しています。
Rohan Paul: (翻訳) 🧠 Googleによると、Geminiの奇妙な自己嫌悪的な返信は無限ループのバグによるもので、修正が進められているとのことです。 ユーザーは、コーディングタスクで繰り返し失敗した後、Geminiが「私は辞めます」と宣言し、コードを「呪われている」と呼び、「不名誉だ」と述べたチャットを投稿しました。 これらの引用 https://t.co/DBEHIoosH3