2025年11月17日 朝のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
Gemini 3.0来週発表の可能性、Kimi K2がツール利用で最高性能
GoogleがGemini 3.0と画像生成モデルNano Banana 2を来週発表する可能性が高まっています。AI Studioでテスト版の提供も始まったとの報告があり、期待が集まっています。
中国製オープンソースのKimi K2がツール呼び出しベンチマークでOSS最高性能を記録し、Claudeユーザーの乗り換え検討も話題に。一方、AMDは完全オープンな3B言語モデルInstellaを発表しました。
それでは、今日の主要トピックを詳しくご紹介します。
目次
- Google、Gemini 3.0とNano Banana 2を来週発表か【続報】
- Kimi K2、ツール利用ベンチマークでOSS最高性能
- MS Copilot Studio、高価格だが業務自動化ツールとして高評価
- Claude Code続報: Hooks機能でチームの知見を自動共有
- AMD、完全オープンな3B言語モデル「Instella」を発表
- 【続報】AIが新卒採用に影響、25卒学生の内定率3割と判明
- xAI未発表モデルSherlockのベンチマーク結果が報告【続報】
Google、Gemini 3.0とNano Banana 2を来週発表か【続報】
- 先日お伝えした、GoogleのCEOらが次期モデル「Gemini 3.0」のリリース時期に関する予測市場を引用した件の続報です。
- 新たに、この発表には画像生成モデル「Nano Banana 2」も含まれるとの見方が強まっています。
- 一部のユーザーにはAI Studioでテスト版が提供され始めたとの報告もあり、コミュニティの期待がさらに高まっています。
- 一方で、期待が先行しすぎているとの冷静な見方もあり、実際の性能がどうなるか注目が集まっています。
Chubby♨️: (翻訳) 過激な意見:OpenAIもAnthropicも、すぐにはGemini 3.0に対する良い答えを出せないだろう。Geminiはかなりの期間、最高かつますます人気のAIモデルであり続けるだろう。
Chubby♨️: (翻訳) 来週、Nano Banana 2とGemini 3.0がリリースされるが、すべてのリークとテストを考慮すると、これは大きな飛躍を意味する。 AnthropicがOpus 4.5で対応するかどうかはまだわからない。OpenAIのGPT-5.1はこれを先取りしようとした試みだと思う。
leo 🐾: (翻訳) Gemini 3 Flash & Proが、一部のユーザー向けにAI Studioのビルダーでステルステスト中です!
Kimi K2、ツール利用ベンチマークでOSS最高性能
- 先日来、話題の中国製オープンソースモデル「Kimi K2」の続報です。
- ツール呼び出しのベンチマーク「Vending-Bench」で、オープンソースモデルとして最高性能を記録したと報告されました。
- その性能の高さから、これまでAnthropicのClaudeを主に利用していたユーザーが乗り換えを検討するほどの注目を集めています。
Nathan Lambert: (翻訳) Claude Codeが発売当初(今年2月頃)に圧倒的だった頃に、中国のモデルが主要なAIラボの市場シェアを食いつぶすようなことがすでに起こっていると誰が予測しただろうか? 企業内での定着率が高いのか気になる。
Lisan al Gaib: (翻訳) Andon LabsがKimi APIでVending Benchを再実行\n「Kimi K2は現在、Vending-Benchで最高のオープンソースモデルです」
MS Copilot Studio、高価格だが業務自動化ツールとして高評価
- Microsoftの「Copilot Studio」が、業務自動化ツールとして高いポテンシャルを秘めていると注目されています。
- ユーザーからは、GoogleのFlowsに匹敵するほど便利で、特にMicrosoft Office製品やSharePoint、OneDriveとの連携によって大きな価値を生むとの声が上がっています。
- 価格が非常に高いという課題はあるものの、人に依存しないワークフローを構築できるため、多くの業務を効率化できる可能性が期待されています。
まつにぃ: CopilotStudio少し慣れてきましたが、ちゃんと使うと相当な業務を自動化できそうだなぁ。 MS OfficeとかSharepoint、OneDrive周りにちゃんと繋いでいくだけでも十分価値あるし、これを人に依存しないWFにする事で一気に突破できるところ広がりそう。 GPT5〜にもなってるので可能性ヨシ。
まつにぃ: なんか普通にCopilotStudioがGoogleのFlows並みに便利だし好きになってきた。 これはめちゃくちゃ可能性あるな。 値段がめっちゃ高いと言うのを抜きにすれば本当に優秀な気がしてきました。 日曜日を捧げた甲斐がある。
まつにぃ: 環境によって出来る出来ないって当然あると思うんですが、マジで今は全部やれる環境にいた方がいいですね。 機会によって培える経験値が天と地ほど差が開く気がします。 触れないって言うのは中々にきつい。
Claude Code続報: Hooks機能でチームの知見を自動共有
- AnthropicのAIコーディング支援ツール「Claude Code」に関する続報です。搭載されているHook機能を活用し、チームの知識を自動的に蓄積する独創的なアイデアが話題を呼んでいます。
- この手法では、セッション終了時などの特定のタイミングでHookをトリガーし、開発の過程で得られたノウハウを共有のMarkdownファイル(CLAUDE.md)へ追記するよう促します。
- これにより、チームメンバーが意識せずとも、日々の業務を通じて自然とナレッジベースが育っていく仕組みを構築できるとして、その発想と実装方法が称賛されています。
ML_Bear: すでにかなり話題になってるけどこの記事の発想天才すぎて感動しました😇 Claude CodeのHook機能を使ってセッションを終了するときなどにCLAUDE[.]mdへのノウハウ追加を促すようにしたとのこと。 チームのCLAUDE[.]mdを勝手に育てようという発想も手段も素晴らしい👏 https://t.co/VbzIdtP87y
AMD、完全オープンな3B言語モデル「Instella」を発表
- AMDが、完全にオープンな小規模言語モデル「Instella」を発表しました。Instellaは30億パラメータのモデルファミリーで、研究者が完全に再現できるよう、重み、トレーニングコード、データレシピがすべて公開されています。
- 最初に大規模なオープンテキストで学習し、次により推論重視のデータで学習、最後にインストラクションチューニングを施すという手順で構築されています。
- この取り組みは、AI研究における再現性と透明性を高めるものとして評価されています。
Rohan Paul: (翻訳) AMDの新しい論文では、小規模で完全にオープンな言語モデルInstellaを構築しています。 Instellaは3Bパラメータのモデルファミリーで、作成者が重み、トレーニングコード、データレシピを共有しているため、他の人が完全に再現できます。 彼らは最初に巨大なオープンテキストでトレーニングし、次により推論の重いデータでトレーニングします。
【続報】AIが新卒採用に影響、25卒学生の内定率3割と判明
- AIの雇用への影響に関する続報です。2025年卒業予定の大学生のうち、専門分野での就職が内定しているのはわずか30%に留まることが報告されました。
- レポートの要約や分析といったタスクをAIが担うようになり、企業が求めるエントリーレベルの求人が減少していることが背景にあると見られています。
- これまでも米英での求人減などを報じてきましたが、学生の内定率という形でより直接的な影響が示された形です。
Rohan Paul: (翻訳) 🎓📚 2025年卒の大学生のうち、AIオートメーションによってエントリーレベルの職が減少しているため、自分の分野で就職できたのはわずか30%です。 AIは現在、レポートの要約、分析、下書きの作成などのタスクを処理しているため、雇用主は若手やエントリーレベルのポジションをそれほど必要としません。 企業は発表しました
Rohan Paul: (翻訳) Freelancer.com に AI ツールが登場した後、求人への応募提案は平均してはるかに長くなりました。 エコノミスト誌は、AI が生成した安っぽい話がいかに有用な労働市場のシグナルを弱め、膨らんだカバーレターを主に労働者の収入を損なうノイズに変えてしまうかを示す研究を発表しました。
xAI未発表モデルSherlockのベンチマーク結果が報告【続報】
- 先日OpenRouterに登場したxAIの未発表モデル「Sherlock」の続報です。
- ユーザーによるテストで「sherlock-think-alpha」と名付けられたモデルのベンチマーク結果が報告されました。
- 小規模モデルとしては非常に高いスコアを記録したものの、Grok-4-Fastには及ばなかったとされています。
- これらのモデルは、特定のタスクに特化して強化学習が施された小規模モデルではないかと推測されており、分析が進められています。
Lisan al Gaib: (翻訳) Sherlock-Dash-Alpha、おそらく「Grok-4.2-Fast」のようなもの
Lisan al Gaib: (翻訳) sherlock-think-alpha(grok-4.2-mini/fastなど)のLisanBenchの結果は、Grok-4-Fastを下回るスコアですが、それでも小規模モデルとしては非常に高いスコアです。これは、このモデルのRLスロッピングにFLOPSを費やしたことを意味します。回答の有効性比率はGrok-4よりも高く、これは次のことを示している可能性があります。
Tech Dev Notes: (翻訳) これらを試した人はいますか?これらは誰のモデルの可能性がありますか