2025年05月01日 夜のAIニュースまとめ
(ほぼ)毎日AIニュースが届きます。ぜひご登録ください。
(ほぼ)毎日AIニュースが届きます
ぜひご登録ください
小型LLM「Phi-4」公開とGeminiのiPhone搭載交渉
MicrosoftがDeepSeek-R1に匹敵する14Bパラメータの小型LLM「Phi-4」シリーズを公開。リソース制約のある環境でも高性能な3.8B版も提供されています。
GoogleはGeminiアプリに画像編集機能を追加する一方、AppleとiPhone搭載に向けた協議を進めているとの報道も。実現すれば膨大なiPhoneユーザーにリーチし、AI市場の勢力図が変わる可能性があります。
それでは各トピックの詳細を見ていきましょう。
目次
- Microsoftが高性能小型LLM「Phi-4」シリーズ公開
- Geminiアプリで画像編集機能が利用可能に
- Google、iPhoneへのGemini搭載でAppleと協議か
- NotebookLM活用事例続々 プロンプト設計や執筆支援も
- Amazon Bedrock、Nova Premier一般提供開始【続報】
- NVIDIA CEO「中国AIは米国に遅れていない」
- デジタル庁 AIガイドライン更新 機密性2情報まで入力可に
- Kaggle新コンペ カロリー消費量予測が開始
- AI開発効率化: Windsurf新機能とYAML活用Tips
Microsoftが高性能小型LLM「Phi-4」シリーズ公開
- Microsoftが14Bパラメータの小型LLM「Phi-4-reasoning」とそのRL強化版「Phi-4-reasoning-plus」を公開しました。
- 数学や科学、コーディングなどの複雑なタスクにおいて、DeepSeek-R1 (67B) やo3-miniといった大規模モデルに匹敵する性能を示すと報告されています。
- より小型な3.8Bパラメータ版「Phi-4-mini-reasoning」も公開されており、リソース制約のある環境での活用が期待されます。
まつにぃ: Microsoftが14B小型LLM「Phi-4-reasoning」を公開。 140万件CoT学習+短期RLでAIME等数学系ベンチ70点超を獲得し、DeepSeek-R1-70Bやo1/o3-miniを上回る推論力を発揮しています。 MITライセンスで商用可能で、出力は〈think〉で囲って生成されます。 コーディング力は課題ありですが、期待大です。
TechCrunch: (翻訳) Microsoftの最も高性能な新しいPhi 4 AIモデルは、はるかに大きなシステムのパフォーマンスに匹敵します | TechCrunch
Chubby♨️: (翻訳) Phi-4 14b reasoningがリリースされました。すべてのリリースを追跡するのは困難です。MicrosoftのPhi-4 Reasoningは、数学、科学、コーディングの複雑なタスク用に微調整された14Bパラメータモデルです。そのサイズにもかかわらず、ベンチマークではDeepSeek-R1やOpenAIのo3-miniのような大規模モデルに匹敵します
Geminiアプリで画像編集機能が利用可能に
- GoogleのGeminiアプリ内で、ネイティブな画像編集機能が順次利用可能になっています。
- AIによって生成された画像だけでなく、ユーザーがアップロードした画像も直接編集できるようになります。
- AI Studioで先行提供されていた機能がGeminiアプリにも統合され、よりシームレスな画像生成・編集体験が提供されます。
まつにぃ: GoogleのGeminiアプリ上でAI画像編集機能が追加され、生成済みやアップロードした画像を直接編集可能になります。 AI Studioでの好評を受け、Geminiアプリにも導入されました。これにより、OpenAIのような画像生成体験ができそうです。
TestingCatalog News 🗞: (翻訳) GoogleはGeminiへのネイティブ画像編集の展開を開始しました!
Logan Kilpatrick: (翻訳) Geminiによるネイティブ画像編集が、@GeminiApp のすべてのユーザーに展開され始めています!!
Google、iPhoneへのGemini搭載でAppleと協議か
- 日本経済新聞が、Googleが自社の生成AI「Gemini」をAppleのiPhoneに搭載するため、年内の合意を目指して協議を進めていると報じました。
- 実現すれば、GoogleのAI技術が膨大なiPhoneユーザーにリーチすることになり、AI市場の勢力図に大きな影響を与える可能性があります。
- 大手プラットフォーマー間の連携によるAI普及加速に注目が集まっています。
福島良典 | LayerX: ディストリビューション is King. これは鬼手 Google、自社生成AIをiPhoneに搭載 年内合意へ協議:日本経済新聞 https://t.co/TBEsYPtFsN
Kimihiko Kitase ♨️ 北瀬 公彦: Google、自社生成AIをiPhoneに搭載 年内合意へ協議 - 日本経済新聞 https://t.co/rnp2zD9aB0
NotebookLM活用事例続々 プロンプト設計や執筆支援も
- GoogleのAIノートツール「NotebookLM」の活用事例が広がっています。
- 資料を読み込ませて要約や質疑応答を行う基本的な使い方に加え、プロンプトエンジニアリングのホワイトペーパーを読み込ませてタスクに合わせたプロンプトを設計させる試みが報告されています。
- また、GitHubトレンドのPodcast作成やデータ分析の補助など、多様な用途での有効性が示唆されています。
Kenn Ejima: これはいいわぁ… (引用ツイート: 昨日から GitHub のトレンドまとめ Podcast の仕上げを NotebookLM でやってるけど、マジでおもろいわ。普通に楽しみだもん #51 Code Trends 2025年5月1日 by NotebookLM https://t.co/cIaYsQswDn)
Kazunori Sato: Geminiと二人三脚でデータ分析の実例すばらしい - Gemini 2.5 Proと取り組んだデータ分析のリアルな道のり - Nealle Developer's Blog https://t.co/LbMXdajhe2 https://t.co/8HqhJsUgGU
Odashi: Kaggleで公開している下記のprompt engineering whitepaperをNotebookLMにぶち込み、実際のタスク内容を書いてpromptを設計してくれ、とすると割とちゃんと作ってくれる https://t.co/xrQI74P68X
Amazon Bedrock、Nova Premier一般提供開始【続報】
- 先日、未発表モデルとして表示されているとお伝えしたAmazon Nova Premierについて続報です。
- Amazon Bedrock上で、Novaシリーズの最上位モデル「Nova Premier」が一般提供開始されました。
- 100万トークンのコンテキスト長、マルチモーダル対応、Tool Useの最適化などが特徴で、RAGやエージェント開発といった複雑なタスク向けとされています。
- コストはNova Proと同等レベルに抑えられており、米国の一部リージョンから提供が開始されています。
TechCrunch: (翻訳) Amazonが、これまでで最も高性能なAIモデルであるNova Premierを発表 | TechCrunch
まつにぃ: Amazon BedrockでNova Premierようやく一般提供開始ですね。 ・1Mトークン ・マルチモーダル ・Nova系列の最上位性能 ・tool useの最適化 ・コストはNova Proレベル 米3リージョン対応でリリースされています。 Nova系列は日本語性能怪しいので、要検証ですね。 https://t.co/Jq743cpmDu
NVIDIA CEO「中国AIは米国に遅れていない」
- NVIDIAのCEOであるJensen Huang氏が、AI分野における中国の技術力について「米国に遅れていない」「非常に非常に近づいている」との見解を示しました。
- Bloombergのインタビューで、競合であるHuaweiを貶めるような誘導質問に対し、事実に基づいて反論した形となります。
- AI開発競争における米中間の技術レベルに関する認識に一石を投じる発言として注目されています。
unusual_whales: (翻訳) Nvidia、$NVDA、CEOのジェンスン・フアン氏は、中国はAIで米国に「遅れていない」と述べています
パウロ: 革ジャン、スーツ姿で重要発言 中国は後れていない、非常に非常に近づいている (引用ツイート: 🇺🇸🇨🇳 Bloomberg tried to bait Nvidia’s Jensen Huang into bashing Huawei. He slapped them with facts instead. “China is not behind… we’re very, very close...
デジタル庁 AIガイドライン更新 機密性2情報まで入力可に
- デジタル庁が行政機関向けの生成AI利用ガイドラインを更新し、機密情報を含む業務データのAI学習への活用を一部容認する方針を示しました。
- 「機密性2」に分類される情報まで入力可能とし、業務効率化を目的としたAI活用を促進する狙いです。
- 情報漏洩リスク対策とAI利活用のバランスが課題となります。
龍一郎 (f.k.a Asei Sugiyama): ふわああああ デジタル庁が生成AIガイドライン、機密情報も学習可能に - 日本経済新聞 https://t.co/Jfm7JArxjM
Odashi: 機密2まで入力できる。ほう デジタル庁が生成AIガイドライン、機密情報も学習可能に - 日本経済新聞 https://t.co/EBoNe9aiaU
Kaggle新コンペ カロリー消費量予測が開始
- Kaggleで新たなコンペティション「Predict Calorie Expenditure」が開始されました。
- ウェアラブルセンサーデータなどを用いて、個人のカロリー消費量を予測するタスクです。
- メダル対象外、カーネルオンリー形式ではない Playground コンペティションで、締切は2025年5月31日(UTC)となっています。
Kagoole: (翻訳) 新しい#kaggleコンペティション「Predict Calorie Expenditure」が開始されました。メダル:False カーネルのみ:False 締切:2025-05-31 23:59:00+00:00
rt4kaido: 鳥コンペ、金メダルが近いようで遠い
ころんびあ: IMC、昨日ワクワクして投げたsubmitが普通に9時間超えて悲しみが深い
AI開発効率化: Windsurf新機能とYAML活用Tips
- AIコーディングツールWindsurfに、コード間の移動を効率化する「tab to jump」機能が追加され注目されています。
- LLMのツール呼び出しにおいて、JSONよりもYAML形式の方が強化学習の効率向上に繋がったという報告がありました。
からあげ: 後半のMCPの説明のところ、完全に同意です https://t.co/JW80vxYBwx
Kenn Ejima: Windsurfの真骨頂はvibe codingよりもtab to jumpだと思う。
webbigdata: ツール呼び出しの出力フォーマットをJSONからYAMLに変更したら強化学習の効率があがったと言うお話 JSONやXMLは相当賢いモデルでも閉じ忘れやエスケープミスを防げないのでLLMとあまり相性良くない可能性を感じてました YAMLやマークダウンの方がモデルにとって負荷が少ないのかもしれません