2024年2月9日、Google AIは、大規模言語モデル Gemini の新機能を発表しました。
2024年2月9日(金)日本経済新聞紙面でも紹介されています。
Google One に課金すれば上位プランの「Gemini Advanced」が使える。スプレッドシートなど、ほかの Google サービスとの連携も強くなりそうなので試したいですね。
Googleアプリは、まず英語圏でリリースされた後、順次日本語を含む他の言語でリリースされるとのこと。(日本語版は、2024年3月頃?)
以下、Giminiの新機能をGemini自身に書いてもらいました。
Geminiの主な新機能
画像検索:画像をアップロードするだけで、関連する情報を表示
音声翻訳:音声で話しかけるだけで、リアルタイム翻訳
動画要約:動画を視聴する前に、要約を表示
質問応答:複雑な質問にも、正確かつ詳細に回答
チャットボット:より自然な会話ができるチャットボット開発
今回のアップデートでは、以下の4つの主要な機能が追加されました。
マルチモーダル対応
Geminiは、テキストだけでなく、画像、音声、動画などのマルチモーダル情報処理に対応しました。これにより、より自然なコミュニケーションや情報検索が可能になります。
知識グラフの強化
Geminiは、知識グラフの強化により、より深い知識と理解を獲得しました。これにより、より正確な情報提供や質問への回答が可能になります。
リアルタイム処理
Geminiは、リアルタイム処理に対応しました。これにより、より迅速な情報提供やコミュニケーションが可能になります。
セキュリティの強化
Geminiは、セキュリティの強化により、より安全な利用が可能になりました。
iPhone、Googleの生成AI「Gemini」搭載か
iPhoneにGeminiが搭載されるというニュースは非常に exciting ですね
もし、iPhoneに搭載されれば、これまで以上に直感的な操作で高度な情報処理が可能になり、ユーザー体験は大きく進化するでしょう
まとめ
今回のアップデートにより、Geminiはより高度な言語モデルへと進化しました。今後、Geminiは、様々な分野で活用されることが期待されています
今後のアップデートに期待が高まります
お読みいただきありがとうございます😁