Googleは、ユーザーと開発者向けにGemini 2.0 FlashとProを発売しました


Googleは、AIモデルの重要な発表を別のラウンドで発行し、Geminiの提供物を全面的にアップグレードして、ユーザーと開発者がより能力があり信頼性の高いユーザーと開発者をもたらしています。のきっかけにDeepseekの上昇そして新しいOpenaiモデル、AI開発のペースは減速していません。

まず、Gemini 2.0フラッシュモデルをモデル化します12月に登場選択した人の場合、すべての人に展開されているので、デスクトップとモバイルのGeminiアプリで表示されます(これは実際に先週登場し始めたので、すでに使用している可能性があります)。フラッシュモデルは、パフォーマンスのトレードオフが多すぎず、より速く、より軽量になるように設計されています。

Googleは、すべてのユーザーがテストするために利用可能なGemini 2.0 Flash Thinking Experimental Modelを作成しています。それは別の「推論」モデルのようなモデルですChatGptで見たことがあります、AIは、より正確で透明性の高い結果を生成する意図がある場合、その考え方を示しています。

また、アプリにアクセスできるすべてのユーザーに表示されるこのモデルのバージョンもあります:Google Search、Google Maps、およびYouTubeが含まれます。 Webからリアルタイムの情報を返し、Googleマップデータ(Journey TimeとLocationの詳細を含む)への参照、およびYouTubeビデオから取得した情報を返します。

最後に、フラッシュモデルの場合、GoogleはGemini 2.0 Flash-Liteを開発者が利用できるようにしています。これは、これまでで最も費用効率の高いジェミニモデルです。これは、ジェミニを使用したビルディングツールにアピールするものですが、さまざまなマルチモーダル入力(テキスト、画像など)にわたって高レベルの処理パフォーマンスを維持しています。

プロレベルモデル

これらのモデルのいくつかを取得するには、Gemini Advancedが必要です。 クレジット:LifeHacker

次に、さらに有能なGemini 2.0 Pro Experimental Modelがここにあります。フラッシュの相当量よりも少し遅いですが、思考、執筆、コーディング、問題解決が優れています。このモデルは現在、開発者と月額20ドルを支払っているユーザーのために実験的な形で登場していますGemini Advanced

「これまでにリリースしたどのモデルよりも、世界の知識のより良い理解と推論を備えた、最も強いコーディングパフォーマンスと複雑なプロンプトを処理する能力があります」Googleは言います。また、プロンプトごとに200万個のトークンを摂取することもできます。これは、平均で約140万語で、2回は聖書になります。

これは2.0フラッシュモデルの容量の2倍であり、Googleもいくつかのベンチマークを提供しました。一般的なMMLU-PROベンチマークでは、Gemini 2.0 Flash-Lite、2.0 Flash、および2.0 Proでそれぞれ71.6%、77.6%、79.1%のスコアがあります。プロ。

他のAIベンチマークでも同様の改善があり、Gemini 2.0 Pro Experimentalは、主要な数学テストで91.8%のスコアをヒットしました。これは、2.0フラッシュで90.9%、フラッシュライトで86.8%、1.5 Proで86.5%、1.5フラッシュで77.9%に匹敵します。

このようなAIモデルの起動の標準と同様に、使用されるトレーニングデータの詳細は薄く、幻覚のリスク不正確さとエネルギー需要 - Googleは、新しいフラッシュモデルが最も効率的であると述べていますが、最新のモデルはすべて、フィードバックを推論し、潜在的な安全性とセキュリティハックを停止することでこれまで以上に優れています。