シェア:

ジャカルタ-OpenAIがモデルo1を一般に公開してからほぼ1週間後、今日はGoogleが次世代のジェミニ2.0モデルのプレビューを発表する番です。

ジェミニ2.0は、Googleが昨年12月にジェミニ1.0を導入してから1年後のものです。アルファベットのCEO、Sundar Pichai氏は、彼らの最初のモデルは、テキスト、ビデオ、画像、オーディオ、コードを通じて情報を理解し、さらに処理するための大きな進歩をもたらしたと述べた。

「これまでで最も先進的なモデルであるGemini 2.0を導入できることを誇りに思います。マルチモダリティとオリジナルツールの使用が新たに進む中、ユニバーサルアシスタントのビジョンに近づく新しいAIエージェントを構築できるようになります」とPichai氏はGoogleの公式ブログに書いています。

この発売により、Googleは本日、信頼できる開発者とテスターに2.0を提供し、ジェミニと検索から始まる製品に最新モデルを提供します。

さらに、GoogleはDeep Researchと呼ばれるジェミニアドバンストの顧客向けの新機能も開始します。この機能には、高度な評価と、研究アシスタントとして機能し、複雑なトピックを探索し、あなたに代わってレポートを編集するための長いコンテキスト機能があります。

「ジェミニ1.0が情報を整理し、理解することである場合、ジェミニ2.0はそれをはるかに有用にすることです。次の時代に何が起こるかを見るのが待ちきれません」と彼は続けました。

一方、Google DeepMindのCEOであるDemis Hassabis氏とGoogle DeepMindのCTOであるKoray Kavukcuoglu氏は、Gemini 2.0 Flashが画像、ビデオ、オーディオなどのマルチモーダルインプットのみをサポートしていないことを確認しました。

ただし、Gemini 2.0 Flashは、ネイティブに作成された画像と、指示可能なテキストから音声への多言語音声(TTS)を混在させるなど、マルチモーダルな外観もサポートしています。

「フラッシュでさえ、Google 検索、コード実行、サードパーティのユーザーが指定した機能などのツールをネイティブに呼び出すこともできます」と彼は結論付けました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)