シェア:

ジャカルタ - Ray-Banのスマートグラスは、曲を聴くためにビデオを録画できるため、非常に洗練されています。ただし、Metaは新機能を追加するため、この洗練さに満足していません。

昨年末以来、メタはマルチモーダル人工知能(AI)機能への早期アクセスをテストしました。この機能は、翻訳、オブジェクトの識別、服の提案などを行うことができるため、AIアシスタントとして機能します。

メタによる数ヶ月のテストの後、ニューヨークタイムズは、このAIベースのソフトウェアが4月に発売されると発表しました。ただし、発売日に関するより具体的な情報はありません。

このAI駆動の機能は、一般的なAIアシスタントのように動作します。音声でさまざまなコマンドを受け取ります。これらのスマートグラスのアシスタントを有効にするには、ユーザーは「ねえメタ」と言うだけで済みます。

さらに、Ray-Banユーザーはすぐにコマンドを付けたり質問をしたりできます。コマンドまたは質問がオブジェクトに関連している場合、カメラは問題のオブジェクトを識別し、メガネの側面のスピーカーが応答します。

ニューヨークタイムズはAIベースの機能を直接試し、そのテスト結果の簡単な概要を提供しました。これらのメガネは、食料品店、博物館、さらには動物園でも多くのものを特定するために持ち歩かれました。

その結果、Ray-Banに追加されたAI Metaはペットやアートワークを正しく識別できるが、何度か失敗したことが示された。これらのメガネはまた、ケージ内の動物を識別することができません。

一方、言語能力については、このスマートグラスは英語、スペイン語、イタリア語、フランス語、ドイツ語を含む5つの言語をサポートしています。この言語翻訳は、オブジェクトを識別する機能など、最適に機能していません。

これは、メタが開発したAIが完璧ではないことを示していますが、単純な目的のために十分に便利です。おそらく、これらのAIベースのアシスタントは時間の経過とともに開発されるでしょう。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)