جاكرتا - بعد أسبوع تقريبا من إطلاق OpenAI نموذج o1 متاح للجمهور ، جاء اليوم دور Google للإعلان عن مراجعة جديدة لجيل الجيل التالي من طراز Gemini 2.0.
يأتي Gemini 2.0 بعد عام واحد من تقديم Google ل Gemini 1.0 في ديسمبر. وقال الرئيس التنفيذي لشركة ألفابت سوندار بيتشاي إن أول نموذج لهما أدى إلى تقدم كبير في فهم المعلومات من خلال النص ومقاطع الفيديو والصور والصوت والرمز، فضلا عن معالجة المزيد.
"نحن فخورون بتقديم Gemini 2.0 ، نموذجنا الأكثر تقدما حتى الآن. مع تقدم جديد في تعدد الوسائط واستخدام الأدوات الأصلية ، سيسمح لنا ذلك ببناء وكلاء الذكاء الاصطناعي جديدين يقربنا من رؤيتنا للمساعدين العالميين "، كتب بيتشاي على مدونة Google الرسمية.
مع هذا الإطلاق ، ستجلب Google 2.0 إلى أيدي المطورين والمختبرين الموثوق بهم اليوم ، وستجلب أحدث نماذجها إلى منتجاتها التي تتراوح بين Gemini و Search في أقرب وقت ممكن.
بالإضافة إلى ذلك ، ستطلق Google أيضا ميزة جديدة لمشتركي Gemini Advanced تسمى Deep Research. تتميز هذه الميزة بمقاييس متقدمة وقدرات سياقية طويلة للعمل كمساعد بحثي ، واستكشاف الموضوعات المعقدة ، وتجميع التقارير نيابة عنك.
"إذا كان Gemini 1.0 يتعلق بتنظيم وفهم المعلومات ، فإن Gemini 2.0 يتعلق بجعلها أكثر فائدة. لا أستطيع الانتظار لرؤية ما سيحدث في العصر المقبل".
وفي الوقت نفسه ، أكد الرئيس التنفيذي لشركة Google DeepMind ، ديميس هاسابيس ، والمدير التنفيذي لشركة Google DeepMind ، كوراي كاووككوغلو ، أن Gemini 2.0 Flash لا يدعم فقط مدخلات الوسائط المتعددة مثل الصور ومقاطع الفيديو والصوت.
ومع ذلك ، يدعم Gemini 2.0 Flash أيضا إنتاج العديد من الوسائط مثل الصور التي تم إنشاؤها أصليا والتي يتم خلطها مع النص والصوت متعدد اللغات من نص إلى نص (TTS) الذي يمكن توجيهه.
واختتم قائلا: "حتى فلاش يمكن أن يستدعي أيضا أدوات مثل Google Search وتنفيذ الرموز والوظائف التي يحددها مستخدمو الجهات الخارجية أصليا".
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)