أنشرها:

جاكرتا - بدأت شركة Micron Technology الإنتاج الضخم لأشباه الموصلات الذاكرة عالية السرعة لاستخدامها في أحدث شريحة من Nvidia للذكاء الاصطناعي. وقد أدى ذلك إلى ارتفاع أسهمها بأكثر من 4٪ قبل التعريف يوم الاثنين 26 فبراير.

وفقا ل Micron ، ستستهلك HBM3E (الذاكرة عالية النطاق 3E) 30٪ أقل من الطاقة مقارنة بعروض المنافسين ويمكن أن تساعد في الاستفادة من الطلب المتزايد بسرعة على الرقائق التي تقود تطبيقات الذكاء الاصطناعي التوليدية.

وستستخدم Nvidia الرقائق في الجيل القادم من وحدات معالجة الرسومات H200 ، والتي من المتوقع أن تبدأ في الشحن في الربع الثاني وتحل محل شريحة H100 الحالية التي أدت إلى ارتفاع هائل في الإيرادات لمصمم الرقائق.

كما أثار الطلب على رقائق الذاكرة عالية السرعة (HBM) ، وهو سوق يقوده مورد Nvidia SK Hynix ، لاستخدامه في الذكاء الاصطناعي آمال المستثمرين في أن Micron ستكون قادرة على البقاء على قيد الحياة في التعافي البطيء في الأسواق الأخرى.

HBM هو واحد من المنتجات الأكثر ربحية ل Micron ، ويرجع ذلك جزئيا إلى التعقيد التقني المشارك في بنائه.

وكانت الشركة قد قالت في وقت سابق إنها تتوقع "عدة مئات الملايين" من الدولارات من إيرادات HBM في السنة المالية 2024 والنمو المستدام في عام 2025.

يزعم أن HBM3E تستهلك 30٪ طاقة أقل من عرض منافسها. وهذا يعني أن استخدام HBM3E يمكن أن ينتج كفاءة طاقة أعلى ، وهو أمر مهم للتطبيقات التي تتطلب أداء عال مثل الذكاء الاصطناعي التوليدي (الذكاء الاصطناعي).

على الرغم من استهلاكها طاقة أقل ، توفر HBM3E أداء عال في نقل البيانات بعرض نطاق كبير (عرض النطاق). هذا يسمح للرقائق التي تستخدم HBM3E بالعمل بكفاءة في التعامل مع أعباء العمل المكثفة الحاسوب ، مثل عرض الرسومات المعقدة في تطبيقات الذكاء الاصطناعي.

HBM3E هي أحدث تقنية ذاكرة عالية السرعة ، مع أحدث الميزات وتحسينات الأداء مقارنة بالإصدارات السابقة. وهذا يجعلها خيارا مثيرا للاهتمام لشركات مثل Nvidia لاستخدامها في أحدث منتجاتها التي تتطلب أداء عال وكفاءة جيدة في الطاقة.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)