مزدوج 1080 تي مقابل 2080 تي


الاجابه 1:

يحتوي RTX2018 على موتر النواة الذي سيتم استخدامه في الألعاب التي تدعم ميزة DSLL. Tensor-core هي ميزة يتم الإعلان عنها بقوة باستخدام Nvidia Volta GPU والتي تهدف إلى الاستخدام الاحترافي مثل التعلم العميق والتعلم الآلي.

يجب أن يترجم ذلك إلى أن GTX1080Ti ليست جيدة للاستخدام المهني.

مقتطف من موقع فوربس:

تكشف Nvidia أن RTX 2080 Ti هي ضعف سرعة GTX 1080 Ti. ... نوى Tensor في كل وحدة معالجة رسومات RTX قادرة على أداء معالجة الشبكة العصبية سريعة التعلم للغاية للغاية وتستخدم هذه التقنيات لتحسين أداء اللعبة وجودة الصورة.

أنصحك بالتحقق من مقالة timdettmers وهنا مقتطف ومخطط:

"بينما يعمل Tensor Cores فقط على إجراء الحساب بشكل أسرع ، إلا أنه يتيح أيضًا الحساب باستخدام أرقام 16 بت. هذه أيضًا ميزة كبيرة لمضاعفة المصفوفة لأنه مع الأرقام التي تكون 16 بت فقط بدلاً من 32 بت الكبيرة يمكن للمرء نقل ضعف عدد الأرقام في المصفوفة بنفس عرض النطاق الترددي للذاكرة. هذا التخفيض في حجم الذاكرة للأرقام مهم بشكل خاص لتخزين المزيد من الأرقام في ذاكرة التخزين المؤقت L1 التي تزيد من التسارع أكثر كلما كانت المصفوفات أكبر في مضاعفة المصفوفة. بشكل عام ، يمكن للمرء أن يأمل في تسريع من حوالي 20 ٪ إلى 60 ٪ لـ LSTMs باستخدام Tensor Cores.

لاحظ أن هذا التسريع لا يأتي من نوى Tensor في حد ذاته ، ولكن فقط من قدرتهم على إجراء حسابات 16 بت. ستكون خوارزمية 16 بت على وحدة معالجة الرسوميات AMD بنفس سرعة خوارزمية ضرب المصفوفة على بطاقة NVIDIA مع Tensor Cores.

هناك مشكلة كبيرة في Tensor Cores وهي أنها تتطلب بيانات إدخال نقطة عائمة 16 بت وقد يؤدي ذلك إلى ظهور بعض مشكلات دعم البرامج حيث تستخدم الشبكات عادةً قيم 32 بت. بدون مدخلات 16 بت سيكون Tensor Cores عديم الفائدة. ومع ذلك ، أعتقد أنه سيتم حل هذه المشكلات بسرعة نظرًا لأن Tensor Cores أقوى من أن تظل غير مستخدمة ، والآن بعد أن أصبحت متاحة لوحدات معالجة الرسوميات المخصصة للمستهلكين ، سنرى المزيد والمزيد من الأشخاص معهم. لاحظ أنه مع تقديم التعلم العميق 16 بت ، سنضاعف تقريبًا ذاكرة GPU لأن ضعف المعلمات تتناسب مع نفس الذاكرة. "

أرقام الأداء / التكلفة المعيارية التي تأخذ في الاعتبار عرض النطاق الترددي للذاكرة (RNNs) و TFLOPs (ConvNets) و Tensor Cores. أعلى أفضل. يعد جهاز RTX 2080 أكثر فعالية من حيث التكلفة بخمس مرات من جهاز Tesla V100.


الاجابه 2:

في

لامدا

، نحن نقدم محطات عمل Deep Learning وخوادم ومثيلات سحابية ، لذلك نحن نحاول دائمًا العثور على أجهزة التدريب الأكثر فعالية من حيث التكلفة. فيما يلي بعض النتائج على الأجهزة الحقيقية لـ 2080 Ti. للحصول على المنشور الكامل ، انظر هنا:

RTX 2080 معايير التعلم العميق

يمكنك أن ترى أن أداء FP32 بين 27٪ و 45٪ أسرع لـ 2080 Ti مقابل 1080 Ti. في حين أن أداء FP16 في الواقع أسرع بحوالي 65٪ (لـ ResNet-152).

TL ؛ د

  • إن تدريب الدقة المفردة RTX 2080 Ti (FP32) لشبكات CNN باستخدام TensorFlow أسرع بنسبة 27٪ و 45٪ من 1080 Ti للشبكات المقاسة.
  • تدريب RTX 2080 Ti نصف الدقة (FP16) لشبكات CNN باستخدام TensorFlow أسرع بين 60٪ و 65٪ من 1080 Ti للشبكات المقاسة.
  • إذا كنت تقوم بتدريب FP16 ، فربما يستحق RTX 2080 Ti المال الإضافي. إذا لم تفعل ذلك ، فسيتعين عليك التفكير فيما إذا كانت الزيادة في التكلفة بنسبة 71٪ تستحق متوسط ​​زيادة بنسبة 36٪ في الأداء.

مرة أخرى ، بالنسبة إلى مشاركة المدونة الكاملة والأساليب ورمز قياس الأداء ، يمكنك الاطلاع على مشاركة المدونة الأصلية:

RTX 2080 معايير التعلم العميق

.


الاجابه 3:

سأحصل على 1080ti. سيكون 2080 أسرع بشكل هامشي في FP32 (بشكل كبير في FP16) ، ولكن 1080ti لديه ذاكرة أكثر بنسبة 50٪ تقريبًا. إذا استمر تدريبك لفترة أطول قليلاً ، فما عليك سوى الانتظار. إذا كانت بياناتك لا تتناسب مع vram ، فأنت عالق.

علاوة على ذلك ، تذكر أنه يمكنك استخدام 1080ti في fp16 أيضًا ، وهذا سيعني 22 جيجابايت مقابل 16 جيجابايت.


الاجابه 4:

فقط غير المطلعين والأميين من الناحية التكنولوجية اشتروا NVIDIA (خاصة GTX / RTX) لأحمال العمل الاحترافية.

تسحق AMD NVIDIA تمامًا في هذا المجال. تعد بطاقات AMD أقوى بكثير ، حيث يمكنها تشغيل كل ما تستطيعه بطاقات NVIDIA GPU ، ولديها جميع البرامج مفتوحة المصدر.

معايير AMD tensorflow:

إذا كنت ترغب في شراء وحدة معالجة رسومات 8000 دولار (أو 1100 دولار في هذه الحالة) عندما يمكنك الحصول على نفس الأداء (ضعف الأداء في هذه الحالة) من وحدة معالجة رسومات 400 دولار ، فانتقل إليها.