لماذا هناك حاجة إلى GPU لتدريب الذكاء الاصطناعي

مع طفرة الذكاء الاصطناعي التي أحدثها ChatGPT، أصبحت وحدات معالجة الرسوميات حجر الزاوية في منصات تدريب النماذج الكبيرة للذكاء الاصطناعي، ويمكن حتى القول إنها القاعدة الحسابية الحاسمة. للإجابة على سؤال حول سبب الحاجة إلى وحدة معالجة الرسومات لتدريب الذكاء الاصطناعي، من الضروري فهم التقنيات الأساسية في الذكاء الاصطناعي (AI) والتعلم العميق.

الذكاء الاصطناعي والتعلم العميق

الذكاء الاصطناعي هو مجال له تاريخ طويل. منذ خمسينيات القرن العشرين، تم استكشافها في اتجاهات تكنولوجية مختلفة، وشهدت عدة قمم وقيعان. لقد أدت الأيام الأولى للذكاء الاصطناعي إلى ظهور نوع غير ناجح إلى حد ما يُعرف باسم "الشبكات العصبية الاصطناعية". كان المفهوم الكامن وراء هذه التكنولوجيا هو أن ذكاء الدماغ البشري لا مثيل له، ولتحقيق الذكاء الاصطناعي المتقدم، فإن محاكاة الدماغ البشري هي المفتاح. يتكون الدماغ البشري من مليارات الخلايا العصبية المترابطة لتشكل شبكة عصبية واسعة ومعقدة. إن دماغ الطفل يشبه لوحًا فارغًا يمكنه، من خلال التعلم بعد الولادة، تحقيق مستويات عالية من الذكاء.

الخلايا العصبية البيولوجية إلى الخلايا العصبية الاصطناعية

تم تصميم نماذج الخلايا العصبية الاصطناعية لاستخلاص الإلهام من الخلايا العصبية في الدماغ البشري. في الخلايا العصبية الاصطناعية الموجودة على الجانب الأيمن من المخطط، يؤدي ضبط وزن كل مدخل ومعالجته من خلال الخلية العصبية إلى الحصول على المخرجات المقابلة. ويشار إلى كل وزن في هذا السياق كمعلمة.

شبكة اعصاب صناعية

يؤدي توصيل خلايا عصبية متعددة مثل هذا لتشكيل شبكة إلى إنشاء شبكة عصبية اصطناعية. تتكون الشبكات العصبية الاصطناعية عادةً من طبقة إدخال وعدة طبقات مخفية بينها وطبقة إخراج.

إن مثل هذه الشبكات العصبية الاصطناعية أشبه بدماغ الطفل، فهو فارغ ويحتاج إلى تغذية كبيرة بالبيانات حتى يتمكن من التعلم بشكل شامل لاكتساب المعرفة اللازمة لحل المشكلات بشكل عملي. تُعرف هذه العملية باسم "التعلم العميق" وتندرج ضمن مجموعة فرعية من "التعلم الآلي".

تعلم

في نهج "التعلم الخاضع للإشراف" شائع الاستخدام، يجب أن تحتوي البيانات التي يتم تغذيتها إلى الذكاء الاصطناعي على المشكلة والإجابة. على سبيل المثال، إذا كان الهدف هو تدريب الذكاء الاصطناعي على اكتشاف ما إذا كانت الصورة تحتوي على قطة، فنحن بحاجة إلى تزويد الذكاء الاصطناعي بالعديد من الصور المصنفة على أنها تحتوي على قطة، إلى جانب السمات المميزة للقطط. سيستخدم الذكاء الاصطناعي بعد ذلك هذه الأمثلة لمعرفة أنماط وخصائص القطط.

تبدأ عملية التعلم بتحليل الذكاء الاصطناعي لصورة معينة باستخدام مجموعة المعلمات الأولية الخاصة بها. ثم يقارن استنتاجه بالإجابة الصحيحة ويضبط أوزان المعلمات وفقًا لذلك. تستمر هذه العملية التكرارية حتى تتطابق مخرجات الذكاء الاصطناعي بشكل وثيق مع الإجابة الصحيحة.

عملية التعلم للشبكة العصبية

وتسمى عملية التعلم هذه بالتدريب. بشكل عام، سيؤدي تزويد الذكاء الاصطناعي بكمية كبيرة من البيانات ذات الإجابات الصحيحة المعروفة إلى نتائج تدريب أفضل. بمجرد رضانا عن التدريب، يمكننا اختبار أداء الذكاء الاصطناعي في مشاكل غير معروفة. إذا تمكن الذكاء الاصطناعي من العثور على الإجابات بدقة، فإننا نعتبر التدريب ناجحًا، وقد أظهر الذكاء الاصطناعي قدرات "تعميم" جيدة.

شبكة عصبية بسيطة

كما هو موضح في الرسم البياني، فإن نقل أوزان المعلمات من طبقة واحدة من الشبكة العصبية إلى الطبقة التالية هو في الأساس ضرب المصفوفة وجمعها. كلما زاد حجم معلمات الشبكة العصبية، زادت شمولية حسابات المصفوفة المطلوبة أثناء التدريب.

يمكن أن تحتوي الشبكات العصبية للتعلم العميق الأكثر تقدمًا على مئات الملايين إلى تريليونات من المعلمات، وتتطلب كميات هائلة من بيانات التدريب لتحقيق دقة عالية. وهذا يعني أنه يجب عليهم معالجة عدد هائل من عينات الإدخال من خلال الانتشار الأمامي والخلفي. وبما أن الشبكات العصبية مبنية من عدد كبير من الخلايا العصبية المتطابقة، فإن هذه الحسابات تكون متوازية للغاية بطبيعتها. نظرًا للمتطلبات الحسابية الهائلة، هل يجب أن نستخدم وحدة المعالجة المركزية (CPU) أم وحدة معالجة الرسومات (GPU)؟

CPU مقابل GPU

وحدة المعالجة المركزية (وحدة المعالجة المركزية) هي عقل الكمبيوتر، وهي جوهر النواة. ويتكون بشكل أساسي من وحدة المنطق الحسابي (ALU) لإجراء العمليات الحسابية ووحدة التحكم (CU) لإدارة تدفق البيانات والتعليمات.

وحدة المعالجة المركزية‏:

عند وصول البيانات، يتم تخزينها أولاً في الذاكرة. تقوم وحدة التحكم بعد ذلك باسترداد البيانات ذات الصلة من الذاكرة وتمريرها إلى وحدة ALU للمعالجة. بعد اكتمال الحساب، يتم تخزين النتيجة مرة أخرى في الذاكرة.

في الأيام الأولى، كانت وحدة المعالجة المركزية تحتوي على مجموعة واحدة من وحدات ALU وCU وذاكرة التخزين المؤقت، وكان يمكنها معالجة مهمة واحدة فقط في كل مرة. للتعامل مع مهام متعددة، سيتعين على وحدة المعالجة المركزية وضعها في قائمة الانتظار وتنفيذها بالتسلسل، ومشاركة الموارد.

التعامل مع مهام متعددة

لاحقًا، تم دمج مجموعات متعددة من ALU وCU وذاكرة التخزين المؤقت في شريحة واحدة، مما أدى إلى إنشاء وحدة معالجة مركزية متعددة النواة. تتمتع وحدات المعالجة المركزية متعددة النواة بقدرات معالجة متوازية حقيقية.

معالجات متعددة النواة

عادةً ما تحتوي وحدات المعالجة المركزية الحديثة على ما يتراوح بين عدد قليل إلى عشرات النوى. عندما أصبحت الهواتف الذكية منتشرة على نطاق واسع لأول مرة، أكد المصنعون بشدة على العدد الأساسي، مما أدى إلى "حرب أساسية" في سوق الهواتف الذكية. ومع ذلك، توقف سباق العد الأساسي هذا في النهاية، وركز مصنعو الرقائق على تحسين الأداء الأساسي.

لماذا لا تدمج وحدات المعالجة المركزية المزيد من النوى؟ وذلك لأن وحدة المعالجة المركزية هي معالج للأغراض العامة. مهامها معقدة للغاية، مما يتطلب منها التعامل مع أنواع مختلفة من حسابات البيانات والاستجابة للتفاعلات بين الإنسان والحاسوب. تتطلب إدارة المهام المعقدة وجدولتها وحدات تحكم أكثر تعقيدًا وذاكرة تخزين مؤقت أكبر للحفاظ على زمن وصول منخفض عند التبديل بين المهام. مع زيادة عدد النوى، يرتفع أيضًا حمل الاتصال بين النوى، مما قد يؤدي إلى انخفاض أداء النوى الفردية. بالإضافة إلى ذلك، فإن وجود المزيد من النوى يمكن أن يزيد من استهلاك الطاقة، وإذا لم يتم توزيع عبء العمل بالتساوي، فقد لا يتحسن الأداء العام، بل قد ينخفض.

GPU، خبير الحوسبة المتوازية

دعونا نتعمق في عالم GPU. تم تصميم وحدة معالجة الرسومات (GPU)، والمعروفة أيضًا باسم وحدة معالجة الرسومات، في الأصل لتخفيف العبء على وحدة المعالجة المركزية، وتسريع عرض الرسومات ثلاثية الأبعاد، المستخدمة بشكل شائع في بطاقات رسومات الكمبيوتر. معالجة الصور هي في الأساس شكل من أشكال الحوسبة المتوازية المكثفة التي تركز على المصفوفات. كما هو موضح في الرسم البياني أدناه، تتكون الصورة الموجودة على اليسار من عدة وحدات بكسل ويمكن تمثيلها بشكل طبيعي كمصفوفة على اليمين.

وحدة معالجة الرسومات

اكتسب مصطلح "GPU" شعبية في عام 1999 مع إطلاق Nvidia لـ GeForce256، وهو منتج يقوم بمعالجة كل نقطة بكسل في وقت واحد، وإجراء عمليات حسابية متوازية مكثفة رياضيًا مثل التحويلات الرسومية، والإضاءة، وقص المثلث لعرض الصور.

تنبع كفاءة وحدات معالجة الرسومات في التعامل مع الحوسبة المتوازية المكثفة من اختلافاتها المعمارية مقارنة بوحدات المعالجة المركزية. تحتوي وحدات المعالجة المركزية على عدد أقل من النوى، حيث يمتلك كل نواة ذاكرة تخزين مؤقت وافرة وقدرات حسابية قوية، إلى جانب دعم الأجهزة للعديد من تنبؤات فرع التسارع وحتى الأحكام المنطقية الأكثر تعقيدًا، مما يجعلها مناسبة للتعامل مع المهام المعقدة.

الفرق بين وحدة المعالجة المركزية ووحدة معالجة الرسومات

في المقابل، تعد وحدات معالجة الرسومات أكثر وضوحًا وقوة غاشمة؛ يتمتع كل نواة بقدرة حسابية محدودة وحجم ذاكرة تخزين مؤقت محدود، ويعتمد على زيادة عدد النوى لتحسين الأداء العام. مع وجود عدد أكبر من النوى، يمكن لوحدات معالجة الرسومات القيام بمهام متعددة بكفاءة من خلال معالجة حجم كبير من مهام الحوسبة المتوازية البسيطة.

يمكن لوحدات معالجة الرسومات القيام بمهام متعددة

مع مرور الوقت، تطورت وحدات معالجة الرسومات لتصبح أكثر تنوعًا وقابلة للبرمجة، مما أدى إلى توسيع وظائفها إلى ما هو أبعد من عرض الصور لتسريع الحوسبة عالية الأداء والتعلم العميق وأعباء العمل الأخرى. اغتنامًا للفرصة التي أتاحتها الزيادة في الطلب على الحوسبة المتوازية المدفوعة بالذكاء الاصطناعي، انتقلت وحدات معالجة الرسوميات من دورها المحيطي السابق لتحتل مركز الصدارة، وأصبحت مرغوبة للغاية. لقد تحول مصطلح "GPU" إلى GPGPU، للدلالة على GPU للأغراض العامة. إن الاستفادة من التوازي المتأصل في تدريب الذكاء الاصطناعي على وحدات معالجة الرسومات يعزز السرعة بشكل كبير مقارنة بالتدريب باستخدام وحدات المعالجة المركزية فقط، مما يجعلها المنصة المفضلة لتدريب الأنظمة القائمة على الشبكات العصبية المعقدة وواسعة النطاق. تتوافق الطبيعة الموازية لعمليات الاستدلال بشكل جيد مع التنفيذ على وحدات معالجة الرسومات. ومن ثم، يشار إلى القوة الحسابية التي توفرها وحدات معالجة الرسومات باعتبارها القوة الأساسية باسم "الحوسبة الذكية".

اترك تعليق

انتقل إلى الأعلى