رقائق التعلم العميق Deep learning chips

م.م عصام حامد عباس
كلية علوم الحاسوب وتكنولوجيا المعلومات

نظرة عامة
التعلم العميق هو مجموعة فرعية من التعلم الآلي machine learning والذي يعتبر جزءاً من الذكاء الاصطناعي AI والغرض منه هو أداء مهام متعلقة بالذكاء الاصطناعي. وظيفة التعلم العميق machine learning هو محاكاة العقل البشري للتغلغل في العديد من الصناعات حول العالم . حيث يتم تطبيق هذه التكنولوجيا من خلال عدة برامج Software مثل رؤية الكمبيوتر computer vision،كذلك voice recognition تمميز الأصوات ، machine translator ترجمة الالة ، game playing الالعاب الالكترونية و Robotics الروبرتات . رقائق التعلم العميق machine learning chips هي عبارة عن رقائق سيلكون متخصصة والتي تدمج الذكاء الاصطناعي وتكنولوجيا التعلم الالي. ادى ظهور وتطور الحوسبة الكمية quantum computer والتغير المعزز لرقائق التعلم العميق في مجال الروبرتات Robotics الى نمو الطلب عليها في السوق العالمي. الهدف الرئيسي من هذه الرقائق هو تجهيز كفاءة واداء عالي لخوارزميات التعلم العميق machine learning اكثر بكثير من وحدات المعالجة المركزية CPUs المستخدمة حالياً في الحواسيب الشخصية Personal computers وكذلك اسرع من وحدات معالجة الرسومات GPUs . في الغالب Deep learning chips توظف ارقام عالية من مكونات الحوسبة لتوظيف مستوى عالي من البيانات المتوازية High data-level parallelism نسبيا اكبر على رقائق الذاكرة المؤقتة لغرض توظيف انماط اعادة استخدام البيانات والتقليل من عمليات البيانات بشكل عام .
مكونات رقائق التعلم العميقcomponents Deep learning chips
البنا التحتية للأجزاء المادية Hardware لهذه الرقائق تتكون من ثلاثة اجزاء رئيسية هي الحوسبةcomputing ، الخزنstorage ، والشبكات networking. بينما تطورت سرعة الحوسبة او المعالجة بسرعة ملحوظة في السنوات الاخيرة ، يبدو ان هناك حاجة الى مزيد من الوقت لتطوير الية الخزن وتحديث الشبكات networking upgrade. شركات الاجزاء المادية العملاقة مثل IBM, Nvidia, و Apple تتنافس لتحسين الخزن ونمذجة الشبكات لمعمارية الاجزاء المادية لهذه الرقائق. كذلك هذه الرقائق تتضمن وحدات معالجة الرسومات GPUs, مصفوفات البوابة القابلة للبرمجة FPGAs والدوائر المتكاملة الخاصة بالتطبيقات ASICs والتي تركز خصيصا على الذكاء الاصطناعي AI. بالإضافة الى ذلك تحتوي هذه الرقائق على وحدات المعالجة المركزية CPUs والتي تستخدم في مهام الذكاء الاصطناعي البسيطة. كما تطورت وحدات المعالجة المركزية CPUs كذلك فان رقائق التعلم العميق قد تطورت بشكل كبير في السنوات الاخيرة. حيث اكتسبت سرعة أكبر وكفاءة أكثر، وأصبحت قادرة على اكمال الحسابات والمهام بسرعة اكبر وطاقة اقل من خلال استخدام عدد كبير جدا من الترانزستورات الصغيرة والتي تعمل بسرعة اكبر وتستهلك طاقة اقل من الترانزستورات الكبيرة.
لماذا تعتبر رقائق التعلم العميق ضرورية للذكاء الاصطناعي
السبب الرئيسي لأهمية هذه الرقائق هو ميزاتها الفريدة. حيث تعتبر هذه الرقائق اسرع بآلاف المرات وأكثر كفاءة من وحدات المعالجة المركزية التقليدية CPUs المستخدمة في الحواسيب الشخصية مما ينعكسا على كفاءة وسرعة خوارزميات الذكاء الاصطناعي . كذلك تعتبر رقائق الذكاء الاصطناعي الحديثة اكثر فعالية من حيث التكلفة بشكل كبير اكثر من وحدات المعالجة المركزية الحديثة CPUs كنتيجة لفعاليتها الكبيرة في خوارزميات الذكاء الاصطناعي .رقائق التعلم العميق اكثر كفاءة بآلاف المرات من وحدات المعالجة المركزية CPUs التقليدية  بما يساوي ٢٦ سنة من التقدم مقارنة بكفاءة وحدات المعالجة المركزية CPUs حسب قانون مورس Moore’s Law. لا تتطلب انظمة الذكاء الاصطناعي المتطورة شرائح خاصة بها فحسب بل تتطلب احدث شرائح الذكاء الاصطناعي. شرائح الذكاء الاصطناعي القديمة مع حجمها الكبير وبطئها في تنفيذ المهام واستهلاكها العالي للطاقة ادت الى عدم القدرة على شرائها. بسبب ذلك استخدام شرائح الذكاء الاصطناعي القديمة في الوقت الحالي يعني كلفة اكبر والتباطؤ بدرجة اكبر من تلك المستخدمة في رقائق الذكاء الاصطناعي الحديثة. التكلفة العالية والتباطؤ في السرعة تجعل من المستحيل عمليا تطوير ونشر خوارزميات الذكاء الاصطناعي المتطورة بدون استخدام رقائق الذكاء الاصطناعي الحديثة. حتى مع احدث انواع شرائح الذكاء الاصطناعي يمكن ان يكلف تدريب خوارزميات الذكاء الاصطناعي عشرات الملايين من الدولارات ويستغرق اسابيع حتى تكتمل. في الواقع في افضل مختبرات الذكاء الاصطناعي AI يتم تخصيص جزء كبير من اجمالي الانفاق على الحوسبة المرتبطة بالذكاء الاصطناعي. مع الرقائق ذات الاغراض العامة مثل وحدات المعالجة المركزية CPUs او حتى رقائق الذكاء الاصطناعي الاقدم سيستغرق هذا التدريب وقتا اطول بكثير لا نجازه وبتكلفة اكبر. هذا يؤدي عمليا الى البقاء في حدود البحث والنشر امرا مستحيلًا تقريبا. وبالمثل فان اجراء الاستدلال باستخدام شرائح اقل تقدما او اقل تخصصا قد ينطوي على تجاوزات مماثلة في التكلفة والوقت.

References

[1] AI An, 2020. AI Chips: What They Are and Why They Matter.
[2] Tianshi Chen, Zidong Du, Ninghui Sun, Jia Wang, Chengyong Wu, Yunji Chen, and Olivier Temam, 2014. Diannao: A small-footprint high-throughput accelerator for ubiquitous machine-learning. ACM SIGARCH Computer Architecture News 42, 1, 269-284.
[3] Norman P Jouppi, Cliff Young, Nishant Patil, David Patterson, Gaurav Agrawal, Raminder Bajwa, Sarah Bates, Suresh Bhatia, Nan Boden, and Al Borchers, 2017. In-datacenter performance analysis of a tensor processing unit. In Proceedings of the 44th annual international symposium on computer architecture, 1-12.
[4] Ganghong Zhang, Chao Huo, and Jianan Yuan, 2019. Deep learning chips: challenges and opportunities for ubiquitous power internet of things. In Proceedings of the 5th International Conference on Communication and Information Processing, 305-312.

.