ماهو التعلّم العميق Deep Learning ولماذا سميّ بهذا الاسم؟

التعلم العميق Deep Learning في الذكاء الصنعي هو أحد الاستخدامات الشهيرة والحديثة للشبكات العصبونية، إذا المعلومة الأولى في التعريف:

التعلم العميق هو أحد التصاميم الخاصة للشبكات العصبية Neural Networks ولايوجد تعلم عميق بدون شبكات عصبونية

الشبكات العصبونية تعمل بشكل مستوحى من عمل الدماغ البشري، حيث يحوي الدماغ البشري مليارات الخلايا العصبونية المتّصلة مع بعضها، كل خلية عصبية او “نيرون” تستقبل إشارة عصبية، تقوم بمعالجتها، ثم ترسل هذه الإشارة إلى الخلية العصبية التالية. هذا الإشارات العصبية تسمى ايضا سيالات عصبية وهي الطريقة العملية لانتقال المعلومات في أدمغتنا البشرية.

بشكل مشابه، عندما تحوي شبكة عصبونية ٣ طبقات: طبقة الدخل، طبقة الخرج, وطبقة وسيطة او مخفية، فإن كل طبقة تحوي خلايا عصبية تتصل مع الطبقات التالية.

الشبكات العصبية في التعلم العميق
الشبكات العصبية في التعلم العميق

طبقة الدخل: هي الطبقة التي تستقبل مدخلات الشبكة، عدد العقد في طبقة الدخل يعتمد على مدخلات النموذج الذي تقوم ببنائه مثل أبعاد البيانات التي تقوم بمعالجتها.

طبقة الخرج: هي الطبقة التي تقوم بإخراج ناتج عمل الشبكة العصبونية، عدد العقد في هذه الطبقة يعتمد على الصفوف الذي يقوم النموذج بحسابها.

الطبقة المخفية: هذه الطبقة تعمل بشكل مشابه للصندوق الأسود، حيث لا نعلم بالضبط مايحدث بداخلها، تكون هذه الطبقة مسؤولة عن إيجاد علاقة بين المدخلات و اكتشاف مزايا كل دخل، كل طبقة مخفية تكون مسؤولة عن وظيفة ما، مثلا عند معالجة الصور, يمكن أن تكون الطبقة المخفية الأولى مسؤولة عن اكتشاف الخطوط في هذه الصورة، بينما تكون الطبقة الثانية مسؤولة عن اكتشاف الألوان في الصورة، بينما يمكن أن تكون الطبقة الثالثة مسؤولة عن اكتشاف الكائنات في هذه الصورة وهكذا.

الآن، نعود إلى السؤال، لماذا سمي التعلم بالعميق؟ لان عدد الطبقات المخفية في الشبكات العصبونية كبير، وكلما زاد عدد الطبقات المخفية، كلما أصبح النموذج أكثر تعقيد وأكثر قدرة على اكتشاف تفاصيل أدق في الدخل.

 عمق، في التعلم العميق، تشير إلى أن الطبقات المخفية في الشبكة العصبونية ذات عمق كبير أي عددها كبير