ماهو التعلّم العميق في الذكاء الصنعي؟

التعلم العميق (المعروف أيضًا باسم التعلم المنظم العميق) هو جزء من مجموعة أوسع من تقنيات التعلم الآلي القائمة على الشبكات العصبية الاصطناعية مع التعلم التمثيلي. يمكن أن يكون التعلم تحت إشراف أو شبه خاضع للإشراف أو بدون إشراف.

تم تطبيق بنيات التعلم العميق مثل الشبكات العصبية العميقة وشبكات المعتقدات العميقة والتعلم المعزز العميق والشبكات العصبية المتكررة والشبكات العصبية التلافيفية في مجالات تشمل رؤية الكمبيوتر والتعرف على الكلام ومعالجة اللغة الطبيعية والترجمة الآلية والمعلوماتية الحيوية وتصميم الأدوية والطبية برامج تحليل الصور وفحص المواد وألعاب الطاولة ، حيث أسفرت عن نتائج مماثلة وفي بعض الحالات تفوق أداء الخبراء البشريين.

تم استلهام فكرة الشبكات العصبية الاصطناعية (ANNs) من معالجة المعلومات وعقد الاتصال الموزعة في الأنظمة البيولوجية. تمتلك ANN اختلافات عن العقول البيولوجية (دماغ الأنسان). على وجه التحديد ، تميل الشبكات العصبية إلى أن تكون ثابتة ورمزية ، بينما يكون الدماغ البيولوجي لمعظم الكائنات الحية ديناميكيًا وتناظريًا.

ماذا يعني عميق في التعلم العميق؟

تشير صفة “عميق” في التعلم العميق إلى استخدام طبقات متعددة في الشبكة. أظهرت الأبحاث أن المدرك الخطي Linear Perception لا يمكن أن يكون مصنفًا عالميًا ، ولكن يمكن لشبكة ذات وظيفة تنشيط غير متعددة الحدود مع طبقة واحدة مخفية ذات عرض غير محدود. التعلم العميق هو تباين حديث يهتم بعدد غير محدود من الطبقات ذات الحجم المحدود ، والذي يسمح بالتطبيق العملي والتنفيذ الأمثل ، مع الحفاظ على الشمولية النظرية في ظل ظروف معتدلة.

في التعلم العميق ، يُسمح أيضًا للطبقات بأن تكون غير متجانسة وأن تنحرف على نطاق واسع عن نماذج الاتصال المستنيرة بيولوجيًا ، من أجل الكفاءة وقابلية التدريب والفهم ، ومن هنا يأتي الجزء “المنظم”.

التعريف الرياضي للتعلم العميق

التعلم العميق هو فئة من خوارزميات التعلم الآلي التي تستخدم طبقات متعددة لاستخراج ميزات ذات مستوى أعلى تدريجيًا من المدخلات الأولية. على سبيل المثال ، في معالجة الصور ، قد تحدد الطبقات السفلية الحواف ، بينما قد تحدد الطبقات العليا المفاهيم ذات الصلة بالإنسان مثل الأرقام أو الحروف أو الوجوه.

تعتمد معظم نماذج التعلم العميق الحديثة على الشبكات العصبية الاصطناعية ، وتحديداً الشبكات العصبية التلافيفية (CNN) ، على الرغم من أنها يمكن أن تتضمن أيضًا صيغًا مقترحة أو متغيرات كامنة منظمة على مستوى الطبقات في النماذج التوليدية العميقة مثل العقد في شبكات المعتقدات العميقة و آلة Boltzmann.

في التعلم العميق ، يتعلم كل مستوى تحويل بيانات الإدخال إلى تمثيل أكثر تجريدًا وتركيبًا. في تطبيق التعرف على الصور ، قد يكون الإدخال الأولي عبارة عن مصفوفة من وحدات البكسل ؛ قد تجرد الطبقة التمثيلية الأولى البيكسلات وتشفر الحواف ؛ قد تؤلف الطبقة الثانية وترميز ترتيبات الحواف ؛ قد تشفر الطبقة الثالثة الأنف والعينين ؛ وقد تتعرف الطبقة الرابعة على أن الصورة تحتوي على وجه. الأهم من ذلك ، يمكن لعملية التعلم العميق معرفة الميزات التي يجب وضعها على النحو الأمثل في أي مستوى بمفردها. هذا لا يلغي الحاجة إلى الضبط اليدوي تمامًا ؛ على سبيل المثال ، يمكن أن توفر أعداد مختلفة من الطبقات وأحجام الطبقات درجات مختلفة من التجريد.

تشير كلمة “عميق” في “التعلم العميق” إلى عدد الطبقات التي يتم من خلالها تحويل البيانات. بتعبير أدق ، تتمتع أنظمة التعلم العميق بعمق كبير في مسار تعيين الائتمان (CAP) . CAP هو سلسلة التحولات من المدخلات إلى المخرجات. يصف CAP العلاقات السببية المحتملة بين المدخلات والمخرجات. بالنسبة للشبكة العصبية المغذية ، يكون عمق CAP هو عمق الشبكة وهو عدد الطبقات المخفية زائد واحد (حيث يتم تحديد معلمات طبقة الإخراج أيضًا).

بالنسبة للشبكات العصبية المتكررة ، التي قد تنتشر فيها إشارة عبر طبقة أكثر من مرة ، فإن عمق CAP غير محدود على الأرجح. لا يوجد حد متفق عليه عالميًا للعمق يقسم التعلم الضحل من التعلم العميق ، ولكن يتفق معظم الباحثين على أن التعلم العميق يتضمن عمق CAP أعلى من 2. وقد ثبت أن CAP للعمق 2 هو مقارب عالمي بمعنى أنه يمكنه محاكاة أي وظيفة .أبعد من ذلك ، لا تضيف المزيد من الطبقات إلى قدرة مقرب الوظيفة للشبكة. النماذج العميقة (CAP> 2) قادرة على استخراج ميزات أفضل من النماذج الضحلة ، وبالتالي تساعد الطبقات الإضافية في تعلم الميزات بشكل فعال.

يمكن بناء معماريات التعلم العميق باستخدام طريقة طبقة تلو الطبقة. يساعد التعلم العميق على فصل هذه الأفكار التجريدية واختيار الميزات التي تعمل على تحسين الأداء.

بالنسبة لمهام التعلم الخاضعة للإشراف ، تلغي أساليب التعلم العميق هندسة الميزات Feature Engineering ، عن طريق ترجمة البيانات إلى تمثيلات وسيطة مضغوطة تشبه المكونات الرئيسية ، واشتقاق الهياكل ذات الطبقات التي تزيل التكرار في التمثيل.

يمكن تطبيق خوارزميات التعلم العميق على مهام التعلم غير الخاضعة للإشراف. هذه فائدة مهمة لأن البيانات غير المصنفة أكثر وفرة من البيانات المصنفة. من أمثلة الهياكل العميقة التي يمكن تدريبها بطريقة غير خاضعة للإشراف ضواغط التاريخ العصبي وشبكات المعتقدات العميقة.