• اأنواع لشّبكات العصبونيّة - حبر أون لاين

أنواع الشّبكات العصبونيّة

نحاول من خلال هذا المقال مساعدتكم في فهم مختلف أنواع الشّبكات العصبونيّة شائعة الاستخدام، وكيفيّة عمل كلّ منها.

الشّبكات العصبونيّة الاصطناعيّة (Artificial Neural Network):

مستوحاة من الخلايا العصبيّة البيولوجيّة داخل جسم الإنسان، والّتي تتنشّط في ظلّ ظروف معيّنة ممّا يؤدّي إلى إجراءات ذات صلة يقوم بها الجسم استجابة لذلك.

تتكوّن الشّبكات العصبيّة الاصطناعيّة من طبقات مختلفة من الخلايا العصبيّة الاصطناعيّة المترابطة الّتي تعمل بوظائف التّنشيط Activation Functions الّتي تساعد في تشغيلها / إيقاف تشغيلها.

مثل خوارزميّات الآلة التّقليديّة، هناك قيم معيّنة تتعلّمها الشّبكات العصبيّة في مرحلة التّدريب.

باختصار ، تتلقّى كلّ خليّة عصبيّة إصدارًا مضاعفًا من المدخلات والأوزان العشوائيّة الّتي تضاف بعد ذلك بقيمة تحيّز ثابتة (فريدة لكلّ طبقة عصبيّة).

ثمّ يتمّ تمريرها إلى وظيفة التّنشيط المناسبة الّتي تحدّد القيمة النّهائيّة الّتي سيتمّ إعطاؤها من الخلايا العصبية .

يوجد مجموعة من وظائف التّنشيط المختلفة يتم اختيار أحدها وفقًا لطبيعة المدخلات. وبعد حساب خرج الشّبكة يتم حساب دالّة الخسارة Loss Funtion (المدخلات مقابل المخرجات) ويتم تنفيذ backpropagation حيث يتم تعديل الأوزان للوصول إلى الحدّ الأدنى للخسارة.

إنّ العثور على القيم المثلى للأوزان هو ما تركّز عليه العمليّة الكليّة. – الأوزان عبارة عن قيم رقميّة يتمّ ضربها في المدخلات.

في backpropagation ، يتم تعديلها لتقليل الخسارة. بكلمات بسيطة، الأوزان هي قيم تمّ تعلّمها آليّاً من الشّبكات العصبية. يتم ضبطهم ذاتيّاً اعتماداً على الفرق بين المخرجات المتوقّعة و مدخلات التّدريب.

الشّبكات العصبونيّة Neural networks

 

  1. وظيفة التّنشيط Activation Functions: هي صيغة رياضيّة تساعد الخلايا العصبيّة على التّبديل بين التّشغيل / الإيقاف.

الشّبكات العصبونيّة Neural networks

 

  1. طبقة المدخلات Input Layer: تحتوي عدداً من العقد (العصبونات) الّتي تمثّل عدد المتغيّرات المستقلّة (مدخلات الشّبكة)، يمكن أن تكون بيانات كميّة أو نوعيّة أو تكون مخرجات لوحدات معالجة أخرى.
  2. الطّبقات المخفيّة Hidden Layers: تمثّل العقد الوسيطة الّتي تقسم مساحة الإدخال إلى مناطق ذات حدود. تأخذ من مجموعة من المدخلات الموزونة وتنتج مخرجات من خلال وظيفة التّنشيط.
  3. طبقة المخرجات Output Layer: : المستوى الأخير في الشّبكة العصبونيّة الاصطناعيّة تمثّل مخرجاتها حلّ المشكلة الّتي صمّمت الشّبكة لأجلها (ناتج الشّبكة العصبيّة).

أنواع الشّبكات العصبونيّة(Types of Neural Networks):

هناك العديد من أنواع الشّبكات العصبونيّة المتاحة أو الّتي قد تكون في مرحلة التّطوير. يمكن تصنيفها اعتمادًا على: الهيكل ، وتدفّق البيانات ، والخلايا العصبيّة المستخدمة وكثافتها ، والطّبقات، إلخ.

الشّبكات العصبونيّة Neural networks

سنناقش مجموعة من الشّبكات العصبونيّة:

Perceptron

الشّبكات العصبونيّة Neural networks

 

نموذج بيرسبترون ، الّذي اقترحه Minsky-Papert وهو واحد من أبسط نماذج الشّبكة وأقدمها. إنّه أصغر وحدة في الشّبكة العصبونيّة تقوم بحسابات معيّنة لاكتشاف الميزات أو ذكاء الأعمال في بيانات الإدخال.

يقبل المدخلات الموزونة ، ويطبّق وظيفة التّنشيط للحصول على المخرجات كنتيجة نهائيّة. يُعرف بيرسبترون أيضًا باسم TLU (وحدة منطق العتبة).

بيرسبترون هي خوارزميّة تعلُّم خاضعة للإشراف تصنّف البيانات إلى فئتين ، وبالتّالي فهي عبارة عن مصنّف ثنائي. يقسم المدرك مساحة الإدخال إلى فئتين ممثّلة بالمعادلة التّالية:

الشّبكات العصبونيّة Neural networks

 

مزايا بيرسبترون:

  1. يمكن لـبيرسبترون تنفيذ Logic Gates مثل AND أو OR أو NAND

عيوب بيرسبترون:

  1. يمكن أن تتعلّم بيرسبترون فقط المشكلات القابلة للفصل خطيًّا مثل مشكلة AND المنطقيّة. بالنّسبة للمشكلات غير الخطيّة مثل مشكلة XOR المنطقيّة ، فإنّها لا تعمل.

Feed Forward Neural Networks

الشّبكات العصبونيّة Neural networks

تطبيقات على شبكات التّغذية الأماميّة:

  1. تصنيف بسيط (حيث توجد قيود على خوارزميّات التّصنيف القائمة على التّعلّم الآلي).
  2. التّعرّف على الوجه [معالجة بسيطة ومباشرة للصّور].
  3. التّعرّف على الكلام.

أبسط أشكال الشّبكات العصبونيّة حيث تنتقل بيانات الإدخال في اتّجاه واحد فقط، مروراً بالعقد العصبيّة الاصطناعيّة وتخرج من خلال عقد الإخراج.

عندما تكون الطّبقات المخفيّة موجودة أو غير موجودة، يوجد لدينا طبقة إدخال وإخراج. بناءً على ذلك، يمكن تصنيفها أيضًا على أنّها شبكة عصبيّة تلقائيّة أحاديّة الطّبقة أو متعدّدة الطّبقات.

يعتمد عدد الطّبقات على مدى تعقيد الوظيفة، لها انتشار أمامي أحادي الاتّجاه ولكن لا يوجد انتشار عكسي، تكون الأوزان ثابتة.

يتمّ تغذية وظيفة التّنشيط من خلال المدخلات الّتي يتمّ ضربها بالأوزان للقيام بذلك. إنّها سهلة الصّيانة إلى حدّ ما ومجهّزة للتّعامل مع البيانات الّتي تحتوي على الكثير من الضّوضاء.

مزايا شبكات التّغذية الأماميّة:

  1. أقل تعقيدًا وسهولة في التّصميم والصّيانة.
  2. سريعة [نشر أحادي الاتّجاه].
  3. استجابة عالية للبيانات الصّعبة.

عيوب تغذية الشّبكات العصبونيّة إلى الأمام:

  1. لا يمكن استخدامها للتعلّم العميق [بسبب عدم وجود طبقات كثيفة والانتشار الخلفي]

Multilayer Perceptron

الشّبكات العصبونيّة Neural networks

 

تطبيقات على شبكات بيرسبترون متعدّدة الطّبقات:

  1. التّعرّف على الكلام.
  2. التّرجمة الآليّة.
  3. التّصنيفات المعقّدة.

هي نقطة دخول نحو الشّبكات العصبونيّة المعقّدة حيث تنتقل بيانات الإدخال عبر طبقات مختلفة من الخلايا العصبيّة الاصطناعيّة.

كلّ عقدة متّصلة بجميع الخلايا العصبيّة في الطّبقة التّالية ممّا يجعلها شبكة عصبيّة متّصلة بالكامل. يوجد طبقات إدخال وإخراج و طبقات متعدّدة مخفيّة.

أي ما لا يقلّ عن ثلاث طبقات أو أكثر في المجموع. لها انتشار ثنائي الاتجاه، أي انتشار أمامي وانتشار عكسي.

تُضرب المدخلات بالأوزان وتُغذّى بوظيفة التّنشيط وفي backpropagation، يتمّ تعديلها لتقليل الخسارة.

بكلمات بسيطة ، الأوزان هي قيم تمّ تعلّمها آليّاً من الشّبكات العصبيّة، يضبطون ذاتيّاً اعتماداً على الفرق بين المخرجات المتوقّعة مقابل مدخلات التّدريب. يتم استخدام وظائف التّنشيط اللاخطّي متبوعة بـ softmax كوظيفة تنشيط طبقة الإخراج.

مزايا بيرسبترون متعدّدة الطّبقات:

  1. تستخدم للتّعلّم العميق [بسبب وجود طبقات كثيفة متّصلة بالكامل وانتشار خلفي]

عيوب بيرسبترون متعدّدة الطّبقات:

  1. معقدّة نسبيًّا في التّصميم والصّيانة.
  2. بطيء نسبيًّا (يعتمد على عدد الطّبقات المخفيّة).

Convolutional Neural Network

الشّبكات العصبونيّة Neural networks

 

تطبيقات الشّبكة العصبونيّة الالتفافيّة:

  1. معالجة الصّورة.
  2. الرّؤية الحاسوبيّة.
  3. التّعرّف على الكلام.
  4. التّرجمة الآليّة.

تحتوي الشّبكة العصبونيّة الالتفافيّة على ترتيب ثلاثيّ الأبعاد للخلايا العصبيّة، بدلاً من المصفوفة القياسيّة ثنائيّة الأبعاد.

الطّبقة الأولى تسمّى الطّبقة التّلافيفيّة، تعالج كلّ خليّة عصبيّة في الطّبقة التّلافيفيّة المعلومات من جزء صغير من المجال البصري فقط.

يتمّ أخذ ميزات الإدخال على دفعات، تتفهّم الشّبكة الصّور في أجزاء ويمكنها حساب هذه العمليّات عدّة مرّات لإكمال المعالجة الكاملة للصّور.

تتضمّن المعالجة تحويل الصّورة من مقياس RGB أو HSI إلى مقياس رمادي. ستساعد زيادة التّغييرات في قيمة البكسل على اكتشاف الحواف ويمكن تصنيف الصّور إلى فئات مختلفة.

يعتبر الانتشار أحادي الاتّجاه حيث تحتوي CNN على طبقة تلافيفيّة واحدة أو أكثر متبوعة بالتّجميع وثنائي الاتّجاه حيث ينتقل ناتج طبقة الالتواء إلى شبكة عصبيّة متّصلة بالكامل لتصنيف الصّور كما هو موضّح في الرّسم البياني أعلاه.

تستخدم المرشحات لاستخراج أجزاء معيّنة من الصّورة. في MLP، يتمّ ضرب المدخلات بالأوزان وتغذيتها بوظيفة التّنشيط.

يستخدم الالتفاف RELU ويستخدم MLP وظيفة التّنشيط غير الخطّيّة متبوعة بـ softmax. تُظهر الشّبكات العصبيّة الالتفافيّة نتائج فعّالة جدًّا في التّعرّف على الصّور والفيديو والتّحليل الدّلالي واكتشاف إعادة الصّياغة.

مزايا الشّبكة العصبونيّة الالتفافيّة:

  1. تستخدم للتّعلّم العميق مع القليل من البرمترات.
  2. برمترات أقلّ للتّعلّم مقارنة بالطّبقة المتّصلة بالكامل.

مساوئ الشّبكة العصبونيّة الالتفافيّة:

  1. معقّدة نسبيًّا في التّصميم والصّيانة
  2. بطيء نسبيًّا [يعتمد على عدد الطّبقات المخفيّة]

Radial Basis Neural Networks

الشّبكات العصبونيّة Neural networks

 

تتكوّن شبكة الأساس الشّعاعي من ناقل إدخال متبوع بطبقة من الخلايا العصبيّة RBF وطبقة إخراج بها عقدة واحدة لكلّ فئة.

يتمّ إجراء التّصنيف عن طريق قياس تشابه المدخلات مع نقاط البيانات من مجموعة التّدريب حيث تخزّن كلّ خليّة عصبيّة نموذجًا أوليًّا. سيكون هذا أحد الأمثلة من مجموعة التّدريب.

عندما يحتاج متّجه الإدخال الجديد [المتّجه n الّذي تحاول تصنيفه] إلى التّصنيف، فإنّ كلّ خليّة عصبيّة تحسب المسافة الإقليديّة بين المدخلات ونموذجها الأوليّ.

على سبيل المثال، إذا كان لدينا فئتان، أي الفئة أ والفئة ب، فإنّ المدخلات الجديدة المراد تصنيفها أقرب إلى نماذج الفئة أ من نماذج الفئة ب. وبالتّالي، يمكن تصنيفها كفئة أ.

تقارن كلّ خليّة عصبيّة RBF متّجه الإدخال بنموذجها الأوّلي وتخرج قيمة تتراوح من 0 إلى 1.

نظرًا لأنّ المدخلات تساوي النّموذج الأولي، فإنّ ناتج خليّة RBF هذه سيكون 1 ومع زيادة المسافة بين المدخلات والنّموذج الأوّلي للاستجابة تنخفض أسّيًا نحو الصّفر.

ويميل المنحنى النّاتج عن استجابة العصبون نحو منحنى الجرس النّموذجي. تتكوّن طبقة الإخراج من مجموعة من الخلايا العصبيّة [واحدة لكلّ فئة].

الشّبكات العصبونيّة Neural networks الشّبكات العصبونيّة Neural networks الشّبكات العصبونيّة Neural networks

 

 

 

من تطبيقاتها استعادة الطّاقة

أ. يحتاج Powercut P1 إلى الاستعادة أولاً.

ب. يجب استعادة Powercut P3 بعد ذلك، لأنّه يؤثّر على المزيد من المنازل.

ج. يجب استعادة Powercut P2 أخيرًا لأنّه يؤثّر على منزل واحد فقط.

Recurrent Neural Networks

تطبيقات الشبّكات العصبونيّة المتكرّرة:

  1. معالجة النّصوص مثل الاقتراح التّلقائي والتّدقيق النّحوي وما إلى ذلك.
  2. تحويل النّص إلى كلام.
  3. محدّد الصّور.
  4. تحليل المشاعر.
  5. التّرجمة.

تمّ تصميم الشّبكة العصبونيّة المتكرّرة لحفظ خرج الطّبقة، و إرجاعه إلى المدخلات للمساعدة في التّنبّؤ بنتيجة الطّبقة.

عادةً ما تكون الطّبقة الأولى عبارة عن شبكة عصبيّة للأمام متبوعة بطبقة شبكة عصبيّة متكرّرة حيث يتمّ تذكّر بعض المعلومات الّتي كانت تحتوي عليها في الخطوة الزّمنيّة السّابقة بوساطة وظيفة الذّاكرة.

يتم تنفيذ الانتشار الأمامي في هذه الحالة. يخزن المعلومات المطلوبة لاستخدامه في المستقبل. إذا كان التّنبؤ خاطئًا، يتمّ استخدام معدّل التّعلّم لإجراء تغييرات صغيرة. ومن ثمّ، جعله يزداد تدريجيّاً نحو إجراء التّنبّؤ الصّحيح أثناء الانتشار العكسي.

الشّبكات العصبونيّة Neural networks

 

مزايا الشّبكات العصبونيّة المتكرّرة:

  1. يمكن افتراض أنّ كلّ عيّنة تعتمد على البيانات التّاريخيّة، نموذج البيانات المتسلسلة.
  2. تستخدم مع طبقات الالتفاف لتوسيع فعاليّة البكسل.

عيوب الشّبكات العصبونيّة المتكرّرة:

  1. مشاكل التّلاشي والانفجار التّدريجي.
  2. قد يكون تدريب الشّبكات العصبيّة المتكرّرة مهمّة صعبة.
  3. من الصّعب معالجة البيانات المتسلسلة الطّويلة باستخدام ReLU كوظيفة تنشيط.

Improvement over RNN: LSTM (Long Short-Term Memory) Networks

الشّبكات العصبونيّة Neural networks

 

شبكات LSTM هي نوع من شبكات RNN الّتي تستخدم وحدات خاصّة بالإضافة إلى الوحدات القياسيّة.

تتضمّن وحدات LSTM “خليّة ذاكرة” يمكنها الاحتفاظ بالمعلومات في الذّاكرة لفترات طويلة من الزّمن.

تُستخدم مجموعة من البوّابات للتّحكّم في وقت دخول المعلومات إلى الذّاكرة عند إخراجها ونسيانها.

هناك ثلاثة أنواع من البوّابات، بوّابة الإدخال وبوّابة الإخراج وبوّابة النّسيان. تحدّد بوّابة الإدخال عدد المعلومات من العيّنة الأخيرة الّتي سيتمّ حفظها في الذّاكرة؛

تنظّم بوّابة الإخراج كميّة البيانات الّتي يتمّ تمريرها إلى الطّبقة التّالية، وتنسى أنّ البوّابات تتحكّم في معدّل تمزّق الذّاكرة المخزّنة. تتيح لهم هذه البنية تعلّم التّبعيّات طويلة المدى.

الشّبكات العصبونيّة Neural networks

 

هذا أحد تطبيقات خلايا LSTM، توجد العديد من البنى الأخرى.

Sequence to sequence models

الشّبكات العصبونيّة Neural networks

 

يتكوّن نموذج التّسلسل من شبكتين عصبونيّتين متكرّرتين. هنا، يوجد برنامج تشفير يعالج المدخلات ووحدة فكّ ترميز تعالج الإخراج.

يعمل المشفّر وفكّ التّشفير في وقت واحد – إمّا باستخدام نفس البرمتر أو باستخدام برمترات مختلفة. هذا النموذج، على عكس RNN الفعلي، قابل للتّطبيق بشكل خاص في تلك الحالات الّتي يكون فيها طول بيانات الإدخال مساويًا لطول بيانات الإخراج.

في حين أنّها تمتلك مزايا وقيود مماثلة لـ RNN ، يتم تطبيق هذه النّماذج عادةً بشكل أساسي في روبوتات المحادثة والتّرجمات الآليّة وأنظمة الإجابة على الأسئلة.

Modular Neural Network

تطبيقات الشّبكة العصبونيّة المعياريّة:

  1. أنظمة التّنبؤ بسوق الأوراق الماليّة.
  2. MNN التّكيفيّة للتّعرّف على الشّخصيّة.
  3. ضغط بيانات الإدخال عالية المستوى.

تحتوي الشّبكة العصبونيّة المعياريّة على عدد من الشّبكات المختلفة الّتي تعمل بشكل مستقلِّ وتؤدّي مهاماً فرعيّة.

لا تتفاعل الشّبكات المختلفة مع بعضها البعض أو تشير إلى بعضها أثناء عمليّة الحساب. يعملون بشكل مستقلّ من أجل تحقيق المخرجات.

الشّبكات العصبونيّة Neural networks

 

نتيجة لذلك، تتم عمليّة حسابيّة كبيرة ومعقّدة بشكل أسرع من خلال تقسيمها إلى مكوّنات مستقلّة. تزداد سرعة الحساب لأنّ الشّبكات لا تتفاعل أو حتّى متّصلة ببعضها البعض.

مزايا الشّبكة العصبونيّة المعياريّة:

  1. فعّالة.
  2. تدريب مستقل.
  3. المتانة.

عيوب الشّبكة العصبونيّة المعياريّة:

  1. تحريك مشاكل الهدف.

****

إعداد: فداء مهندس.

تدقيق لغوي: نور رجب.

تصميم غرافيك: فريق حبر غرافيك.

****

واقرأ أيضاً في حبر علوم:

وأخيراً.. وجد علماء الرّياضيّات الصّيغة الأفضل لـ ” فقاعة ” الصّابون المثاليّة

جائزة نوبل في الطب لعام 2018 تحارب مرض السّرطان

DNA المضيء ودوره في الكشف عن البروتين السّكّري!

الكيميرا في جسم الإنسان.. عند من توجد.. كيف توجد.. وما دورها؟

الكيميرا البشريّة/ الحيوانيّة .. هل يمكنها صنع أعضاء بشريّة؟!

****

تابع حبرنا عبر

twitter    instagram   facebook

التعليقات غير مفعلة