1 00:00:04,940 --> 00:00:07,000 باسم الله والحمد لله والصلاة والسلام على رسول الله 2 00:00:07,000 --> 00:00:11,420 أهلا وسهلا بكم في محاضراتنا المستمرة في منصّة الـ data 3 00:00:11,420 --> 00:00:14,620 mining، وما زلنا في باب الـ classification أو في باب 4 00:00:14,620 --> 00:00:18,120 التصنيف. سنتكلم اليوم، أو في هذه المحاضرة إن شاء 5 00:00:18,120 --> 00:00:22,940 الله تعالى، عن Classifierٍ متقدمٍ جدًا، مستخدم بشكل 6 00:00:22,940 --> 00:00:26,500 كبير جدًا، وهو الـ Neural Network as Classifier أو 7 00:00:26,500 --> 00:00:30,000 بالتحديد الـ Back-propagation Neural Network. لـ 8 00:00:30,000 --> 00:00:33,740 أُخفيكم، كان عندي تردد: أشرحه أم أشرح الـ Support 9 00:00:33,740 --> 00:00:37,240 Vector Machine؟ كلاهما من المواضيع المتقدمة، و 10 00:00:37,240 --> 00:00:40,760 التي تحتاج إلى Optimization عالية. لكن قررتُ أن 11 00:00:40,760 --> 00:00:44,320 أشرح الـ Neural Network، كما كنا قد ذكرناه سابقًا، وخلّينا 12 00:00:44,320 --> 00:00:47,700 نبدأ مع الـ Neural Network. الـ Neural Network أو 13 00:00:47,700 --> 00:00:51,400 الشبكات العصبية... العصبية. بكفي أنا عصبي! 14 00:00:51,400 --> 00:00:55,360 بالجمال، الشبكات العصبية هي عبارة عن 15 00:00:55,360 --> 00:00:59,980 مجموعة من الـ connected input و الـ output units. 16 00:00:59,980 --> 00:01:04,850 يعني، ببساطة، هي عبارة عن مجموعة من المدخلات 17 00:01:04,850 --> 00:01:10,390 والمخرجات المتصلة مع بعضها البعض. وكل خط أو كل 18 00:01:10,390 --> 00:01:15,210 Connection، أو كل خط، أو كل Link، له وزن معين 19 00:01:15,210 --> 00:01:21,010 associated with it، مرتبط به. خلال مرحلتي التعليم 20 00:01:21,010 --> 00:01:24,370 وهنا، يا جماعة الخير، بدأنا ننتبه جيدًا، لأن صار في عندي 21 00:01:24,370 --> 00:01:27,390 ما يُقال لنا: نحن Machine Learning. Machine Learning هي 22 00:01:27,390 --> 00:01:32,570 الفترة التي أقضيها في بناء الـ Model، لأن 23 00:01:32,570 --> 00:01:35,770 هكذا قلنا في البداية خالصًا: الـ Classification، في عندي 24 00:01:35,770 --> 00:01:39,690 Model-based، وفي عندي Instance-based. الـ Instance 25 00:01:39,690 --> 00:01:42,550 based كان: K-Nearest Neighbor، و الـ Model-based: Decision 26 00:01:42,550 --> 00:01:46,150 Tree، و الـ Naive Bayesian. سؤال مهم جدًا، أريد أن أطرحه 27 00:01:46,150 --> 00:01:51,430 عليكم. أتمنى أن تفكّروا في إجابته، لأن 28 00:01:51,430 --> 00:01:56,390 هل الـ Naive Bayes Model-based أم Instance-based؟ 29 00:01:56,390 --> 00:02:00,070 هذا سؤال. السؤال الثاني: الـ Naive Bayes Algorithm، 30 00:02:00,070 --> 00:02:03,890 الجدول الذي بنيته، كم مرّة بنيته؟ 31 00:02:06,390 --> 00:02:11,390 المفروض مرة واحدة. متى أحتاج إلى إعادة بنائه؟ لو تغيرت 32 00:02:11,390 --> 00:02:14,850 الـ Training Set الموجودة عندي. وبالتالي، المفروض 33 00:02:14,850 --> 00:02:18,090 أنّ هذا الجدول يمثّل عندي الـ Model خلال مرحلة التعليم، 34 00:02:18,090 --> 00:02:21,430 مرحلة الـ Learning، مرحلة بناء الـ Model، الـ Network، 35 00:02:21,430 --> 00:02:25,610 الذي هو الشبكة العصبية. تحاول تعديل الأوزان التي 36 00:02:25,610 --> 00:02:30,810 موجودة عندها، حتى تصل إلى 37 00:02:30,810 --> 00:02:37,860 الـ Label. يعني، بين قوسين: أدخلت الـ Input، عملت 38 00:02:37,860 --> 00:02:42,900 Computation، حصلت على الـ Output. أقارن بين الـ 39 00:02:42,900 --> 00:02:46,680 Output الحقيقي، والـ Predicted، وتبعًا للـ Error الذي 40 00:02:46,680 --> 00:02:49,600 بينهما، أو الفرق الذي بينهما، أعمل Adjustment للـ 41 00:02:49,600 --> 00:02:50,880 Weights الموجودة عندها. 42 00:02:55,350 --> 00:02:57,970 الآن، الـ Neural Network، بشكل عام، يا جماعة الخير، هي 43 00:02:57,970 --> 00:03:01,010 تحاكي الشبكات العصبية في الإنسان، أو الجهاز 44 00:03:01,010 --> 00:03:03,910 العصبي في الإنسان. في الآخر، الـ Decision في الدماغ، 45 00:03:03,910 --> 00:03:09,510 والخلايا العصبية منتشرة على كل جسمك. لو أنت ساكت، أو 46 00:03:09,510 --> 00:03:13,710 سرحان، وقاعد بتحل في مسألة في الـ Data Mining، وجاء 47 00:03:13,710 --> 00:03:23,320 زميلك، وطرف دبوس، وحاول يشكك في يدك، بدون ما تنتبه له، 48 00:03:23,320 --> 00:03:27,400 أنت، بدون إرادة، ستجد أنّ يدك تحرّكت في الاتجاه 49 00:03:27,400 --> 00:03:31,980 المضاد للّمسة، بحيث أنّها، يعني، تبعد عن مصدر الخطر. 50 00:03:31,980 --> 00:03:35,680 الذي صار، أنت فعليًا لا تعرف ما الذي حدث، لكن مجرد 51 00:03:35,680 --> 00:03:38,840 أنّك حركت، أبعدت يدك، ثم بدأت تفكر، لأنّ كانت 52 00:03:38,840 --> 00:03:42,240 الحركة، أو الجهاز العصبي، أرسل إشارة إلى الدماغ، والدماغ 53 00:03:42,240 --> 00:03:45,260 أخذ Processing سريعًا جدًا، أنّه: ابعد عن 54 00:03:45,260 --> 00:03:47,980 الخطر هذا. وكذلك، يحدث هذا معنا في هذا الموضوع، عندما يكون 55 00:03:47,980 --> 00:03:52,510 الشغلات: حريق، إلخ. الآن، هذا الكلام لم يحدث إلا 56 00:03:52,510 --> 00:03:56,330 من خلال خبرة مكتسبة، موجودة عندنا. فالـ Neural 57 00:03:56,330 --> 00:03:58,870 Network جاءت، لماذا؟ لأن الناس فكّروا فيها، في الـ 58 00:03:58,870 --> 00:04:03,050 خمسينات، جاءت فكرة: لماذا لا نحاول محاكاة عقل الإنسان في 59 00:04:03,050 --> 00:04:07,410 التعامل؟ نحن لا نهتم كثيرًا بالصبغة التاريخية 60 00:04:07,410 --> 00:04:13,090 والتفاصيل كثيرًا. لكن بشكل عام، أبسط نموذج للشبكة 61 00:04:13,090 --> 00:04:15,690 الموجودة عندي، لأنّ في النهاية، كل شيء Computation، 62 00:04:15,690 --> 00:04:20,450 يا جماعة الخير، هي مجموعة الـ Input. مجموعة الـ Input، 63 00:04:20,450 --> 00:04:25,970 الآن، ما هو P1 إلى PR؟ هي عبارة عن الـ Attributes، 64 00:04:25,970 --> 00:04:31,350 تمثّل 65 00:04:31,350 --> 00:04:36,790 الـ Input. طيب، وما هو A؟ 66 00:04:36,790 --> 00:04:44,280 الـ Output، للـ Class الموجود عندي هنا. الـ 67 00:04:44,280 --> 00:04:47,380 Class الموجود عندي. ما الذي حدث؟ ما الذي فعلته فعليًا؟ 68 00:04:47,380 --> 00:04:52,960 كل Attribute له وزن. فأنا آخذ، أضرب قيمة الـ 69 00:04:52,960 --> 00:04:57,080 Attribute، لاحظ، أقول: أضرب قيمة الـ Attribute في 70 00:04:57,080 --> 00:05:05,800 الوزن، أجمعها، أضيف لها قيمة للـ Bias، و هذه الـ Function 71 00:05:05,800 --> 00:05:09,460 تُجري Decision. أي واحد من الـ Binary Classification، 72 00:05:09,460 --> 00:05:13,210 أو من الـ Classes، ستكون صفر أو واحد. يعني Binary 73 00:05:13,210 --> 00:05:17,090 Classification. انتبه معي، وانتبه معي عندما 74 00:05:17,090 --> 00:05:20,830 قلت: آخذ قيمة الـ Attribute، وأضربها. طيب، هل من الممكن أن 75 00:05:20,830 --> 00:05:24,390 أعمل مع الـ Nominal Attribute؟ لا، هذا غير ممكن. الـ Data 76 00:05:24,390 --> 00:05:28,170 Set الخاصة بك يجب أن تكون رقمية بالكامل. لأن لا يوجد مدى 77 00:05:28,170 --> 00:05:31,690 أذهب إليه وأقول: والله، الـ Gender Male، أضرب في خمسة. 78 00:05:31,690 --> 00:05:34,990 حوّلها إلى 0، 1، أو أي Attribute رقمي تراه 79 00:05:34,990 --> 00:05:39,170 مناسبًا. الـ Income، كما رأينا قبل قليل، Fair و 80 00:05:39,170 --> 00:05:43,940 Excellent، أيضًا، تُحوّل إلى أرقام. وبالتالي، بدلًا 81 00:05:43,940 --> 00:05:46,800 من أن تكون Category، تُحوّل إلى أرقام. 82 00:05:46,800 --> 00:05:51,960 تمام، حتى لو كان هناك Coding موجودة عندي، في النهاية، ما 83 00:05:51,960 --> 00:05:58,140 سيحدث سيكون كالتالي: الـ Function الخاصة بي، الـ Prediction 84 00:05:58,140 --> 00:06:02,520 Function الخاصة بي، هي عبارة عن Vector من الأوزان، مضروبة 85 00:06:02,520 --> 00:06:07,450 في الـ Input، زائد الـ Bias الموجود عندي. في مرحلة 86 00:06:07,450 --> 00:06:15,310 الـ Learning، تصبح الشبكة تبحث عن أفضل W و B، لأنّ 87 00:06:15,310 --> 00:06:19,530 أنت لا تنسَ أنّها معادلة خطّ مستقيم، تبحث عن أفضل W 88 00:06:19,530 --> 00:06:23,770 و B، لكن بـ Vectors. W تمثّل الأوزان الخاصة بـ 89 00:06:23,770 --> 00:06:26,630 الـ Connection، و B تمثّل الـ Bias الخاصة بالـ Network، التي 90 00:06:26,630 --> 00:06:30,210 موجودة في الـ Multilayer Neural Network. شغلنا هنا 91 00:06:30,210 --> 00:06:30,870 مختلف. 92 00:06:33,410 --> 00:06:39,370 سابقًا، كان عندي فقط Input و Output، في الـ Simple 93 00:06:39,370 --> 00:06:42,630 Neural Network. وقبل قليل، قلنا أنّها عبارة عن 94 00:06:42,630 --> 00:06:47,080 مجموعة من الـ Connected Input و الـ Output Units. الآن، 95 00:06:47,080 --> 00:06:51,160 في الـ Multilayer، أضيف عندي ما بين الـ Layer 96 00:06:51,160 --> 00:06:54,620 الأولى، التي تمثّل الـ Input، والـ Layer 97 00:06:54,620 --> 00:06:58,680 الأخيرة، التي هي الـ Output Layer، صار يمثّل عندي 98 00:06:58,680 --> 00:07:02,320 ما يُسمّى الـ Hidden Layer. بالمناسبة، الكثير من 99 00:07:02,320 --> 00:07:05,740 الناس يرفضون الـ Neural Network، لأنّهم يعتبرونها Black 100 00:07:05,740 --> 00:07:06,160 Box. 101 00:07:09,080 --> 00:07:13,600 ماذا يعني Black Box؟ Black Box بمعنى أنّي فعليًا 102 00:07:13,600 --> 00:07:16,140 لا أرى ما يحدث، ولا أعرف لماذا هذه الأوزان 103 00:07:16,140 --> 00:07:19,100 أصبحت هكذا. وفعلاً، هذه هي، للأسف، الـ Algorithm التي 104 00:07:19,100 --> 00:07:23,520 موجودة عندنا. يعني، صعب تفسيرها. 105 00:07:23,520 --> 00:07:29,900 طيب، الآن، الـ Input، حسب الرسم الذي عندي هنا، 106 00:07:29,900 --> 00:07:34,540 هنا، ثلاثة Inputs، واثنان Outputs. وكما قلنا، 107 00:07:34,540 --> 00:07:37,340 بما أنّها كلها أرقام، معناته الـ Input الخاصة بها ستكون 0، 1. 108 00:07:38,540 --> 00:07:41,280 معناته، كل Neural Network هذه ستكون صفر، واحد في 109 00:07:41,280 --> 00:07:44,820 المرحلة الأولى. في الـ Network السابق، يا جماعة الخير، 110 00:07:44,820 --> 00:07:48,880 هذه الـ Function: صفر، 111 00:07:48,880 --> 00:07:52,200 واحد. Two classes: الـ Class الأول، والـ Class الثاني. 112 00:07:52,200 --> 00:07:58,130 هنا، صار في عندي Two Neurons في الـ Output. معناته كل 113 00:07:58,130 --> 00:08:01,350 واحد فيهم يعطيني صفر أو واحد. معناته، صار في عندي 114 00:08:01,350 --> 00:08:06,030 Two bits. أجعلها Two bits: صفر، صفر؛ صفر، واحد؛ 115 00:08:06,030 --> 00:08:10,010 واحد، صفر؛ واحد، واحد. وكأنّي أتحدّث عن Four Classes. 116 00:08:10,010 --> 00:08:15,990 يعني، بالـ Multilayer Neural Network، أصبح بإمكاني أن 117 00:08:15,990 --> 00:08:21,880 أُعالج Dataset أكبر، أو أحصل على Multiclass 118 00:08:21,880 --> 00:08:26,240 Classification. تعالوا نشوف الشكل العام الخاص بالـ 119 00:08:26,240 --> 00:08:30,300 Network. هذا الشكل الذي رأيناه، نسميه 120 00:08:30,300 --> 00:08:36,100 Network Topology. الـ Network Topology، هنا، ستحدّد 121 00:08:36,100 --> 00:08:39,720 فيه عدد الـ Input، أو عدد الـ Units الخاصة بالـ Input، في الـ 122 00:08:39,720 --> 00:08:44,740 Input Layer. طيب، ليس لي دخل كبير بها، لماذا؟ لأنّ 123 00:08:44,740 --> 00:08:50,880 عادةً، عدد الـ Input Neurons يساوي 124 00:08:50,880 --> 00:08:54,720 عدد الـ Attributes. يعني، ببساطة، كل Attribute في الـ 125 00:08:54,720 --> 00:09:01,740 Data Set له Input Neuron واحد. يُفضّل أن تقوم بـ 126 00:09:01,740 --> 00:09:06,350 Normalization لقيم الـ Attributes. ليس تفضيلاً، 127 00:09:06,350 --> 00:09:09,370 بل قد يكون إلزاميًا، في مرحلة ما. لماذا؟ لأنّ 128 00:09:09,370 --> 00:09:12,530 تتجنّب الـ Bias. ضع كل الـ Attributes الموجودة بعد 129 00:09:12,530 --> 00:09:17,050 ما... بعد ما قمت بـ Preprocessing، وجّهزت... 130 00:09:17,050 --> 00:09:20,350 جهزت الـ Data Set، لأنّ كل الـ Data كانت مستقلة، 131 00:09:21,310 --> 00:09:24,470 لكنّ مُقياسها مختلف. وبما أنّ عملية 132 00:09:24,470 --> 00:09:28,810 الحساب، كما رأينا سابقًا، تكون قيمتها، مثلًا، الـ 133 00:09:28,810 --> 00:09:31,710 Call بالـ Minutes، خمسمائة، ألف، خمسمائة 134 00:09:31,710 --> 00:09:35,310 دقيقة، في مقابل الـ Megabytes التي الـ Data... التي أنا 135 00:09:35,310 --> 00:09:40,490 استخدمتها على الـ Mobile كانت بالأ... بالأيام. فواحد 136 00:09:40,490 --> 00:09:43,330 سيكون وزنه أكبر من الآخر. فما الحل؟ 137 00:09:43,330 --> 00:09:46,770 لا، قم بـ Scaling، لتصبح من صفر إلى واحد، وسترتاح. 138 00:09:46,770 --> 00:09:51,900 الآن، Number of Hidden Layers في الـ Topology. عدد الـ 139 00:09:51,900 --> 00:09:57,920 Hidden Layer. وليس هذا فقط، عدد الـ Hidden Neurons في 140 00:09:57,920 --> 00:10:02,620 الـ Hidden Layer، يعني 141 00:10:02,620 --> 00:10:05,200 ببساطة، أنا أتحدّث عن الـ Neural Network، 142 00:10:05,200 --> 00:10:14,800 أتحدث عن Input Layer، وأتحدث عن Hidden Layer، و 143 00:10:14,800 --> 00:10:22,100 أتحدث عن Output Layer. ثلاث طبقات موجودة عندي. الـ 144 00:10:22,100 --> 00:10:29,260 Input و الـ Output معروفان. ها هو Number of Classes، وهنا 145 00:10:29,260 --> 00:10:36,540 Number of Attributes. أبو 146 00:10:36,540 --> 00:10:42,380 هنا، هنا يا سيدي العزيز، لا أحد يُحكمك في شيء، ولا يوجد 147 00:10:42,380 --> 00:10:46,040 قانون واضح. الآن، نحن نتحدث، لكي يكون عندي Multi 148 00:10:46,040 --> 00:10:49,580 Layer، على الأقل يكون عندي Single Layer. وعندما 149 00:10:49,580 --> 00:10:52,500 يكون عندي أكثر من Two Hidden Layers، تصبح Deep 150 00:10:52,500 --> 00:10:56,040 Neural Network، تمام؟ وهذا المصطلح الذي يستخدمه 151 00:10:56,040 --> 00:10:58,660 اليوم في الـ Machine Learning، يسمّى: Deep 152 00:10:58,660 --> 00:11:01,760 Learning. لكنّنا الآن، بشكل بسيط، نتحدث عن 153 00:11:01,760 --> 00:11:05,630 Input Layer، Hidden Layer واحد، و Output 154 00:11:05,630 --> 00:11:09,190 Hidden Layer. بالنسبة لعدد الـ Neurons في الـ Hidden 155 00:11:09,190 --> 00:11:12,590 Layer الموجودة عندي هنا، ليس لديّ 156 00:11:12,590 --> 00:11:17,210 حسب الـ Attributes عندي. أربعة Input، أربعة Attributes، 157 00:11:17,210 --> 00:11:23,860 وعندي Two Classes معروفة. ربما هؤلاء... أيضًا، لا يوجد عدد 158 00:11:23,860 --> 00:11:28,140 محدد للـ Neurons. متروك لكم للتجربة والقياس، أو 159 00:11:28,140 --> 00:11:31,300 تجربة والخطأ، كما نسميها أحيانًا، وتحديدها، 160 00:11:31,300 --> 00:11:34,840 لكن بعض الناس يقول لك: دعني أضع Initialisation 161 00:11:34,840 --> 00:11:44,300 لهذا الكلام، من خلال أن أبدأ بمجموع الاثنين على اثنين. 162 00:11:44,300 --> 00:11:49,580 يعني، الآن، أربعة واثنين، ستة. 163 00:11:53,290 --> 00:12:00,090 على اثنين: ثلاثة. ولاحظ، وكأنّه يصير عندي رسمة الشبكة: هي أربعة 164 00:12:00,090 --> 00:12:05,990 في الـ Input، ثلاثة في الـ Output، أو عفواً في الـ 165 00:12:05,990 --> 00:12:07,810 Hidden، واثنان في الـ Output. 166 00:12:26,450 --> 00:12:30,210 وهذه الشبكة الخاصة بي، تصبح بهذا الشكل. أصبحت 167 00:12:30,210 --> 00:12:33,730 ضيقَة باتجاه الـ Output الموجودة. واحد قال: لا، 168 00:12:33,730 --> 00:12:37,850 أريد أن آخذ ضعف الـ Input، أو أريد أن آخذ مجموعهما. لا أحد 169 00:12:37,850 --> 00:12:41,470 سيقول لك: لا. هذا متروك لك. لماذا؟ كما قلت لك، هذه 170 00:12:41,470 --> 00:12:44,070 الشبكة تحتاج إلى Optimization. الـ Neural Network من 171 00:12:44,070 --> 00:12:46,510 الأشياء التي تحتاج إلى Optimization كثيرًا، وتحتاج إلى عمل 172 00:12:46,510 --> 00:12:50,820 كثير في الـ Configuration. نرجع إلى الـ Simplest الـ 173 00:12:50,820 --> 00:12:54,540 Neural Network الموجودة عندي. في النهاية، الـ 174 00:12:54,540 --> 00:12:58,860 Function 223 00:16:49,840 --> 00:16:54,840 كيف الـ neural network بتشتغل؟ بتاخد الـ input تبع الـ 224 00:16:54,840 --> 00:17:00,450 attributes اللي موجودة عنده، وبتدخل إياهُ في الـ 225 00:17:00,450 --> 00:17:03,970 input فترة الـ training. بتدخل اتباعاً، أو عفواً، في الـ 226 00:17:03,970 --> 00:17:07,250 attributes بتدخل بشكل متوازي مع بعضها، لأن زي ما 227 00:17:07,250 --> 00:17:11,450 قلنا، الـ instance بالكامل بتدخل عندي على الـ system. 228 00:17:11,450 --> 00:17:18,250 بعد هيك، في أوزان الشبكة، عادة بتبدأ بـ random weight. 229 00:17:18,250 --> 00:17:21,970 بتبدأ بـ random weight، و الأوزان مع كل connection 230 00:17:21,970 --> 00:17:25,490 مع كل connection من الـ connections السابقة. هاي في 231 00:17:25,490 --> 00:17:27,950 أول ما بتبدأ الشبكة بتحط random weight. 232 00:17:30,650 --> 00:17:37,670 الخطوة اللي بعد هيك، لما أنا بعد ما بتروح تدخل، لاحظ 233 00:17:37,670 --> 00:17:41,190 معايا، خلينا نقول، الـ input in your own hand. هنّفي W1 234 00:17:41,190 --> 00:17:49,520 1, W1 2, W1 3, و W1 4. لأيش؟ لأن عندي 4 hidden neuron و 235 00:17:49,520 --> 00:17:53,500 4 connection. الـ value تبع الـ hidden neuron، أو الـ 236 00:17:53,500 --> 00:17:56,200 input neuron، هذا اللي تبع الـ attribute الأول. 237 00:17:56,200 --> 00:18:03,820 خلّيني، على سبيل المثال، نقول هنا 1.7 من عشرة الآن. 238 00:18:03,820 --> 00:18:09,460 1.7 من عشرة ضرب W1 1. جاية لمين؟ للـ hidden neuron. 239 00:18:09,460 --> 00:18:16,430 هنا في المقابل، عندي هنا مثلاً كانت 2، وهذه الـ W 2 1. 240 00:18:16,430 --> 00:18:21,430 و هذه الـ W 3 1، و هذه الـ W 1 1، و هذه الـ W 3 1، و 241 00:18:21,430 --> 00:18:22,910 هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و 242 00:18:22,910 --> 00:18:23,890 هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و 243 00:18:23,890 --> 00:18:26,510 هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و 244 00:18:26,510 --> 00:18:28,550 هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و 245 00:18:28,550 --> 00:18:29,110 هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و 246 00:18:29,110 --> 00:18:30,230 هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و 247 00:18:30,230 --> 00:18:30,370 هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و 248 00:18:30,370 --> 00:18:30,750 هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و 249 00:18:30,750 --> 00:18:34,510 هذه الـ W 3 1، و هذه الـ 250 00:18:34,510 --> 00:18:43,070 W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1. 251 00:18:46,660 --> 00:18:50,260 وبديني decision، انه بيطلع output، و الـ output برضه 252 00:18:50,260 --> 00:18:55,540 فيه إلها أوزان وبتتوزع على... يعني الآن السهم اللي 253 00:18:55,540 --> 00:18:58,580 داخل على الـ neuron بيمثل الـ input، و اللي طالع منه 254 00:18:58,580 --> 00:19:02,540 بيمثل الـ output تبعته. ايش الـ... اوكي، احنا عرفنا هنّ 255 00:19:02,540 --> 00:19:05,200 انه الـ input. طب ايش الـ input؟ ايش الـ output؟ عفواً، 256 00:19:06,520 --> 00:19:08,840 ما هي القيمة اللي طالعة عندي من الـ hidden neuron؟ 257 00:19:08,840 --> 00:19:11,240 هي عبارة عن تجميع على العناصر اللي موجودة عندي هنا. 258 00:19:11,240 --> 00:19:15,440 ومن ثم بصدرليها بنفس الفكرة على الأوزان اللي جاي 259 00:19:15,440 --> 00:19:20,420 بعدها، وهكذا بتتم عمل الشبكة. الآن هذه الشبكات 260 00:19:20,420 --> 00:19:26,520 بتشتغل ضمن الـ feed forward neural network. 261 00:19:26,650 --> 00:19:29,030 في الـ feed forward neural network، أنا فعلياً قاعد 262 00:19:29,030 --> 00:19:32,630 بشتغل باتجاه واحد فقط، وهو الاتجاه أو التدفق 263 00:19:32,630 --> 00:19:36,930 الطبيعي للشبكة، من الـ input لحد الـ output اللي 264 00:19:36,930 --> 00:19:46,190 موجودة عندي. نقاط القوة في الشبكة، انه فعلياً بتتحكم 265 00:19:46,190 --> 00:19:49,950 أو بتقدر تسيطر بشكل قوي على الـ noise data اللي 266 00:19:49,950 --> 00:19:55,430 موجودة عندي. هان بتقدر تعمل classification على 267 00:19:55,430 --> 00:19:57,790 untrained pattern، بتقدر تتحملها، detection بشكل 268 00:19:57,790 --> 00:20:02,670 بسيط. مناسبة جداً للـ continuous value في الـ input و 269 00:20:02,670 --> 00:20:05,670 الـ output، على خلاف اللي احنا شفناهم سابقاً، الـ 270 00:20:05,670 --> 00:20:09,750 classifiers السابقة. بتشتغل مع أي قرية من الـ real 271 00:20:09,750 --> 00:20:15,130 world data، حتى لو كانت بالـ handwritten. الـ 272 00:20:15,130 --> 00:20:18,150 algorithm ممكن يطبق parallel بشكل متوازي، وبالتالي 273 00:20:18,150 --> 00:20:23,060 هذا بيعمل على تسريع العمل. الـ weaknesses تبعتها، إنها 274 00:20:23,060 --> 00:20:26,500 بتحتاج لفترة طويلة من التعليم، لأن زي ما شفنا أن 275 00:20:26,500 --> 00:20:33,340 الأوزان كلها بتتغير. تخيل أنك في عندك عشرة input، في 276 00:20:33,340 --> 00:20:38,060 عشرة hidden، في أربعة، أو بلاش في اتنين 277 00:20:41,140 --> 00:20:44,420 output. اضرب هدول، هي عبارة عن عدد الـ connections 278 00:20:44,420 --> 00:20:47,320 اللي موجودة، وعدد الـ connections بيساوي عدد الأوزان. 279 00:20:47,320 --> 00:20:52,760 وبالتالي، بتكلم على 200 value كأوزان، بدها تغيير مع 280 00:20:52,760 --> 00:20:57,000 كل عملية الـ training، و هذا مع كل instance، وبالتالي 281 00:20:57,000 --> 00:21:01,860 موضوع الـ training هياخد منه وقت طويل. بتحتاج ده 282 00:21:01,860 --> 00:21:04,380 كتير من الـ argument أو من الـ parameter. أنا بحتاج 283 00:21:04,380 --> 00:21:07,340 أعملها tuning بشكل صحيح، عشان أقدر أحصل على الـ 284 00:21:07,340 --> 00:21:11,460 result المطلوبة. منها إن الـ structure تبعتها أبسط 285 00:21:11,460 --> 00:21:15,680 ما يمكن. ايش الـ structure؟ ايش الـ activation 286 00:21:15,680 --> 00:21:19,380 function اللي أنا بدي اعتمدها؟ إلى آخره. الآن من 287 00:21:19,380 --> 00:21:22,520 أهم الـ neural network اللي موجودة يا جماعة الخير، 288 00:21:22,520 --> 00:21:26,200 شغلة بنسميها الـ back propagate neural network، back 289 00:21:26,200 --> 00:21:32,400 propagate، الانتشار للخلف. الآن أنا هوضحها بشكل سريع. 290 00:21:32,400 --> 00:21:40,530 هان، هحاول أرسمها على الصبورة، بس عشان تنتين، تلاتة، 291 00:21:40,530 --> 00:21:52,390 أربعة، واحدة، تنتين، تلاتة، واحدة، تنتين، واحد، اتنين، 292 00:21:52,390 --> 00:21:54,230 تلاتة. 293 00:22:23,390 --> 00:22:27,830 تمام، عشان نفهم بس مبدأ الـ neural network، أو الـ 294 00:22:27,830 --> 00:22:31,210 back propagate neural network، بشكل سريع، و مش هخش 295 00:22:31,210 --> 00:22:34,730 في المعادلات الرياضية التفصيلية اللي هشغل عليها، لكن 296 00:22:34,730 --> 00:22:37,910 أنا بهمني الآن نفهم الـ concept على السريع. الآن 297 00:22:37,910 --> 00:22:42,510 تخيل أن أنا في عندي instance، أو الـ data set 298 00:22:42,510 --> 00:22:45,810 المفروض الـ data set تبعتي، أو الـ data set تبعتي 299 00:22:45,810 --> 00:22:49,190 مكونة من four attributes و one class attribute، 300 00:22:49,190 --> 00:22:56,110 مظبوط، و one target. بنسميهم A1, A2, A3, A4، و الـ 301 00:22:56,110 --> 00:23:03,770 label. طبعاً المفروض هنقل A1, A2, A3, A4، وهنا 302 00:23:03,770 --> 00:23:07,770 المفروض في عندي الـ label. الآن الفكرة فيها أنه هياخد 303 00:23:07,770 --> 00:23:11,210 الـ instance في الأول، أول ما بأتكلم على الـ 304 00:23:11,210 --> 00:23:16,150 topology تبعتها، بروح بياخد مني عندي random weight. 305 00:23:19,480 --> 00:23:22,320 بياخد أوزان من صفر لواحد، على كل الـ connections 306 00:23:22,320 --> 00:23:28,500 اللي موجودة. تمام؟ الآن بياخد الـ value، مثلاً واحد، 307 00:23:28,500 --> 00:23:32,340 واحد، صفر، واحد، والـ label تبعتها كانت، كانت على سبيل 308 00:23:32,340 --> 00:23:36,540 مثال واحد، بالشكل هذا. فبياخد القيم اللي موجودة هنا، 309 00:23:36,540 --> 00:23:40,580 وبضربها مع الأوزان اللي موجودة، لحد ما بياخد الـ 310 00:23:40,580 --> 00:23:46,100 output. الآن في عندي الـ real class، وفي عندي الـ 311 00:23:46,100 --> 00:23:47,000 predicted class. 312 00:23:49,540 --> 00:23:56,960 الفرق بينهم، بياخد 313 00:23:56,960 --> 00:24:01,700 الخطأ هذا، وبيبدأ يوزعه بالعكس. جداش الوزن كان هذا 314 00:24:01,700 --> 00:24:06,460 random، جداش الـ connection، جداش كل connection ساهم 315 00:24:08,030 --> 00:24:13,810 بالوزن أو بالخطأ هذا، فبتوزع عليهم الخطأ. وكل مكان 316 00:24:13,810 --> 00:24:18,010 اللي predicted تبعتي صح، بتكون الـ error zero. معناته 317 00:24:18,010 --> 00:24:21,530 أنا مش بحاجة أرجع. يعني، بشكل عام، الـ neural network 318 00:24:21,530 --> 00:24:23,970 بشكل عام، أو الـ back propagation neural network 319 00:24:23,970 --> 00:24:31,830 بشكل عام، بتشتغل على two ways. الطريقة الأولى، مرحلة الـ 320 00:24:31,830 --> 00:24:35,490 prediction. باخد الـ input تبعتي، بدخلها على الـ data 321 00:24:35,490 --> 00:24:37,810 على الـ neural network، بحسب لحد ما بحصل على الـ 322 00:24:37,810 --> 00:24:43,110 output، بحسب الـ error، و بروح بوزن قيمة أو بعدل 323 00:24:43,110 --> 00:24:48,010 الأوزان تبعاً لقيمة الخطأ اللي موجود عندهم. 324 00:24:49,890 --> 00:24:53,230 وهذا فعلياً اللي بتصير عندنا في الـ neural network 325 00:24:53,230 --> 00:24:56,510 في الـ back propagate الـ neural network. الـ forward 326 00:24:56,510 --> 00:25:01,970 path، الـ path الأولى، بطبق الـ input و بحسب الـ output 327 00:25:01,970 --> 00:25:05,830 تبع الـ activation function، و بحسب الخطأ اللي موجود 328 00:25:05,830 --> 00:25:10,990 عندي. في الـ back propagate path، أنا فعلياً باخد 329 00:25:10,990 --> 00:25:14,990 قيمة الخطأ، و بعدل الأوزان حسب مساهمتها في نسبة 330 00:25:14,990 --> 00:25:21,120 الخطأ اللي موجودة عندنا هنا. آخر slide موجودة عندي 331 00:25:21,120 --> 00:25:25,880 هان، اللي هي slide اللي لها علاقة بالبايثون. كيف 332 00:25:25,880 --> 00:25:29,380 ممكن أنا أطبق الـ back propagation neural network 333 00:25:29,380 --> 00:25:38,420 على الـ بايثون؟ طبعاً أنا اشتغلت كالتالي هان، عملت load 334 00:25:38,420 --> 00:25:43,360 للـ iris للـ data set اللي موجودة عندي هان، from ASCII 335 00:25:43,360 --> 00:25:47,520 layer.linear_model import perceptron. اشتغلت 336 00:25:47,520 --> 00:25:50,730 على الأبسط، الـ neural network اللي موجودة عندنا هنا. 337 00:25:50,730 --> 00:25:55,970 حددت الـ target تبعتها، و حولتها لـ numbers: setosa 338 00:25:55,970 --> 00:25:58,710 طبعاً، أو not setosa. هيك لأن في الـ binary 339 00:25:58,710 --> 00:26:01,130 classification، and one، أو الـ symbol. الـ neural 340 00:26:01,130 --> 00:26:03,670 network بتشتغل على binary classification، زي ما شفنا. 341 00:26:03,670 --> 00:26:07,590 فحولت... قلت إما هذا، فيها three classes، حولت لـ two 342 00:26:07,590 --> 00:26:13,890 classes: صفر و واحد، setosa و not setosa. استدعيت 343 00:26:13,890 --> 00:26:17,780 الـ neural network تبعتي، from scikit-learn.neural_ 344 00:26:17,780 --> 00:26:21,020 network import MLPClassifier. 345 00:26:21,020 --> 00:26:26,740 الـ model هذا، بيتطلب مني اني احدد له شغلات كتيرة: عدد 346 00:26:26,740 --> 00:26:32,580 الـ hidden layer، قلت له اتنين، و خمسة neuron في كل 347 00:26:32,580 --> 00:26:36,830 واحدة، أو الـ solver، اللي هي الـ activation function 348 00:26:36,830 --> 00:26:39,770 تبعتي، الـ alpha اللي بتمثل الـ learning rate، هذه 349 00:26:39,770 --> 00:26:43,290 ما لكوش دخل فيها الآن. الـ solver و الـ hidden layer 350 00:26:43,290 --> 00:26:46,850 size، الـ hidden layer size هي تبعتي المهمة بالنسبة 351 00:26:46,850 --> 00:26:49,750 لي. الـ activation function هي الـ radial basis 352 00:26:49,750 --> 00:26:53,490 function. وهنا بنتكلم على الـ network اللي موجودة 353 00:26:53,490 --> 00:26:57,430 هنا، فقلت له أعمل train تبع الـ X و الـ Y، فرح يعدل 354 00:26:57,430 --> 00:27:00,430 الأوزان اللي موجودة عندي هنا. فلما أنا بدي أزوده 355 00:27:00,430 --> 00:27:04,610 الآن data، وأقول له اعملها prediction، الـ data بدها 356 00:27:04,610 --> 00:27:07,670 تكون تماماً مع الـ data، مع الـ input اللي موجودة 357 00:27:07,670 --> 00:27:11,850 عنديها، وهذه الـ data set هي عبارة عن مجموعة من 358 00:27:11,850 --> 00:27:15,490 العناصر اللي موجودة عندها. إذا قدمت ليها as in، أو 359 00:27:15,490 --> 00:27:19,230 matrix، فبياخدها، وفي الآخر هتديني prediction اللي 360 00:27:19,230 --> 00:27:22,510 موجودة. يعني، باختصار بسيط جداً، أنا المفروض أن الـ data 361 00:27:22,510 --> 00:27:27,070 set تبعتي، أحولها كلها لـ numeric data، في حال إذا 362 00:27:27,070 --> 00:27:31,680 كنت أنا بدي اشتغل مع الـ Neural Network. بتمنى عليكم 363 00:27:31,680 --> 00:27:35,300 وهذه تجربوها، وتفهموا الموضوع كويس، وزي ما قلنا 364 00:27:35,300 --> 00:27:38,040 سابقا، على الـ forum اللي موجود على الـ model، أنا 365 00:27:38,040 --> 00:27:41,420 مستعد إن شاء الله تعالى للإجابة على أي سؤال، وطبعاً 366 00:27:41,420 --> 00:27:44,240 احنا اتعمدنا الإجابات على الـ forum، مش على الخاص، 367 00:27:44,240 --> 00:27:48,520 عشان نقدر الفائدة تعمل للجميع. والسلام عليكم ورحمة 368 00:27:48,520 --> 00:27:49,540 الله وبركاته.