1 00:00:21,060 --> 00:00:24,380 بسم الله الرحمن الرحيم المحاضرة يا شباب اليوم ان 2 00:00:24,380 --> 00:00:32,600 شاء الله بنبدأ موضوع جديد هو ممكن نعتبره يعني 3 00:00:32,600 --> 00:00:36,620 استكمال ال express systems و ممكن ناخده على انه 4 00:00:36,620 --> 00:00:39,380 موضوع منفصل كيف يعني؟ يعني موضوع ال artificial 5 00:00:39,380 --> 00:00:42,640 neural networks اللي هو العمال الكبير ممكن يكون 6 00:00:42,640 --> 00:00:44,940 واحدة من التقنيات اللي متقبقة في ال express 7 00:00:44,940 --> 00:00:49,440 systemsولكن يوجد تطبيقات أخرى خارج إطار الـ 8 00:00:49,440 --> 00:00:53,900 Express Systems نفهم التقنية هذه وجدام في شباتر 9 00:00:53,900 --> 00:00:57,700 لاحقة نشوف كيف هذه التقنية تتوظف في Express 10 00:00:57,700 --> 00:01:01,640 Systems المهم الآن أننا نفهمها في حد ذاتها الـ 11 00:01:01,640 --> 00:01:05,240 Artificial neural networks في منها نوعية نوصل فيها 12 00:01:05,240 --> 00:01:09,400 في ال supervised و ال unsupervised الآن نفهم لماذا 13 00:01:10,760 --> 00:01:14,680 أو ال lecture هال lecture أقم سبعة بتتناول بس ال 14 00:01:14,680 --> 00:01:18,740 supervised learning و ال lecture اللي بعدها تمانية 15 00:01:18,740 --> 00:01:22,780 بتتناول ال unsupervised learning الكلمة الأساسية 16 00:01:22,780 --> 00:01:25,420 هنا أنه learning هي عبارة عن واحدة من التقريات 17 00:01:25,420 --> 00:01:29,680 اللي بتساعد في أنه نبني system، ال system ممكن 18 00:01:29,680 --> 00:01:33,540 يتعلم، يتعلم من أيش؟ من البيانات السابقة ال 19 00:01:33,540 --> 00:01:36,980 historical data أو ال training data بنسميها حين 20 00:01:37,350 --> 00:01:40,250 عموما الآن شكل ال lecture هذه ال lecture السابعة 21 00:01:40,250 --> 00:01:44,950 زي ما قلناها بتتعلق بس ب supervised learning أو 22 00:01:44,950 --> 00:01:48,510 supervised artificial neural network المواضيع هذه 23 00:01:48,510 --> 00:01:53,130 انا هدخل على طول على ال Perceptron المقدمة النظرية 24 00:01:53,130 --> 00:01:55,830 هذه ممكن ان انت تستوعبها على حالك جرّا ان انت 25 00:01:55,830 --> 00:01:59,210 تقرأها من ال slides يعني ال slides بتكفي انك 26 00:01:59,210 --> 00:02:06,690 تستوعبها هو في الجزيجين هذوله بيمحدللموضوع من حيث 27 00:02:06,690 --> 00:02:12,170 انه صلته بالخلايا العصبية في الدماغ وانه هي الأساس 28 00:02:12,170 --> 00:02:16,830 لفكرة ال artificial neural networks يبقى بالأساس 29 00:02:16,830 --> 00:02:21,870 كلمة neural networks جاي من نورا ومن نورا للخلايا 30 00:02:21,870 --> 00:02:25,950 العصبية شبكات من الخلايا العصبية Artificial بمعنى 31 00:02:25,950 --> 00:02:30,390 أصطناعي يعني احنا اللي عاملينها تقليد لقاليد العمل 32 00:02:30,390 --> 00:02:33,970 تبع ال neural network ال biological 33 00:02:36,150 --> 00:02:38,910 هذه الأسلحة ادعت انها او هؤلاء المفروضين اللي احنا 34 00:02:38,910 --> 00:02:42,190 هنعديهم ونبدأ على طول في ال Perceptron ال 35 00:02:42,190 --> 00:02:47,250 Perceptron اللي هو النوا اللي منها بتبنى الشبكات 36 00:02:47,250 --> 00:02:51,870 الشبكات ال artificial neural networks عادة ما 37 00:02:51,870 --> 00:02:57,390 بتستخدم في مسائل زي التصنيف قدام هذا الكلام هيظهر 38 00:02:57,390 --> 00:03:02,450 مع ان بعد ما نخلص و نفهم قليت عملها فانا الآن بده 39 00:03:02,450 --> 00:03:09,650 انتقلالحكي عن الـ Perceptron نبدأ من ال slide هذه 40 00:03:09,650 --> 00:03:17,550 ال slide هذه توضح بنية ال Perceptron Perceptron هو 41 00:03:17,550 --> 00:03:20,990 الخلية 42 00:03:20,990 --> 00:03:26,330 الواحدة في النتورة أو لبنة البناء الأساسية لـ 43 00:03:26,330 --> 00:03:32,010 Artificial neural network التكون 44 00:03:32,010 --> 00:03:38,300 من بالأساسهذه اسمها linear combiner وهو ال hard 45 00:03:38,300 --> 00:03:51,760 limiter ال 46 00:03:51,760 --> 00:03:57,200 perceptron بالأساس ينظر له على الأساس انه linear 47 00:03:57,200 --> 00:04:01,320 combiner زي ال hard limiter ممكن هذه الجزئيتين 48 00:04:01,320 --> 00:04:07,410 ناخدهم لأنهم مكون واحدالـ Perceptor من هذا بيصله 49 00:04:07,410 --> 00:04:11,070 input و بيطلع منه multiple inputs بيصله multiple 50 00:04:11,070 --> 00:04:17,450 inputs و بيطلع منه one single output الوظيفة 51 00:04:17,450 --> 00:04:20,930 الأساسية أو القالية العاملة الأساسية تبع ال 52 00:04:20,930 --> 00:04:26,610 Perceptor اللي هو ت combine ال inputs يقارن ال 53 00:04:26,610 --> 00:04:31,490 input ب some threshold يقارنه ب some threshold و 54 00:04:31,490 --> 00:04:35,940 يطلع ال output بناء على هذاهل ال input أو ال sum 55 00:04:35,940 --> 00:04:41,280 هنا combined بمعنى انه بيجمع هل ال sum هذا تجاوز 56 00:04:41,280 --> 00:04:45,320 ال threshold إذا تجاوز بيعطي output وإذا لم يتجاوز 57 00:04:45,320 --> 00:04:50,200 بيعطي output أخر فال output تبع ال perceptron ممكن 58 00:04:50,200 --> 00:04:54,920 نفكر فيه على انه binary output ياما ال value هذا 59 00:04:54,920 --> 00:04:58,180 ياما ال value هذا ال values هذه ممكن تبقى 01 او 60 00:04:58,180 --> 00:05:04,810 plus one minus one وممكن تبقىأرقام عشرية ما بين 61 00:05:04,810 --> 00:05:08,870 الـ 0 و الـ 1 أو ما بين الـ minus one و الplus one 62 00:05:08,870 --> 00:05:12,430 فممكن ال output تبقى ال perceptron يبقى binary أو 63 00:05:12,430 --> 00:05:17,750 يبقى float هذا الكلام في الآخر إيش مستفيد منه، 64 00:05:17,750 --> 00:05:19,470 لنأخد مثال على ذلك 65 00:05:35,290 --> 00:05:38,830 قبل المثال خلّيني أظهر برضه نكمل القالية العمال 66 00:05:38,830 --> 00:05:48,050 اللي هي ان ال perceptron يتوزن من قالية التعامل 67 00:05:48,050 --> 00:05:55,330 بتوعته اللي احنا قولنا فيه learning نبتد 68 00:05:55,330 --> 00:05:58,050 مثل ال perceptron بهذا الشكل okay هاي اللي اوت 69 00:05:58,050 --> 00:06:01,850 بتتبعه وهي ال input ال input هنا اتنين ممكن يكون 70 00:06:01,850 --> 00:06:08,590 اكتر اه اكتر من اتنينالمهم ان ال output تبع ال ال 71 00:06:08,590 --> 00:06:13,290 output تبع ال Perceptron ممكن يكون مطابق لل 72 00:06:13,290 --> 00:06:17,210 desired output وممكن يكون غير مطابق يعني احنا لما 73 00:06:17,210 --> 00:06:21,270 بندرب الشبكة او ال Perceptron زي ال Perceptron 74 00:06:21,270 --> 00:06:26,490 الواحد لما بندربه بنعطيله desired output يعني ال 75 00:06:26,490 --> 00:06:32,530 output السليم المرغوب فهو ال Perceptron بيقارن ال 76 00:06:32,530 --> 00:06:38,800 output اللي طلع منهاللي حسبه هو الـ 77 00:06:38,800 --> 00:06:44,620 Y دي هو الـ calculated output و الـ Y دي هو الـ 78 00:06:44,620 --> 00:06:48,640 desired الفرق ما بين هدول الاتنين هي ال error اللي 79 00:06:48,640 --> 00:06:55,300 هي الخطأ الخطأ هذا اللي هو E الان إذا في خطأ يفرض 80 00:06:55,300 --> 00:07:00,480 انه ال perceptron يتعلم من خطأ كيف يتعلم من خطأه 81 00:07:00,480 --> 00:07:05,280 بشكل بسيط هو انهأنا برجع تاني في ال slides لورا و 82 00:07:05,280 --> 00:07:11,400 هي ان ال inputs هذه تبع ال Perceptron ال inputs 83 00:07:11,400 --> 00:07:21,540 هذه X1 و X2 تمام لها أوزان W1 و W2 عملية ال 84 00:07:21,540 --> 00:07:24,960 summation اللي بيصير بداخل ال Perceptron اللي 85 00:07:24,960 --> 00:07:27,620 بيصير بداخل ال Perceptron هي weighted sum 86 00:07:27,620 --> 00:07:31,610 operation المعنى انه كل inputالـ input سبعته 87 00:07:31,610 --> 00:07:34,310 مابنجمعوش زي ما هم مابنضعوه في الأول بالإيش 88 00:07:34,310 --> 00:07:42,570 بالأوزان تبعهم weighted sum الأوزان هذه هي المحور 89 00:07:42,570 --> 00:07:46,730 عملية التعليق بمعنى إيش أنه إذا حسب ال perceptron 90 00:07:46,730 --> 00:07:55,750 طلب معاه error هذا 91 00:07:55,750 --> 00:07:59,650 ال errorبدي نعكس .. بدي ترتب عليه تعديل في الأوزان 92 00:07:59,650 --> 00:08:04,490 أوزانها دي إما بتزيد أو بتتقيل عشان المرة الجاية 93 00:08:04,490 --> 00:08:10,310 اللي بنعطيله ال input اللي بعد هيكه يحسب من جديد و 94 00:08:10,310 --> 00:08:15,490 يكون اقترب أكتر من الصورة اقترب اكتر من الصورة 95 00:08:15,490 --> 00:08:18,570 يبقى الأن آلية عمل ال perseverance اللي هي أنه 96 00:08:18,570 --> 00:08:22,570 أولا هو بيعمل combination بيعمل combining لل input 97 00:08:22,570 --> 00:08:27,140 طبعا بس لازم يضرب كل input بالإياشبالوزن تبعه 98 00:08:27,140 --> 00:08:32,760 بيقارن ال sum ال total بال threshold و هنا على ال 99 00:08:32,760 --> 00:08:35,860 threshold بيقول ال output ال output هذا بيقارنه 100 00:08:35,860 --> 00:08:39,260 بال desired output هذا هم يكون supervised learning 101 00:08:39,260 --> 00:08:42,900 لازم يكون ال input دخل ودخلنا معاها كمان أيش هاي 102 00:08:42,900 --> 00:08:47,860 input بدخل و بدخل معاها كمان أيش ال desired هو 103 00:08:47,860 --> 00:08:53,100 بيقارن هذا بهذا و الفرق ما بينهم هو عبارة عن أيش 104 00:08:54,020 --> 00:08:58,020 بالـ error ال P هذه اختصار لل iteration يعني P1 105 00:08:58,020 --> 00:09:01,940 سواء iteration وان احنا بندرب ال Perceptron على 106 00:09:01,940 --> 00:09:06,860 عدة iterations P1, P2, P3 لعديد مثلا مائة 107 00:09:06,860 --> 00:09:11,340 iterations او مائتين iterations okay الآن زي ما 108 00:09:11,340 --> 00:09:15,040 قلنا اذا في error اذا في error ما بين ال Y اللي 109 00:09:15,040 --> 00:09:19,020 حسبها ال Perceptron من ال Y اللي المفروض تطلع هذا 110 00:09:19,020 --> 00:09:25,090 الكلام بنعكس على الأوزان الأوزان بتتغيركيف تتغير 111 00:09:25,090 --> 00:09:29,290 الأوزان ببساطة 112 00:09:29,290 --> 00:09:38,450 شديدة لان نحن جايبين الأوزان السابقة إيش 113 00:09:38,450 --> 00:09:43,010 معناته ال iteration القادمة هذا ال iteration 114 00:09:43,010 --> 00:09:47,730 الحالية هذا ال error هذا ال error في iteration 115 00:09:47,730 --> 00:09:50,030 الحالية مضروب في إيش؟ 116 00:09:58,070 --> 00:10:05,210 الوزن هذا الوزن 117 00:10:05,210 --> 00:10:14,210 السابق الوزن السابق الوزن السابق الوزن السابق 118 00:10:14,210 --> 00:10:18,550 الوزن السابق الوزن السابق الوزن السابق الوزن 119 00:10:18,550 --> 00:10:21,130 السابق الوزن السابق الوزن السابق الوزن السابق 120 00:10:21,130 --> 00:10:21,810 الوزن السابق الوزن السابق الوزن السابق الوزن 121 00:10:21,810 --> 00:10:22,490 السابق الوزن السابق الوزن السابق الوزن السابق 122 00:10:22,490 --> 00:10:22,610 السابق الوزن السابق الوزن السابق الوزن السابق 123 00:10:22,610 --> 00:10:23,330 الوزن السابق الوزن السابق الوزن السابق الوزن 124 00:10:23,330 --> 00:10:27,520 السابق الوزن السابق الوزن السابق الوبنفهم ايش يعني 125 00:10:27,520 --> 00:10:39,320 learning rate بس المهم ان الوزن الجديد ايه 126 00:10:39,320 --> 00:10:43,320 شو ساوي الوزن الحالي الوزن الجديد يعني ايه ايش 127 00:10:43,320 --> 00:10:46,940 يعني الوزن اللي هيكون في ال iteration القادمة ساوي 128 00:10:46,940 --> 00:10:52,600 الوزن الحالي زائد حاصل ضرب ال input مضروب في ال 129 00:10:52,600 --> 00:10:54,300 error مضروب في ال 130 00:10:57,110 --> 00:11:02,030 الألفة المصبوط الألفة اللي هي learning rate هذا 131 00:11:02,030 --> 00:11:08,470 الكلام من عمل للوزن تبع X1 ومن عمل أيضا للوزن تبع 132 00:11:08,470 --> 00:11:17,810 X2 وإذا في كمان other inputs من عمل إلهم كلهم 133 00:11:17,810 --> 00:11:25,110 خلّيني 134 00:11:25,110 --> 00:11:31,110 أشوف مثلًا عملي على هذا الكلاملو انا فيها اندي ال 135 00:11:31,110 --> 00:11:38,150 truth function تبع ال end تعرف ال end بيناقيها two 136 00:11:38,150 --> 00:11:44,490 values او two binary values والoutput تبعهم او ال 137 00:11:44,490 --> 00:11:53,670 end تبعهم زي 138 00:11:53,670 --> 00:11:59,810 هي انا ال truth table تبعend operation انت الآن 139 00:11:59,810 --> 00:12:06,650 تتبع ان X1 و X2 هم ال inputs اللي بيدخلهم على ال 140 00:12:06,650 --> 00:12:11,310 Perceptron و ال Perceptron وظيفته ان يتعلم اللحظة 141 00:12:11,310 --> 00:12:14,830 ما بينهم ال end relationship ما بينهم و دايما 142 00:12:14,830 --> 00:12:19,190 يعطيني ال output بالشكل هذا احنا و احنا في عملية 143 00:12:19,190 --> 00:12:23,430 التدريب هندخله ال inputs وندخله ال desired output 144 00:12:24,520 --> 00:12:29,340 هو لأنه عندما يأخذ ال input ويحسبه إذا طلع ال 145 00:12:29,340 --> 00:12:33,560 output اللي حسبه مخالف لهذا الكلام يبقى فيه error 146 00:12:33,560 --> 00:12:41,700 في error اللي هو بيعدل على مين بيعدل عليهش على 147 00:12:41,700 --> 00:12:46,080 الأوزان الأوزان هذه بيزيد أو تنقص ال iteration 148 00:12:46,080 --> 00:12:50,420 اللي بعدها بيدخله ال input اللي بعده وبيكرر 149 00:12:50,420 --> 00:12:54,330 العملية هذا الكلام احنا بنعمله مش بس أربع مراتممكن 150 00:12:54,330 --> 00:12:59,710 نقيلها على قد أشواط كل أشواط ندخله الأربع هدولة 151 00:12:59,710 --> 00:13:04,410 مرة أخرى يعني زي هيك مش عارف إذا كان واضح هذي ال 152 00:13:04,410 --> 00:13:10,810 slide ولا لا بس أنت بص عليها و تخيل أو بص على 153 00:13:10,810 --> 00:13:16,670 الرسم هذه ال epoch هي مجموعة iterations مجموعة 154 00:13:16,670 --> 00:13:19,470 iterations هاي هذه iteration iteration iteration 155 00:13:19,470 --> 00:13:25,850 في ال iteration واحدة ندخله إيش؟بتدخله أيضا 156 00:13:25,850 --> 00:13:30,490 desired output الأوزان 157 00:13:30,490 --> 00:13:34,190 هذه بتكون عملها initialization عشوائي random 158 00:13:34,190 --> 00:13:39,910 variables يعني هنا مثلا بناء على الجدول هذه ال W1 159 00:13:39,910 --> 00:13:49,190 كانت 0.3 هذا ال initial value تبع W1 و ال W2 كان 160 00:13:49,190 --> 00:13:49,530 ايش 161 00:13:52,610 --> 00:14:01,710 نقص 0 نقص 0.1 صح لا الهدف نشوف احنا نحسبها ايش ال 162 00:14:01,710 --> 00:14:06,750 input؟ Zero صح Zero Zero في ال iteration الأولى ال 163 00:14:06,750 --> 00:14:11,330 input Zero Zero ثم رح نضغط بال Zero هذا في ال 164 00:14:11,330 --> 00:14:13,350 weight وال Zero هذا في ال weight ونجمع طبعا مبين 165 00:14:13,350 --> 00:14:20,510 ان المجموع Zero Zero هذا اللي هو ال total ال sum 166 00:14:20,830 --> 00:14:28,170 تبع XI مضروب في Wi يساوي 0 يعني هذا مقارنة بال 167 00:14:28,170 --> 00:14:28,670 threshold 168 00:14:50,640 --> 00:14:57,060 فاشلو قلّي أن θ يساوي 0 أه خلّيني بس أطلّع ال 169 00:14:57,060 --> 00:15:12,460 slide تبعتها طيب 170 00:15:12,460 --> 00:15:17,040 okay 0 طب إيش معنى ذلك الكلام 171 00:15:33,810 --> 00:15:38,710 أيه ال output اللي هيطلع؟ إذا كان أنا المجموعة تبع 172 00:15:38,710 --> 00:15:41,970 ال zero و ال threshold تبع ال zero هيطلع ال output 173 00:15:41,970 --> 00:15:46,930 one ولا plus one؟ one ولا .. one ولا zero؟ ال 174 00:15:46,930 --> 00:15:51,150 output يعني طلع ال actual output طلع ال zero لأنه 175 00:15:51,150 --> 00:15:54,790 لازم يبقى ال output لازم يبقى ال sum أكبر من zero 176 00:15:54,790 --> 00:16:00,650 عشان يطلع one المطالبة أنه less than or equalلأ 177 00:16:00,650 --> 00:16:03,610 للـ threshold الـ threshold اللي هو قلنا هنا أن θ 178 00:16:03,610 --> 00:16:12,270 بساوي 0 طالما أن ال sum هذا طلع يساوى 0 في ال 179 00:16:12,270 --> 00:16:17,270 output اللي حيطلع على 0 هذا ال actual output و من 180 00:16:17,270 --> 00:16:20,430 ال desired output هاي ال desired output فيهم فرق؟ 181 00:16:20,430 --> 00:16:23,770 لأ مافيش فرق يبقى ال error zero يتعدى ليش على 182 00:16:23,770 --> 00:16:30,720 الأوزان؟ لأ و يبقى الأوزان زمهية الانهذا الكلام في 183 00:16:30,720 --> 00:16:33,380 الliterature الأولى الliterature الثانية ماهو ال 184 00:16:33,380 --> 00:16:38,100 input اللي هيدخل ال input هذا واحد و ال zero نفس 185 00:16:38,100 --> 00:16:48,040 الشيء و ليه مش نفس الشيء واحد هينضرب في ايش 186 00:16:48,040 --> 00:16:51,900 واحد 187 00:16:51,900 --> 00:16:57,640 هينضرب في ال zero point تلاتة و ال zero هينضرب في 188 00:16:57,640 --> 00:17:05,890 ال output التانياللي هو 0.1 إيش هيطلع المجموع؟ 0.3 189 00:17:05,890 --> 00:17:12,930 OK خلّيني أشوف أن أنا بتتأكد أن ال threshold احنا 190 00:17:12,930 --> 00:17:15,590 الآن بناء على هذا الكلام زي كده ال threshold بيصير 191 00:17:15,590 --> 00:17:21,510 0 إحنا عندنا 0.3 0 192 00:17:21,510 --> 00:17:25,410 .3 المفروض تعطيني إيش threshold؟ إيش تعطيني 193 00:17:25,410 --> 00:17:34,380 output؟ تعطيني واحدةأعطينا واحد لأن الـ 0.3 أكبر 194 00:17:34,380 --> 00:17:38,420 منه دعونا نشوف ال step function اللي بيستخدمها ال 195 00:17:38,420 --> 00:17:53,160 step 196 00:17:53,160 --> 00:17:59,000 function اللي بيستخدمها إذا 197 00:18:01,030 --> 00:18:06,310 طلعت واحد ولا سفر؟ طلعت سفر لل threshold إذا أكبر 198 00:18:06,310 --> 00:18:12,570 من أو تساوي زيرو بيطلع واحد فإلا بيطلع زيرو بس أنا 199 00:18:12,570 --> 00:18:18,070 كده مانتبقش على ال table ال table أنتم معايا واضحة 200 00:18:18,070 --> 00:18:22,830 أن المشكلة المشكلة أنه لما أنا بدأ أجي أحسب واحد 201 00:18:22,830 --> 00:18:29,270 ضرب 0.3 ايش بيطلع؟0.3 بجمعها على الـ 0 هدا بطلع 0 202 00:18:29,270 --> 00:18:32,390 .3 الـ 0.3 هدا أكبر من الـ 0 المفروض يطلع لـ 203 00:18:32,390 --> 00:18:38,970 output 1 فهنا ال output إيش اللي نطلع الـ 0.1 لتحت 204 00:18:38,970 --> 00:18:43,790 الـ 0.1 لتحت الـ 0.1 لتحت الـ 0.1 لتحت الـ 0.1 205 00:18:43,790 --> 00:18:54,210 لتحت الـ 0.1 لتحت الـ 0.1 لتحت الـ 0.1 لتحت 206 00:18:54,210 --> 00:19:02,460 الـ 0.1هكذا اصبحت مظبوط انا جربت ال one x واحد 207 00:19:02,460 --> 00:19:07,160 واكس اثنين صح؟ Zero ضارب Zero point ثلاث بيطلع 208 00:19:07,160 --> 00:19:16,280 Zero وهذا واحد ضارب سالب واحد وعشرة بيطلع سالب 209 00:19:16,280 --> 00:19:20,460 مظبوط؟ 210 00:19:20,460 --> 00:19:26,520 فهكذا بيطلع Zero بيطلع أكبر Zeroبطلع ال output 0 211 00:19:26,520 --> 00:19:30,640 فمرة تانية مرة تانية ال input اللى بدخل فى ال 212 00:19:30,640 --> 00:19:33,100 iteration ال input اللى بدخل فى ال iteration 213 00:19:33,100 --> 00:19:38,400 التانية هو 0 لل X1 و 1 لل X2 بنضربه كل واحد فى 214 00:19:38,400 --> 00:19:43,960 الوزن تبعه وبطلع المجموع ناقص أو سالف 0.1 هذا 215 00:19:43,960 --> 00:19:51,400 بيطلعلي output 0 مظبوط ال output 0 هذا زى و زى ال 216 00:19:51,400 --> 00:19:56,350 desired output فبطلع في ال share نفس ال shareلما 217 00:19:56,350 --> 00:20:01,070 ندّه في iteration تلاتة بيكون وضع عندي زيك واجدها 218 00:20:01,070 --> 00:20:08,530 بيطلع عندي plus 0.3 plus 0.3 بيوقيني a calculated 219 00:20:08,530 --> 00:20:13,850 output of one ال one هذا مخالف لل ash لل desired 220 00:20:13,850 --> 00:20:17,030 والفرق ما بينهم ناقص واحد لإن احنا بنجيب ال 221 00:20:17,030 --> 00:20:21,410 desired ناقص ال actual او ال calculated فبطلع ال 222 00:20:21,410 --> 00:20:24,770 difference سالب واحد هذا ال difference اللي هو ال 223 00:20:24,770 --> 00:20:31,900 errorالان ترتب على تعديل الأوزان ايه معادلة تعديل 224 00:20:31,900 --> 00:20:37,140 الأوزان اللى طلعنا عليها ان 225 00:20:37,140 --> 00:20:43,380 ال W I 226 00:20:43,380 --> 00:20:47,180 لإتراشن 227 00:20:47,180 --> 00:20:56,350 القادمة WI لإتراشن الحاليةزائد Alpha مضروبة في X 228 00:20:56,350 --> 00:21:04,910 الوزن الحالي مضروبة في X الوزن الحالي مضروبة في X 229 00:21:04,910 --> 00:21:10,350 الوزن 230 00:21:10,350 --> 00:21:12,250 الحالي مضروبة في X الوزن الحالي مضروبة في X الوزن 231 00:21:12,250 --> 00:21:15,250 الحالي مضروبة في X الوزن الحالي مضروبة في X الوزن 232 00:21:15,250 --> 00:21:16,330 الحالي مضروبة في X الوزن الحالي مضروبة في X الوزن 233 00:21:16,330 --> 00:21:16,890 الحالي مضروبة في X الوزن الحالي مضروبة في X الوزن 234 00:21:16,890 --> 00:21:17,810 الحالي مضروبة في X الوزن الحالي مضروبة في X الوزن 235 00:21:17,810 --> 00:21:20,690 الحالي مضروبة في X الوزن الحالي مضروبة في X الوزن 236 00:21:20,690 --> 00:21:27,690 الحالألفة نتعامل معها لإنها 0.2 ألفة 237 00:21:27,690 --> 00:21:31,070 بالساوية 0.2 وهذا تقولنا إيش اسمه ال learning rate 238 00:21:31,070 --> 00:21:34,990 اللي هان بدنا نشوف أثر كبر أو زغر هذا الرقم على 239 00:21:34,990 --> 00:21:42,830 عملية التعليم بس قدامي فعلا 0.2 مضروف في إيش ال 240 00:21:42,830 --> 00:21:50,570 input الحالي واحد مضروف في البزن الحالي اللي هو 0 241 00:21:50,570 --> 00:21:59,230 .3صح يساوي 0.3 زائد لأ انا اللطف مش الوزن ال error 242 00:21:59,230 --> 00:22:05,890 صح ال error ال 243 00:22:05,890 --> 00:22:15,310 error اللي هو قداش ال error ال ناقص صح مظبوط يبقى 244 00:22:15,310 --> 00:22:20,410 يبقى 245 00:22:20,410 --> 00:22:20,510 ايه 246 00:22:33,890 --> 00:22:46,490 مرة تانية واحدة معجلة wi plus one ساوى السابق زاد 247 00:22:46,490 --> 00:22:46,930 ال delta 248 00:22:54,390 --> 00:22:59,130 هذه دلتا دلتا 249 00:22:59,130 --> 00:23:05,710 هي مقرار الزيادة احسبها كتابي بساوية ال alpha ضرب 250 00:23:05,710 --> 00:23:09,450 ال X انا 251 00:23:09,450 --> 00:23:12,590 ببدأ اختصر ال P هي اللي بختصرها انا ببدأ اضرب ال E 252 00:23:12,590 --> 00:23:20,230 ايه بمصبوط هيك او لا لأ هذه لحالة هيك البعد الزائد 253 00:23:20,230 --> 00:23:32,830 هو دلتا نفسه صحماذا قبل أن نقول هو X1-1 X1 254 00:23:32,830 --> 00:23:43,870 -1 X1-1 X1-1 X1 255 00:23:43,870 --> 00:24:00,680 -1 X1-1 X1-1لأن اجمعه على الـ 0.3 بيطلع 0.1 لماذا 256 00:24:00,680 --> 00:24:07,500 0.1؟ 257 00:24:07,500 --> 00:24:15,420 المفروض 0.2 نتأكد مرة تانية لأن السابق كان 0.3 258 00:24:15,420 --> 00:24:27,670 السابق كان 0.3الـ 0.2 بالسابق فيطلع 0.1 بالموجة 259 00:24:27,670 --> 00:24:36,370 فهناك شيء غلط فهناك شيء غلط دعونا نتأكد أن حسبة 260 00:24:36,370 --> 00:24:51,900 هذا كمية سليمة هنا الـ W2 W2 P plus 1 السابقة 0لأ 261 00:24:51,900 --> 00:24:59,060 ناقص 0.1 و ال delta هي عبارة عن ال 262 00:24:59,060 --> 00:25:06,260 alpha هي 0.2 مضروف في ايش مضروف في ال x اللي هي 0 263 00:25:06,260 --> 00:25:11,660 مضروف في ال error كل هذا بيطلع zero و بيبقى زي ما 264 00:25:11,660 --> 00:25:16,460 هي وهذا صحيح ماشي مع الجدول ايش الغلط اللي عندنا 265 00:25:16,460 --> 00:25:26,290 هنا اللي خلّها بتطلع معاناالزي ال واحد هذا غلط هذا 266 00:25:26,290 --> 00:25:31,190 مش زي ال jet white ايش السبب انك حضرت واحد X انه 267 00:25:31,190 --> 00:25:34,830 ايه حضرت معوض على X واحد انت بتاعت معوض عليها في 268 00:25:34,830 --> 00:25:38,710 سفر ماهي واحد ايه X واحد واحد طب ايه معوض تاعت 269 00:25:38,710 --> 00:25:43,170 عليها في سفر وين انا موراها هذا لا هذا لا X اتنين 270 00:25:43,170 --> 00:25:48,570 هذا لا الوزن التاني احنا الان نحصل في الوزن الاول 271 00:25:49,600 --> 00:25:54,300 وزن الأول حسبنا طلع معنا 0.1 هو المفروض في الجدول 272 00:25:54,300 --> 00:26:02,420 0.2 اه المفروض يطلع .. احنا حسبنا كان السابق الوزن 273 00:26:02,420 --> 00:26:06,520 السابق 0.3 مظبوط إضافة إلى ال delta ال delta هي 274 00:26:06,520 --> 00:26:11,320 عبارة عن ال learning rate احتمال ال learning rate 275 00:26:11,320 --> 00:26:16,480 مش 0.2 احتمال يكون 0.1 بس انا غلطان خليني اتأكد ان 276 00:26:16,480 --> 00:26:20,460 ال learning rate هوهي مالهاش الا هيك هي مالهاش الا 277 00:26:20,460 --> 00:26:29,880 انه ال ال alpha بساوي 0.1 طيب 278 00:26:29,880 --> 00:26:33,880 لو أخدها على أنها 0.1 بيطلع مظبوط صح؟ بيطلع point 279 00:26:33,880 --> 00:26:37,620 two خلاص 280 00:26:37,620 --> 00:26:41,740 ماشي هي حتما هيك بس أنا بدور عليها عشان أتأكد مش 281 00:26:41,740 --> 00:26:42,320 شايفها 282 00:27:04,770 --> 00:27:09,930 بنكمل الآن هنا زي ما انت شايفين جدول لما بدأنا ال 283 00:27:09,930 --> 00:27:13,770 iteration جديدة بدأت الأوزان معانا على الأوزان 284 00:27:13,770 --> 00:27:18,810 الجديدة صح لأ فرق الأوزان الجديدة هي محل الأوزان 285 00:27:18,810 --> 00:27:28,890 الجديدة 0.2 هنا أو نقص 0.1تحت next name حسبنا الان 286 00:27:28,890 --> 00:27:33,790 هيطلع ال actual و ال desired غير عن بعض ال error 287 00:27:33,790 --> 00:27:39,630 واحد نقص زيرو يسوى واحد واحد الان بماذا؟ بموجة 288 00:27:39,630 --> 00:27:48,050 احسب الأوزان الجديدة لأ w واحد w واحد iteration 289 00:27:48,050 --> 00:27:55,660 هذه رقم أربع صح بساوي الأوزان تبعد بساوي الالوزن 290 00:27:55,660 --> 00:28:01,040 السابق في iteration رقم تلاتة لأ احنا نحصل على رقم 291 00:28:01,040 --> 00:28:05,080 خمسة نحصل عزيزي على رقم خمسة كده كانت في الرقم 292 00:28:05,080 --> 00:28:12,680 أربعة زائن ايش مضروف بالألفة اي 0.1 مضروف بال X اي 293 00:28:12,680 --> 00:28:21,000 واحد مضروف بال error اللي هو واحد صح؟ اذا كده كانت 294 00:28:21,000 --> 00:28:26,590 هذه في iteration أربعة كانت 0.2زائد الان جديش هذا 295 00:28:26,590 --> 00:28:38,410 المفضل ايش هطلع نصبوت نصبوت لما نحسب وزن w2 لل 296 00:28:38,410 --> 00:28:47,670 iteration الجاية بالساوي 0.2 نفسك لأ مش 0.2 w2 297 00:28:47,670 --> 00:28:59,240 في iteration 4 زائد ايش نفس الاشي صح0.1 المضروب في 298 00:28:59,240 --> 00:29:05,980 واحد ال input كان واحد وال error واحد كده ايه درجة 299 00:29:05,980 --> 00:29:15,560 2؟ سالب واحد سالب واحد ساعد 0.1 زائد 0.1 يعني ساوة 300 00:29:15,560 --> 00:29:20,780 صفر صح؟ صح اتلا معناك مظبوط ال error الجديد ال 301 00:29:20,780 --> 00:29:25,870 weight الجديدهذا الكلام الآن ايش اللي بيحصل ان 302 00:29:25,870 --> 00:29:32,370 تدريجيا الأوزان هذه بدأت على ال initial weights 303 00:29:32,370 --> 00:29:39,790 كانت 0.3 مع نقطة 0.1 تدريجيا تبدأ تتغير إلى أن في 304 00:29:39,790 --> 00:29:46,950 الآخر تستقر عمليا بدأت تستقر من هنا بدأت تستقر 305 00:29:46,950 --> 00:29:51,650 الأوزانIteration هو إترايش مابيحصل أي تغيير هدف حد 306 00:29:51,650 --> 00:29:59,850 ذاته مؤشر على إن ال Perceptron بطل يعمل Errors صح 307 00:29:59,850 --> 00:30:05,930 بقوله بقى بطل يعمل Errors أوزانه تبعته ثبتت و 308 00:30:05,930 --> 00:30:13,830 دايما ال desired مطابق لل actual و إتر نقدر نقول 309 00:30:13,830 --> 00:30:19,070 إن ال Perceptron اتعلم ال Perceptronاتعلم اتعلم 310 00:30:19,070 --> 00:30:27,010 ايش اتعلم انه يعطيني ال output الصحيح ل ال end 311 00:30:27,010 --> 00:30:31,490 function لما اعطيله two inputs بيعطيني ال end 312 00:30:31,490 --> 00:30:36,310 تبعهم هذا مثال بسيط جدا انا مش محتاج اجيب 313 00:30:36,310 --> 00:30:40,670 perceptron و اعلمه علشان احسب ال end gate او ال 314 00:30:40,670 --> 00:30:44,830 end function صح ولا لأ if zero and zero بطلع ال 315 00:30:44,830 --> 00:30:50,280 zeroF one and one بطلها one otherwise بطلها zero 316 00:30:50,280 --> 00:30:54,520 كلها F statement واحد مظبوط بس احنا هذا الكلام 317 00:30:54,520 --> 00:30:59,480 مشينا فيه عشان نوضح فكرة او نوضح قالية تعاملهم في 318 00:30:59,480 --> 00:31:03,060 ال Perceptron القالية هذه هي اللي بنبنى عليها تبع 319 00:31:03,060 --> 00:31:07,280 ال Perceptron هي اللي بنبنى عليهاالتعلم في الشبكة 320 00:31:07,280 --> 00:31:11,200 شبكة من ال perceptrons اللي هي نور ال network يعني 321 00:31:11,200 --> 00:31:14,860 نور ال network هي عبارة عن شبكة من ال perceptrons 322 00:31:14,860 --> 00:31:18,740 هذه و بتشتغل بنفس القليل انه perceptron الواحد في 323 00:31:18,740 --> 00:31:27,060 هذه الشبكة الشبكة ممكن تبقى زي هيك و هيك كل واحد 324 00:31:27,060 --> 00:31:30,640 من الدلائل هذه هي عبارة عن perceptron فنسميه 325 00:31:30,640 --> 00:31:35,020 neuron بالبسيط كل واحد منهم زي ما انت شايفبدخل 326 00:31:35,020 --> 00:31:39,460 عليه مجموعة input و بطلع منه مجموعة output ال 327 00:31:39,460 --> 00:31:42,900 output في واقع الأمر هم ال duplicates يعني هو نفس 328 00:31:42,900 --> 00:31:49,100 ال output هو بطلع output واحد بس بتعمم يعني هذا ال 329 00:31:49,100 --> 00:31:55,340 neuron بطلع منه نفس ال output بس بتعمم على مين على 330 00:31:55,340 --> 00:32:00,840 كل ال neurons اللي في المرحلة اللي بعد اللي في 331 00:32:00,840 --> 00:32:08,650 الطبقة اللي بعدهاكل واحد من هذول نسميهم layer هذي 332 00:32:08,650 --> 00:32:10,890 الأخيرة بيسميها output layer لإن هي اللي بيطلع 333 00:32:10,890 --> 00:32:15,250 فيها ال output و هذي بيسميها ال input layer و هذول 334 00:32:15,250 --> 00:32:19,490 التانين اللي في المصدر بيسميهم hidden layers ال 335 00:32:19,490 --> 00:32:25,370 input layer عمليا هذول المربعات دي ماهياش neurons 336 00:32:25,370 --> 00:32:30,090 الدوية بس ال neurons ايش يعني مش neuronsالمقاربعات 337 00:32:30,090 --> 00:32:33,710 يعني ما بتعملش summation ولا بتعمل activation ولا 338 00:32:33,710 --> 00:32:39,450 بتعمل أي اشي بس مجرد نقطة تشعب ال input فيها بتوزع 339 00:32:39,450 --> 00:32:47,350 على هم هدول الدوائر هم اللي بيعملوا ال weighted 340 00:32:47,350 --> 00:32:51,670 sum وال activation ال calculation هنا ال 341 00:32:51,670 --> 00:32:56,010 activation أصبحت عبارة عن مقارنة ال sum بال 342 00:32:56,010 --> 00:33:00,120 thresholdبنطلع ال output بناء على هذا المقارنة 343 00:33:00,120 --> 00:33:04,460 فالان بدأ ارجع انا قبل ما نفهم قالية عمل ال 344 00:33:04,460 --> 00:33:07,680 network ككل بدأ ارجع على مفهوم ال activation 345 00:33:07,680 --> 00:33:12,480 function احنا شوفنا ال step لما كنا بنقول بنقارن 346 00:33:12,480 --> 00:33:20,360 بال zero كان هذا الكلام جاي 347 00:33:20,360 --> 00:33:26,310 من هنا هذول الأربعةيعني بقى أربع أنواع من ال 348 00:33:26,310 --> 00:33:30,050 activation functions ال activation functions بتاكل 349 00:33:30,050 --> 00:33:35,730 X كابيتل هذا هو ال sum هو ال sum اي sum ال 350 00:33:35,730 --> 00:33:40,830 weighted sum تبع حاصل جمع مضاريب ال inputs في 351 00:33:40,830 --> 00:33:46,490 أوزانها صح الكلام حاصل جمع مضاريب ال inputs في 352 00:33:46,490 --> 00:33:50,430 أوزانها بيطلع عندي ال weighted sum بالان على ال 353 00:33:50,430 --> 00:33:54,520 sum هذا و بالان على ال thresholdالـ function بتطلع 354 00:33:54,520 --> 00:33:57,380 هذه ال output هذه اسمها step function كيف ال 355 00:33:57,380 --> 00:34:00,400 output تبعها اللي هو احنا شفناه أتابعه في المثال 356 00:34:00,400 --> 00:34:06,100 إذا X X capital اللي هي ال weighted sum أكبر من أو 357 00:34:06,100 --> 00:34:11,540 تساوي ال zero تعطيني one أقل تعطيني ال zero هذه ال 358 00:34:11,540 --> 00:34:15,200 function اسمها ال sine function زي ال step زي ال 359 00:34:15,200 --> 00:34:21,650 step بس ال output تبعها مش 01 سالب one و plus oneو 360 00:34:21,650 --> 00:34:24,870 برضه نفس الشيء إذا كان ال X أكبر من أسفل 0 361 00:34:24,870 --> 00:34:30,470 فبتعطيني plus one و إلا تعطيني negative one في 362 00:34:30,470 --> 00:34:33,670 حاجة اسمها segment function segment function هذه 363 00:34:33,670 --> 00:34:39,750 معادلة sum نحط السنة فوق الأبسلون فوق ال E و ال 364 00:34:39,750 --> 00:34:44,250 output هنا الآن بيطلع رقم عشري مش عشري مش binary 365 00:34:44,250 --> 00:34:48,410 هذوله binary ده صح هذوله binary ال output ال Y هنا 366 00:34:48,740 --> 00:34:51,480 يا إما بيجي وانا zero يا إما بيجي plus one أو 367 00:34:51,480 --> 00:34:56,560 minus one أنا 110 و ال linear نفس اللي بدخل عليها 368 00:34:56,560 --> 00:35:02,480 بتطلعلي مقابله value إحنا الآن يا إما في الامترال 369 00:35:02,480 --> 00:35:05,560 اللي قدام يا إما بتكون ال activation function step 370 00:35:05,560 --> 00:35:10,960 أو sign أو sigmoid خليني 371 00:35:10,960 --> 00:35:14,200 أنا أطلع على لو أنا عندي مش perceptron واحد عندي 372 00:35:14,200 --> 00:35:17,740 network من ال من ال neurons 373 00:35:21,350 --> 00:35:25,870 بالمثال هذا أعطيك فكرة لإيش ممكن تستخدم نور ال 374 00:35:25,870 --> 00:35:30,890 network أو ال perceptron انت اتبر ان هدولة انكس 375 00:35:30,890 --> 00:35:35,010 الان vectors 376 00:35:35,010 --> 00:35:40,370 و ال vectors هذه عندي هنا في الحالة هذه X1 و X2 377 00:35:40,370 --> 00:35:46,430 لكن تخيل ممكن تبقى خمسة X's X1, X2, X3, X4, X5 و 378 00:35:46,430 --> 00:35:47,330 ال vectors هذه 379 00:35:51,610 --> 00:35:58,290 رقم هنا إيه معنى إيه دلالة ال network اتعلمت إنها 380 00:35:58,290 --> 00:36:01,390 لما تشوف فائدة تعطينا output هذا لما تشوف فائدة 381 00:36:01,390 --> 00:36:04,350 تعطينا output هذا لما تشوف input هذا تعطينا output 382 00:36:04,350 --> 00:36:10,080 هذاهذا ما نسميه classification انه يدخل عليها 383 00:36:10,080 --> 00:36:15,000 input input vector وهي بتصنف ليه ينتمي إلى هذا 384 00:36:15,000 --> 00:36:19,960 الفئة أو هذا الفئة جامعة ال zero او جامعة ال one 385 00:36:19,960 --> 00:36:23,540 جامعة ال zero هيكون لهم دلالة معينة وجامعة ال one 386 00:36:23,540 --> 00:36:28,080 لهم دلالة معينة اخرى فال neural network عادة 387 00:36:28,080 --> 00:36:30,880 مستخدم في التصنيف نعطيها vectors و ال vectors هذه 388 00:36:30,880 --> 00:36:34,420 لها معنى مثلا بنقول انه أنا مجموع من الأشخاص 389 00:36:34,730 --> 00:36:39,930 الاشخاص هذا احنا عنا الخصائص تبعتهم، بقول مثلا طول 390 00:36:39,930 --> 00:36:44,810 الشخص ووزن الشخص، عمر الشخص وما إلى ذلك، ونعطيها 391 00:36:44,810 --> 00:36:50,170 ميت شخص كل واحد إله إيش الفئام تبعته، و هي بتتعلم 392 00:36:50,170 --> 00:36:55,510 تصنيفهم، إن والله هدول الأشخاص ذكور، هدولها إنث، 393 00:36:55,510 --> 00:36:59,650 بناء على التدريب اللي احنا بندربله، بنقولهم .. 394 00:36:59,650 --> 00:37:04,840 بنقولها إنه .. كل شخص بنقولها إنه إيشهو ذاكر ولا 395 00:37:04,840 --> 00:37:10,120 أنثى بعد ما تتدرب وتخلص نسألها عن أي شخص جديد فهي 396 00:37:10,120 --> 00:37:17,600 بتعرف اذا كان التصنيف تبعه ذاكر ولا أنثى الان بدنا 397 00:37:17,600 --> 00:37:21,040 نشوف اللي هو ال multi-layer Perceptron اللي هو 398 00:37:21,040 --> 00:37:24,560 الكلام اللي طلعناه قبل قليل شوية وكيف قالية العمل 399 00:37:24,560 --> 00:37:30,080 مثل هذا النوع من ال networks لاحظ انه 400 00:37:34,600 --> 00:37:39,840 لحظ أنه لو أحنا مدنيين خلّيني أخد مثال أبسط منها 401 00:37:39,840 --> 00:37:43,700 ده يعني ناخد مثال في network تحتوي على hidden 402 00:37:43,700 --> 00:37:50,280 layer واحدة زي hidden hidden layer واحدة هذا input 403 00:37:50,280 --> 00:37:56,200 layer وهذا hidden layer وهذا output layer الان لو 404 00:37:56,200 --> 00:37:59,820 أنت جيت فكرت في هذا الكلام تلاقي أن في أحنا مشكلة 405 00:37:59,820 --> 00:38:05,240 وهي إيشالـ neurons اللي هنا اللي على ال output 406 00:38:05,240 --> 00:38:11,500 layer لما انا بده ادخل ال input هدخل معاه ال 407 00:38:11,500 --> 00:38:16,680 desired output تمام 408 00:38:16,680 --> 00:38:24,060 هدخل ال desired الـ desired YD 1 YD 2 YD K YD L 409 00:38:24,060 --> 00:38:31,220 الان كل واحد من هدول ال neurons اللي هنا هتقدر 410 00:38:31,220 --> 00:38:36,170 تحسب ال errorما بين ال output اللى طلعته وما بين 411 00:38:36,170 --> 00:38:51,930 ال output ال actual صح ولا لأ كمان 412 00:38:51,930 --> 00:38:56,830 حاصر الفرق ما بينهم هو ايش ال error المشكلة هنا 413 00:38:56,830 --> 00:39:03,940 هذه ال node في ال hidden layerما عندهم أي فكرة عنه 414 00:39:03,940 --> 00:39:09,400 كdesire يعني مانعرفش هو ييجي يحسب الفرق ما بين ال 415 00:39:09,400 --> 00:39:13,000 output تبعه وما بين ال desire هو مش مسئول عن ال 416 00:39:13,000 --> 00:39:15,400 desire ده ده اللي مسئول عن ال desire هو مسئول 417 00:39:15,400 --> 00:39:20,560 مسئولية جزئية okay فاحنا الآن بنشوف كيف هدول ال 418 00:39:20,560 --> 00:39:24,560 nodes يعني هدول ال nodes اللي هنا بيحسموا الفرق أو 419 00:39:24,560 --> 00:39:28,200 ال error و بناء على ال error هم بيعدلوا أوزان مين 420 00:39:30,620 --> 00:39:35,580 بعد الأوزان مين ال input اللي داخل عليه كل واحدة 421 00:39:35,580 --> 00:39:39,200 بيسوي الكلام هذا بشكل مباشر بس الجماعة اللي هنا 422 00:39:39,200 --> 00:39:54,300 ايش بيبيسويها أنا كده بشوفه بتفسيري لان هذا 423 00:39:54,300 --> 00:39:55,720 عبارة عن ايش multi layer 424 00:40:04,570 --> 00:40:11,110 بتفشر من ورا ال network طبعا 425 00:40:11,110 --> 00:40:15,270 ال initialization لما نتعامل مع network هبنعمل 426 00:40:15,270 --> 00:40:19,150 initialization برضه عشوائي لمن الأوزان تبع ال 427 00:40:19,150 --> 00:40:25,070 inputs يعني كل واحدة من ال nodes هذه ال node هي ال 428 00:40:25,070 --> 00:40:29,330 inputs تبعونها بنعملها كل واحد منهم ايش أوزان 429 00:40:29,330 --> 00:40:35,930 فالأوزان هذه بتبقى بشكل عشوائيأو موزع بالتساوي كيف 430 00:40:35,930 --> 00:40:43,570 يعني يعني عندي range هنا FI is the total number of 431 00:40:43,570 --> 00:40:47,950 inputs of neuron I يعني عندي نيرون أنا هذا الرقم 432 00:40:47,950 --> 00:40:53,630 واحد أكمل inputs عليه أربعة صح كلهم دولة واحد 433 00:40:53,630 --> 00:40:57,110 اتنين تلاتة كلهم داخل عليهم أربعة inputs فالوزان 434 00:40:57,110 --> 00:41:05,630 تبعتهم يقول two point four على أربعة يساوي ستة0.6 435 00:41:05,630 --> 00:41:12,850 0.6 بالموجة و 0.6 بالسائق يعني تخلي الأرزان تبعتك 436 00:41:12,850 --> 00:41:19,650 تتروح من بين 0.6 إلى 0.6 بتوزع هذا ال range هذا ال 437 00:41:19,650 --> 00:41:25,790 range كده طوله 1.2 دسم ال 1.2 هذا بالتساوي إلى 438 00:41:25,790 --> 00:41:30,510 أربع قيم متساوي 439 00:41:34,040 --> 00:41:36,620 هذه اللي هو ال initialization لأن ال activation 440 00:41:36,620 --> 00:41:41,280 تختار activation function عادة مش هتختار في مسألة 441 00:41:41,280 --> 00:41:47,620 الامتحان هيقولك استخدم ال sigmoid او استخدم ال 442 00:41:47,620 --> 00:41:52,120 step او استخدم ال sign function ايش معناه ذلك؟ 443 00:41:52,120 --> 00:41:58,020 معناه ذلك انه لما تحسب الصم اللي هو دايما الصم هذا 444 00:41:58,020 --> 00:42:02,800 هو اقع عن حاصل جمع ash المضاري المضروب كل input 445 00:42:02,800 --> 00:42:12,260 بال ashبالوزن تبعه هتحسبها و تقسم منهم ال theta ال 446 00:42:12,260 --> 00:42:17,000 threshold تبعنا و ال output هذا و ال total هذا 447 00:42:17,000 --> 00:42:22,640 تدخلوا على seed mode عشان تطلع ال Y ال Y تبع انهي 448 00:42:22,640 --> 00:42:27,060 node تبع ال node اللي انت واقف عليه هنا Yj يعني 449 00:42:27,060 --> 00:42:28,360 node من ال nodes تبع ال 450 00:42:33,540 --> 00:42:38,860 الـ middle layer YK يعني node من الـ node سبعة الـ 451 00:42:38,860 --> 00:42:42,540 output layer أضحك؟ لحظة إن هو .. إيش هنا .. إيش 452 00:42:42,540 --> 00:42:47,200 قال؟ على طول أخد ال .. ال sum و طرح منه ال 453 00:42:47,200 --> 00:42:52,040 threshold okay ال output .. الفرق ما بين ال .. ال 454 00:42:52,040 --> 00:42:54,480 sum و ال threshold هو اللي مدخل على ال segment 455 00:42:54,480 --> 00:43:00,980 okay طيب بعدين هذه .. هذه الخطوة مسمى activation 456 00:43:00,980 --> 00:43:06,310 activation اللي بينتج عنهابينتج عنها هي ال 457 00:43:06,310 --> 00:43:09,930 calculated output بعد ما نحسب ال calculated output 458 00:43:09,930 --> 00:43:18,130 لان نود ايش بنسوي نشوف اذا في error ولا لأ صح okay 459 00:43:18,130 --> 00:43:24,990 نشوف اذا في error ولا لأ اذا 460 00:43:24,990 --> 00:43:28,910 في error معناه ذلك اننا نعمل update للأوزان مافيش 461 00:43:28,910 --> 00:43:35,900 error مافيش update للأوزان updating الأوزان للالـ 462 00:43:35,900 --> 00:43:40,600 output neurons مختلف 463 00:43:40,600 --> 00:43:48,380 عن updating الأوزان لمين للـ hidden neurons تذكر 464 00:43:48,380 --> 00:43:54,260 أن في عندي أحناير hidden layer هنا 465 00:43:54,260 --> 00:43:58,560 output layer ال 466 00:43:58,560 --> 00:43:59,420 output neurons 467 00:44:04,110 --> 00:44:08,550 هو ايش اللي حاسب ال error و لا ال error اللي هو 468 00:44:08,550 --> 00:44:13,750 عبارة عن ايش الفرق بين ال desire ناقص ال 469 00:44:13,750 --> 00:44:20,090 attraction مظبوط هذا ال error بين حسب يدخل في حسبة 470 00:44:20,090 --> 00:44:28,210 ال error gradient هذه ايش هذه الإشارة delta صح 471 00:44:28,210 --> 00:44:32,610 small delta هذا delta capital وهذا delta small 472 00:44:38,190 --> 00:44:48,290 خلاص بعد ذلك بقى اضربه في الـ alpha ثم في ال 473 00:44:48,290 --> 00:44:53,650 output بيطلع معايا ايه 474 00:44:53,650 --> 00:45:01,420 ال delta وهذا ال capital وهذا ال small تمامالان 475 00:45:01,420 --> 00:45:04,820 حسبت انا small delta اللى هى ال error gradient 476 00:45:04,820 --> 00:45:09,500 باخد ال error gradient باضربه فى ال output ال 477 00:45:09,500 --> 00:45:15,180 actual مبروه فى ال learning rate ال alpha بطلع 478 00:45:15,180 --> 00:45:18,920 معاى ال delta يعنى مقدار التغير اللى بيطرق على 479 00:45:18,920 --> 00:45:23,340 الوزن هذا المقدار التغير بنضيفه على الوزن السابق 480 00:45:23,340 --> 00:45:28,950 بنضيفه على الوزن السابق هذه مقدار التغيربنضيفه على 481 00:45:28,950 --> 00:45:32,550 الوزن السابق و بطلع معاه الوزن الجديد و أضح 482 00:45:32,550 --> 00:45:37,990 العملية تلات خطوات الآن عملية تغيير الأوزان عملية 483 00:45:37,990 --> 00:45:42,150 تغيير الأوزان أولا بحسب ال error gradient ثم بحسب 484 00:45:42,150 --> 00:45:48,990 ال error delta او ال weight delta اه بيظهر تغير في 485 00:45:48,990 --> 00:45:51,810 الوزن ثم بضيفه على الوزن الحالي 486 00:45:57,230 --> 00:46:00,450 خلّي بالك إنه لو مافيش قرر هيطلع هذا المقدار الـ 0 487 00:46:00,450 --> 00:46:04,350 كله هذا هيطلع الـ 0 كله هذا الـ 0 كله هيطلع هذا 488 00:46:04,350 --> 00:46:08,210 الـ 0 كله هيطلع هذا الـ 0 كله هيطلع هذا الـ 0 كله 489 00:46:08,210 --> 00:46:08,970 هيطلع هذا الـ 0 كله هيطلع هذا الـ 0 كله هيطلع هذا 490 00:46:08,970 --> 00:46:09,290 هيطلع هذا الـ 0 كله هيطلع هذا الـ 0 كله هيطلع هذا 491 00:46:09,290 --> 00:46:10,050 الـ 0 كله هيطلع هذا الـ 0 كله هيطلع هذا الـ 0 كله 492 00:46:10,050 --> 00:46:11,390 هيطلع هذا الـ 0 كله هيطلع هذا الـ 0 كله هيطلع هذا 493 00:46:11,390 --> 00:46:21,430 الـ 0 كله هيطلع هذا الـ 0 كله هيطلع 494 00:46:21,430 --> 00:46:29,990 هذا الـ 0 كلههذا الأمر بالنسبة لـ output neurons 495 00:46:29,990 --> 00:46:35,210 يعني الـ neurons لاحظ ال subscript الـ K هذه تتبع 496 00:46:35,210 --> 00:46:46,910 مين زي ما في الرسم هنا الـ K اللي هم هدولة تفضل 497 00:46:46,910 --> 00:46:51,530 اللي هو error gradient بعدين ال weight correction 498 00:46:51,530 --> 00:46:56,960 اللي دلت ال weight و بعدين ال weight اللي جديدهذا 499 00:46:56,960 --> 00:47:14,500 بالنسبة لـ L أما بالنسبة للـ Hidden Layer الوزن 500 00:47:14,500 --> 00:47:20,620 الـ Delta K هذه تحتفظ فيها لأنها تدخل معنا في حسب 501 00:47:20,620 --> 00:47:25,980 التعديل الأوزان على الـ Hidden كيف؟ يعني دي أنا 502 00:47:26,810 --> 00:47:31,790 error gradient للـhidden 503 00:47:31,790 --> 00:47:36,590 small delta g small delta g هو نفس الشيء إبراهن 504 00:47:36,590 --> 00:47:50,290 output النوت نحن 505 00:47:50,290 --> 00:47:50,690 الآن هنا 506 00:47:59,160 --> 00:48:03,820 لأن الواحدة من هدولة لو ال input تبعها اتعمم على 507 00:48:03,820 --> 00:48:08,380 مين على كل ال nodes اللي في ال layer اللي بقت يعني 508 00:48:08,380 --> 00:48:12,420 بمعنى others هدول ال nodes كانوا أخطأوا كان عندهم 509 00:48:12,420 --> 00:48:17,760 errors فهذا بفعل أوزانهم و بفعل ال input اللي 510 00:48:17,760 --> 00:48:22,220 أجرهم من ورا يعني هدول ال nodes اللي هنا مسئولين 511 00:48:22,220 --> 00:48:27,460 مسئولية جزئية عن الخطأ اللي بيحصل إذا حصل خطأ في 512 00:48:27,460 --> 00:48:32,430 ال hidden صح؟وبالتالي احنا بدنا نرجع بعض المسئولية 513 00:48:32,430 --> 00:48:40,210 عليهم هاي بعض المسئولية small delta k هدا هاد ال 514 00:48:40,210 --> 00:48:43,950 node كل واحدة من هدولها حسبة ال small delta k 515 00:48:43,950 --> 00:48:49,150 تبعها ولا لأ صح ولا لأ ارجع التاني ال error 516 00:48:49,150 --> 00:48:52,690 gradient هدا احنا الان رجعنا على ال output مش كل 517 00:48:52,690 --> 00:48:55,950 واحدة منهم تحسب ال small delta k تبعها small delta 518 00:48:55,950 --> 00:49:01,930 k تبعها اللي هو ال error gradientالان بدى نضرب في 519 00:49:01,930 --> 00:49:09,610 ال errors نضرب في الأوزان تبع كل ال inputs اللى 520 00:49:09,610 --> 00:49:15,850 دخل عليها هذا لما انا اقول wjk ايش يعني يعني الوزن 521 00:49:15,850 --> 00:49:20,570 اللى تبع ال input اللى طالع اللى رايح على k من j 522 00:49:20,570 --> 00:49:30,040 يعني هى وزن و هى وزن و هى وزن و هى وزنكل واحد من 523 00:49:30,040 --> 00:49:34,260 هؤلاء الأوزاد سينضرب في Delta K Delta K هي Error 524 00:49:34,260 --> 00:49:41,300 Gradient تبع هذا ال node سينضرب في ماذا؟ في WJK 525 00:49:41,300 --> 00:49:48,240 وينجمع الكلام هذا كله هذا الكلام يعني Error تبعها 526 00:49:48,240 --> 00:49:56,840 جاء بسبب كل ال nodes اللي غذوها هذا الكلام ينضرب 527 00:49:57,370 --> 00:50:04,830 لأن لما تحسب الـ delta J تبعتها تضرب ال output 528 00:50:04,830 --> 00:50:12,450 تبعها مضم في واحد نقص output هذا يعني Y²-Y صح او 529 00:50:12,450 --> 00:50:18,970 لأ انا بسطط اتخذ ال YJ مضم في واحد ومضم في YJ يعني 530 00:50:18,970 --> 00:50:29,180 Y-YJ² صحهذا النقطة ينضرب في مجموعة الصميشن هذه 531 00:50:29,180 --> 00:50:34,300 عشان نحصل على ال error gradient تبع هذا ال node 532 00:50:34,300 --> 00:50:39,920 ونكرر الكلام هذا كله لل other nodes عندما حصلنا 533 00:50:39,920 --> 00:50:43,340 على هذا كلام لل node نرجع تاني بنفس القالي اللي 534 00:50:43,340 --> 00:50:48,040 حسبنا فيها الوزن جديد لل output node نعمل نفس 535 00:50:48,040 --> 00:50:51,710 الشيء اللي هو باخد الالـ error gradient بضربه في 536 00:50:51,710 --> 00:50:53,850 اللي دخل على ال node و بضربه في ال learning rate 537 00:50:53,850 --> 00:50:58,790 بطلع ال delta w بجمع ال delta w على ال w الحالي 538 00:50:58,790 --> 00:51:06,370 بطلع معايا ال ash الوزع الجديد هذا الكلام بينكرره 539 00:51:06,370 --> 00:51:11,250 مرة مرتين تلاتة إلى ان ال node بتتعلم ال network 540 00:51:11,250 --> 00:51:15,430 بتتعلم ايش يعني بتتعلم يعني ال error السابعة هتصبح 541 00:51:15,430 --> 00:51:22,290 صفر هضرب جهة ان شاء اللهبنطلع على الكلام هذا بشكل 542 00:51:22,290 --> 00:51:27,070 يعني مفصل بالأرقام خلاصة الأمر أنه احنا الأن بدنا 543 00:51:27,070 --> 00:51:31,630 نفهم شغل أساسي وهي أنه لما يكون عندي perceptron 544 00:51:31,630 --> 00:51:38,850 يعني نورون واحد قليل العمل تبعته أو ال learning ال 545 00:51:38,850 --> 00:51:41,770 learning technique تبعته واحدة هي تعديل الأوزان 546 00:51:41,770 --> 00:51:45,950 بناء على الفرق ما بين ال actual output و ال 547 00:51:45,950 --> 00:51:52,660 desired outputبيبقى معطيله في أثناء عملية التدريب 548 00:51:52,660 --> 00:51:56,000 وهذا المقصود بال learning أو supervised learning 549 00:51:56,000 --> 00:52:00,880 supervised learning يعني نعطيه input و مع كل input 550 00:52:00,880 --> 00:52:04,760 بنقوله ايش ال output الصحيح اللي المفروض يطلع و 551 00:52:04,760 --> 00:52:10,200 بنشغل عملية ال iterations مرة و مرة عشان يضبط 552 00:52:10,200 --> 00:52:14,540 الأوزان تبعته تدريجيا إلى أن تصبح الأوزان stable 553 00:52:14,540 --> 00:52:18,140 stable يعني ما بقي تتمشي على تغييريا ما لا تمشي 554 00:52:18,140 --> 00:52:22,060 عليها تغيير بالمرة، يا ما التغيير أصبح طفيف بالقدر 555 00:52:22,060 --> 00:52:26,820 اللي نقدر نقنشه، يعني واحد في الألف مثلا، إجمالي 556 00:52:26,820 --> 00:52:32,060 الـSum تبع كل الـErrors، تبع كل الـNodes، لما يبقى 557 00:52:32,060 --> 00:52:35,580 عندي نورة Network، يعني زي هيك، ويبقى فيها Hidden 558 00:52:35,580 --> 00:52:40,940 Layers، العملية بدأت تتحركعلى جزءين عملية تعديل 559 00:52:40,940 --> 00:52:43,780 الأوزانة أو عملية ال learning بتتصير على جزءين جزء 560 00:52:43,780 --> 00:52:48,280 الأول بتتعلق بتعديل انه ال output nodes للأوزان 561 00:52:48,280 --> 00:52:53,440 تبعتها وهذا بعد ذلك يترحى العالمين على ال hidden 562 00:52:53,440 --> 00:53:01,140 nodes اللي هم عدّوا الأوزان تبعتهم هذا اسمه ان ال 563 00:53:01,140 --> 00:53:04,300 input signals تبشي في هذا الاتجاهو ال error of 564 00:53:04,300 --> 00:53:07,320 signals ال input data بتمشي في هذا الاتجاه و ال 565 00:53:07,320 --> 00:53:10,240 error of data بتمشي في هذا الاتجاه هذه بتروح ال 566 00:53:10,240 --> 00:53:14,100 error of data اللي جابلها علشان قمامة اذا في layer 567 00:53:14,100 --> 00:53:17,880 واحدة او اكتر في ال hidden علشان كل واحدة اتعدل 568 00:53:17,880 --> 00:53:23,080 الأوزان تبعتها okay ستة مثال ان شاء الله المحاضرة 569 00:53:23,080 --> 00:53:26,320 تجيبني نشوفهم و بعدين بنشوف كيف عمليت التعلم