abdullah's picture
Add files using upload-large-folder tool
4b6d5de verified
raw
history blame
35.6 kB
1
00:00:04,940 --> 00:00:07,000
باسم الله والحمد لله والصلاة والسلام على رسول الله
2
00:00:07,000 --> 00:00:11,420
أهلا وسهلا بكم في محاضراتنا المستمرة في منصّة الـ data
3
00:00:11,420 --> 00:00:14,620
mining، وما زلنا في باب الـ classification أو في باب
4
00:00:14,620 --> 00:00:18,120
التصنيف. سنتكلم اليوم، أو في هذه المحاضرة إن شاء
5
00:00:18,120 --> 00:00:22,940
الله تعالى، عن Classifierٍ متقدمٍ جدًا، مستخدم بشكل
6
00:00:22,940 --> 00:00:26,500
كبير جدًا، وهو الـ Neural Network as Classifier أو
7
00:00:26,500 --> 00:00:30,000
بالتحديد الـ Back-propagation Neural Network. لـ
8
00:00:30,000 --> 00:00:33,740
أُخفيكم، كان عندي تردد: أشرحه أم أشرح الـ Support
9
00:00:33,740 --> 00:00:37,240
Vector Machine؟ كلاهما من المواضيع المتقدمة، و
10
00:00:37,240 --> 00:00:40,760
التي تحتاج إلى Optimization عالية. لكن قررتُ أن
11
00:00:40,760 --> 00:00:44,320
أشرح الـ Neural Network، كما كنا قد ذكرناه سابقًا، وخلّينا
12
00:00:44,320 --> 00:00:47,700
نبدأ مع الـ Neural Network. الـ Neural Network أو
13
00:00:47,700 --> 00:00:51,400
الشبكات العصبية... العصبية. بكفي أنا عصبي!
14
00:00:51,400 --> 00:00:55,360
بالجمال، الشبكات العصبية هي عبارة عن
15
00:00:55,360 --> 00:00:59,980
مجموعة من الـ connected input و الـ output units.
16
00:00:59,980 --> 00:01:04,850
يعني، ببساطة، هي عبارة عن مجموعة من المدخلات
17
00:01:04,850 --> 00:01:10,390
والمخرجات المتصلة مع بعضها البعض. وكل خط أو كل
18
00:01:10,390 --> 00:01:15,210
Connection، أو كل خط، أو كل Link، له وزن معين
19
00:01:15,210 --> 00:01:21,010
associated with it، مرتبط به. خلال مرحلتي التعليم
20
00:01:21,010 --> 00:01:24,370
وهنا، يا جماعة الخير، بدأنا ننتبه جيدًا، لأن صار في عندي
21
00:01:24,370 --> 00:01:27,390
ما يُقال لنا: نحن Machine Learning. Machine Learning هي
22
00:01:27,390 --> 00:01:32,570
الفترة التي أقضيها في بناء الـ Model، لأن
23
00:01:32,570 --> 00:01:35,770
هكذا قلنا في البداية خالصًا: الـ Classification، في عندي
24
00:01:35,770 --> 00:01:39,690
Model-based، وفي عندي Instance-based. الـ Instance
25
00:01:39,690 --> 00:01:42,550
based كان: K-Nearest Neighbor، و الـ Model-based: Decision
26
00:01:42,550 --> 00:01:46,150
Tree، و الـ Naive Bayesian. سؤال مهم جدًا، أريد أن أطرحه
27
00:01:46,150 --> 00:01:51,430
عليكم. أتمنى أن تفكّروا في إجابته، لأن
28
00:01:51,430 --> 00:01:56,390
هل الـ Naive Bayes Model-based أم Instance-based؟
29
00:01:56,390 --> 00:02:00,070
هذا سؤال. السؤال الثاني: الـ Naive Bayes Algorithm،
30
00:02:00,070 --> 00:02:03,890
الجدول الذي بنيته، كم مرّة بنيته؟
31
00:02:06,390 --> 00:02:11,390
المفروض مرة واحدة. متى أحتاج إلى إعادة بنائه؟ لو تغيرت
32
00:02:11,390 --> 00:02:14,850
الـ Training Set الموجودة عندي. وبالتالي، المفروض
33
00:02:14,850 --> 00:02:18,090
أنّ هذا الجدول يمثّل عندي الـ Model خلال مرحلة التعليم،
34
00:02:18,090 --> 00:02:21,430
مرحلة الـ Learning، مرحلة بناء الـ Model، الـ Network،
35
00:02:21,430 --> 00:02:25,610
الذي هو الشبكة العصبية. تحاول تعديل الأوزان التي
36
00:02:25,610 --> 00:02:30,810
موجودة عندها، حتى تصل إلى
37
00:02:30,810 --> 00:02:37,860
الـ Label. يعني، بين قوسين: أدخلت الـ Input، عملت
38
00:02:37,860 --> 00:02:42,900
Computation، حصلت على الـ Output. أقارن بين الـ
39
00:02:42,900 --> 00:02:46,680
Output الحقيقي، والـ Predicted، وتبعًا للـ Error الذي
40
00:02:46,680 --> 00:02:49,600
بينهما، أو الفرق الذي بينهما، أعمل Adjustment للـ
41
00:02:49,600 --> 00:02:50,880
Weights الموجودة عندها.
42
00:02:55,350 --> 00:02:57,970
الآن، الـ Neural Network، بشكل عام، يا جماعة الخير، هي
43
00:02:57,970 --> 00:03:01,010
تحاكي الشبكات العصبية في الإنسان، أو الجهاز
44
00:03:01,010 --> 00:03:03,910
العصبي في الإنسان. في الآخر، الـ Decision في الدماغ،
45
00:03:03,910 --> 00:03:09,510
والخلايا العصبية منتشرة على كل جسمك. لو أنت ساكت، أو
46
00:03:09,510 --> 00:03:13,710
سرحان، وقاعد بتحل في مسألة في الـ Data Mining، وجاء
47
00:03:13,710 --> 00:03:23,320
زميلك، وطرف دبوس، وحاول يشكك في يدك، بدون ما تنتبه له،
48
00:03:23,320 --> 00:03:27,400
أنت، بدون إرادة، ستجد أنّ يدك تحرّكت في الاتجاه
49
00:03:27,400 --> 00:03:31,980
المضاد للّمسة، بحيث أنّها، يعني، تبعد عن مصدر الخطر.
50
00:03:31,980 --> 00:03:35,680
الذي صار، أنت فعليًا لا تعرف ما الذي حدث، لكن مجرد
51
00:03:35,680 --> 00:03:38,840
أنّك حركت، أبعدت يدك، ثم بدأت تفكر، لأنّ كانت
52
00:03:38,840 --> 00:03:42,240
الحركة، أو الجهاز العصبي، أرسل إشارة إلى الدماغ، والدماغ
53
00:03:42,240 --> 00:03:45,260
أخذ Processing سريعًا جدًا، أنّه: ابعد عن
54
00:03:45,260 --> 00:03:47,980
الخطر هذا. وكذلك، يحدث هذا معنا في هذا الموضوع، عندما يكون
55
00:03:47,980 --> 00:03:52,510
الشغلات: حريق، إلخ. الآن، هذا الكلام لم يحدث إلا
56
00:03:52,510 --> 00:03:56,330
من خلال خبرة مكتسبة، موجودة عندنا. فالـ Neural
57
00:03:56,330 --> 00:03:58,870
Network جاءت، لماذا؟ لأن الناس فكّروا فيها، في الـ
58
00:03:58,870 --> 00:04:03,050
خمسينات، جاءت فكرة: لماذا لا نحاول محاكاة عقل الإنسان في
59
00:04:03,050 --> 00:04:07,410
التعامل؟ نحن لا نهتم كثيرًا بالصبغة التاريخية
60
00:04:07,410 --> 00:04:13,090
والتفاصيل كثيرًا. لكن بشكل عام، أبسط نموذج للشبكة
61
00:04:13,090 --> 00:04:15,690
الموجودة عندي، لأنّ في النهاية، كل شيء Computation،
62
00:04:15,690 --> 00:04:20,450
يا جماعة الخير، هي مجموعة الـ Input. مجموعة الـ Input،
63
00:04:20,450 --> 00:04:25,970
الآن، ما هو P1 إلى PR؟ هي عبارة عن الـ Attributes،
64
00:04:25,970 --> 00:04:31,350
تمثّل
65
00:04:31,350 --> 00:04:36,790
الـ Input. طيب، وما هو A؟
66
00:04:36,790 --> 00:04:44,280
الـ Output، للـ Class الموجود عندي هنا. الـ
67
00:04:44,280 --> 00:04:47,380
Class الموجود عندي. ما الذي حدث؟ ما الذي فعلته فعليًا؟
68
00:04:47,380 --> 00:04:52,960
كل Attribute له وزن. فأنا آخذ، أضرب قيمة الـ
69
00:04:52,960 --> 00:04:57,080
Attribute، لاحظ، أقول: أضرب قيمة الـ Attribute في
70
00:04:57,080 --> 00:05:05,800
الوزن، أجمعها، أضيف لها قيمة للـ Bias، و هذه الـ Function
71
00:05:05,800 --> 00:05:09,460
تُجري Decision. أي واحد من الـ Binary Classification،
72
00:05:09,460 --> 00:05:13,210
أو من الـ Classes، ستكون صفر أو واحد. يعني Binary
73
00:05:13,210 --> 00:05:17,090
Classification. انتبه معي، وانتبه معي عندما
74
00:05:17,090 --> 00:05:20,830
قلت: آخذ قيمة الـ Attribute، وأضربها. طيب، هل من الممكن أن
75
00:05:20,830 --> 00:05:24,390
أعمل مع الـ Nominal Attribute؟ لا، هذا غير ممكن. الـ Data
76
00:05:24,390 --> 00:05:28,170
Set الخاصة بك يجب أن تكون رقمية بالكامل. لأن لا يوجد مدى
77
00:05:28,170 --> 00:05:31,690
أذهب إليه وأقول: والله، الـ Gender Male، أضرب في خمسة.
78
00:05:31,690 --> 00:05:34,990
حوّلها إلى 0، 1، أو أي Attribute رقمي تراه
79
00:05:34,990 --> 00:05:39,170
مناسبًا. الـ Income، كما رأينا قبل قليل، Fair و
80
00:05:39,170 --> 00:05:43,940
Excellent، أيضًا، تُحوّل إلى أرقام. وبالتالي، بدلًا
81
00:05:43,940 --> 00:05:46,800
من أن تكون Category، تُحوّل إلى أرقام.
82
00:05:46,800 --> 00:05:51,960
تمام، حتى لو كان هناك Coding موجودة عندي، في النهاية، ما
83
00:05:51,960 --> 00:05:58,140
سيحدث سيكون كالتالي: الـ Function الخاصة بي، الـ Prediction
84
00:05:58,140 --> 00:06:02,520
Function الخاصة بي، هي عبارة عن Vector من الأوزان، مضروبة
85
00:06:02,520 --> 00:06:07,450
في الـ Input، زائد الـ Bias الموجود عندي. في مرحلة
86
00:06:07,450 --> 00:06:15,310
الـ Learning، تصبح الشبكة تبحث عن أفضل W و B، لأنّ
87
00:06:15,310 --> 00:06:19,530
أنت لا تنسَ أنّها معادلة خطّ مستقيم، تبحث عن أفضل W
88
00:06:19,530 --> 00:06:23,770
و B، لكن بـ Vectors. W تمثّل الأوزان الخاصة بـ
89
00:06:23,770 --> 00:06:26,630
الـ Connection، و B تمثّل الـ Bias الخاصة بالـ Network، التي
90
00:06:26,630 --> 00:06:30,210
موجودة في الـ Multilayer Neural Network. شغلنا هنا
91
00:06:30,210 --> 00:06:30,870
مختلف.
92
00:06:33,410 --> 00:06:39,370
سابقًا، كان عندي فقط Input و Output، في الـ Simple
93
00:06:39,370 --> 00:06:42,630
Neural Network. وقبل قليل، قلنا أنّها عبارة عن
94
00:06:42,630 --> 00:06:47,080
مجموعة من الـ Connected Input و الـ Output Units. الآن،
95
00:06:47,080 --> 00:06:51,160
في الـ Multilayer، أضيف عندي ما بين الـ Layer
96
00:06:51,160 --> 00:06:54,620
الأولى، التي تمثّل الـ Input، والـ Layer
97
00:06:54,620 --> 00:06:58,680
الأخيرة، التي هي الـ Output Layer، صار يمثّل عندي
98
00:06:58,680 --> 00:07:02,320
ما يُسمّى الـ Hidden Layer. بالمناسبة، الكثير من
99
00:07:02,320 --> 00:07:05,740
الناس يرفضون الـ Neural Network، لأنّهم يعتبرونها Black
100
00:07:05,740 --> 00:07:06,160
Box.
101
00:07:09,080 --> 00:07:13,600
ماذا يعني Black Box؟ Black Box بمعنى أنّي فعليًا
102
00:07:13,600 --> 00:07:16,140
لا أرى ما يحدث، ولا أعرف لماذا هذه الأوزان
103
00:07:16,140 --> 00:07:19,100
أصبحت هكذا. وفعلاً، هذه هي، للأسف، الـ Algorithm التي
104
00:07:19,100 --> 00:07:23,520
موجودة عندنا. يعني، صعب تفسيرها.
105
00:07:23,520 --> 00:07:29,900
طيب، الآن، الـ Input، حسب الرسم الذي عندي هنا،
106
00:07:29,900 --> 00:07:34,540
هنا، ثلاثة Inputs، واثنان Outputs. وكما قلنا،
107
00:07:34,540 --> 00:07:37,340
بما أنّها كلها أرقام، معناته الـ Input الخاصة بها ستكون 0، 1.
108
00:07:38,540 --> 00:07:41,280
معناته، كل Neural Network هذه ستكون صفر، واحد في
109
00:07:41,280 --> 00:07:44,820
المرحلة الأولى. في الـ Network السابق، يا جماعة الخير،
110
00:07:44,820 --> 00:07:48,880
هذه الـ Function: صفر،
111
00:07:48,880 --> 00:07:52,200
واحد. Two classes: الـ Class الأول، والـ Class الثاني.
112
00:07:52,200 --> 00:07:58,130
هنا، صار في عندي Two Neurons في الـ Output. معناته كل
113
00:07:58,130 --> 00:08:01,350
واحد فيهم يعطيني صفر أو واحد. معناته، صار في عندي
114
00:08:01,350 --> 00:08:06,030
Two bits. أجعلها Two bits: صفر، صفر؛ صفر، واحد؛
115
00:08:06,030 --> 00:08:10,010
واحد، صفر؛ واحد، واحد. وكأنّي أتحدّث عن Four Classes.
116
00:08:10,010 --> 00:08:15,990
يعني، بالـ Multilayer Neural Network، أصبح بإمكاني أن
117
00:08:15,990 --> 00:08:21,880
أُعالج Dataset أكبر، أو أحصل على Multiclass
118
00:08:21,880 --> 00:08:26,240
Classification. تعالوا نشوف الشكل العام الخاص بالـ
119
00:08:26,240 --> 00:08:30,300
Network. هذا الشكل الذي رأيناه، نسميه
120
00:08:30,300 --> 00:08:36,100
Network Topology. الـ Network Topology، هنا، ستحدّد
121
00:08:36,100 --> 00:08:39,720
فيه عدد الـ Input، أو عدد الـ Units الخاصة بالـ Input، في الـ
122
00:08:39,720 --> 00:08:44,740
Input Layer. طيب، ليس لي دخل كبير بها، لماذا؟ لأنّ
123
00:08:44,740 --> 00:08:50,880
عادةً، عدد الـ Input Neurons يساوي
124
00:08:50,880 --> 00:08:54,720
عدد الـ Attributes. يعني، ببساطة، كل Attribute في الـ
125
00:08:54,720 --> 00:09:01,740
Data Set له Input Neuron واحد. يُفضّل أن تقوم بـ
126
00:09:01,740 --> 00:09:06,350
Normalization لقيم الـ Attributes. ليس تفضيلاً،
127
00:09:06,350 --> 00:09:09,370
بل قد يكون إلزاميًا، في مرحلة ما. لماذا؟ لأنّ
128
00:09:09,370 --> 00:09:12,530
تتجنّب الـ Bias. ضع كل الـ Attributes الموجودة بعد
129
00:09:12,530 --> 00:09:17,050
ما... بعد ما قمت بـ Preprocessing، وجّهزت...
130
00:09:17,050 --> 00:09:20,350
جهزت الـ Data Set، لأنّ كل الـ Data كانت مستقلة،
131
00:09:21,310 --> 00:09:24,470
لكنّ مُقياسها مختلف. وبما أنّ عملية
132
00:09:24,470 --> 00:09:28,810
الحساب، كما رأينا سابقًا، تكون قيمتها، مثلًا، الـ
133
00:09:28,810 --> 00:09:31,710
Call بالـ Minutes، خمسمائة، ألف، خمسمائة
134
00:09:31,710 --> 00:09:35,310
دقيقة، في مقابل الـ Megabytes التي الـ Data... التي أنا
135
00:09:35,310 --> 00:09:40,490
استخدمتها على الـ Mobile كانت بالأ... بالأيام. فواحد
136
00:09:40,490 --> 00:09:43,330
سيكون وزنه أكبر من الآخر. فما الحل؟
137
00:09:43,330 --> 00:09:46,770
لا، قم بـ Scaling، لتصبح من صفر إلى واحد، وسترتاح.
138
00:09:46,770 --> 00:09:51,900
الآن، Number of Hidden Layers في الـ Topology. عدد الـ
139
00:09:51,900 --> 00:09:57,920
Hidden Layer. وليس هذا فقط، عدد الـ Hidden Neurons في
140
00:09:57,920 --> 00:10:02,620
الـ Hidden Layer، يعني
141
00:10:02,620 --> 00:10:05,200
ببساطة، أنا أتحدّث عن الـ Neural Network،
142
00:10:05,200 --> 00:10:14,800
أتحدث عن Input Layer، وأتحدث عن Hidden Layer، و
143
00:10:14,800 --> 00:10:22,100
أتحدث عن Output Layer. ثلاث طبقات موجودة عندي. الـ
144
00:10:22,100 --> 00:10:29,260
Input و الـ Output معروفان. ها هو Number of Classes، وهنا
145
00:10:29,260 --> 00:10:36,540
Number of Attributes. أبو
146
00:10:36,540 --> 00:10:42,380
هنا، هنا يا سيدي العزيز، لا أحد يُحكمك في شيء، ولا يوجد
147
00:10:42,380 --> 00:10:46,040
قانون واضح. الآن، نحن نتحدث، لكي يكون عندي Multi
148
00:10:46,040 --> 00:10:49,580
Layer، على الأقل يكون عندي Single Layer. وعندما
149
00:10:49,580 --> 00:10:52,500
يكون عندي أكثر من Two Hidden Layers، تصبح Deep
150
00:10:52,500 --> 00:10:56,040
Neural Network، تمام؟ وهذا المصطلح الذي يستخدمه
151
00:10:56,040 --> 00:10:58,660
اليوم في الـ Machine Learning، يسمّى: Deep
152
00:10:58,660 --> 00:11:01,760
Learning. لكنّنا الآن، بشكل بسيط، نتحدث عن
153
00:11:01,760 --> 00:11:05,630
Input Layer، Hidden Layer واحد، و Output
154
00:11:05,630 --> 00:11:09,190
Hidden Layer. بالنسبة لعدد الـ Neurons في الـ Hidden
155
00:11:09,190 --> 00:11:12,590
Layer الموجودة عندي هنا، ليس لديّ
156
00:11:12,590 --> 00:11:17,210
حسب الـ Attributes عندي. أربعة Input، أربعة Attributes،
157
00:11:17,210 --> 00:11:23,860
وعندي Two Classes معروفة. ربما هؤلاء... أيضًا، لا يوجد عدد
158
00:11:23,860 --> 00:11:28,140
محدد للـ Neurons. متروك لكم للتجربة والقياس، أو
159
00:11:28,140 --> 00:11:31,300
تجربة والخطأ، كما نسميها أحيانًا، وتحديدها،
160
00:11:31,300 --> 00:11:34,840
لكن بعض الناس يقول لك: دعني أضع Initialisation
161
00:11:34,840 --> 00:11:44,300
لهذا الكلام، من خلال أن أبدأ بمجموع الاثنين على اثنين.
162
00:11:44,300 --> 00:11:49,580
يعني، الآن، أربعة واثنين، ستة.
163
00:11:53,290 --> 00:12:00,090
على اثنين: ثلاثة. ولاحظ، وكأنّه يصير عندي رسمة الشبكة: هي أربعة
164
00:12:00,090 --> 00:12:05,990
في الـ Input، ثلاثة في الـ Output، أو عفواً في الـ
165
00:12:05,990 --> 00:12:07,810
Hidden، واثنان في الـ Output.
166
00:12:26,450 --> 00:12:30,210
وهذه الشبكة الخاصة بي، تصبح بهذا الشكل. أصبحت
167
00:12:30,210 --> 00:12:33,730
ضيقَة باتجاه الـ Output الموجودة. واحد قال: لا،
168
00:12:33,730 --> 00:12:37,850
أريد أن آخذ ضعف الـ Input، أو أريد أن آخذ مجموعهما. لا أحد
169
00:12:37,850 --> 00:12:41,470
سيقول لك: لا. هذا متروك لك. لماذا؟ كما قلت لك، هذه
170
00:12:41,470 --> 00:12:44,070
الشبكة تحتاج إلى Optimization. الـ Neural Network من
171
00:12:44,070 --> 00:12:46,510
الأشياء التي تحتاج إلى Optimization كثيرًا، وتحتاج إلى عمل
172
00:12:46,510 --> 00:12:50,820
كثير في الـ Configuration. نرجع إلى الـ Simplest الـ
173
00:12:50,820 --> 00:12:54,540
Neural Network الموجودة عندي. في النهاية، الـ
174
00:12:54,540 --> 00:12:58,860
Function
223
00:16:49,840 --> 00:16:54,840
كيف الـ neural network بتشتغل؟ بتاخد الـ input تبع الـ
224
00:16:54,840 --> 00:17:00,450
attributes اللي موجودة عنده، وبتدخل إياهُ في الـ
225
00:17:00,450 --> 00:17:03,970
input فترة الـ training. بتدخل اتباعاً، أو عفواً، في الـ
226
00:17:03,970 --> 00:17:07,250
attributes بتدخل بشكل متوازي مع بعضها، لأن زي ما
227
00:17:07,250 --> 00:17:11,450
قلنا، الـ instance بالكامل بتدخل عندي على الـ system.
228
00:17:11,450 --> 00:17:18,250
بعد هيك، في أوزان الشبكة، عادة بتبدأ بـ random weight.
229
00:17:18,250 --> 00:17:21,970
بتبدأ بـ random weight، و الأوزان مع كل connection
230
00:17:21,970 --> 00:17:25,490
مع كل connection من الـ connections السابقة. هاي في
231
00:17:25,490 --> 00:17:27,950
أول ما بتبدأ الشبكة بتحط random weight.
232
00:17:30,650 --> 00:17:37,670
الخطوة اللي بعد هيك، لما أنا بعد ما بتروح تدخل، لاحظ
233
00:17:37,670 --> 00:17:41,190
معايا، خلينا نقول، الـ input in your own hand. هنّفي W1
234
00:17:41,190 --> 00:17:49,520
1, W1 2, W1 3, و W1 4. لأيش؟ لأن عندي 4 hidden neuron و
235
00:17:49,520 --> 00:17:53,500
4 connection. الـ value تبع الـ hidden neuron، أو الـ
236
00:17:53,500 --> 00:17:56,200
input neuron، هذا اللي تبع الـ attribute الأول.
237
00:17:56,200 --> 00:18:03,820
خلّيني، على سبيل المثال، نقول هنا 1.7 من عشرة الآن.
238
00:18:03,820 --> 00:18:09,460
1.7 من عشرة ضرب W1 1. جاية لمين؟ للـ hidden neuron.
239
00:18:09,460 --> 00:18:16,430
هنا في المقابل، عندي هنا مثلاً كانت 2، وهذه الـ W 2 1.
240
00:18:16,430 --> 00:18:21,430
و هذه الـ W 3 1، و هذه الـ W 1 1، و هذه الـ W 3 1، و
241
00:18:21,430 --> 00:18:22,910
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و
242
00:18:22,910 --> 00:18:23,890
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و
243
00:18:23,890 --> 00:18:26,510
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و
244
00:18:26,510 --> 00:18:28,550
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و
245
00:18:28,550 --> 00:18:29,110
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و
246
00:18:29,110 --> 00:18:30,230
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و
247
00:18:30,230 --> 00:18:30,370
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و
248
00:18:30,370 --> 00:18:30,750
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و
249
00:18:30,750 --> 00:18:34,510
هذه الـ W 3 1، و هذه الـ
250
00:18:34,510 --> 00:18:43,070
W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1.
251
00:18:46,660 --> 00:18:50,260
وبديني decision، انه بيطلع output، و الـ output برضه
252
00:18:50,260 --> 00:18:55,540
فيه إلها أوزان وبتتوزع على... يعني الآن السهم اللي
253
00:18:55,540 --> 00:18:58,580
داخل على الـ neuron بيمثل الـ input، و اللي طالع منه
254
00:18:58,580 --> 00:19:02,540
بيمثل الـ output تبعته. ايش الـ... اوكي، احنا عرفنا هنّ
255
00:19:02,540 --> 00:19:05,200
انه الـ input. طب ايش الـ input؟ ايش الـ output؟ عفواً،
256
00:19:06,520 --> 00:19:08,840
ما هي القيمة اللي طالعة عندي من الـ hidden neuron؟
257
00:19:08,840 --> 00:19:11,240
هي عبارة عن تجميع على العناصر اللي موجودة عندي هنا.
258
00:19:11,240 --> 00:19:15,440
ومن ثم بصدرليها بنفس الفكرة على الأوزان اللي جاي
259
00:19:15,440 --> 00:19:20,420
بعدها، وهكذا بتتم عمل الشبكة. الآن هذه الشبكات
260
00:19:20,420 --> 00:19:26,520
بتشتغل ضمن الـ feed forward neural network.
261
00:19:26,650 --> 00:19:29,030
في الـ feed forward neural network، أنا فعلياً قاعد
262
00:19:29,030 --> 00:19:32,630
بشتغل باتجاه واحد فقط، وهو الاتجاه أو التدفق
263
00:19:32,630 --> 00:19:36,930
الطبيعي للشبكة، من الـ input لحد الـ output اللي
264
00:19:36,930 --> 00:19:46,190
موجودة عندي. نقاط القوة في الشبكة، انه فعلياً بتتحكم
265
00:19:46,190 --> 00:19:49,950
أو بتقدر تسيطر بشكل قوي على الـ noise data اللي
266
00:19:49,950 --> 00:19:55,430
موجودة عندي. هان بتقدر تعمل classification على
267
00:19:55,430 --> 00:19:57,790
untrained pattern، بتقدر تتحملها، detection بشكل
268
00:19:57,790 --> 00:20:02,670
بسيط. مناسبة جداً للـ continuous value في الـ input و
269
00:20:02,670 --> 00:20:05,670
الـ output، على خلاف اللي احنا شفناهم سابقاً، الـ
270
00:20:05,670 --> 00:20:09,750
classifiers السابقة. بتشتغل مع أي قرية من الـ real
271
00:20:09,750 --> 00:20:15,130
world data، حتى لو كانت بالـ handwritten. الـ
272
00:20:15,130 --> 00:20:18,150
algorithm ممكن يطبق parallel بشكل متوازي، وبالتالي
273
00:20:18,150 --> 00:20:23,060
هذا بيعمل على تسريع العمل. الـ weaknesses تبعتها، إنها
274
00:20:23,060 --> 00:20:26,500
بتحتاج لفترة طويلة من التعليم، لأن زي ما شفنا أن
275
00:20:26,500 --> 00:20:33,340
الأوزان كلها بتتغير. تخيل أنك في عندك عشرة input، في
276
00:20:33,340 --> 00:20:38,060
عشرة hidden، في أربعة، أو بلاش في اتنين
277
00:20:41,140 --> 00:20:44,420
output. اضرب هدول، هي عبارة عن عدد الـ connections
278
00:20:44,420 --> 00:20:47,320
اللي موجودة، وعدد الـ connections بيساوي عدد الأوزان.
279
00:20:47,320 --> 00:20:52,760
وبالتالي، بتكلم على 200 value كأوزان، بدها تغيير مع
280
00:20:52,760 --> 00:20:57,000
كل عملية الـ training، و هذا مع كل instance، وبالتالي
281
00:20:57,000 --> 00:21:01,860
موضوع الـ training هياخد منه وقت طويل. بتحتاج ده
282
00:21:01,860 --> 00:21:04,380
كتير من الـ argument أو من الـ parameter. أنا بحتاج
283
00:21:04,380 --> 00:21:07,340
أعملها tuning بشكل صحيح، عشان أقدر أحصل على الـ
284
00:21:07,340 --> 00:21:11,460
result المطلوبة. منها إن الـ structure تبعتها أبسط
285
00:21:11,460 --> 00:21:15,680
ما يمكن. ايش الـ structure؟ ايش الـ activation
286
00:21:15,680 --> 00:21:19,380
function اللي أنا بدي اعتمدها؟ إلى آخره. الآن من
287
00:21:19,380 --> 00:21:22,520
أهم الـ neural network اللي موجودة يا جماعة الخير،
288
00:21:22,520 --> 00:21:26,200
شغلة بنسميها الـ back propagate neural network، back
289
00:21:26,200 --> 00:21:32,400
propagate، الانتشار للخلف. الآن أنا هوضحها بشكل سريع.
290
00:21:32,400 --> 00:21:40,530
هان، هحاول أرسمها على الصبورة، بس عشان تنتين، تلاتة،
291
00:21:40,530 --> 00:21:52,390
أربعة، واحدة، تنتين، تلاتة، واحدة، تنتين، واحد، اتنين،
292
00:21:52,390 --> 00:21:54,230
تلاتة.
293
00:22:23,390 --> 00:22:27,830
تمام، عشان نفهم بس مبدأ الـ neural network، أو الـ
294
00:22:27,830 --> 00:22:31,210
back propagate neural network، بشكل سريع، و مش هخش
295
00:22:31,210 --> 00:22:34,730
في المعادلات الرياضية التفصيلية اللي هشغل عليها، لكن
296
00:22:34,730 --> 00:22:37,910
أنا بهمني الآن نفهم الـ concept على السريع. الآن
297
00:22:37,910 --> 00:22:42,510
تخيل أن أنا في عندي instance، أو الـ data set
298
00:22:42,510 --> 00:22:45,810
المفروض الـ data set تبعتي، أو الـ data set تبعتي
299
00:22:45,810 --> 00:22:49,190
مكونة من four attributes و one class attribute،
300
00:22:49,190 --> 00:22:56,110
مظبوط، و one target. بنسميهم A1, A2, A3, A4، و الـ
301
00:22:56,110 --> 00:23:03,770
label. طبعاً المفروض هنقل A1, A2, A3, A4، وهنا
302
00:23:03,770 --> 00:23:07,770
المفروض في عندي الـ label. الآن الفكرة فيها أنه هياخد
303
00:23:07,770 --> 00:23:11,210
الـ instance في الأول، أول ما بأتكلم على الـ
304
00:23:11,210 --> 00:23:16,150
topology تبعتها، بروح بياخد مني عندي random weight.
305
00:23:19,480 --> 00:23:22,320
بياخد أوزان من صفر لواحد، على كل الـ connections
306
00:23:22,320 --> 00:23:28,500
اللي موجودة. تمام؟ الآن بياخد الـ value، مثلاً واحد،
307
00:23:28,500 --> 00:23:32,340
واحد، صفر، واحد، والـ label تبعتها كانت، كانت على سبيل
308
00:23:32,340 --> 00:23:36,540
مثال واحد، بالشكل هذا. فبياخد القيم اللي موجودة هنا،
309
00:23:36,540 --> 00:23:40,580
وبضربها مع الأوزان اللي موجودة، لحد ما بياخد الـ
310
00:23:40,580 --> 00:23:46,100
output. الآن في عندي الـ real class، وفي عندي الـ
311
00:23:46,100 --> 00:23:47,000
predicted class.
312
00:23:49,540 --> 00:23:56,960
الفرق بينهم، بياخد
313
00:23:56,960 --> 00:24:01,700
الخطأ هذا، وبيبدأ يوزعه بالعكس. جداش الوزن كان هذا
314
00:24:01,700 --> 00:24:06,460
random، جداش الـ connection، جداش كل connection ساهم
315
00:24:08,030 --> 00:24:13,810
بالوزن أو بالخطأ هذا، فبتوزع عليهم الخطأ. وكل مكان
316
00:24:13,810 --> 00:24:18,010
اللي predicted تبعتي صح، بتكون الـ error zero. معناته
317
00:24:18,010 --> 00:24:21,530
أنا مش بحاجة أرجع. يعني، بشكل عام، الـ neural network
318
00:24:21,530 --> 00:24:23,970
بشكل عام، أو الـ back propagation neural network
319
00:24:23,970 --> 00:24:31,830
بشكل عام، بتشتغل على two ways. الطريقة الأولى، مرحلة الـ
320
00:24:31,830 --> 00:24:35,490
prediction. باخد الـ input تبعتي، بدخلها على الـ data
321
00:24:35,490 --> 00:24:37,810
على الـ neural network، بحسب لحد ما بحصل على الـ
322
00:24:37,810 --> 00:24:43,110
output، بحسب الـ error، و بروح بوزن قيمة أو بعدل
323
00:24:43,110 --> 00:24:48,010
الأوزان تبعاً لقيمة الخطأ اللي موجود عندهم.
324
00:24:49,890 --> 00:24:53,230
وهذا فعلياً اللي بتصير عندنا في الـ neural network
325
00:24:53,230 --> 00:24:56,510
في الـ back propagate الـ neural network. الـ forward
326
00:24:56,510 --> 00:25:01,970
path، الـ path الأولى، بطبق الـ input و بحسب الـ output
327
00:25:01,970 --> 00:25:05,830
تبع الـ activation function، و بحسب الخطأ اللي موجود
328
00:25:05,830 --> 00:25:10,990
عندي. في الـ back propagate path، أنا فعلياً باخد
329
00:25:10,990 --> 00:25:14,990
قيمة الخطأ، و بعدل الأوزان حسب مساهمتها في نسبة
330
00:25:14,990 --> 00:25:21,120
الخطأ اللي موجودة عندنا هنا. آخر slide موجودة عندي
331
00:25:21,120 --> 00:25:25,880
هان، اللي هي slide اللي لها علاقة بالبايثون. كيف
332
00:25:25,880 --> 00:25:29,380
ممكن أنا أطبق الـ back propagation neural network
333
00:25:29,380 --> 00:25:38,420
على الـ بايثون؟ طبعاً أنا اشتغلت كالتالي هان، عملت load
334
00:25:38,420 --> 00:25:43,360
للـ iris للـ data set اللي موجودة عندي هان، from ASCII
335
00:25:43,360 --> 00:25:47,520
layer.linear_model import perceptron. اشتغلت
336
00:25:47,520 --> 00:25:50,730
على الأبسط، الـ neural network اللي موجودة عندنا هنا.
337
00:25:50,730 --> 00:25:55,970
حددت الـ target تبعتها، و حولتها لـ numbers: setosa
338
00:25:55,970 --> 00:25:58,710
طبعاً، أو not setosa. هيك لأن في الـ binary
339
00:25:58,710 --> 00:26:01,130
classification، and one، أو الـ symbol. الـ neural
340
00:26:01,130 --> 00:26:03,670
network بتشتغل على binary classification، زي ما شفنا.
341
00:26:03,670 --> 00:26:07,590
فحولت... قلت إما هذا، فيها three classes، حولت لـ two
342
00:26:07,590 --> 00:26:13,890
classes: صفر و واحد، setosa و not setosa. استدعيت
343
00:26:13,890 --> 00:26:17,780
الـ neural network تبعتي، from scikit-learn.neural_
344
00:26:17,780 --> 00:26:21,020
network import MLPClassifier.
345
00:26:21,020 --> 00:26:26,740
الـ model هذا، بيتطلب مني اني احدد له شغلات كتيرة: عدد
346
00:26:26,740 --> 00:26:32,580
الـ hidden layer، قلت له اتنين، و خمسة neuron في كل
347
00:26:32,580 --> 00:26:36,830
واحدة، أو الـ solver، اللي هي الـ activation function
348
00:26:36,830 --> 00:26:39,770
تبعتي، الـ alpha اللي بتمثل الـ learning rate، هذه
349
00:26:39,770 --> 00:26:43,290
ما لكوش دخل فيها الآن. الـ solver و الـ hidden layer
350
00:26:43,290 --> 00:26:46,850
size، الـ hidden layer size هي تبعتي المهمة بالنسبة
351
00:26:46,850 --> 00:26:49,750
لي. الـ activation function هي الـ radial basis
352
00:26:49,750 --> 00:26:53,490
function. وهنا بنتكلم على الـ network اللي موجودة
353
00:26:53,490 --> 00:26:57,430
هنا، فقلت له أعمل train تبع الـ X و الـ Y، فرح يعدل
354
00:26:57,430 --> 00:27:00,430
الأوزان اللي موجودة عندي هنا. فلما أنا بدي أزوده
355
00:27:00,430 --> 00:27:04,610
الآن data، وأقول له اعملها prediction، الـ data بدها
356
00:27:04,610 --> 00:27:07,670
تكون تماماً مع الـ data، مع الـ input اللي موجودة
357
00:27:07,670 --> 00:27:11,850
عنديها، وهذه الـ data set هي عبارة عن مجموعة من
358
00:27:11,850 --> 00:27:15,490
العناصر اللي موجودة عندها. إذا قدمت ليها as in، أو
359
00:27:15,490 --> 00:27:19,230
matrix، فبياخدها، وفي الآخر هتديني prediction اللي
360
00:27:19,230 --> 00:27:22,510
موجودة. يعني، باختصار بسيط جداً، أنا المفروض أن الـ data
361
00:27:22,510 --> 00:27:27,070
set تبعتي، أحولها كلها لـ numeric data، في حال إذا
362
00:27:27,070 --> 00:27:31,680
كنت أنا بدي اشتغل مع الـ Neural Network. بتمنى عليكم
363
00:27:31,680 --> 00:27:35,300
وهذه تجربوها، وتفهموا الموضوع كويس، وزي ما قلنا
364
00:27:35,300 --> 00:27:38,040
سابقا، على الـ forum اللي موجود على الـ model، أنا
365
00:27:38,040 --> 00:27:41,420
مستعد إن شاء الله تعالى للإجابة على أي سؤال، وطبعاً
366
00:27:41,420 --> 00:27:44,240
احنا اتعمدنا الإجابات على الـ forum، مش على الخاص،
367
00:27:44,240 --> 00:27:48,520
عشان نقدر الفائدة تعمل للجميع. والسلام عليكم ورحمة
368
00:27:48,520 --> 00:27:49,540
الله وبركاته.