|
1 |
|
00:00:04,940 --> 00:00:07,000 |
|
باسم الله والحمد لله والصلاة والسلام على رسول الله |
|
|
|
2 |
|
00:00:07,000 --> 00:00:11,420 |
|
أهلا وسهلا بكم في محاضراتنا المستمرة في منصّة الـ data |
|
|
|
3 |
|
00:00:11,420 --> 00:00:14,620 |
|
mining، وما زلنا في باب الـ classification أو في باب |
|
|
|
4 |
|
00:00:14,620 --> 00:00:18,120 |
|
التصنيف. سنتكلم اليوم، أو في هذه المحاضرة إن شاء |
|
|
|
5 |
|
00:00:18,120 --> 00:00:22,940 |
|
الله تعالى، عن Classifierٍ متقدمٍ جدًا، مستخدم بشكل |
|
|
|
6 |
|
00:00:22,940 --> 00:00:26,500 |
|
كبير جدًا، وهو الـ Neural Network as Classifier أو |
|
|
|
7 |
|
00:00:26,500 --> 00:00:30,000 |
|
بالتحديد الـ Back-propagation Neural Network. لـ |
|
|
|
8 |
|
00:00:30,000 --> 00:00:33,740 |
|
أُخفيكم، كان عندي تردد: أشرحه أم أشرح الـ Support |
|
|
|
9 |
|
00:00:33,740 --> 00:00:37,240 |
|
Vector Machine؟ كلاهما من المواضيع المتقدمة، و |
|
|
|
10 |
|
00:00:37,240 --> 00:00:40,760 |
|
التي تحتاج إلى Optimization عالية. لكن قررتُ أن |
|
|
|
11 |
|
00:00:40,760 --> 00:00:44,320 |
|
أشرح الـ Neural Network، كما كنا قد ذكرناه سابقًا، وخلّينا |
|
|
|
12 |
|
00:00:44,320 --> 00:00:47,700 |
|
نبدأ مع الـ Neural Network. الـ Neural Network أو |
|
|
|
13 |
|
00:00:47,700 --> 00:00:51,400 |
|
الشبكات العصبية... العصبية. بكفي أنا عصبي! |
|
|
|
14 |
|
00:00:51,400 --> 00:00:55,360 |
|
بالجمال، الشبكات العصبية هي عبارة عن |
|
|
|
15 |
|
00:00:55,360 --> 00:00:59,980 |
|
مجموعة من الـ connected input و الـ output units. |
|
|
|
16 |
|
00:00:59,980 --> 00:01:04,850 |
|
يعني، ببساطة، هي عبارة عن مجموعة من المدخلات |
|
|
|
17 |
|
00:01:04,850 --> 00:01:10,390 |
|
والمخرجات المتصلة مع بعضها البعض. وكل خط أو كل |
|
|
|
18 |
|
00:01:10,390 --> 00:01:15,210 |
|
Connection، أو كل خط، أو كل Link، له وزن معين |
|
|
|
19 |
|
00:01:15,210 --> 00:01:21,010 |
|
associated with it، مرتبط به. خلال مرحلتي التعليم |
|
|
|
20 |
|
00:01:21,010 --> 00:01:24,370 |
|
وهنا، يا جماعة الخير، بدأنا ننتبه جيدًا، لأن صار في عندي |
|
|
|
21 |
|
00:01:24,370 --> 00:01:27,390 |
|
ما يُقال لنا: نحن Machine Learning. Machine Learning هي |
|
|
|
22 |
|
00:01:27,390 --> 00:01:32,570 |
|
الفترة التي أقضيها في بناء الـ Model، لأن |
|
|
|
23 |
|
00:01:32,570 --> 00:01:35,770 |
|
هكذا قلنا في البداية خالصًا: الـ Classification، في عندي |
|
|
|
24 |
|
00:01:35,770 --> 00:01:39,690 |
|
Model-based، وفي عندي Instance-based. الـ Instance |
|
|
|
25 |
|
00:01:39,690 --> 00:01:42,550 |
|
based كان: K-Nearest Neighbor، و الـ Model-based: Decision |
|
|
|
26 |
|
00:01:42,550 --> 00:01:46,150 |
|
Tree، و الـ Naive Bayesian. سؤال مهم جدًا، أريد أن أطرحه |
|
|
|
27 |
|
00:01:46,150 --> 00:01:51,430 |
|
عليكم. أتمنى أن تفكّروا في إجابته، لأن |
|
|
|
28 |
|
00:01:51,430 --> 00:01:56,390 |
|
هل الـ Naive Bayes Model-based أم Instance-based؟ |
|
|
|
29 |
|
00:01:56,390 --> 00:02:00,070 |
|
هذا سؤال. السؤال الثاني: الـ Naive Bayes Algorithm، |
|
|
|
30 |
|
00:02:00,070 --> 00:02:03,890 |
|
الجدول الذي بنيته، كم مرّة بنيته؟ |
|
|
|
31 |
|
00:02:06,390 --> 00:02:11,390 |
|
المفروض مرة واحدة. متى أحتاج إلى إعادة بنائه؟ لو تغيرت |
|
|
|
32 |
|
00:02:11,390 --> 00:02:14,850 |
|
الـ Training Set الموجودة عندي. وبالتالي، المفروض |
|
|
|
33 |
|
00:02:14,850 --> 00:02:18,090 |
|
أنّ هذا الجدول يمثّل عندي الـ Model خلال مرحلة التعليم، |
|
|
|
34 |
|
00:02:18,090 --> 00:02:21,430 |
|
مرحلة الـ Learning، مرحلة بناء الـ Model، الـ Network، |
|
|
|
35 |
|
00:02:21,430 --> 00:02:25,610 |
|
الذي هو الشبكة العصبية. تحاول تعديل الأوزان التي |
|
|
|
36 |
|
00:02:25,610 --> 00:02:30,810 |
|
موجودة عندها، حتى تصل إلى |
|
|
|
37 |
|
00:02:30,810 --> 00:02:37,860 |
|
الـ Label. يعني، بين قوسين: أدخلت الـ Input، عملت |
|
|
|
38 |
|
00:02:37,860 --> 00:02:42,900 |
|
Computation، حصلت على الـ Output. أقارن بين الـ |
|
|
|
39 |
|
00:02:42,900 --> 00:02:46,680 |
|
Output الحقيقي، والـ Predicted، وتبعًا للـ Error الذي |
|
|
|
40 |
|
00:02:46,680 --> 00:02:49,600 |
|
بينهما، أو الفرق الذي بينهما، أعمل Adjustment للـ |
|
|
|
41 |
|
00:02:49,600 --> 00:02:50,880 |
|
Weights الموجودة عندها. |
|
|
|
42 |
|
00:02:55,350 --> 00:02:57,970 |
|
الآن، الـ Neural Network، بشكل عام، يا جماعة الخير، هي |
|
|
|
43 |
|
00:02:57,970 --> 00:03:01,010 |
|
تحاكي الشبكات العصبية في الإنسان، أو الجهاز |
|
|
|
44 |
|
00:03:01,010 --> 00:03:03,910 |
|
العصبي في الإنسان. في الآخر، الـ Decision في الدماغ، |
|
|
|
45 |
|
00:03:03,910 --> 00:03:09,510 |
|
والخلايا العصبية منتشرة على كل جسمك. لو أنت ساكت، أو |
|
|
|
46 |
|
00:03:09,510 --> 00:03:13,710 |
|
سرحان، وقاعد بتحل في مسألة في الـ Data Mining، وجاء |
|
|
|
47 |
|
00:03:13,710 --> 00:03:23,320 |
|
زميلك، وطرف دبوس، وحاول يشكك في يدك، بدون ما تنتبه له، |
|
|
|
48 |
|
00:03:23,320 --> 00:03:27,400 |
|
أنت، بدون إرادة، ستجد أنّ يدك تحرّكت في الاتجاه |
|
|
|
49 |
|
00:03:27,400 --> 00:03:31,980 |
|
المضاد للّمسة، بحيث أنّها، يعني، تبعد عن مصدر الخطر. |
|
|
|
50 |
|
00:03:31,980 --> 00:03:35,680 |
|
الذي صار، أنت فعليًا لا تعرف ما الذي حدث، لكن مجرد |
|
|
|
51 |
|
00:03:35,680 --> 00:03:38,840 |
|
أنّك حركت، أبعدت يدك، ثم بدأت تفكر، لأنّ كانت |
|
|
|
52 |
|
00:03:38,840 --> 00:03:42,240 |
|
الحركة، أو الجهاز العصبي، أرسل إشارة إلى الدماغ، والدماغ |
|
|
|
53 |
|
00:03:42,240 --> 00:03:45,260 |
|
أخذ Processing سريعًا جدًا، أنّه: ابعد عن |
|
|
|
54 |
|
00:03:45,260 --> 00:03:47,980 |
|
الخطر هذا. وكذلك، يحدث هذا معنا في هذا الموضوع، عندما يكون |
|
|
|
55 |
|
00:03:47,980 --> 00:03:52,510 |
|
الشغلات: حريق، إلخ. الآن، هذا الكلام لم يحدث إلا |
|
|
|
56 |
|
00:03:52,510 --> 00:03:56,330 |
|
من خلال خبرة مكتسبة، موجودة عندنا. فالـ Neural |
|
|
|
57 |
|
00:03:56,330 --> 00:03:58,870 |
|
Network جاءت، لماذا؟ لأن الناس فكّروا فيها، في الـ |
|
|
|
58 |
|
00:03:58,870 --> 00:04:03,050 |
|
خمسينات، جاءت فكرة: لماذا لا نحاول محاكاة عقل الإنسان في |
|
|
|
59 |
|
00:04:03,050 --> 00:04:07,410 |
|
التعامل؟ نحن لا نهتم كثيرًا بالصبغة التاريخية |
|
|
|
60 |
|
00:04:07,410 --> 00:04:13,090 |
|
والتفاصيل كثيرًا. لكن بشكل عام، أبسط نموذج للشبكة |
|
|
|
61 |
|
00:04:13,090 --> 00:04:15,690 |
|
الموجودة عندي، لأنّ في النهاية، كل شيء Computation، |
|
|
|
62 |
|
00:04:15,690 --> 00:04:20,450 |
|
يا جماعة الخير، هي مجموعة الـ Input. مجموعة الـ Input، |
|
|
|
63 |
|
00:04:20,450 --> 00:04:25,970 |
|
الآن، ما هو P1 إلى PR؟ هي عبارة عن الـ Attributes، |
|
|
|
64 |
|
00:04:25,970 --> 00:04:31,350 |
|
تمثّل |
|
|
|
65 |
|
00:04:31,350 --> 00:04:36,790 |
|
الـ Input. طيب، وما هو A؟ |
|
|
|
66 |
|
00:04:36,790 --> 00:04:44,280 |
|
الـ Output، للـ Class الموجود عندي هنا. الـ |
|
|
|
67 |
|
00:04:44,280 --> 00:04:47,380 |
|
Class الموجود عندي. ما الذي حدث؟ ما الذي فعلته فعليًا؟ |
|
|
|
68 |
|
00:04:47,380 --> 00:04:52,960 |
|
كل Attribute له وزن. فأنا آخذ، أضرب قيمة الـ |
|
|
|
69 |
|
00:04:52,960 --> 00:04:57,080 |
|
Attribute، لاحظ، أقول: أضرب قيمة الـ Attribute في |
|
|
|
70 |
|
00:04:57,080 --> 00:05:05,800 |
|
الوزن، أجمعها، أضيف لها قيمة للـ Bias، و هذه الـ Function |
|
|
|
71 |
|
00:05:05,800 --> 00:05:09,460 |
|
تُجري Decision. أي واحد من الـ Binary Classification، |
|
|
|
72 |
|
00:05:09,460 --> 00:05:13,210 |
|
أو من الـ Classes، ستكون صفر أو واحد. يعني Binary |
|
|
|
73 |
|
00:05:13,210 --> 00:05:17,090 |
|
Classification. انتبه معي، وانتبه معي عندما |
|
|
|
74 |
|
00:05:17,090 --> 00:05:20,830 |
|
قلت: آخذ قيمة الـ Attribute، وأضربها. طيب، هل من الممكن أن |
|
|
|
75 |
|
00:05:20,830 --> 00:05:24,390 |
|
أعمل مع الـ Nominal Attribute؟ لا، هذا غير ممكن. الـ Data |
|
|
|
76 |
|
00:05:24,390 --> 00:05:28,170 |
|
Set الخاصة بك يجب أن تكون رقمية بالكامل. لأن لا يوجد مدى |
|
|
|
77 |
|
00:05:28,170 --> 00:05:31,690 |
|
أذهب إليه وأقول: والله، الـ Gender Male، أضرب في خمسة. |
|
|
|
78 |
|
00:05:31,690 --> 00:05:34,990 |
|
حوّلها إلى 0، 1، أو أي Attribute رقمي تراه |
|
|
|
79 |
|
00:05:34,990 --> 00:05:39,170 |
|
مناسبًا. الـ Income، كما رأينا قبل قليل، Fair و |
|
|
|
80 |
|
00:05:39,170 --> 00:05:43,940 |
|
Excellent، أيضًا، تُحوّل إلى أرقام. وبالتالي، بدلًا |
|
|
|
81 |
|
00:05:43,940 --> 00:05:46,800 |
|
من أن تكون Category، تُحوّل إلى أرقام. |
|
|
|
82 |
|
00:05:46,800 --> 00:05:51,960 |
|
تمام، حتى لو كان هناك Coding موجودة عندي، في النهاية، ما |
|
|
|
83 |
|
00:05:51,960 --> 00:05:58,140 |
|
سيحدث سيكون كالتالي: الـ Function الخاصة بي، الـ Prediction |
|
|
|
84 |
|
00:05:58,140 --> 00:06:02,520 |
|
Function الخاصة بي، هي عبارة عن Vector من الأوزان، مضروبة |
|
|
|
85 |
|
00:06:02,520 --> 00:06:07,450 |
|
في الـ Input، زائد الـ Bias الموجود عندي. في مرحلة |
|
|
|
86 |
|
00:06:07,450 --> 00:06:15,310 |
|
الـ Learning، تصبح الشبكة تبحث عن أفضل W و B، لأنّ |
|
|
|
87 |
|
00:06:15,310 --> 00:06:19,530 |
|
أنت لا تنسَ أنّها معادلة خطّ مستقيم، تبحث عن أفضل W |
|
|
|
88 |
|
00:06:19,530 --> 00:06:23,770 |
|
و B، لكن بـ Vectors. W تمثّل الأوزان الخاصة بـ |
|
|
|
89 |
|
00:06:23,770 --> 00:06:26,630 |
|
الـ Connection، و B تمثّل الـ Bias الخاصة بالـ Network، التي |
|
|
|
90 |
|
00:06:26,630 --> 00:06:30,210 |
|
موجودة في الـ Multilayer Neural Network. شغلنا هنا |
|
|
|
91 |
|
00:06:30,210 --> 00:06:30,870 |
|
مختلف. |
|
|
|
92 |
|
00:06:33,410 --> 00:06:39,370 |
|
سابقًا، كان عندي فقط Input و Output، في الـ Simple |
|
|
|
93 |
|
00:06:39,370 --> 00:06:42,630 |
|
Neural Network. وقبل قليل، قلنا أنّها عبارة عن |
|
|
|
94 |
|
00:06:42,630 --> 00:06:47,080 |
|
مجموعة من الـ Connected Input و الـ Output Units. الآن، |
|
|
|
95 |
|
00:06:47,080 --> 00:06:51,160 |
|
في الـ Multilayer، أضيف عندي ما بين الـ Layer |
|
|
|
96 |
|
00:06:51,160 --> 00:06:54,620 |
|
الأولى، التي تمثّل الـ Input، والـ Layer |
|
|
|
97 |
|
00:06:54,620 --> 00:06:58,680 |
|
الأخيرة، التي هي الـ Output Layer، صار يمثّل عندي |
|
|
|
98 |
|
00:06:58,680 --> 00:07:02,320 |
|
ما يُسمّى الـ Hidden Layer. بالمناسبة، الكثير من |
|
|
|
99 |
|
00:07:02,320 --> 00:07:05,740 |
|
الناس يرفضون الـ Neural Network، لأنّهم يعتبرونها Black |
|
|
|
100 |
|
00:07:05,740 --> 00:07:06,160 |
|
Box. |
|
|
|
101 |
|
00:07:09,080 --> 00:07:13,600 |
|
ماذا يعني Black Box؟ Black Box بمعنى أنّي فعليًا |
|
|
|
102 |
|
00:07:13,600 --> 00:07:16,140 |
|
لا أرى ما يحدث، ولا أعرف لماذا هذه الأوزان |
|
|
|
103 |
|
00:07:16,140 --> 00:07:19,100 |
|
أصبحت هكذا. وفعلاً، هذه هي، للأسف، الـ Algorithm التي |
|
|
|
104 |
|
00:07:19,100 --> 00:07:23,520 |
|
موجودة عندنا. يعني، صعب تفسيرها. |
|
|
|
105 |
|
00:07:23,520 --> 00:07:29,900 |
|
طيب، الآن، الـ Input، حسب الرسم الذي عندي هنا، |
|
|
|
106 |
|
00:07:29,900 --> 00:07:34,540 |
|
هنا، ثلاثة Inputs، واثنان Outputs. وكما قلنا، |
|
|
|
107 |
|
00:07:34,540 --> 00:07:37,340 |
|
بما أنّها كلها أرقام، معناته الـ Input الخاصة بها ستكون 0، 1. |
|
|
|
108 |
|
00:07:38,540 --> 00:07:41,280 |
|
معناته، كل Neural Network هذه ستكون صفر، واحد في |
|
|
|
109 |
|
00:07:41,280 --> 00:07:44,820 |
|
المرحلة الأولى. في الـ Network السابق، يا جماعة الخير، |
|
|
|
110 |
|
00:07:44,820 --> 00:07:48,880 |
|
هذه الـ Function: صفر، |
|
|
|
111 |
|
00:07:48,880 --> 00:07:52,200 |
|
واحد. Two classes: الـ Class الأول، والـ Class الثاني. |
|
|
|
112 |
|
00:07:52,200 --> 00:07:58,130 |
|
هنا، صار في عندي Two Neurons في الـ Output. معناته كل |
|
|
|
113 |
|
00:07:58,130 --> 00:08:01,350 |
|
واحد فيهم يعطيني صفر أو واحد. معناته، صار في عندي |
|
|
|
114 |
|
00:08:01,350 --> 00:08:06,030 |
|
Two bits. أجعلها Two bits: صفر، صفر؛ صفر، واحد؛ |
|
|
|
115 |
|
00:08:06,030 --> 00:08:10,010 |
|
واحد، صفر؛ واحد، واحد. وكأنّي أتحدّث عن Four Classes. |
|
|
|
116 |
|
00:08:10,010 --> 00:08:15,990 |
|
يعني، بالـ Multilayer Neural Network، أصبح بإمكاني أن |
|
|
|
117 |
|
00:08:15,990 --> 00:08:21,880 |
|
أُعالج Dataset أكبر، أو أحصل على Multiclass |
|
|
|
118 |
|
00:08:21,880 --> 00:08:26,240 |
|
Classification. تعالوا نشوف الشكل العام الخاص بالـ |
|
|
|
119 |
|
00:08:26,240 --> 00:08:30,300 |
|
Network. هذا الشكل الذي رأيناه، نسميه |
|
|
|
120 |
|
00:08:30,300 --> 00:08:36,100 |
|
Network Topology. الـ Network Topology، هنا، ستحدّد |
|
|
|
121 |
|
00:08:36,100 --> 00:08:39,720 |
|
فيه عدد الـ Input، أو عدد الـ Units الخاصة بالـ Input، في الـ |
|
|
|
122 |
|
00:08:39,720 --> 00:08:44,740 |
|
Input Layer. طيب، ليس لي دخل كبير بها، لماذا؟ لأنّ |
|
|
|
123 |
|
00:08:44,740 --> 00:08:50,880 |
|
عادةً، عدد الـ Input Neurons يساوي |
|
|
|
124 |
|
00:08:50,880 --> 00:08:54,720 |
|
عدد الـ Attributes. يعني، ببساطة، كل Attribute في الـ |
|
|
|
125 |
|
00:08:54,720 --> 00:09:01,740 |
|
Data Set له Input Neuron واحد. يُفضّل أن تقوم بـ |
|
|
|
126 |
|
00:09:01,740 --> 00:09:06,350 |
|
Normalization لقيم الـ Attributes. ليس تفضيلاً، |
|
|
|
127 |
|
00:09:06,350 --> 00:09:09,370 |
|
بل قد يكون إلزاميًا، في مرحلة ما. لماذا؟ لأنّ |
|
|
|
128 |
|
00:09:09,370 --> 00:09:12,530 |
|
تتجنّب الـ Bias. ضع كل الـ Attributes الموجودة بعد |
|
|
|
129 |
|
00:09:12,530 --> 00:09:17,050 |
|
ما... بعد ما قمت بـ Preprocessing، وجّهزت... |
|
|
|
130 |
|
00:09:17,050 --> 00:09:20,350 |
|
جهزت الـ Data Set، لأنّ كل الـ Data كانت مستقلة، |
|
|
|
131 |
|
00:09:21,310 --> 00:09:24,470 |
|
لكنّ مُقياسها مختلف. وبما أنّ عملية |
|
|
|
132 |
|
00:09:24,470 --> 00:09:28,810 |
|
الحساب، كما رأينا سابقًا، تكون قيمتها، مثلًا، الـ |
|
|
|
133 |
|
00:09:28,810 --> 00:09:31,710 |
|
Call بالـ Minutes، خمسمائة، ألف، خمسمائة |
|
|
|
134 |
|
00:09:31,710 --> 00:09:35,310 |
|
دقيقة، في مقابل الـ Megabytes التي الـ Data... التي أنا |
|
|
|
135 |
|
00:09:35,310 --> 00:09:40,490 |
|
استخدمتها على الـ Mobile كانت بالأ... بالأيام. فواحد |
|
|
|
136 |
|
00:09:40,490 --> 00:09:43,330 |
|
سيكون وزنه أكبر من الآخر. فما الحل؟ |
|
|
|
137 |
|
00:09:43,330 --> 00:09:46,770 |
|
لا، قم بـ Scaling، لتصبح من صفر إلى واحد، وسترتاح. |
|
|
|
138 |
|
00:09:46,770 --> 00:09:51,900 |
|
الآن، Number of Hidden Layers في الـ Topology. عدد الـ |
|
|
|
139 |
|
00:09:51,900 --> 00:09:57,920 |
|
Hidden Layer. وليس هذا فقط، عدد الـ Hidden Neurons في |
|
|
|
140 |
|
00:09:57,920 --> 00:10:02,620 |
|
الـ Hidden Layer، يعني |
|
|
|
141 |
|
00:10:02,620 --> 00:10:05,200 |
|
ببساطة، أنا أتحدّث عن الـ Neural Network، |
|
|
|
142 |
|
00:10:05,200 --> 00:10:14,800 |
|
أتحدث عن Input Layer، وأتحدث عن Hidden Layer، و |
|
|
|
143 |
|
00:10:14,800 --> 00:10:22,100 |
|
أتحدث عن Output Layer. ثلاث طبقات موجودة عندي. الـ |
|
|
|
144 |
|
00:10:22,100 --> 00:10:29,260 |
|
Input و الـ Output معروفان. ها هو Number of Classes، وهنا |
|
|
|
145 |
|
00:10:29,260 --> 00:10:36,540 |
|
Number of Attributes. أبو |
|
|
|
146 |
|
00:10:36,540 --> 00:10:42,380 |
|
هنا، هنا يا سيدي العزيز، لا أحد يُحكمك في شيء، ولا يوجد |
|
|
|
147 |
|
00:10:42,380 --> 00:10:46,040 |
|
قانون واضح. الآن، نحن نتحدث، لكي يكون عندي Multi |
|
|
|
148 |
|
00:10:46,040 --> 00:10:49,580 |
|
Layer، على الأقل يكون عندي Single Layer. وعندما |
|
|
|
149 |
|
00:10:49,580 --> 00:10:52,500 |
|
يكون عندي أكثر من Two Hidden Layers، تصبح Deep |
|
|
|
150 |
|
00:10:52,500 --> 00:10:56,040 |
|
Neural Network، تمام؟ وهذا المصطلح الذي يستخدمه |
|
|
|
151 |
|
00:10:56,040 --> 00:10:58,660 |
|
اليوم في الـ Machine Learning، يسمّى: Deep |
|
|
|
152 |
|
00:10:58,660 --> 00:11:01,760 |
|
Learning. لكنّنا الآن، بشكل بسيط، نتحدث عن |
|
|
|
153 |
|
00:11:01,760 --> 00:11:05,630 |
|
Input Layer، Hidden Layer واحد، و Output |
|
|
|
154 |
|
00:11:05,630 --> 00:11:09,190 |
|
Hidden Layer. بالنسبة لعدد الـ Neurons في الـ Hidden |
|
|
|
155 |
|
00:11:09,190 --> 00:11:12,590 |
|
Layer الموجودة عندي هنا، ليس لديّ |
|
|
|
156 |
|
00:11:12,590 --> 00:11:17,210 |
|
حسب الـ Attributes عندي. أربعة Input، أربعة Attributes، |
|
|
|
157 |
|
00:11:17,210 --> 00:11:23,860 |
|
وعندي Two Classes معروفة. ربما هؤلاء... أيضًا، لا يوجد عدد |
|
|
|
158 |
|
00:11:23,860 --> 00:11:28,140 |
|
محدد للـ Neurons. متروك لكم للتجربة والقياس، أو |
|
|
|
159 |
|
00:11:28,140 --> 00:11:31,300 |
|
تجربة والخطأ، كما نسميها أحيانًا، وتحديدها، |
|
|
|
160 |
|
00:11:31,300 --> 00:11:34,840 |
|
لكن بعض الناس يقول لك: دعني أضع Initialisation |
|
|
|
161 |
|
00:11:34,840 --> 00:11:44,300 |
|
لهذا الكلام، من خلال أن أبدأ بمجموع الاثنين على اثنين. |
|
|
|
162 |
|
00:11:44,300 --> 00:11:49,580 |
|
يعني، الآن، أربعة واثنين، ستة. |
|
|
|
163 |
|
00:11:53,290 --> 00:12:00,090 |
|
على اثنين: ثلاثة. ولاحظ، وكأنّه يصير عندي رسمة الشبكة: هي أربعة |
|
|
|
164 |
|
00:12:00,090 --> 00:12:05,990 |
|
في الـ Input، ثلاثة في الـ Output، أو عفواً في الـ |
|
|
|
165 |
|
00:12:05,990 --> 00:12:07,810 |
|
Hidden، واثنان في الـ Output. |
|
|
|
166 |
|
00:12:26,450 --> 00:12:30,210 |
|
وهذه الشبكة الخاصة بي، تصبح بهذا الشكل. أصبحت |
|
|
|
167 |
|
00:12:30,210 --> 00:12:33,730 |
|
ضيقَة باتجاه الـ Output الموجودة. واحد قال: لا، |
|
|
|
168 |
|
00:12:33,730 --> 00:12:37,850 |
|
أريد أن آخذ ضعف الـ Input، أو أريد أن آخذ مجموعهما. لا أحد |
|
|
|
169 |
|
00:12:37,850 --> 00:12:41,470 |
|
سيقول لك: لا. هذا متروك لك. لماذا؟ كما قلت لك، هذه |
|
|
|
170 |
|
00:12:41,470 --> 00:12:44,070 |
|
الشبكة تحتاج إلى Optimization. الـ Neural Network من |
|
|
|
171 |
|
00:12:44,070 --> 00:12:46,510 |
|
الأشياء التي تحتاج إلى Optimization كثيرًا، وتحتاج إلى عمل |
|
|
|
172 |
|
00:12:46,510 --> 00:12:50,820 |
|
كثير في الـ Configuration. نرجع إلى الـ Simplest الـ |
|
|
|
173 |
|
00:12:50,820 --> 00:12:54,540 |
|
Neural Network الموجودة عندي. في النهاية، الـ |
|
|
|
174 |
|
00:12:54,540 --> 00:12:58,860 |
|
Function |
|
|
|
223 |
|
00:16:49,840 --> 00:16:54,840 |
|
كيف الـ neural network بتشتغل؟ بتاخد الـ input تبع الـ |
|
|
|
224 |
|
00:16:54,840 --> 00:17:00,450 |
|
attributes اللي موجودة عنده، وبتدخل إياهُ في الـ |
|
|
|
225 |
|
00:17:00,450 --> 00:17:03,970 |
|
input فترة الـ training. بتدخل اتباعاً، أو عفواً، في الـ |
|
|
|
226 |
|
00:17:03,970 --> 00:17:07,250 |
|
attributes بتدخل بشكل متوازي مع بعضها، لأن زي ما |
|
|
|
227 |
|
00:17:07,250 --> 00:17:11,450 |
|
قلنا، الـ instance بالكامل بتدخل عندي على الـ system. |
|
|
|
228 |
|
00:17:11,450 --> 00:17:18,250 |
|
بعد هيك، في أوزان الشبكة، عادة بتبدأ بـ random weight. |
|
|
|
229 |
|
00:17:18,250 --> 00:17:21,970 |
|
بتبدأ بـ random weight، و الأوزان مع كل connection |
|
|
|
230 |
|
00:17:21,970 --> 00:17:25,490 |
|
مع كل connection من الـ connections السابقة. هاي في |
|
|
|
231 |
|
00:17:25,490 --> 00:17:27,950 |
|
أول ما بتبدأ الشبكة بتحط random weight. |
|
|
|
232 |
|
00:17:30,650 --> 00:17:37,670 |
|
الخطوة اللي بعد هيك، لما أنا بعد ما بتروح تدخل، لاحظ |
|
|
|
233 |
|
00:17:37,670 --> 00:17:41,190 |
|
معايا، خلينا نقول، الـ input in your own hand. هنّفي W1 |
|
|
|
234 |
|
00:17:41,190 --> 00:17:49,520 |
|
1, W1 2, W1 3, و W1 4. لأيش؟ لأن عندي 4 hidden neuron و |
|
|
|
235 |
|
00:17:49,520 --> 00:17:53,500 |
|
4 connection. الـ value تبع الـ hidden neuron، أو الـ |
|
|
|
236 |
|
00:17:53,500 --> 00:17:56,200 |
|
input neuron، هذا اللي تبع الـ attribute الأول. |
|
|
|
237 |
|
00:17:56,200 --> 00:18:03,820 |
|
خلّيني، على سبيل المثال، نقول هنا 1.7 من عشرة الآن. |
|
|
|
238 |
|
00:18:03,820 --> 00:18:09,460 |
|
1.7 من عشرة ضرب W1 1. جاية لمين؟ للـ hidden neuron. |
|
|
|
239 |
|
00:18:09,460 --> 00:18:16,430 |
|
هنا في المقابل، عندي هنا مثلاً كانت 2، وهذه الـ W 2 1. |
|
|
|
240 |
|
00:18:16,430 --> 00:18:21,430 |
|
و هذه الـ W 3 1، و هذه الـ W 1 1، و هذه الـ W 3 1، و |
|
|
|
241 |
|
00:18:21,430 --> 00:18:22,910 |
|
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و |
|
|
|
242 |
|
00:18:22,910 --> 00:18:23,890 |
|
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و |
|
|
|
243 |
|
00:18:23,890 --> 00:18:26,510 |
|
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و |
|
|
|
244 |
|
00:18:26,510 --> 00:18:28,550 |
|
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و |
|
|
|
245 |
|
00:18:28,550 --> 00:18:29,110 |
|
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و |
|
|
|
246 |
|
00:18:29,110 --> 00:18:30,230 |
|
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و |
|
|
|
247 |
|
00:18:30,230 --> 00:18:30,370 |
|
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و |
|
|
|
248 |
|
00:18:30,370 --> 00:18:30,750 |
|
هذه الـ W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1، و |
|
|
|
249 |
|
00:18:30,750 --> 00:18:34,510 |
|
هذه الـ W 3 1، و هذه الـ |
|
|
|
250 |
|
00:18:34,510 --> 00:18:43,070 |
|
W 3 1، و هذه الـ W 3 1، و هذه الـ W 3 1. |
|
|
|
251 |
|
00:18:46,660 --> 00:18:50,260 |
|
وبديني decision، انه بيطلع output، و الـ output برضه |
|
|
|
252 |
|
00:18:50,260 --> 00:18:55,540 |
|
فيه إلها أوزان وبتتوزع على... يعني الآن السهم اللي |
|
|
|
253 |
|
00:18:55,540 --> 00:18:58,580 |
|
داخل على الـ neuron بيمثل الـ input، و اللي طالع منه |
|
|
|
254 |
|
00:18:58,580 --> 00:19:02,540 |
|
بيمثل الـ output تبعته. ايش الـ... اوكي، احنا عرفنا هنّ |
|
|
|
255 |
|
00:19:02,540 --> 00:19:05,200 |
|
انه الـ input. طب ايش الـ input؟ ايش الـ output؟ عفواً، |
|
|
|
256 |
|
00:19:06,520 --> 00:19:08,840 |
|
ما هي القيمة اللي طالعة عندي من الـ hidden neuron؟ |
|
|
|
257 |
|
00:19:08,840 --> 00:19:11,240 |
|
هي عبارة عن تجميع على العناصر اللي موجودة عندي هنا. |
|
|
|
258 |
|
00:19:11,240 --> 00:19:15,440 |
|
ومن ثم بصدرليها بنفس الفكرة على الأوزان اللي جاي |
|
|
|
259 |
|
00:19:15,440 --> 00:19:20,420 |
|
بعدها، وهكذا بتتم عمل الشبكة. الآن هذه الشبكات |
|
|
|
260 |
|
00:19:20,420 --> 00:19:26,520 |
|
بتشتغل ضمن الـ feed forward neural network. |
|
|
|
261 |
|
00:19:26,650 --> 00:19:29,030 |
|
في الـ feed forward neural network، أنا فعلياً قاعد |
|
|
|
262 |
|
00:19:29,030 --> 00:19:32,630 |
|
بشتغل باتجاه واحد فقط، وهو الاتجاه أو التدفق |
|
|
|
263 |
|
00:19:32,630 --> 00:19:36,930 |
|
الطبيعي للشبكة، من الـ input لحد الـ output اللي |
|
|
|
264 |
|
00:19:36,930 --> 00:19:46,190 |
|
موجودة عندي. نقاط القوة في الشبكة، انه فعلياً بتتحكم |
|
|
|
265 |
|
00:19:46,190 --> 00:19:49,950 |
|
أو بتقدر تسيطر بشكل قوي على الـ noise data اللي |
|
|
|
266 |
|
00:19:49,950 --> 00:19:55,430 |
|
موجودة عندي. هان بتقدر تعمل classification على |
|
|
|
267 |
|
00:19:55,430 --> 00:19:57,790 |
|
untrained pattern، بتقدر تتحملها، detection بشكل |
|
|
|
268 |
|
00:19:57,790 --> 00:20:02,670 |
|
بسيط. مناسبة جداً للـ continuous value في الـ input و |
|
|
|
269 |
|
00:20:02,670 --> 00:20:05,670 |
|
الـ output، على خلاف اللي احنا شفناهم سابقاً، الـ |
|
|
|
270 |
|
00:20:05,670 --> 00:20:09,750 |
|
classifiers السابقة. بتشتغل مع أي قرية من الـ real |
|
|
|
271 |
|
00:20:09,750 --> 00:20:15,130 |
|
world data، حتى لو كانت بالـ handwritten. الـ |
|
|
|
272 |
|
00:20:15,130 --> 00:20:18,150 |
|
algorithm ممكن يطبق parallel بشكل متوازي، وبالتالي |
|
|
|
273 |
|
00:20:18,150 --> 00:20:23,060 |
|
هذا بيعمل على تسريع العمل. الـ weaknesses تبعتها، إنها |
|
|
|
274 |
|
00:20:23,060 --> 00:20:26,500 |
|
بتحتاج لفترة طويلة من التعليم، لأن زي ما شفنا أن |
|
|
|
275 |
|
00:20:26,500 --> 00:20:33,340 |
|
الأوزان كلها بتتغير. تخيل أنك في عندك عشرة input، في |
|
|
|
276 |
|
00:20:33,340 --> 00:20:38,060 |
|
عشرة hidden، في أربعة، أو بلاش في اتنين |
|
|
|
277 |
|
00:20:41,140 --> 00:20:44,420 |
|
output. اضرب هدول، هي عبارة عن عدد الـ connections |
|
|
|
278 |
|
00:20:44,420 --> 00:20:47,320 |
|
اللي موجودة، وعدد الـ connections بيساوي عدد الأوزان. |
|
|
|
279 |
|
00:20:47,320 --> 00:20:52,760 |
|
وبالتالي، بتكلم على 200 value كأوزان، بدها تغيير مع |
|
|
|
280 |
|
00:20:52,760 --> 00:20:57,000 |
|
كل عملية الـ training، و هذا مع كل instance، وبالتالي |
|
|
|
281 |
|
00:20:57,000 --> 00:21:01,860 |
|
موضوع الـ training هياخد منه وقت طويل. بتحتاج ده |
|
|
|
282 |
|
00:21:01,860 --> 00:21:04,380 |
|
كتير من الـ argument أو من الـ parameter. أنا بحتاج |
|
|
|
283 |
|
00:21:04,380 --> 00:21:07,340 |
|
أعملها tuning بشكل صحيح، عشان أقدر أحصل على الـ |
|
|
|
284 |
|
00:21:07,340 --> 00:21:11,460 |
|
result المطلوبة. منها إن الـ structure تبعتها أبسط |
|
|
|
285 |
|
00:21:11,460 --> 00:21:15,680 |
|
ما يمكن. ايش الـ structure؟ ايش الـ activation |
|
|
|
286 |
|
00:21:15,680 --> 00:21:19,380 |
|
function اللي أنا بدي اعتمدها؟ إلى آخره. الآن من |
|
|
|
287 |
|
00:21:19,380 --> 00:21:22,520 |
|
أهم الـ neural network اللي موجودة يا جماعة الخير، |
|
|
|
288 |
|
00:21:22,520 --> 00:21:26,200 |
|
شغلة بنسميها الـ back propagate neural network، back |
|
|
|
289 |
|
00:21:26,200 --> 00:21:32,400 |
|
propagate، الانتشار للخلف. الآن أنا هوضحها بشكل سريع. |
|
|
|
290 |
|
00:21:32,400 --> 00:21:40,530 |
|
هان، هحاول أرسمها على الصبورة، بس عشان تنتين، تلاتة، |
|
|
|
291 |
|
00:21:40,530 --> 00:21:52,390 |
|
أربعة، واحدة، تنتين، تلاتة، واحدة، تنتين، واحد، اتنين، |
|
|
|
292 |
|
00:21:52,390 --> 00:21:54,230 |
|
تلاتة. |
|
|
|
293 |
|
00:22:23,390 --> 00:22:27,830 |
|
تمام، عشان نفهم بس مبدأ الـ neural network، أو الـ |
|
|
|
294 |
|
00:22:27,830 --> 00:22:31,210 |
|
back propagate neural network، بشكل سريع، و مش هخش |
|
|
|
295 |
|
00:22:31,210 --> 00:22:34,730 |
|
في المعادلات الرياضية التفصيلية اللي هشغل عليها، لكن |
|
|
|
296 |
|
00:22:34,730 --> 00:22:37,910 |
|
أنا بهمني الآن نفهم الـ concept على السريع. الآن |
|
|
|
297 |
|
00:22:37,910 --> 00:22:42,510 |
|
تخيل أن أنا في عندي instance، أو الـ data set |
|
|
|
298 |
|
00:22:42,510 --> 00:22:45,810 |
|
المفروض الـ data set تبعتي، أو الـ data set تبعتي |
|
|
|
299 |
|
00:22:45,810 --> 00:22:49,190 |
|
مكونة من four attributes و one class attribute، |
|
|
|
300 |
|
00:22:49,190 --> 00:22:56,110 |
|
مظبوط، و one target. بنسميهم A1, A2, A3, A4، و الـ |
|
|
|
301 |
|
00:22:56,110 --> 00:23:03,770 |
|
label. طبعاً المفروض هنقل A1, A2, A3, A4، وهنا |
|
|
|
302 |
|
00:23:03,770 --> 00:23:07,770 |
|
المفروض في عندي الـ label. الآن الفكرة فيها أنه هياخد |
|
|
|
303 |
|
00:23:07,770 --> 00:23:11,210 |
|
الـ instance في الأول، أول ما بأتكلم على الـ |
|
|
|
304 |
|
00:23:11,210 --> 00:23:16,150 |
|
topology تبعتها، بروح بياخد مني عندي random weight. |
|
|
|
305 |
|
00:23:19,480 --> 00:23:22,320 |
|
بياخد أوزان من صفر لواحد، على كل الـ connections |
|
|
|
306 |
|
00:23:22,320 --> 00:23:28,500 |
|
اللي موجودة. تمام؟ الآن بياخد الـ value، مثلاً واحد، |
|
|
|
307 |
|
00:23:28,500 --> 00:23:32,340 |
|
واحد، صفر، واحد، والـ label تبعتها كانت، كانت على سبيل |
|
|
|
308 |
|
00:23:32,340 --> 00:23:36,540 |
|
مثال واحد، بالشكل هذا. فبياخد القيم اللي موجودة هنا، |
|
|
|
309 |
|
00:23:36,540 --> 00:23:40,580 |
|
وبضربها مع الأوزان اللي موجودة، لحد ما بياخد الـ |
|
|
|
310 |
|
00:23:40,580 --> 00:23:46,100 |
|
output. الآن في عندي الـ real class، وفي عندي الـ |
|
|
|
311 |
|
00:23:46,100 --> 00:23:47,000 |
|
predicted class. |
|
|
|
312 |
|
00:23:49,540 --> 00:23:56,960 |
|
الفرق بينهم، بياخد |
|
|
|
313 |
|
00:23:56,960 --> 00:24:01,700 |
|
الخطأ هذا، وبيبدأ يوزعه بالعكس. جداش الوزن كان هذا |
|
|
|
314 |
|
00:24:01,700 --> 00:24:06,460 |
|
random، جداش الـ connection، جداش كل connection ساهم |
|
|
|
315 |
|
00:24:08,030 --> 00:24:13,810 |
|
بالوزن أو بالخطأ هذا، فبتوزع عليهم الخطأ. وكل مكان |
|
|
|
316 |
|
00:24:13,810 --> 00:24:18,010 |
|
اللي predicted تبعتي صح، بتكون الـ error zero. معناته |
|
|
|
317 |
|
00:24:18,010 --> 00:24:21,530 |
|
أنا مش بحاجة أرجع. يعني، بشكل عام، الـ neural network |
|
|
|
318 |
|
00:24:21,530 --> 00:24:23,970 |
|
بشكل عام، أو الـ back propagation neural network |
|
|
|
319 |
|
00:24:23,970 --> 00:24:31,830 |
|
بشكل عام، بتشتغل على two ways. الطريقة الأولى، مرحلة الـ |
|
|
|
320 |
|
00:24:31,830 --> 00:24:35,490 |
|
prediction. باخد الـ input تبعتي، بدخلها على الـ data |
|
|
|
321 |
|
00:24:35,490 --> 00:24:37,810 |
|
على الـ neural network، بحسب لحد ما بحصل على الـ |
|
|
|
322 |
|
00:24:37,810 --> 00:24:43,110 |
|
output، بحسب الـ error، و بروح بوزن قيمة أو بعدل |
|
|
|
323 |
|
00:24:43,110 --> 00:24:48,010 |
|
الأوزان تبعاً لقيمة الخطأ اللي موجود عندهم. |
|
|
|
324 |
|
00:24:49,890 --> 00:24:53,230 |
|
وهذا فعلياً اللي بتصير عندنا في الـ neural network |
|
|
|
325 |
|
00:24:53,230 --> 00:24:56,510 |
|
في الـ back propagate الـ neural network. الـ forward |
|
|
|
326 |
|
00:24:56,510 --> 00:25:01,970 |
|
path، الـ path الأولى، بطبق الـ input و بحسب الـ output |
|
|
|
327 |
|
00:25:01,970 --> 00:25:05,830 |
|
تبع الـ activation function، و بحسب الخطأ اللي موجود |
|
|
|
328 |
|
00:25:05,830 --> 00:25:10,990 |
|
عندي. في الـ back propagate path، أنا فعلياً باخد |
|
|
|
329 |
|
00:25:10,990 --> 00:25:14,990 |
|
قيمة الخطأ، و بعدل الأوزان حسب مساهمتها في نسبة |
|
|
|
330 |
|
00:25:14,990 --> 00:25:21,120 |
|
الخطأ اللي موجودة عندنا هنا. آخر slide موجودة عندي |
|
|
|
331 |
|
00:25:21,120 --> 00:25:25,880 |
|
هان، اللي هي slide اللي لها علاقة بالبايثون. كيف |
|
|
|
332 |
|
00:25:25,880 --> 00:25:29,380 |
|
ممكن أنا أطبق الـ back propagation neural network |
|
|
|
333 |
|
00:25:29,380 --> 00:25:38,420 |
|
على الـ بايثون؟ طبعاً أنا اشتغلت كالتالي هان، عملت load |
|
|
|
334 |
|
00:25:38,420 --> 00:25:43,360 |
|
للـ iris للـ data set اللي موجودة عندي هان، from ASCII |
|
|
|
335 |
|
00:25:43,360 --> 00:25:47,520 |
|
layer.linear_model import perceptron. اشتغلت |
|
|
|
336 |
|
00:25:47,520 --> 00:25:50,730 |
|
على الأبسط، الـ neural network اللي موجودة عندنا هنا. |
|
|
|
337 |
|
00:25:50,730 --> 00:25:55,970 |
|
حددت الـ target تبعتها، و حولتها لـ numbers: setosa |
|
|
|
338 |
|
00:25:55,970 --> 00:25:58,710 |
|
طبعاً، أو not setosa. هيك لأن في الـ binary |
|
|
|
339 |
|
00:25:58,710 --> 00:26:01,130 |
|
classification، and one، أو الـ symbol. الـ neural |
|
|
|
340 |
|
00:26:01,130 --> 00:26:03,670 |
|
network بتشتغل على binary classification، زي ما شفنا. |
|
|
|
341 |
|
00:26:03,670 --> 00:26:07,590 |
|
فحولت... قلت إما هذا، فيها three classes، حولت لـ two |
|
|
|
342 |
|
00:26:07,590 --> 00:26:13,890 |
|
classes: صفر و واحد، setosa و not setosa. استدعيت |
|
|
|
343 |
|
00:26:13,890 --> 00:26:17,780 |
|
الـ neural network تبعتي، from scikit-learn.neural_ |
|
|
|
344 |
|
00:26:17,780 --> 00:26:21,020 |
|
network import MLPClassifier. |
|
|
|
345 |
|
00:26:21,020 --> 00:26:26,740 |
|
الـ model هذا، بيتطلب مني اني احدد له شغلات كتيرة: عدد |
|
|
|
346 |
|
00:26:26,740 --> 00:26:32,580 |
|
الـ hidden layer، قلت له اتنين، و خمسة neuron في كل |
|
|
|
347 |
|
00:26:32,580 --> 00:26:36,830 |
|
واحدة، أو الـ solver، اللي هي الـ activation function |
|
|
|
348 |
|
00:26:36,830 --> 00:26:39,770 |
|
تبعتي، الـ alpha اللي بتمثل الـ learning rate، هذه |
|
|
|
349 |
|
00:26:39,770 --> 00:26:43,290 |
|
ما لكوش دخل فيها الآن. الـ solver و الـ hidden layer |
|
|
|
350 |
|
00:26:43,290 --> 00:26:46,850 |
|
size، الـ hidden layer size هي تبعتي المهمة بالنسبة |
|
|
|
351 |
|
00:26:46,850 --> 00:26:49,750 |
|
لي. الـ activation function هي الـ radial basis |
|
|
|
352 |
|
00:26:49,750 --> 00:26:53,490 |
|
function. وهنا بنتكلم على الـ network اللي موجودة |
|
|
|
353 |
|
00:26:53,490 --> 00:26:57,430 |
|
هنا، فقلت له أعمل train تبع الـ X و الـ Y، فرح يعدل |
|
|
|
354 |
|
00:26:57,430 --> 00:27:00,430 |
|
الأوزان اللي موجودة عندي هنا. فلما أنا بدي أزوده |
|
|
|
355 |
|
00:27:00,430 --> 00:27:04,610 |
|
الآن data، وأقول له اعملها prediction، الـ data بدها |
|
|
|
356 |
|
00:27:04,610 --> 00:27:07,670 |
|
تكون تماماً مع الـ data، مع الـ input اللي موجودة |
|
|
|
357 |
|
00:27:07,670 --> 00:27:11,850 |
|
عنديها، وهذه الـ data set هي عبارة عن مجموعة من |
|
|
|
358 |
|
00:27:11,850 --> 00:27:15,490 |
|
العناصر اللي موجودة عندها. إذا قدمت ليها as in، أو |
|
|
|
359 |
|
00:27:15,490 --> 00:27:19,230 |
|
matrix، فبياخدها، وفي الآخر هتديني prediction اللي |
|
|
|
360 |
|
00:27:19,230 --> 00:27:22,510 |
|
موجودة. يعني، باختصار بسيط جداً، أنا المفروض أن الـ data |
|
|
|
361 |
|
00:27:22,510 --> 00:27:27,070 |
|
set تبعتي، أحولها كلها لـ numeric data، في حال إذا |
|
|
|
362 |
|
00:27:27,070 --> 00:27:31,680 |
|
كنت أنا بدي اشتغل مع الـ Neural Network. بتمنى عليكم |
|
|
|
363 |
|
00:27:31,680 --> 00:27:35,300 |
|
وهذه تجربوها، وتفهموا الموضوع كويس، وزي ما قلنا |
|
|
|
364 |
|
00:27:35,300 --> 00:27:38,040 |
|
سابقا، على الـ forum اللي موجود على الـ model، أنا |
|
|
|
365 |
|
00:27:38,040 --> 00:27:41,420 |
|
مستعد إن شاء الله تعالى للإجابة على أي سؤال، وطبعاً |
|
|
|
366 |
|
00:27:41,420 --> 00:27:44,240 |
|
احنا اتعمدنا الإجابات على الـ forum، مش على الخاص، |
|
|
|
367 |
|
00:27:44,240 --> 00:27:48,520 |
|
عشان نقدر الفائدة تعمل للجميع. والسلام عليكم ورحمة |
|
|
|
368 |
|
00:27:48,520 --> 00:27:49,540 |
|
الله وبركاته. |
|
|