منذ 5 ساعات
أهلا بك عزيزي المتابع لموقع (journey for learn) نقدم دورات بكوبونات متاحة لاول 1000 تسجيل مجاني فقط وكوبونات اخري لفترة محدودة فاذا كنت تريد ان تحصل علي كل الكورسات علي موقعنا وان تكون اول المسجلين في الكورسات المجانية قم بتسجيل الدخول أوقم بالدخول علي وسائل التواصل الاجتماعي وخصوصا التليجرام نوضح الوصف المختصر والطويل للدورات لكي تعرف الدروس التي سوف تتعلمها بسهولة ويسر :
وصف أهلا ومرحبا بكم في دورتنا. التعلم المعزز. يعد التعلم المعزز مجالًا مثيرًا ومهمًا للغاية للتعلم الآلي والذكاء الاصطناعي. يسميها البعض جوهرة التاج للذكاء الاصطناعي. في هذه الدورة، سنغطي جميع الجوانب المتعلقة بالتعلم المعزز أو RL. سنبدأ بتعريف مشكلة RL، ومقارنتها بمشكلة التعلم الخاضع للإشراف، واكتشاف مجالات التطبيقات التي يمكن أن يتفوق فيها RL. يتضمن ذلك صياغة المشكلة، بدءًا من الأساسيات وحتى الاستخدام المتقدم للتعلم العميق، مما يؤدي إلى عصر التعلم المعزز العميق. في رحلتنا، سنغطي، كالعادة، الجوانب النظرية والعملية، حيث سنتعلم كيفية تنفيذ خوارزميات RL وتطبيقها على المشكلات الشهيرة باستخدام مكتبات مثل OpenAI Gym أو Keras-RL أو TensorFlow Agents أو TF-Agents وStable Baselines. تنقسم الدورة إلى 6 أقسام رئيسية: 1- نبدأ بـ مقدمة لتعريف مشكلة RL، ومقارنتها بشكل أساسي بمشكلة التعلم الخاضع للإشراف، واكتشاف مجالات التطبيق والمكونات الرئيسية لمشكلة RL. نصف هنا بيئات OpenAI Gym الشهيرة، والتي ستكون ملعبنا عندما يتعلق الأمر بالتنفيذ العملي للخوارزميات التي نتعلم عنها.2- في الجزء الثاني نناقش الصياغة الرئيسية لمسألة RL باعتبارها قرار ماركوف العملية أو MDP، مع حل بسيط لمعظم المشاكل الأساسية باستخدام البرمجة الديناميكية.
3- بعد التسلح بفهم MDP، ننتقل لاستكشاف مساحة الحل لمشكلة MDP، وما هي الحلول المختلفة خارج DP ، والذي يتضمن نموذجًا قائمًا على والحلول الخالية من النماذج. سنركز في هذا الجزء على الحلول الخالية من النماذج، ونؤجل الحلول المبنية على النماذج إلى الجزء الأخير. في هذا الجزء، نقوم بوصف طرق مونت كارلو والفرق الزمني لأخذ العينات، بما في ذلك خوارزمية Q-Learning الشهيرة والمهمة، وSARSA. سنصف الاستخدام العملي وتنفيذ Q-learning وSARSA في التحكم في مشاكل المتاهة الجدولية من بيئات OpenAI Gym.
4- لتجاوز المشكلات الجدولية البسيطة، سنحتاج إلى التعرف على تقريب الوظيفة في RL، مما يؤدي إلى أساليب RL السائدة اليوم تستخدم التعلم العميق، أو التعلم المعزز العميق (DRL). سنصف هنا خوارزمية DeepMind الخارقة التي حلت ألعاب Atari وAlphaGO، وهي Deep Q-Networks أو DQN. نناقش أيضًا كيف يمكننا حل مشكلات ألعاب Atari باستخدام DQN عمليًا باستخدام Keras-RL وTF-Agents.
5- في الجزء الخامس، ننتقل إلى خوارزميات DRL المتقدمة، بشكل أساسي ضمن عائلة تسمى الأساليب المستندة إلى السياسة. نناقش هنا تدرجات السياسة، وDDPG، وأساليب الممثل الناقد، وA2C، وA3C، وTRPO، وPPO. نناقش أيضًا مكتبة Stable Baseline المهمة لتنفيذ كل تلك الخوارزميات في بيئات مختلفة في OpenAI Gym، مثل Atari وغيرها.
6- أخيرًا، نستكشف عائلة أساليب RL القائمة على النماذج، والأهم من ذلك، التمييز بين النماذج القائمة على النماذج RL من التخطيط، واستكشاف مجموعة كاملة من أساليب RL.
نأمل أن تستمتع بهذه الدورة، وتجدها مفيدة.
< ر> (adsbygoogle = window.adsbygoogle || []).push({}); احصل على قسيمة إذا لم يتم فتح القسيمة، قم بتعطيل Adblock، أو جرب متصفحًا آخر.
ما هي المتطلبات الأساسية لدخول الدورة والتسجيل فيها على موقعنا؟ رحلة التعلم:
(احصل على الدورة للدخول إلى الموقع والتسجيل)
يجب أن يكون لديك بريد إلكتروني (حساب بريد) تتذكره لنفسك وأيضًا يجب أن تتذكر كلمة مرور البريد الإلكتروني الذي ستسجل به ، وإذا لم يكن لديك حساب بريد إلكتروني ، فمن الأفضل إنشاء حساب (Gmail)
0 تعليقات
تسجيل دخول
دورات مشابهة