منذ 9 ساعات
أهلا بك عزيزي المتابع لموقع (journey for learn) نقدم دورات بكوبونات متاحة لاول 1000 تسجيل مجاني فقط وكوبونات اخري لفترة محدودة فاذا كنت تريد ان تحصل علي كل الكورسات علي موقعنا وان تكون اول المسجلين في الكورسات المجانية قم بتسجيل الدخول أوقم بالدخول علي وسائل التواصل الاجتماعي وخصوصا التليجرام نوضح الوصف المختصر والطويل للدورات لكي تعرف الدروس التي سوف تتعلمها بسهولة ويسر :
مرحبًا بكم في الخطوط الأمامية لأمن الذكاء الاصطناعي. لقد انتهى عصر "وضع ماجستير في القانون على قاعدة بيانات". نجح جيل الاسترجاع المعزز (RAG) في حل هلوسة الذكاء الاصطناعي، لكنه قدم سطح هجوم ضخم ومعقد للغاية. عندما تمنح LLM إمكانية الوصول إلى مستندات الشركة الداخلية وقواعد بيانات المتجهات وأدوات واجهة برمجة التطبيقات (Agentic RAG)، فإنك تقوم فعليًا بتحويل البيانات السلبية إلى تعليمات برمجية قابلة للتنفيذ. بدون الدفاعات المناسبة، يمكن أن يؤدي ملف PDF مسموم واحد أو حقنة سريعة مخفية إلى تسرب البيانات، أو تزوير الطلب من جانب الخادم (SSRF)، أو تسوية كاملة للنظام. أمن الذكاء الاصطناعي. لن تتعلم نظرية عالية المستوى فحسب، بل ستخترق قواعد بيانات Vector بشكل فعال، وتنفذ عملية اختطاف السياق، وتتلاعب بوكلاء الذكاء الاصطناعي. بعد ذلك، ستتعلم كيفية إنشاء بنية دفاعية رباعية البوابات لتأمين خطوط الأنابيب الخاصة بك للإنتاج. ما ستتعلمه:- استغلال قاعدة بيانات المتجهات: اكتشف السبب وراء كون قواعد بيانات المتجهات الافتراضية هي نقطة الضعف الناعمة في الذكاء الاصطناعي. نفذ عملية سرقة مباشرة على مثيل Qdrant الضعيف وافهم مخاطر Embedding Inversion (تحويل الرياضيات مرة أخرى إلى معلومات تحديد الهوية الشخصية الأولية).
- تسميم البيانات المتقدمة: اختراق مسار الاستيعاب. تعرف على كيفية استخدام المهاجمين للنص غير المرئي (حجم الخط 0)، وإخفاء معلومات Unicode، وحقن البيانات الوصفية لتسميم أنظمة RAG.
- اختطاف السياق وتجاوز التدفق: استغلال آلية "الانتباه على شكل حرف U" الخاصة بـ LLM وتنفيذ هجمات حشو السياق التي تدفع تعليمات السلامة بالكامل خارج نافذة الذاكرة.
- Agent RAG وSSRF: شاهد ما يحدث عندما تنمو خطوط أنابيب RAG. خداع عملاء الذكاء الاصطناعي ليقوموا بدور "نائب مرتبك" لتسريب بيانات الاعتماد السحابية أو إساءة استخدام واجهات برمجة التطبيقات الداخلية.
- هندسة الدفاع ذات الأربع بوابات: قم ببناء نظام مضاد للرصاص. قم بتنفيذ التحقق من صحة Magic Byte، والتقطيع الدلالي، وMeta's Prompt Guard، وXML Sandboxing، والمقيمين الأرضيين الصارمين (LLM-as-a-Judge).
- الفريق الأحمر الآلي: توقف عن إجراء اختبار الاختراق اليدوي. تعرف على كيفية نشر Promptfoo في مسارات CI/CD لديك، واستخدام NVIDIA Garak للتشويش العميق، وتنظيم الهجمات ذات الحالة باستخدام Microsoft PyRIT.
- مهندسو الذكاء الاصطناعي وتعلم الآلة يبني المطورون تطبيقات RAG أو Agentic AI للمؤسسات.
- يتطلع متخصصو الأمن السيبراني ومختبرو الاختراق إلى التركيز على مجال الطلب المرتفع المتمثل في AI Red Teaming.
- مهندسو AppSec المكلفون بتدقيق أنظمة GenAI وضمان امتثال OWASP LLM لأعلى 10.
- فهم أساسي لنماذج اللغات الكبيرة (LLMs) وكيفية المطالبة بها يعمل.
- الإلمام بـ Python (للمتابعة مع نصوص الدفاع).
- خبرة سطر الأوامر الأساسية (Docker/cURL) إذا كنت ترغب في المشاركة في مختبرات اختراق Vector DB المحلية.
ما هي المتطلبات الأساسية لدخول الدورة والتسجيل فيها على موقعنا؟ رحلة التعلم:
(احصل على الدورة للدخول إلى الموقع والتسجيل)
يجب أن يكون لديك بريد إلكتروني (حساب بريد) تتذكره لنفسك وأيضًا يجب أن تتذكر كلمة مرور البريد الإلكتروني الذي ستسجل به ، وإذا لم يكن لديك حساب بريد إلكتروني ، فمن الأفضل إنشاء حساب (Gmail)
0 تعليقات
تسجيل دخول
دورات مشابهة