منذ 4 ساعات
أهلا بك عزيزي المتابع لموقع (journey for learn) نقدم دورات بكوبونات متاحة لاول 1000 تسجيل مجاني فقط وكوبونات اخري لفترة محدودة فاذا كنت تريد ان تحصل علي كل الكورسات علي موقعنا وان تكون اول المسجلين في الكورسات المجانية قم بتسجيل الدخول أوقم بالدخول علي وسائل التواصل الاجتماعي وخصوصا التليجرام نوضح الوصف المختصر والطويل للدورات لكي تعرف الدروس التي سوف تتعلمها بسهولة ويسر :
تغطية تفصيلية لمجال الاختبار: مطور مشارك معتمد من Databricks لـ Apache Spark 4.0 للحصول على شهادتك، يجب عليك إثبات إتقان محرك Spark وأحدث ميزاته. يتوافق بنك الاختبار التدريبي هذا بدقة مع مطور Databricks المعتمد الرسمي لمجالات اختبار Apache Spark 4.0:- بنية ومكونات Apache Spark (20%): التعمق في التسلسل الهرمي للتنفيذ (الوظائف والمراحل والمهام) وأنماط النشر والآليات الأساسية للتقييم البطيء.
- استخدام Spark SQL (20%): إتقان بناء جملة SQL داخل Spark وإدارة طرق العرض المؤقتة وتنفيذ البيانات المعقدة التجميعات.
- تطوير تطبيقات DataFrame/DataSet API (30%): تطبيق عملي للتحويلات، وعمليات الأعمدة، والوظائف المضمنة عالية الأداء.
- استكشاف الأخطاء وإصلاحها والضبط (10%): تحديد الاختناقات، وتحسين عمليات التبديل العشوائي، وتصحيح أخطاء وظائف Spark الفاشلة.
- البث المنظم (10%): تنفيذ نماذج الدُفعات الصغيرة، وأوضاع الإخراج، و ضمان دلالات مرة واحدة بالضبط.
- Spark Connect (5%): الاستفادة من البنية المنفصلة الجديدة للاتصال عن بعد ونشر التطبيقات.
- Pandas API on Spark (5%): توسيع نطاق سير عمل Pandas عبر المجموعات الموزعة بكفاءة.
- السؤال 1: أي مما يلي يصف "التقييم البطيء" بشكل أفضل في سياق Apache Spark 4.0؟
- أ. يقوم Spark بتنفيذ التحولات فورًا كما تم تعريفها.
- ب. يقوم Spark بتأخير تنفيذ التحويلات حتى يتم استدعاء الإجراء.
- ج. يتخطى Spark مرحلة التحسين لحفظ الذاكرة.
- د. يقوم Spark بتنفيذ كافة التعليمات البرمجية على عقدة برنامج التشغيل فقط.
- E. يقوم Spark تلقائيًا بحذف البيانات بعد كل 10 دقائق.
- F. يتطلب Spark تشغيلًا يدويًا لكل سطر من التعليمات البرمجية.
- الإجابة الصحيحة: ب
- الشرح:
- ب (صحيح): يتم تسجيل التحويلات في DAG (الرسم البياني الدوري المباشر) ولكن يتم تنفيذها فقط عند تشغيل إجراء (مثل .collect() أو .save()).
- أ (غير صحيح): يصف هذا "التقييم المتحمس"، وهي ليست الطريقة التي يتعامل بها Spark. التحولات.
- C (غير صحيح): التقييم البطيء يسمح فعليًا لمحفز Catalyst Optimizer بإجراء التحسينات قبل التنفيذ.
- D (غير صحيح): يحدث التنفيذ عبر العقد العاملة بطريقة موزعة.
- E (غير صحيح): تتم إدارة استمرارية البيانات بواسطة المستخدم أو سياسات التخزين المؤقت، وليس مؤقتًا مدته 10 دقائق.
- F (غير صحيح): يدير Spark التدفق؛ أنت فقط تقوم بتشغيل الإجراء الذي يبدأ تنفيذ السلسلة.
- السؤال 2: عند استخدام Spark Connect في الإصدار 4.0، ما هي الفائدة الأساسية للبنية المنفصلة؟
- أ. إنه يلغي الحاجة إلى Spark Cluster تمامًا.
- ب. It allows thin clients to connect to Spark remotely without a local Spark installation.
- C. فهو يزيد من سعة تخزين القرص الصلب المحلي.
- د. فهو يفرض تشغيل كافة المهام في "الوضع المحلي" فقط.
- هـ. يمنع استخدام DataFrame API.
- F. يتطلب من المستخدم كتابة التعليمات البرمجية بلغة التجميع.
- الإجابة الصحيحة: ب
- الشرح:
- ب (صحيح): يتيح Spark Connect الاتصال عن بعد من IDEs أو البيئات خفيفة الوزن إلى مجموعة Spark عن بعد عبر بروتوكول يستند إلى gRPC.
- أ (غير صحيح): لا تزال بحاجة إلى Spark Cluster (جانب الخادم) لتنفيذ العمل.
- ج (غير صحيح): يتعامل Spark Connect مع الحساب. الاتصال، وليس تخزين الأجهزة المحلية.
- D (غير صحيح): تم تصميمه خصيصًا للاتصال العنقودي الموزع.
- E (غير صحيح): تم تصميمه لدعم DataFrame API بشكل مثالي.
- F (غير صحيح): يدعم اللغات الحديثة عالية المستوى مثل Python وScala.
- السؤال 3: يحتاج المطور إلى تحويل Spark DataFrame كبير إلى تنسيق يسمح بالنسخ التقليدية بناء الجملة بأسلوب الباندا مع الحفاظ على الأداء الموزع. ما هو الأسلوب الموصى به في Spark 4.0؟
- أ. استخدم df.toPandas() ثم قم بتشغيل كود Pandas القياسي.
- ب. استخدم pyspark.pandas API (Pandas API على Spark).
- ج. قم بتصدير البيانات إلى ملف CSV وافتحها في Excel.
- د. استخدم RDD API واكتب كود MapReduce المخصص.
- E. أعد كتابة محرك Spark بالكامل بلغة C++.
- F. استخدم جملة SQL GROUP BY حصريًا لجميع العمليات.
- الإجابة الصحيحة: ب
- الشرح:
- ب (صحيح): تتيح واجهة Pandas API على Spark للمستخدمين الاستفادة من بناء جملة Pandas المألوف بينما يظل التنفيذ الأساسي موزعًا على محرك Spark.
- أ (غير صحيح): تسحب toPandas() جميع البيانات إلى ذاكرة برنامج التشغيل، مما سيؤدي إلى حدوث خطأ OutOfMemory (OOM) لـ مجموعات بيانات كبيرة.
- C (غير صحيح): هذا ليس حلاً قابلاً للتطوير أو برمجيًا داخل بيئة Spark.
- D (غير صحيح): على الرغم من أنه ممكن، إلا أن صيانة RDDs أصعب بكثير وأقل تحسينًا من Pandas API على Spark.
- E (غير صحيح): هذا مستحيل وغير مرتبط باستخدام Spark API.
- F (غير صحيح): على الرغم من أن SQL قوية، إلا أنها لا توفر نمط Pandas. بناء الجملة الذي طلبه المطور على وجه التحديد.
- مرحبًا بك في أكاديمية اختبارات التدريب على الامتحانات لمساعدتك في الاستعداد لاختبارات التدريب على تطوير Databricks المعتمد لـ Apache Spark 4.0.
- يمكنك إعادة إجراء الاختبارات عدة مرات كما تريد.
- هذا بنك أسئلة أصلي ضخم.
- يمكنك الحصول على الدعم من المدرسين إذا كان لديك الأسئلة.
- كل سؤال له شرح مفصل.
- متوافق مع الهاتف المحمول مع تطبيق Udemy.
- ضمان استرداد الأموال لمدة 30 يومًا إذا لم تكن راضيًا.
ما هي المتطلبات الأساسية لدخول الدورة والتسجيل فيها على موقعنا؟ رحلة التعلم:
(احصل على الدورة للدخول إلى الموقع والتسجيل)
يجب أن يكون لديك بريد إلكتروني (حساب بريد) تتذكره لنفسك وأيضًا يجب أن تتذكر كلمة مرور البريد الإلكتروني الذي ستسجل به ، وإذا لم يكن لديك حساب بريد إلكتروني ، فمن الأفضل إنشاء حساب (Gmail)
0 تعليقات
تسجيل دخول
دورات مشابهة