ايمان صالح عبيد، فاطمة عبدالستار عمارة، محمد خفاجي
المؤلفون بالإنجليزي
Eman S.Abead* , Mohamed H. Khafagy , Fatma A. Omara
الملخص العربي
نظام الملفات الموزعة Hadoop (HDFS) هو إطار سجل يهدف إلى تخزين، فحص مجموعات البيانات الضخمة ونقلها بشكل موثوق إلى تطبيقات العميل.
النسخ المتماثل للبيانات هو
يتم استخدامها للتعامل مع التكيف للتعامل مع حالات الفشل، حيث يتم نسخ كل كتلة بيانات و المخزنة على DataNodes المختلفة. بعد ذلك، يعمل نظام HDFS على تعزيز التوفر والموثوقية. يقوم تنفيذ Hadoop الحالي لـ HDFS بالنسخ المتماثل في تصميم خطوط الأنابيب، والذي يستهلك معظم ساعات النهار. ويقترح نهج النسخ المتماثل في هذا التركيز باعتباره منهجية بديلة لحالة نسخة فعالة. الفكرة الأساسية لهذا الإجراء هو أن العميل يسمح لاثنين من DataNodes بتكوين كتلة واحدة إلى الأخرى بالتساوي تخزين الحزمة.
الملخص الانجليزي
Hadoop Distributed File System (HDFS) is a record framework that is intended to store,
examine, and dependably move enormous datasets to client applications. Data replication is
utilized to deal with adaptation to handle failures, with every data block being copied and
stored on various DataNodes. Thereafter, the HDFS promote availability and reliability.
The current Hadoop execution of HDFS does replication in a pipelined design, which
consumes most of the daytime. The replication approach is proposed in this concentrate as a
substitute methodology for effective replica state of affairs. The basic idea of this procedure
is that the client allows two DataNodes to compose one block to the other equally, by
storing the package.