SlideShare una empresa de Scribd logo
1 de 26
Descargar para leer sin conexión
Images Processing

‫پردازش تصاویر‬
2

‫فهرست مطالب‬
‫مقدمه‬
Hipi
HDFS 
‫ فایل های کوچک‬
Hadoop Archive 
Sequence File 
HIB(Hadoop Image Bundle) 
‫ مثال کاربردی‬
‫پردازش تصاویر در مقیاس بزرگ‬
HBRSIPS






‫3‬

‫مقدمه‬
‫‪‬روز به روز تعداد و اندازه و وضوح تصاویر بیشتر و بیشتر می شود، پردازش این‬
‫حجم عظیم از تصاویر ، زمان و منابع بسیاری را به خدمت میگیرد که بدون‬
‫استفاده از تکنیک خاصی گاه ناممکن و گاه به سختی انجام می پذیرد.‬
‫4‬

‫مقدمه(ادامه)‬
‫‪Hadoop‬‬
‫‪ ‬یکی از بسترهای کد باز برای ذخیره و پردازش حجم اطالعات بسیار باال طراحی‬
‫شده است.‬

‫‪MapReduce‬‬
‫5‬

‫‪HiPi‬‬
‫‪HIPI ‬مخفف ‪ Hadoop Image Processing Interface‬یک کتابخانه برای‬
‫چهارچوب ‪ MapReduce Hadoop‬که برای پردازش تصاویر در محیط های محاسباتی‬
‫توزیع شده بکار میرود.‬
‫6‬

‫‪HiPi‬‬
‫‪‬اهداف‬
‫‪‬فراهم کردن کتابخانه قابل توسعه برای تصاویر در چهارچوب ‪MapReduce‬‬
‫‪‬ذخیره سازی موثر برای کاربرد های ‪MapReduce‬‬
‫‪‬فراهم کردن فیلتر گذاری بر روی تصاویر‬
‫‪‬سرو کار نداشتن کاربر با جزئیات چهارچوب‪MapReduce‬‬
‫‪‬راه اندازی کاربردی بسیار موازی و معتادل به صورتی که کاربر نگران جزئیات نباشد‬
‫7‬

‫ذخیره سازی‬
‫8‬

‫)‪HDFS(Hadoop Distributed File System‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬

‫‪‬‬

‫فایل سیستم توزیع شده ‪Hadoop‬‬
‫برگرفته از (‪)Google File System‬‬
‫اانجام عملیات ذخیره و بازیابی‬
‫شامل دو قسمت‬
‫‪‬‬
‫‪‬‬

‫‪‬‬

‫‪NameNode‬‬
‫‪DataNode‬‬

‫مزایا‬
‫‪‬‬
‫‪‬‬

‫افزایش ‪Scalability‬‬
‫قابلیت اعتماد باال(جلوگیری از از بین رفتن داده ها)‬
‫9‬

‫ذخیره و پردازش فایل های کوچک‬
‫‪ ‬فایل کم حجم(کوچک)‬
‫‪ ‬به فایلی گفته می شود که بطور قابل توجهی حجم آن از اندازه بلوک پیش فرض ‪)65 MB( HDFS‬کمتر‬
‫باشد.‬
‫‪ ‬مشکالت‬
‫‪ ‬تعداد زیادی از دنبال کردن ها و پریدن ها از نود داده به نود داده دیگر برای خواندن اطالعات‬
‫‪ ‬پردازش کندتر حتی 01 تا 001 برابر‬
‫‪ HDFS ‬نمی تواند به تعداد زیادی از فایلها رسیدگی کند. بلکه برای فایل های بزرگ طراحی شده است‬
‫‪MapReduce ‬در مورد یک فایل با حجم زیاد بهتر عمل میکند تا تعداد زیادی فایل کم حجم‬
‫01‬

‫)‪HAR files(Hadoop Archive‬‬
‫‪ ‬یک راه حل مناسب برای مشکل بسیاری از فایل های کوچک‬
‫‪ ‬تعداد زیادی فایلهای کوچک را در قالب یک فایل بسته بندی میکند‬
‫‪ ‬برای کاهش بار در ‪NameNode‬‬
‫‪‬‬

‫افزایش مقیاس پذیری سیستم‬
‫11‬

‫‪Sequence Files‬‬
‫‪ ‬راه حل دیگر مشکل فایلهای کوچک‬
‫‪ ‬میتوان همه فایل ها در قالب یک فایل ذخیره کرد و سپس ان را پردازش کرد(به طور مستقیم یا ‪)MapReduce‬‬
12

‫ ؟‬HIPI ‫روش‬
‫31‬

‫‪HIB‬‬
‫‪ ‬مخفف ‪Hipi Image Bundle‬‬
‫‪ ‬شامل تعداد زیادی تصاویر در قالب یک فایل‬
‫‪ ‬که شامل دو فایل است:‬
‫‪‬‬
‫‪‬‬

‫‪:DataFile‬شامل تصاویر الحاق شده‬
‫‪:Index File‬شامل اطالعات محل تصاویر‬
‫41‬

‫تفاوت‬
‫)‪Hadoop Archive(HAR‬‬
‫فقط برای آرشیو فایل ها مفید هستند (‬
‫به عنوان پشتیبان گیری )‬

‫و در واقع ممکن است کندتر از خواندن‬
‫فایل به روش استاندارد باشد.‬

‫‪Sequence File‬‬
‫استاندارد بهتر برای فایل های کوچک‬

‫خواندن به صورت سری و در نتیجه‬
‫مدت زمان طوالنی برای ایجاد‬

‫‪HiPi Image Bundle‬‬

‫مشابه ‪ Sequence files‬اما‬
‫خواندن ان به صورت سری نمی باشد‬
‫میتواند با استفاده از‬
‫‪MapReduce‬تولید شود‬
‫بر خالف بقیه قابل تنظیم و تغییر پذیر‬
‫است‬
‫51‬

‫مراحل انجام شده تا کنون‬

‫‪Start‬‬

‫‪HIPI‬‬
‫‪HIB‬‬
‫61‬

‫پشت صحنه ‪HIPI‬‬
‫‪Float Image ‬‬
‫‪ ‬رسیدگی به گوناگونی تصاویر‬

‫‪ ‬رمزگذاری و رمزگشایی‬
17

‫مراحل انجام شده تا کنون‬
Start
HIB

HIPI
Enc/Dec
Float
Image
‫81‬

‫مرحله ‪Culling‬‬
‫‪ ‬بعد از توزیع ورودی ها و قبل از ارسال به ‪ Map‬فراخوانده می شود.‬
‫‪ ‬فیلترهایی بر روی تصاویر اعمال میکند.‬
19

‫کل مراحل‬
Start

M-R

HIB
HIPI
Enc/Dec

Culling
Float
Image
‫02‬

‫مثال استفاده‬
‫12‬

‫دانلود میلیونی تصاویر‬
‫‪ ‬گام ها‬
‫‪‬‬

‫‪‬‬
‫‪‬‬
‫‪‬‬

‫مشخص کردن یک لیست از تصاویر برای گرفتن‬
‫جدا کردن ادرس ها به گروه هایی و ارسال هر گروه به ‪Map‬‬
‫دانلود تصاویر از اینترنت‬
‫ذخیره تصاویر در ‪HIB‬‬
‫22‬

‫تصاویر در مقیاس بزرگ‬
‫32‬

‫مشکالت جدا سازی تصاویر بزرگ‬
‫‪ ‬در بسیاری از الگو های پردازش تصاویر ماهواره ای به ردیف و ارتباط پیکسلها با یکدیگر توجه می شود.‬
‫‪ ‬حال اگر فایل فقط تقسیم شود و در بانک اطالعات دخیره شود‬
‫‪‬‬
‫‪‬‬

‫‪‬‬
‫‪‬‬

‫الگوریتم محل داده ها و ردیف را تشخیص نمی دهد مخصوصا الگوریتمی که با ارتباط بین پیکسل ها سرو کار دارد. که‬
‫نتیجتا باعث شود نتیجه اشتباه بدهد.‬
‫داده ها خیلی اوقات پراکنده هستند و زمان زیادی میبرد که عملیات ارسال و دریافت انجام شود و این باعث کاهش سرعت‬
‫پردازش می شود.‬

‫‪ HDFS‬بر اساس سایز جداسازی میکند‬
‫متد جداسازی ساختار اطالعاتی تصاویر را می شکند‬
‫‪‬‬

‫که این میتواند ناسازگاری بین ‪MapReduce‬و تاگوریتم پردازش تصویر به وجود اورد.‬
‫42‬

‫‪HBRSIPS‬‬
‫‪Hadoop Base Remote Sensing Image Processing System‬‬

‫‪ ‬مخفف‬
‫‪ ‬گام اول‬
‫‪‬‬

‫جداسازی با حفظ جامعیت اطالعات‬
‫‪‬‬

‫با استفاده از افزونگی مرزهای ردیف ها‬

‫‪ ‬گام دوم‬
‫‪‬‬

‫ارسال هر ردیف به هر ‪Map‬‬

‫‪ ‬گام سوم‬
‫‪‬‬

‫الحاق ردیف ها در ‪Reduce‬‬
25

‫منابع‬
 Chris

Sweeney,Liu Liu,Sean Arietta,Jason Lawrence (2013)
'HIPI: A Hadoop Image Processing Interface for Imagebased MapReduce Tasks', University of Virginia, (), pp. .
 Xin Pan,Suli Zhang (2012) 'A REMOTE SENSING IMAGE CLOUD
PROCESSING SYSTEM BASED ON HADOOP', IEEE, (), pp. .
‫پیروز باشید‬
‫62‬

Más contenido relacionado

Similar a Image processing

آشنایی با Hadoop
آشنایی با Hadoopآشنایی با Hadoop
آشنایی با Hadoopnasser rezaei
 
Introduction to Apache Hadoop in Persian - آشنایی با هدوپ
Introduction to Apache Hadoop in Persian - آشنایی با هدوپIntroduction to Apache Hadoop in Persian - آشنایی با هدوپ
Introduction to Apache Hadoop in Persian - آشنایی با هدوپMobin Ranjbar
 
Big Data and select suitable tools
Big Data and select suitable toolsBig Data and select suitable tools
Big Data and select suitable toolsMeghdad Hatami
 
Oracle_Database_12c_Most_Important_New_Features_Persian
Oracle_Database_12c_Most_Important_New_Features_PersianOracle_Database_12c_Most_Important_New_Features_Persian
Oracle_Database_12c_Most_Important_New_Features_PersianArmin Valadkhani
 
سیستم فایل HDFS
سیستم فایل HDFSسیستم فایل HDFS
سیستم فایل HDFSnasser rezaei
 
Introduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیراز
Introduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیرازIntroduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیراز
Introduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیرازMobin Ranjbar
 
1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهران
1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهران1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهران
1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهرانFarafekr Technology
 

Similar a Image processing (9)

آشنایی با Hadoop
آشنایی با Hadoopآشنایی با Hadoop
آشنایی با Hadoop
 
Introduction to Apache Hadoop in Persian - آشنایی با هدوپ
Introduction to Apache Hadoop in Persian - آشنایی با هدوپIntroduction to Apache Hadoop in Persian - آشنایی با هدوپ
Introduction to Apache Hadoop in Persian - آشنایی با هدوپ
 
Redis.
Redis.Redis.
Redis.
 
Big Data and select suitable tools
Big Data and select suitable toolsBig Data and select suitable tools
Big Data and select suitable tools
 
Oracle_Database_12c_Most_Important_New_Features_Persian
Oracle_Database_12c_Most_Important_New_Features_PersianOracle_Database_12c_Most_Important_New_Features_Persian
Oracle_Database_12c_Most_Important_New_Features_Persian
 
سیستم فایل HDFS
سیستم فایل HDFSسیستم فایل HDFS
سیستم فایل HDFS
 
بیگ دیتا
بیگ دیتابیگ دیتا
بیگ دیتا
 
Introduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیراز
Introduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیرازIntroduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیراز
Introduction to Hadoop and Spark - اسلاید کارگاه آموزش هدوپ و اسپارک شیراز
 
1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهران
1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهران1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهران
1st Hadoop Tehran Workshop - اسلاید اولین کارگاه آموزش هدوپ تهران
 

Image processing

  • 2. 2 ‫فهرست مطالب‬ ‫مقدمه‬ Hipi HDFS  ‫ فایل های کوچک‬ Hadoop Archive  Sequence File  HIB(Hadoop Image Bundle)  ‫ مثال کاربردی‬ ‫پردازش تصاویر در مقیاس بزرگ‬ HBRSIPS    
  • 3. ‫3‬ ‫مقدمه‬ ‫‪‬روز به روز تعداد و اندازه و وضوح تصاویر بیشتر و بیشتر می شود، پردازش این‬ ‫حجم عظیم از تصاویر ، زمان و منابع بسیاری را به خدمت میگیرد که بدون‬ ‫استفاده از تکنیک خاصی گاه ناممکن و گاه به سختی انجام می پذیرد.‬
  • 4. ‫4‬ ‫مقدمه(ادامه)‬ ‫‪Hadoop‬‬ ‫‪ ‬یکی از بسترهای کد باز برای ذخیره و پردازش حجم اطالعات بسیار باال طراحی‬ ‫شده است.‬ ‫‪MapReduce‬‬
  • 5. ‫5‬ ‫‪HiPi‬‬ ‫‪HIPI ‬مخفف ‪ Hadoop Image Processing Interface‬یک کتابخانه برای‬ ‫چهارچوب ‪ MapReduce Hadoop‬که برای پردازش تصاویر در محیط های محاسباتی‬ ‫توزیع شده بکار میرود.‬
  • 6. ‫6‬ ‫‪HiPi‬‬ ‫‪‬اهداف‬ ‫‪‬فراهم کردن کتابخانه قابل توسعه برای تصاویر در چهارچوب ‪MapReduce‬‬ ‫‪‬ذخیره سازی موثر برای کاربرد های ‪MapReduce‬‬ ‫‪‬فراهم کردن فیلتر گذاری بر روی تصاویر‬ ‫‪‬سرو کار نداشتن کاربر با جزئیات چهارچوب‪MapReduce‬‬ ‫‪‬راه اندازی کاربردی بسیار موازی و معتادل به صورتی که کاربر نگران جزئیات نباشد‬
  • 8. ‫8‬ ‫)‪HDFS(Hadoop Distributed File System‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫فایل سیستم توزیع شده ‪Hadoop‬‬ ‫برگرفته از (‪)Google File System‬‬ ‫اانجام عملیات ذخیره و بازیابی‬ ‫شامل دو قسمت‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪NameNode‬‬ ‫‪DataNode‬‬ ‫مزایا‬ ‫‪‬‬ ‫‪‬‬ ‫افزایش ‪Scalability‬‬ ‫قابلیت اعتماد باال(جلوگیری از از بین رفتن داده ها)‬
  • 9. ‫9‬ ‫ذخیره و پردازش فایل های کوچک‬ ‫‪ ‬فایل کم حجم(کوچک)‬ ‫‪ ‬به فایلی گفته می شود که بطور قابل توجهی حجم آن از اندازه بلوک پیش فرض ‪)65 MB( HDFS‬کمتر‬ ‫باشد.‬ ‫‪ ‬مشکالت‬ ‫‪ ‬تعداد زیادی از دنبال کردن ها و پریدن ها از نود داده به نود داده دیگر برای خواندن اطالعات‬ ‫‪ ‬پردازش کندتر حتی 01 تا 001 برابر‬ ‫‪ HDFS ‬نمی تواند به تعداد زیادی از فایلها رسیدگی کند. بلکه برای فایل های بزرگ طراحی شده است‬ ‫‪MapReduce ‬در مورد یک فایل با حجم زیاد بهتر عمل میکند تا تعداد زیادی فایل کم حجم‬
  • 10. ‫01‬ ‫)‪HAR files(Hadoop Archive‬‬ ‫‪ ‬یک راه حل مناسب برای مشکل بسیاری از فایل های کوچک‬ ‫‪ ‬تعداد زیادی فایلهای کوچک را در قالب یک فایل بسته بندی میکند‬ ‫‪ ‬برای کاهش بار در ‪NameNode‬‬ ‫‪‬‬ ‫افزایش مقیاس پذیری سیستم‬
  • 11. ‫11‬ ‫‪Sequence Files‬‬ ‫‪ ‬راه حل دیگر مشکل فایلهای کوچک‬ ‫‪ ‬میتوان همه فایل ها در قالب یک فایل ذخیره کرد و سپس ان را پردازش کرد(به طور مستقیم یا ‪)MapReduce‬‬
  • 13. ‫31‬ ‫‪HIB‬‬ ‫‪ ‬مخفف ‪Hipi Image Bundle‬‬ ‫‪ ‬شامل تعداد زیادی تصاویر در قالب یک فایل‬ ‫‪ ‬که شامل دو فایل است:‬ ‫‪‬‬ ‫‪‬‬ ‫‪:DataFile‬شامل تصاویر الحاق شده‬ ‫‪:Index File‬شامل اطالعات محل تصاویر‬
  • 14. ‫41‬ ‫تفاوت‬ ‫)‪Hadoop Archive(HAR‬‬ ‫فقط برای آرشیو فایل ها مفید هستند (‬ ‫به عنوان پشتیبان گیری )‬ ‫و در واقع ممکن است کندتر از خواندن‬ ‫فایل به روش استاندارد باشد.‬ ‫‪Sequence File‬‬ ‫استاندارد بهتر برای فایل های کوچک‬ ‫خواندن به صورت سری و در نتیجه‬ ‫مدت زمان طوالنی برای ایجاد‬ ‫‪HiPi Image Bundle‬‬ ‫مشابه ‪ Sequence files‬اما‬ ‫خواندن ان به صورت سری نمی باشد‬ ‫میتواند با استفاده از‬ ‫‪MapReduce‬تولید شود‬ ‫بر خالف بقیه قابل تنظیم و تغییر پذیر‬ ‫است‬
  • 15. ‫51‬ ‫مراحل انجام شده تا کنون‬ ‫‪Start‬‬ ‫‪HIPI‬‬ ‫‪HIB‬‬
  • 16. ‫61‬ ‫پشت صحنه ‪HIPI‬‬ ‫‪Float Image ‬‬ ‫‪ ‬رسیدگی به گوناگونی تصاویر‬ ‫‪ ‬رمزگذاری و رمزگشایی‬
  • 17. 17 ‫مراحل انجام شده تا کنون‬ Start HIB HIPI Enc/Dec Float Image
  • 18. ‫81‬ ‫مرحله ‪Culling‬‬ ‫‪ ‬بعد از توزیع ورودی ها و قبل از ارسال به ‪ Map‬فراخوانده می شود.‬ ‫‪ ‬فیلترهایی بر روی تصاویر اعمال میکند.‬
  • 21. ‫12‬ ‫دانلود میلیونی تصاویر‬ ‫‪ ‬گام ها‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫مشخص کردن یک لیست از تصاویر برای گرفتن‬ ‫جدا کردن ادرس ها به گروه هایی و ارسال هر گروه به ‪Map‬‬ ‫دانلود تصاویر از اینترنت‬ ‫ذخیره تصاویر در ‪HIB‬‬
  • 23. ‫32‬ ‫مشکالت جدا سازی تصاویر بزرگ‬ ‫‪ ‬در بسیاری از الگو های پردازش تصاویر ماهواره ای به ردیف و ارتباط پیکسلها با یکدیگر توجه می شود.‬ ‫‪ ‬حال اگر فایل فقط تقسیم شود و در بانک اطالعات دخیره شود‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫‪‬‬ ‫الگوریتم محل داده ها و ردیف را تشخیص نمی دهد مخصوصا الگوریتمی که با ارتباط بین پیکسل ها سرو کار دارد. که‬ ‫نتیجتا باعث شود نتیجه اشتباه بدهد.‬ ‫داده ها خیلی اوقات پراکنده هستند و زمان زیادی میبرد که عملیات ارسال و دریافت انجام شود و این باعث کاهش سرعت‬ ‫پردازش می شود.‬ ‫‪ HDFS‬بر اساس سایز جداسازی میکند‬ ‫متد جداسازی ساختار اطالعاتی تصاویر را می شکند‬ ‫‪‬‬ ‫که این میتواند ناسازگاری بین ‪MapReduce‬و تاگوریتم پردازش تصویر به وجود اورد.‬
  • 24. ‫42‬ ‫‪HBRSIPS‬‬ ‫‪Hadoop Base Remote Sensing Image Processing System‬‬ ‫‪ ‬مخفف‬ ‫‪ ‬گام اول‬ ‫‪‬‬ ‫جداسازی با حفظ جامعیت اطالعات‬ ‫‪‬‬ ‫با استفاده از افزونگی مرزهای ردیف ها‬ ‫‪ ‬گام دوم‬ ‫‪‬‬ ‫ارسال هر ردیف به هر ‪Map‬‬ ‫‪ ‬گام سوم‬ ‫‪‬‬ ‫الحاق ردیف ها در ‪Reduce‬‬
  • 25. 25 ‫منابع‬  Chris Sweeney,Liu Liu,Sean Arietta,Jason Lawrence (2013) 'HIPI: A Hadoop Image Processing Interface for Imagebased MapReduce Tasks', University of Virginia, (), pp. .  Xin Pan,Suli Zhang (2012) 'A REMOTE SENSING IMAGE CLOUD PROCESSING SYSTEM BASED ON HADOOP', IEEE, (), pp. .