نوشتن الگوریتم به صورت مپ ردیوس
#hadoop, #java, #map_reduce
نوشتن الگوریتم بصورت مپ ردیوس .
میخام روی هدوپ3.2.1 اجرا کنم
الگوریتمی که پیوست شده باید با هدوپ و بصورت مپ ردیوس پیاده بشه
الگوریتم دیگری هم هست که با هدوپ پیاده شده و میخام پس از پیاده سازی الگوریتم اول، این دو الگوریتم رو باهم مقایسه کنم
توسط خریدار:
اطلاعات بیشتر:
http://pc0.ir/p/199719
@ParscodersCom
#hadoop, #java, #map_reduce
نوشتن الگوریتم بصورت مپ ردیوس .
میخام روی هدوپ3.2.1 اجرا کنم
الگوریتمی که پیوست شده باید با هدوپ و بصورت مپ ردیوس پیاده بشه
الگوریتم دیگری هم هست که با هدوپ پیاده شده و میخام پس از پیاده سازی الگوریتم اول، این دو الگوریتم رو باهم مقایسه کنم
توسط خریدار:
کاربر239472
اطلاعات بیشتر:
http://pc0.ir/p/199719
@ParscodersCom
الگوریتم k-means با مپ ردیوس
🔸 فوری
#big_data, #map_reduce, #data_mining
من به یک نفر که الگوریتم k-means رو با استفاده از mapreduce پیاده سازی کرده ( منظور از پیاده سازی صرفا بصورت کد واقعی نیست منظور بصورت تئوری هم اگر بلد هست کفایت میکنه) یا اینکه مسلط هست به این کار نیاز دارم تا بتونم ارائه ای درمورد نحوه ی اجرای این الگوریتم با mapreduce اماده کنم
توسط خریدار:
اطلاعات بیشتر:
http://pc0.ir/p/244120
@ParscodersCom
🔸 فوری
#big_data, #map_reduce, #data_mining
من به یک نفر که الگوریتم k-means رو با استفاده از mapreduce پیاده سازی کرده ( منظور از پیاده سازی صرفا بصورت کد واقعی نیست منظور بصورت تئوری هم اگر بلد هست کفایت میکنه) یا اینکه مسلط هست به این کار نیاز دارم تا بتونم ارائه ای درمورد نحوه ی اجرای این الگوریتم با mapreduce اماده کنم
توسط خریدار:
کاربر70393
اطلاعات بیشتر:
http://pc0.ir/p/244120
@ParscodersCom
پروژهی کوچک ساخت یک کلاستر هدوپ hadoop توی امازون و یا هر کلود دیگه
#cloud_computing, #hadoop, #map_reduce
پروژهی کوچک ساخت یک کلاستر هدوپ hadoop توی امازون و یا هر کلود دیگه
توضیحات بیشتر توی فایلی که اپلود کرده ام هست
برای کسی که هدوپ کار کرده باشه کار سختی نیست و حداکثر ۴ روزه هم میخوام به همراه توضیحات انجام پروژه
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/258632/پروژهی-کوچک-ساخت-یک-کلاستر-هدوپ-hadoop-توی-امازون-و-یا-هر-کلود-دیگه
t.me/ParscodersCom
#cloud_computing, #hadoop, #map_reduce
پروژهی کوچک ساخت یک کلاستر هدوپ hadoop توی امازون و یا هر کلود دیگه
توضیحات بیشتر توی فایلی که اپلود کرده ام هست
برای کسی که هدوپ کار کرده باشه کار سختی نیست و حداکثر ۴ روزه هم میخوام به همراه توضیحات انجام پروژه
توسط خریدار:
Mary2222
اطلاعات بیشتر:
https://parscoders.com/project/258632/پروژهی-کوچک-ساخت-یک-کلاستر-هدوپ-hadoop-توی-امازون-و-یا-هر-کلود-دیگه
t.me/ParscodersCom
پروژه map-reduce در بیگ دیتا
#big_data, #map_reduce, #data_mining
سلام وقت بخیر.
یک پروژه مربوط به بیگ دیتا که با توجه به داده های مسئه، و با روش map-reduce باید مسائل زیر را حل کنید.
برنامه نگاشت کاهشی بنویسید که بتوان رابطه دوستی بین هر دو فردی در جامعه داده شده را با تعداد n گام پیدا کند.
توضیحات بیشتر در پیوست فرستاده شده است.
زمان انجام پروژه فعلا بین 7 تا 10 روز تعیین شده است.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/288332/پروژه-map-reduce-در-بیگ-دیتا
t.me/ParscodersCom
#big_data, #map_reduce, #data_mining
سلام وقت بخیر.
یک پروژه مربوط به بیگ دیتا که با توجه به داده های مسئه، و با روش map-reduce باید مسائل زیر را حل کنید.
برنامه نگاشت کاهشی بنویسید که بتوان رابطه دوستی بین هر دو فردی در جامعه داده شده را با تعداد n گام پیدا کند.
توضیحات بیشتر در پیوست فرستاده شده است.
زمان انجام پروژه فعلا بین 7 تا 10 روز تعیین شده است.
توسط خریدار:
مه سیما حیدری
اطلاعات بیشتر:
https://parscoders.com/project/288332/پروژه-map-reduce-در-بیگ-دیتا
t.me/ParscodersCom
نصب Hadoop و نوشتن برنامه با روش Map Reduce
#dotnet, #c_sharp_programming, #hadoop, #java, #map_reduce
با سلام
یک دیتابیس آماده وجود دارد که هر رکورد آن یک سه تایی بصورت u,v,T است (کاربر u به پرسش کاربر v در زمان T پاسخ داده است). باید با روش برنامه نویسی Map Reduce، 4 کوئری روی آن زده شود.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/290827/نصب-hadoop-و-نوشتن-برنامه-با-روش-map-reduce
t.me/ParscodersCom
#dotnet, #c_sharp_programming, #hadoop, #java, #map_reduce
با سلام
یک دیتابیس آماده وجود دارد که هر رکورد آن یک سه تایی بصورت u,v,T است (کاربر u به پرسش کاربر v در زمان T پاسخ داده است). باید با روش برنامه نویسی Map Reduce، 4 کوئری روی آن زده شود.
توسط خریدار:
DotNetKing
اطلاعات بیشتر:
https://parscoders.com/project/290827/نصب-hadoop-و-نوشتن-برنامه-با-روش-map-reduce
t.me/ParscodersCom
پاسخ به چند سوال با استفاده از MapReduce
#dotnet, #c_sharp_programming, #hadoop, #java, #map_reduce
با سلام
شرح پروژه به این صورت است که باید به چند سوال با استفاده از MapReduce پاسخ داده شود:
1- برنامه نگاشت کاهشی بنویسید که بتوان رابطه دوستی بین هر دو فردی در این جامعه را با تعداد n گام پیدا کند.
2- برنامه نگاشت کاهشی بنویسید که تعداد 4 ضلعی های ممکن در یک گراف را بشمارد.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/290849/پاسخ-به-چند-سوال-با-استفاده-از-mapreduce
t.me/ParscodersCom
#dotnet, #c_sharp_programming, #hadoop, #java, #map_reduce
با سلام
شرح پروژه به این صورت است که باید به چند سوال با استفاده از MapReduce پاسخ داده شود:
1- برنامه نگاشت کاهشی بنویسید که بتوان رابطه دوستی بین هر دو فردی در این جامعه را با تعداد n گام پیدا کند.
2- برنامه نگاشت کاهشی بنویسید که تعداد 4 ضلعی های ممکن در یک گراف را بشمارد.
توسط خریدار:
DotNetKing
اطلاعات بیشتر:
https://parscoders.com/project/290849/پاسخ-به-چند-سوال-با-استفاده-از-mapreduce
t.me/ParscodersCom
ایجاد یک شبکه عصبی برای جایگزینی مقادیرگمشده به صورت توزیع شده در اسپارک
#big_data, #map_reduce, #python, #neural_networks, #pyspark
در این پروزه قصد داریم یک شبکه عصبی با چندین لایه را به منظور جایگزینی مقادیر گمشده در یک دیتاست بزرگ(big data) اموزش دهیم . این کار در بستر اسپارک و با کمک زبان pyspark باید انجام شود تا بتوانیم عمل اموزش شبکه را به صورت توزیع شده روی چند اشین اجرا کنیم.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/292578/ایجاد-یک-شبکه-عصبی-برای-جایگزینی-مقادیرگمشده-به-صورت-توزیع-شده-در-اسپارک
t.me/ParscodersCom
#big_data, #map_reduce, #python, #neural_networks, #pyspark
در این پروزه قصد داریم یک شبکه عصبی با چندین لایه را به منظور جایگزینی مقادیر گمشده در یک دیتاست بزرگ(big data) اموزش دهیم . این کار در بستر اسپارک و با کمک زبان pyspark باید انجام شود تا بتوانیم عمل اموزش شبکه را به صورت توزیع شده روی چند اشین اجرا کنیم.
توسط خریدار:
کاربر333888
اطلاعات بیشتر:
https://parscoders.com/project/292578/ایجاد-یک-شبکه-عصبی-برای-جایگزینی-مقادیرگمشده-به-صورت-توزیع-شده-در-اسپارک
t.me/ParscodersCom
پیش بینی با سبک برنامه سازی MAP REDUCE
🔸 فوری
#big_data, #map_reduce, #python
پیاده سازی موارد خواسته شده در محیط خواسته شده
تهیه یک گزارش حاوی تصاویر خروجی و توضیح بخش های مهم مخصوصا جزییات MAP و REDUCE
توضیح در مورد چگونگی اجرا در محیط کولب
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/322412/پیش-بینی-با-سبک-برنامه-سازی-map-reduce
t.me/ParscodersCom
🔸 فوری
#big_data, #map_reduce, #python
پیاده سازی موارد خواسته شده در محیط خواسته شده
تهیه یک گزارش حاوی تصاویر خروجی و توضیح بخش های مهم مخصوصا جزییات MAP و REDUCE
توضیح در مورد چگونگی اجرا در محیط کولب
توسط خریدار:
کاربر317180
اطلاعات بیشتر:
https://parscoders.com/project/322412/پیش-بینی-با-سبک-برنامه-سازی-map-reduce
t.me/ParscodersCom
👍1
پیاده سازی بخشی از یک مقاله که مربوط به الگوریتم توزیع شده یافتن مجموعه آیتم های مکرر (Freqent itemset) روی دیتای مشخص و با استفاده از Map reduce است
#big_data, #hadoop, #map_reduce, #python, #data_mining
مقاله ای با عنوان
Paradigm and performance analysis of distributed frequent itemset mining algorithms based on Mapreduce
که فایل ضمیمه آن در اختیار قرار میگیرد دو الگوریتم داده کاوی بر روی دیتا برای یافتن مجموعه آیتم های مکرر بر روی کلان داده ها پیشنهاد داده شده است که اولین نوع آن یعنی LOCAL GLOBAL باید در پایتون کدنویسی شود وفریمورک HADOOP برای استفاده map reduce روی سرور لوکال یا واقعی راه اندازی شود تا با دیتاستی که در اختیار قرار میگیرد تست شود و نتایج آن که زمان اجرا و تعداد مجموعه آیتم هاست مشخص گردد.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/355597/پیاده-سازی-بخشی-از-یک-مقاله-که-مربوط-به-الگوریتم-توزیع-شده-یافتن-مجموعه-آیتم-های-مکرر-freqent-itemset-روی-دیتای-مشخص-و-با-استفاده-از-map-reduce-است
t.me/ParscodersCom
#big_data, #hadoop, #map_reduce, #python, #data_mining
مقاله ای با عنوان
Paradigm and performance analysis of distributed frequent itemset mining algorithms based on Mapreduce
که فایل ضمیمه آن در اختیار قرار میگیرد دو الگوریتم داده کاوی بر روی دیتا برای یافتن مجموعه آیتم های مکرر بر روی کلان داده ها پیشنهاد داده شده است که اولین نوع آن یعنی LOCAL GLOBAL باید در پایتون کدنویسی شود وفریمورک HADOOP برای استفاده map reduce روی سرور لوکال یا واقعی راه اندازی شود تا با دیتاستی که در اختیار قرار میگیرد تست شود و نتایج آن که زمان اجرا و تعداد مجموعه آیتم هاست مشخص گردد.
توسط خریدار:
کاربر397146
اطلاعات بیشتر:
https://parscoders.com/project/355597/پیاده-سازی-بخشی-از-یک-مقاله-که-مربوط-به-الگوریتم-توزیع-شده-یافتن-مجموعه-آیتم-های-مکرر-freqent-itemset-روی-دیتای-مشخص-و-با-استفاده-از-map-reduce-است
t.me/ParscodersCom
مشاوره و کمک در انجام پایانی کارشناسی ارشد گرایش هوش مصنوعی با استفاده از تکنولوژی hadoop و map reduce
#linux, #map_reduce, #python, #thesis
برای پیاده سازی یک مقاله در حوزه bigdata نیاز به فردی دارم که با پیاده سازی hadoop و خصوصا map reduce روی ubunto server آشنایی داشته باشد و بتواند به عنوان مدرس و رفع اشکال مشکلاتی که وجود دارد را برطرف نماید.بخشی از کار انجام شده و در مراحل پایانی نیاز به فردی که قبلا حتما سابقه کار کردن با hadoop روی linux و ارتباط hdfs با کدهای پایتون داشته باشد را دارم.در ضمن برای هزینه هم به صورت پرداخت ساعتی با فرد مورد نظر توافق میگردد
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/357770/مشاوره-و-کمک-در-انجام-پایانی-کارشناسی-ارشد-گرایش-هوش-مصنوعی-با-استفاده-از-تکنولوژی-hadoop-و-map-reduce
t.me/ParscodersCom
#linux, #map_reduce, #python, #thesis
برای پیاده سازی یک مقاله در حوزه bigdata نیاز به فردی دارم که با پیاده سازی hadoop و خصوصا map reduce روی ubunto server آشنایی داشته باشد و بتواند به عنوان مدرس و رفع اشکال مشکلاتی که وجود دارد را برطرف نماید.بخشی از کار انجام شده و در مراحل پایانی نیاز به فردی که قبلا حتما سابقه کار کردن با hadoop روی linux و ارتباط hdfs با کدهای پایتون داشته باشد را دارم.در ضمن برای هزینه هم به صورت پرداخت ساعتی با فرد مورد نظر توافق میگردد
توسط خریدار:
کاربر397146
اطلاعات بیشتر:
https://parscoders.com/project/357770/مشاوره-و-کمک-در-انجام-پایانی-کارشناسی-ارشد-گرایش-هوش-مصنوعی-با-استفاده-از-تکنولوژی-hadoop-و-map-reduce
t.me/ParscodersCom
ثبت ادرس در گوگل مپ
🔸 پروژه ویژه
#dotnet, #map_reduce, #cartography_and_maps, #research
با سلام یه ادرس دارم میخوام توی گوگل مپ ثبت بشه
چند بار جاهای مختلف انجام دادیم ولی متاسفانه صبن نمیشه
به یک مجری خوب و کاربلد جهت انجام کار میخوام
با تشکر
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/376725/ثبت-ادرس-در-گوگل-مپ
t.me/ParscodersCom
🔸 پروژه ویژه
#dotnet, #map_reduce, #cartography_and_maps, #research
با سلام یه ادرس دارم میخوام توی گوگل مپ ثبت بشه
چند بار جاهای مختلف انجام دادیم ولی متاسفانه صبن نمیشه
به یک مجری خوب و کاربلد جهت انجام کار میخوام
با تشکر
توسط خریدار:
MajidSys
اطلاعات بیشتر:
https://parscoders.com/project/376725/ثبت-ادرس-در-گوگل-مپ
t.me/ParscodersCom
پیاده سازی بخشی از یک مقاله که مربوط به الگوریتم توزیع شده یافتن مجموعه آیتم های مکرر (Freqent itemset) روی دیتای مشخص و با استفاده از Map reduce است
#big_data, #map_reduce, #python, #data_mining, #virtualization
مقاله ای با عنوان
Paradigm and performance analysis of distributed frequent itemset mining algorithms based on Mapreduce
که فایل ضمیمه آن در اختیار قرار میگیرد دو الگوریتم داده کاوی بر روی دیتا برای یافتن مجموعه آیتم های مکرر بر روی کلان داده ها پیشنهاد داده شده است که اولین نوع آن یعنی LOCAL GLOBAL باید در پایتون کدنویسی شود وفریمورک HADOOP برای استفاده map reduce روی سرور لوکال یا واقعی راه اندازی شود تا با دیتاستی که در اختیار قرار میگیرد تست شود و نتایج آن که زمان اجرا و تعداد مجموعه آیتم هاست مشخص گردد.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/382976/پیاده-سازی-بخشی-از-یک-مقاله-که-مربوط-به-الگوریتم-توزیع-شده-یافتن-مجموعه-آیتم-های-مکرر-freqent-itemset-روی-دیتای-مشخص-و-با-استفاده-از-map-reduce-است
t.me/ParscodersCom
#big_data, #map_reduce, #python, #data_mining, #virtualization
مقاله ای با عنوان
Paradigm and performance analysis of distributed frequent itemset mining algorithms based on Mapreduce
که فایل ضمیمه آن در اختیار قرار میگیرد دو الگوریتم داده کاوی بر روی دیتا برای یافتن مجموعه آیتم های مکرر بر روی کلان داده ها پیشنهاد داده شده است که اولین نوع آن یعنی LOCAL GLOBAL باید در پایتون کدنویسی شود وفریمورک HADOOP برای استفاده map reduce روی سرور لوکال یا واقعی راه اندازی شود تا با دیتاستی که در اختیار قرار میگیرد تست شود و نتایج آن که زمان اجرا و تعداد مجموعه آیتم هاست مشخص گردد.
توسط خریدار:
کاربر397146
اطلاعات بیشتر:
https://parscoders.com/project/382976/پیاده-سازی-بخشی-از-یک-مقاله-که-مربوط-به-الگوریتم-توزیع-شده-یافتن-مجموعه-آیتم-های-مکرر-freqent-itemset-روی-دیتای-مشخص-و-با-استفاده-از-map-reduce-است
t.me/ParscodersCom
ضرب دو ماتریس با رویکرد mapreduce به زبان پایتون به همراه فایل توضیحات
🔸 فوری
#map_reduce
پیاده سازی ضرب دو ماتریس با رویکرد mapreduce به زبان پایتون به همراه فایل توضیحات
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/402832/ضرب-دو-ماتریس-با-رویکرد-mapreduce-به-زبان-پایتون-به-همراه-فایل-توضیحات
t.me/ParscodersCom
🔸 فوری
#map_reduce
پیاده سازی ضرب دو ماتریس با رویکرد mapreduce به زبان پایتون به همراه فایل توضیحات
توسط خریدار:
کاربر444979
اطلاعات بیشتر:
https://parscoders.com/project/402832/ضرب-دو-ماتریس-با-رویکرد-mapreduce-به-زبان-پایتون-به-همراه-فایل-توضیحات
t.me/ParscodersCom
پاسخ به چند سوال با استفاده از MapReduce
#map_reduce
با سلام
شرح پروژه به این صورت است که مطابق فایل پیوست باید به چند سوال با استفاده از MapReduce پاسخ داده شود و به خروجی مدنظر برسید.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/411821/پاسخ-به-چند-سوال-با-استفاده-از-mapreduce
t.me/ParscodersCom
#map_reduce
با سلام
شرح پروژه به این صورت است که مطابق فایل پیوست باید به چند سوال با استفاده از MapReduce پاسخ داده شود و به خروجی مدنظر برسید.
توسط خریدار:
Zeinab Eghbali
اطلاعات بیشتر:
https://parscoders.com/project/411821/پاسخ-به-چند-سوال-با-استفاده-از-mapreduce
t.me/ParscodersCom
پردازش داده های بزرگ – Taxi Trip Statistics
#big_data, #hadoop, #map_reduce, #python
You have two datasets: Trips.txt which records trip information, and Taxis.txt which is about taxi information. Both Trips.txt and Taxis.txt are stored on HDFS. Complete the following MapReduce programming tasks with Python.
A sample of Taxis.txt A sample of Trips.txt Assessment Type − Individual assignment.− Submit online via Canvas → Assignment 1.− Marks awarded for meeting requirements as closely as possible.− Clarifications/updates may be made via announcements or relevant discussion forums. Taxi#, company, model, year470,0,80,2018 332,11,88,2013 254,10,62,2018 460,4,90,2022 113,6,23,2015 275,16,13,2015 318,14,46,2014 Trip#, Taxi#, fare, distance, pickup_x, pickup_y, dropoff_x, dropoff_y0,354,232.64,127.23,46.069,85.566,10.355,4.83 1,173,283.7,150.74,5.02,31.765,88.386,27.265 2,8,83.84,43.17,63.269,33.156,92.953,60.647 3,340,259.2,136.3,14.729,13.356,14.304,90.273 4,32,270.07,152.65,27.965,13.37,77.925,62.82 5,64,378.31,202.95,1.145,94.519,98.296,35.469 6,480,235.98,121.23,66.982,66.912,5.02,31.765 7,410,293.16,162.29,2.841,95.636,91.029,16.232
Task 1 (5 marks)For each taxi, count the number of trips and the average distance per trip by developing MapReduce programs with Python. The program should implement in-mapper combining with state preserved across lines.The code must work for 3 reducers. You need to submit a shell script named task1-run.sh. Running the shell script, the task is performed where the shell script and code files are in the same folder (no subfolders). RMIT Classification: TrustedTask 2 (10 marks)You are asked to write a MapReduce program with Python to cluster trips in Trips.txt based on pickup locations. Your code should implement k-medoid clustering algorithm known as Partitioning Around Medoids (PAM) algorithm which is described below:1. Initialize: randomly select 𝑘𝑘 of the 𝑛𝑛 data points as the medoids.2. Assignment step: Associate each data point to the closest medoid.3. Update step: For each medoid 𝑚𝑚 and each data point 𝑜𝑜 associated with 𝑚𝑚, swap 𝑚𝑚 and 𝑜𝑜, and compute the total cost of the configuration (that is, the average dissimilarity of 𝑜𝑜 to all the data pointsassociated to 𝑚𝑚). Select the medoid 𝑜𝑜 with the lowest cost of the configuration4. Repeatedly alternating steps 2 and 3 until there is no change in the assignments or after a givennumber 𝑣𝑣 of iterations.The code must work for 3 reducers, for different settings of 𝑘𝑘, and for different settings of 𝑣𝑣. Also, you should write up a shell script named task2-run.sh. Running the shell script, the task is performed where the shell script and code files are in the same folder (no subfolders). Note that 𝑘𝑘 and 𝑣𝑣 must be passed to task2-run.sh as arguments when it is executed.Task 3 (10 marks)You are required to use what you learned so far to solve a slightly more advanced task. The task is to write a MapReduce program with Python to count the number of trips for each taxi company. Both Taxis.txt and Trips.txt will be used and they are...
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/435958/پردازش-داده-های-بزرگ-–-taxi-trip-statistics
t.me/ParscodersCom
#big_data, #hadoop, #map_reduce, #python
You have two datasets: Trips.txt which records trip information, and Taxis.txt which is about taxi information. Both Trips.txt and Taxis.txt are stored on HDFS. Complete the following MapReduce programming tasks with Python.
A sample of Taxis.txt A sample of Trips.txt Assessment Type − Individual assignment.− Submit online via Canvas → Assignment 1.− Marks awarded for meeting requirements as closely as possible.− Clarifications/updates may be made via announcements or relevant discussion forums. Taxi#, company, model, year470,0,80,2018 332,11,88,2013 254,10,62,2018 460,4,90,2022 113,6,23,2015 275,16,13,2015 318,14,46,2014 Trip#, Taxi#, fare, distance, pickup_x, pickup_y, dropoff_x, dropoff_y0,354,232.64,127.23,46.069,85.566,10.355,4.83 1,173,283.7,150.74,5.02,31.765,88.386,27.265 2,8,83.84,43.17,63.269,33.156,92.953,60.647 3,340,259.2,136.3,14.729,13.356,14.304,90.273 4,32,270.07,152.65,27.965,13.37,77.925,62.82 5,64,378.31,202.95,1.145,94.519,98.296,35.469 6,480,235.98,121.23,66.982,66.912,5.02,31.765 7,410,293.16,162.29,2.841,95.636,91.029,16.232
Task 1 (5 marks)For each taxi, count the number of trips and the average distance per trip by developing MapReduce programs with Python. The program should implement in-mapper combining with state preserved across lines.The code must work for 3 reducers. You need to submit a shell script named task1-run.sh. Running the shell script, the task is performed where the shell script and code files are in the same folder (no subfolders). RMIT Classification: TrustedTask 2 (10 marks)You are asked to write a MapReduce program with Python to cluster trips in Trips.txt based on pickup locations. Your code should implement k-medoid clustering algorithm known as Partitioning Around Medoids (PAM) algorithm which is described below:1. Initialize: randomly select 𝑘𝑘 of the 𝑛𝑛 data points as the medoids.2. Assignment step: Associate each data point to the closest medoid.3. Update step: For each medoid 𝑚𝑚 and each data point 𝑜𝑜 associated with 𝑚𝑚, swap 𝑚𝑚 and 𝑜𝑜, and compute the total cost of the configuration (that is, the average dissimilarity of 𝑜𝑜 to all the data pointsassociated to 𝑚𝑚). Select the medoid 𝑜𝑜 with the lowest cost of the configuration4. Repeatedly alternating steps 2 and 3 until there is no change in the assignments or after a givennumber 𝑣𝑣 of iterations.The code must work for 3 reducers, for different settings of 𝑘𝑘, and for different settings of 𝑣𝑣. Also, you should write up a shell script named task2-run.sh. Running the shell script, the task is performed where the shell script and code files are in the same folder (no subfolders). Note that 𝑘𝑘 and 𝑣𝑣 must be passed to task2-run.sh as arguments when it is executed.Task 3 (10 marks)You are required to use what you learned so far to solve a slightly more advanced task. The task is to write a MapReduce program with Python to count the number of trips for each taxi company. Both Taxis.txt and Trips.txt will be used and they are...
توسط خریدار:
کاربر493380
اطلاعات بیشتر:
https://parscoders.com/project/435958/پردازش-داده-های-بزرگ-–-taxi-trip-statistics
t.me/ParscodersCom
👍1
Big Data project development in Python
#big_data, #map_reduce, #python, #algorithm
Academic Big Data project development in Python, projects major topics : Streaming algorithms, Map reduce, Similarity search, Link Analysis, recommendation systems.
اطلاعات تکمیلی بعد در پیام تقدیم میگردد
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/458108/big-data-project-development-in-python
t.me/ParscodersCom
#big_data, #map_reduce, #python, #algorithm
Academic Big Data project development in Python, projects major topics : Streaming algorithms, Map reduce, Similarity search, Link Analysis, recommendation systems.
اطلاعات تکمیلی بعد در پیام تقدیم میگردد
توسط خریدار:
Isahmadi
اطلاعات بیشتر:
https://parscoders.com/project/458108/big-data-project-development-in-python
t.me/ParscodersCom
سفارش پروژه مپ ردیوس
#map_reduce
سلام
من یه پروژه مپ ردیوس دارم که دیدم داخل سایت شما میتونین انجام بدین.
الان براتون ارسال میکنم
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/485989/سفارش-پروژه-مپ-ردیوس
t.me/ParscodersCom
#map_reduce
سلام
من یه پروژه مپ ردیوس دارم که دیدم داخل سایت شما میتونین انجام بدین.
الان براتون ارسال میکنم
توسط خریدار:
فاطمه اولادی
اطلاعات بیشتر:
https://parscoders.com/project/485989/سفارش-پروژه-مپ-ردیوس
t.me/ParscodersCom
کد سودوکد برای چند مورد mapreduce
#map_reduce, #research, #reviews, #anything_goes
سه مورد مپ ردیوس هست که میخواهیم به صورت سودوکد نوشته شود و داخل پروژه بگذاریم .
لطفا درخواست خود را بفرسید که من هم برای شما موارد را ارسال کنم
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/486151/کد-سودوکد-برای-چند-مورد-mapreduce
t.me/ParscodersCom
#map_reduce, #research, #reviews, #anything_goes
سه مورد مپ ردیوس هست که میخواهیم به صورت سودوکد نوشته شود و داخل پروژه بگذاریم .
لطفا درخواست خود را بفرسید که من هم برای شما موارد را ارسال کنم
توسط خریدار:
Hano1367
اطلاعات بیشتر:
https://parscoders.com/project/486151/کد-سودوکد-برای-چند-مورد-mapreduce
t.me/ParscodersCom
جمع آوری تصاویر HeatMap برای منطقه خاص
🔸 پروژه ویژه
🔸 فوری
#anything_goes, #map_reduce
به یک نفر مسلط برای جمع آوری یک سری تصویر Heat map برای یک کشور خاص نیاز دارم.برای اینکار میشه از هر نرم افزاری و سایتی می توان استفاده کرد.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/522660/جمع-آوری-تصاویر-heatmap-برای-منطقه-خاص
t.me/ParscodersCom
🔸 پروژه ویژه
🔸 فوری
#anything_goes, #map_reduce
به یک نفر مسلط برای جمع آوری یک سری تصویر Heat map برای یک کشور خاص نیاز دارم.برای اینکار میشه از هر نرم افزاری و سایتی می توان استفاده کرد.
توسط خریدار:
کاربر280463
اطلاعات بیشتر:
https://parscoders.com/project/522660/جمع-آوری-تصاویر-heatmap-برای-منطقه-خاص
t.me/ParscodersCom
فریلنسر باشید یا پروژه برونسپاری کنید - پارسکدرز
جمع آوری تصاویر HeatMap برای منطقه خاص
به یک نفر مسلط برای جمع آوری یک سری تصویر Heat map برای یک کشور خاص نیاز دارم.برای اینکار میشه از هر نرم افزاری و سایتی می توان استفاده کرد.
وارد کردن لت و لانگ در نقشه
#dotnet, #javascript, #map_reduce, #php
سلام و وقت بخیر
پروژه ای داریم که میخوایم در سایت هدف در کنسول اینسپکتور کد جاوا اسکریپتی رو بنویسیم که لت و لانگی که ما بهش میدیم رو برامون ثبت کنه روی مپ سایت.
کار ساده ای هست برای کسانی که در js استاد کار هستند
پیام بدید بیشتر راجع به پروژه صحبت کنیم.
اگر هم نمیشه لطفا یکی بگه یا یکی راهنمایی کنه 🥹
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/551390/وارد-کردن-لت-و-لانگ-در-نقشه
t.me/ParscodersCom
#dotnet, #javascript, #map_reduce, #php
سلام و وقت بخیر
پروژه ای داریم که میخوایم در سایت هدف در کنسول اینسپکتور کد جاوا اسکریپتی رو بنویسیم که لت و لانگی که ما بهش میدیم رو برامون ثبت کنه روی مپ سایت.
کار ساده ای هست برای کسانی که در js استاد کار هستند
پیام بدید بیشتر راجع به پروژه صحبت کنیم.
اگر هم نمیشه لطفا یکی بگه یا یکی راهنمایی کنه 🥹
توسط خریدار:
PythonProjects
اطلاعات بیشتر:
https://parscoders.com/project/551390/وارد-کردن-لت-و-لانگ-در-نقشه
t.me/ParscodersCom