توسعه یک روش یادگیری ماشین خودکار برای نگهداری پیشبینیکننده کارخانههای تولید
#big_data, #python, #pyspark
هدف از کار، توسعه یک روش یادگیری ماشین خودکار برای نگهداری پیشبینیکننده کارخانههای تولید است. این روش یادگیری می تواند به طور خودکار روی داده های فناوری های مختلف تولید اعمال شود و سپس یک مدل پیش بینی خوب برای وضعیت سلامت یا خرابی های قریب الوقوع ماشین آموزش داده شود. باید بررسی شود که آیا می توان از روش های یادگیری ماشین برای پیش بینی خرابی ماشین در مراحل اولیه بر اساس داده های فرآیند از کارخانه های تولید و داده های مستندات خطا استفاده کرد تا اقدامات تعمیر و نگهداری در زمان مناسب انجام شود.
برای رسیدن به این هدف باید مراحل مختلفی را طی کرد. ابتدا، تفاوتهای بین دادهها و برچسبهای مورد نظر موارد استفاده مختلف بررسی میشود. سپس یک مدل فرآیندی فرموله میشود که موارد استفاده مختلف، نحوه محاسبه ویژگیها و خروجی مدل یادگیری ماشین را توصیف میکند. برای مثال بسته به اطلاعاتی که در دسترس است
سیگنال ها، مقادیر اندازه گیری شده و غیره، ویژگی ها محاسبه شده و خروجی ها تعریف می شوند. بر اساس این اطلاعات، روش یادگیری ماشین مناسب انتخاب می شود. این روش می تواند طبقه بندی یا رگرسیون و خوشه بندی/تشخیص ناهنجاری باشد. سپس برای موارد استفاده مختلف آزمایش و ارزیابی می شود. این بررسی می کند که آیا مدل فرآیند کار می کند یا خیر.
بنابراین، به عنوان بخشی از پایان نامه کارشناسی ارشد، بسته به اینکه ساختار داده ماشینی متعلق به کدام دسته باشد، یک روش یادگیری ماشینی مناسب انتخاب می شود که سپس بر روی داده های موجود اعمال می شود.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/352566/توسعه-یک-روش-یادگیری-ماشین-خودکار-برای-نگهداری-پیشبینیکننده-کارخانههای-تولید
t.me/ParscodersCom
#big_data, #python, #pyspark
هدف از کار، توسعه یک روش یادگیری ماشین خودکار برای نگهداری پیشبینیکننده کارخانههای تولید است. این روش یادگیری می تواند به طور خودکار روی داده های فناوری های مختلف تولید اعمال شود و سپس یک مدل پیش بینی خوب برای وضعیت سلامت یا خرابی های قریب الوقوع ماشین آموزش داده شود. باید بررسی شود که آیا می توان از روش های یادگیری ماشین برای پیش بینی خرابی ماشین در مراحل اولیه بر اساس داده های فرآیند از کارخانه های تولید و داده های مستندات خطا استفاده کرد تا اقدامات تعمیر و نگهداری در زمان مناسب انجام شود.
برای رسیدن به این هدف باید مراحل مختلفی را طی کرد. ابتدا، تفاوتهای بین دادهها و برچسبهای مورد نظر موارد استفاده مختلف بررسی میشود. سپس یک مدل فرآیندی فرموله میشود که موارد استفاده مختلف، نحوه محاسبه ویژگیها و خروجی مدل یادگیری ماشین را توصیف میکند. برای مثال بسته به اطلاعاتی که در دسترس است
سیگنال ها، مقادیر اندازه گیری شده و غیره، ویژگی ها محاسبه شده و خروجی ها تعریف می شوند. بر اساس این اطلاعات، روش یادگیری ماشین مناسب انتخاب می شود. این روش می تواند طبقه بندی یا رگرسیون و خوشه بندی/تشخیص ناهنجاری باشد. سپس برای موارد استفاده مختلف آزمایش و ارزیابی می شود. این بررسی می کند که آیا مدل فرآیند کار می کند یا خیر.
بنابراین، به عنوان بخشی از پایان نامه کارشناسی ارشد، بسته به اینکه ساختار داده ماشینی متعلق به کدام دسته باشد، یک روش یادگیری ماشینی مناسب انتخاب می شود که سپس بر روی داده های موجود اعمال می شود.
توسط خریدار:
کاربر394198
اطلاعات بیشتر:
https://parscoders.com/project/352566/توسعه-یک-روش-یادگیری-ماشین-خودکار-برای-نگهداری-پیشبینیکننده-کارخانههای-تولید
t.me/ParscodersCom
توسعه یک روش یادگیری ماشین خودکار برای نگهداری پیشبینیکننده کارخانههای تولید
#big_data, #python, #pyspark
هدف از کار، توسعه یک روش یادگیری ماشین خودکار برای نگهداری پیشبینیکننده کارخانههای تولید است. این روش یادگیری می تواند به طور خودکار روی داده های فناوری های مختلف تولید اعمال شود و سپس یک مدل پیش بینی خوب برای وضعیت سلامت یا خرابی های قریب الوقوع ماشین آموزش داده شود. باید بررسی شود که آیا می توان از روش های یادگیری ماشین برای پیش بینی خرابی ماشین در مراحل اولیه بر اساس داده های فرآیند از کارخانه های تولید و داده های مستندات خطا استفاده کرد تا اقدامات تعمیر و نگهداری در زمان مناسب انجام شود.
برای رسیدن به این هدف باید مراحل مختلفی را طی کرد. ابتدا، تفاوتهای بین دادهها و برچسبهای مورد نظر موارد استفاده مختلف بررسی میشود. سپس یک مدل فرآیندی فرموله میشود که موارد استفاده مختلف، نحوه محاسبه ویژگیها و خروجی مدل یادگیری ماشین را توصیف میکند. برای مثال بسته به اطلاعاتی که در دسترس است
سیگنال ها، مقادیر اندازه گیری شده و غیره، ویژگی ها محاسبه شده و خروجی ها تعریف می شوند. بر اساس این اطلاعات، روش یادگیری ماشین مناسب انتخاب می شود. این روش می تواند طبقه بندی یا رگرسیون و خوشه بندی/تشخیص ناهنجاری باشد. سپس برای موارد استفاده مختلف آزمایش و ارزیابی می شود. این بررسی می کند که آیا مدل فرآیند کار می کند یا خیر.
بنابراین، به عنوان بخشی از پایان نامه کارشناسی ارشد، بسته به اینکه ساختار داده ماشینی متعلق به کدام دسته باشد، یک روش یادگیری ماشینی مناسب انتخاب می شود که سپس بر روی داده های موجود اعمال می شود.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/352563/توسعه-یک-روش-یادگیری-ماشین-خودکار-برای-نگهداری-پیشبینیکننده-کارخانههای-تولید
t.me/ParscodersCom
#big_data, #python, #pyspark
هدف از کار، توسعه یک روش یادگیری ماشین خودکار برای نگهداری پیشبینیکننده کارخانههای تولید است. این روش یادگیری می تواند به طور خودکار روی داده های فناوری های مختلف تولید اعمال شود و سپس یک مدل پیش بینی خوب برای وضعیت سلامت یا خرابی های قریب الوقوع ماشین آموزش داده شود. باید بررسی شود که آیا می توان از روش های یادگیری ماشین برای پیش بینی خرابی ماشین در مراحل اولیه بر اساس داده های فرآیند از کارخانه های تولید و داده های مستندات خطا استفاده کرد تا اقدامات تعمیر و نگهداری در زمان مناسب انجام شود.
برای رسیدن به این هدف باید مراحل مختلفی را طی کرد. ابتدا، تفاوتهای بین دادهها و برچسبهای مورد نظر موارد استفاده مختلف بررسی میشود. سپس یک مدل فرآیندی فرموله میشود که موارد استفاده مختلف، نحوه محاسبه ویژگیها و خروجی مدل یادگیری ماشین را توصیف میکند. برای مثال بسته به اطلاعاتی که در دسترس است
سیگنال ها، مقادیر اندازه گیری شده و غیره، ویژگی ها محاسبه شده و خروجی ها تعریف می شوند. بر اساس این اطلاعات، روش یادگیری ماشین مناسب انتخاب می شود. این روش می تواند طبقه بندی یا رگرسیون و خوشه بندی/تشخیص ناهنجاری باشد. سپس برای موارد استفاده مختلف آزمایش و ارزیابی می شود. این بررسی می کند که آیا مدل فرآیند کار می کند یا خیر.
بنابراین، به عنوان بخشی از پایان نامه کارشناسی ارشد، بسته به اینکه ساختار داده ماشینی متعلق به کدام دسته باشد، یک روش یادگیری ماشینی مناسب انتخاب می شود که سپس بر روی داده های موجود اعمال می شود.
توسط خریدار:
کاربر394198
اطلاعات بیشتر:
https://parscoders.com/project/352563/توسعه-یک-روش-یادگیری-ماشین-خودکار-برای-نگهداری-پیشبینیکننده-کارخانههای-تولید
t.me/ParscodersCom
پروژه هوم ورک python + spark
🔸 فوری
#big_data, #hadoop, #python, #pyspark
سلام، وقت بخیرT
فایل .ipynb رو اتاج کرده ام، اول کد یکسری مسیرها داده شده برای خوندن چنتا فایل، اون فایلها توی لینوکس هستن که من اون فایلها رو از روی سیستم برمیدارم و بهتون میدم. و باید به 2 سوال پایانی در فایل .ipynb جواب داده بشه. فرصت تا سه شنبه شب هست.
ممنونم
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/362448/پروژه-هوم-ورک-python-plus-spark
t.me/ParscodersCom
🔸 فوری
#big_data, #hadoop, #python, #pyspark
سلام، وقت بخیرT
فایل .ipynb رو اتاج کرده ام، اول کد یکسری مسیرها داده شده برای خوندن چنتا فایل، اون فایلها توی لینوکس هستن که من اون فایلها رو از روی سیستم برمیدارم و بهتون میدم. و باید به 2 سوال پایانی در فایل .ipynb جواب داده بشه. فرصت تا سه شنبه شب هست.
ممنونم
توسط خریدار:
کاربر388533
اطلاعات بیشتر:
https://parscoders.com/project/362448/پروژه-هوم-ورک-python-plus-spark
t.me/ParscodersCom
Big dataپیشرفته
#hadoop, #pyspark
به صورت فیلم و ورد به صورت کامل برای توضیح همه قسمت های پروژه برای ارائه دادن بنده در کلاس
فایل جزوه ها و پروژه درسیستم بارگزاری شد
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/371267/big-dataپیشرفته
t.me/ParscodersCom
#hadoop, #pyspark
به صورت فیلم و ورد به صورت کامل برای توضیح همه قسمت های پروژه برای ارائه دادن بنده در کلاس
فایل جزوه ها و پروژه درسیستم بارگزاری شد
توسط خریدار:
کاربر410428
اطلاعات بیشتر:
https://parscoders.com/project/371267/big-dataپیشرفته
t.me/ParscodersCom
22704 - پروژه اسپارک
#dotnet, #java, #php, #pyspark
پروژه فوری "پیش بینی موقعیت آینده شی متحرک"
به زبان پایتون و با اسپارک و کافکا
دیتاست https://theairlab.org/trajair/
سورس و توضیحات فنی مربوط به کانفیگ و ابزارها و... و گزارش کار انجام شده ارائه شود
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/378595/22704-پروژه-اسپارک
t.me/ParscodersCom
#dotnet, #java, #php, #pyspark
پروژه فوری "پیش بینی موقعیت آینده شی متحرک"
به زبان پایتون و با اسپارک و کافکا
دیتاست https://theairlab.org/trajair/
سورس و توضیحات فنی مربوط به کانفیگ و ابزارها و... و گزارش کار انجام شده ارائه شود
توسط خریدار:
کاربر416232
اطلاعات بیشتر:
https://parscoders.com/project/378595/22704-پروژه-اسپارک
t.me/ParscodersCom
حل تمرین یادگیری ماشین الگوریتم Logistic regression با استفاده از pyspark
#python, #machine_learning, #pyspark
نیازمند حل یک تمرین یادگیری ماشین و الگوریتم Logistic Regression با استفاده از پلتفرم اسپارک و کتابخانه Pyspark در پایتون
در این پروژه به هیچ عنوان از کتابخانه pandas استفاده نشود. به جای آن از pyspark استفاده شود.
فایل تمرین پیوست شده است.
حداکثر مهلت تحویل پایان روز یکشنبه 27 فروردین
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/396095/حل-تمرین-یادگیری-ماشین-الگوریتم-logistic-regression-با-استفاده-از-pyspark
t.me/ParscodersCom
#python, #machine_learning, #pyspark
نیازمند حل یک تمرین یادگیری ماشین و الگوریتم Logistic Regression با استفاده از پلتفرم اسپارک و کتابخانه Pyspark در پایتون
در این پروژه به هیچ عنوان از کتابخانه pandas استفاده نشود. به جای آن از pyspark استفاده شود.
فایل تمرین پیوست شده است.
حداکثر مهلت تحویل پایان روز یکشنبه 27 فروردین
توسط خریدار:
علیرضا آقابابایی
اطلاعات بیشتر:
https://parscoders.com/project/396095/حل-تمرین-یادگیری-ماشین-الگوریتم-logistic-regression-با-استفاده-از-pyspark
t.me/ParscodersCom
حل تمرین یادگیری ماشین الگوریتم Support vector machine با استفاده از pyspark
#python, #machine_learning, #pyspark
نیازمند حل یک تمرین یادگیری ماشین و الگوریتم Support Vector Machine با استفاده از پلتفرم اسپارک و کتابخانه Pyspark در پایتون
در این پروژه به هیچ عنوان از کتابخانه pandas استفاده نشود. به جای آن از pyspark استفاده شود.
فایل تمرین پیوست شده است.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/397454/حل-تمرین-یادگیری-ماشین-الگوریتم-support-vector-machine-با-استفاده-از-pyspark
t.me/ParscodersCom
#python, #machine_learning, #pyspark
نیازمند حل یک تمرین یادگیری ماشین و الگوریتم Support Vector Machine با استفاده از پلتفرم اسپارک و کتابخانه Pyspark در پایتون
در این پروژه به هیچ عنوان از کتابخانه pandas استفاده نشود. به جای آن از pyspark استفاده شود.
فایل تمرین پیوست شده است.
توسط خریدار:
علیرضا آقابابایی
اطلاعات بیشتر:
https://parscoders.com/project/397454/حل-تمرین-یادگیری-ماشین-الگوریتم-support-vector-machine-با-استفاده-از-pyspark
t.me/ParscodersCom
حل تمرین یادگیری ماشین، الگوریتم خوشه بندی K-Means
#python, #machine_learning, #pyspark
نیازمند حل یک تمرین یادگیری ماشین با استفاده از الگوریتم خوشه بندی K-Means و کتابخانه Pyspark در پایتون و استفاده از پلتفرم آپاچی کافکا برای ارسال و دریافت داده ها به صورت در جریان
در این پروژه به هیچ عنوان از کتابخانه pandas استفاده نشود. به جای آن از pyspark استفاده شود.
در پایان پروژه علاوه بر کد، نیاز به گزارشی جهت تحلیل کد و نتایج به دست آمده داریم.
فایل تمرین پیوست شده است.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/399057/حل-تمرین-یادگیری-ماشین،-الگوریتم-خوشه-بندی-k-means
t.me/ParscodersCom
#python, #machine_learning, #pyspark
نیازمند حل یک تمرین یادگیری ماشین با استفاده از الگوریتم خوشه بندی K-Means و کتابخانه Pyspark در پایتون و استفاده از پلتفرم آپاچی کافکا برای ارسال و دریافت داده ها به صورت در جریان
در این پروژه به هیچ عنوان از کتابخانه pandas استفاده نشود. به جای آن از pyspark استفاده شود.
در پایان پروژه علاوه بر کد، نیاز به گزارشی جهت تحلیل کد و نتایج به دست آمده داریم.
فایل تمرین پیوست شده است.
توسط خریدار:
علیرضا آقابابایی
اطلاعات بیشتر:
https://parscoders.com/project/399057/حل-تمرین-یادگیری-ماشین،-الگوریتم-خوشه-بندی-k-means
t.me/ParscodersCom
یک پروژه دانشگاهی در رشته Big Data
#big_data, #python, #sql, #pyspark
با سلام و خسته نباشید .یک پروژه دانشجویی در رشته Big Data می باشد . فایل PDF که توضیحات کامل داده شده رودر اختیارتون می زارم . اما یه توضیح مختصر اینجا خدمتتون می دم .به طور کلی کل پروژه شما باید یه دیتا به سایز بین ۴۰۰ mb تا ۲gb انتخاب کنید . این دیتا رو شما با برنامه های Hadoop ، Impala ، Hive ، ایمپورت کنید و Unstructured دیتا رو با استفاده از Query های Sql انالیز کنید و همین طور با کمک spark RDD به Structured تبدیل کنید.به طور کلی ۸-۱۰ تا query لازم هست که بیشتر ان ها باید در سطح پیشرفته باشه . هر بخش به صورت جداگانه نمره داره و باید انجام بشه . بعد از انجام این کار به ریپورت به اندازه ی ۳۰۰۰ کلمه نیاز هست که کار هایی که انجام شده توضبح داده شه و به زبان انگلیسی باید باشه . اگه مشکل در زبان یا نوشتن ریپورت دارید من کمک می کنم . ( با هم انجام می دیم یعنی ) .
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/449890/یک-پروژه-دانشگاهی-در-رشته-big-data
t.me/ParscodersCom
#big_data, #python, #sql, #pyspark
با سلام و خسته نباشید .یک پروژه دانشجویی در رشته Big Data می باشد . فایل PDF که توضیحات کامل داده شده رودر اختیارتون می زارم . اما یه توضیح مختصر اینجا خدمتتون می دم .به طور کلی کل پروژه شما باید یه دیتا به سایز بین ۴۰۰ mb تا ۲gb انتخاب کنید . این دیتا رو شما با برنامه های Hadoop ، Impala ، Hive ، ایمپورت کنید و Unstructured دیتا رو با استفاده از Query های Sql انالیز کنید و همین طور با کمک spark RDD به Structured تبدیل کنید.به طور کلی ۸-۱۰ تا query لازم هست که بیشتر ان ها باید در سطح پیشرفته باشه . هر بخش به صورت جداگانه نمره داره و باید انجام بشه . بعد از انجام این کار به ریپورت به اندازه ی ۳۰۰۰ کلمه نیاز هست که کار هایی که انجام شده توضبح داده شه و به زبان انگلیسی باید باشه . اگه مشکل در زبان یا نوشتن ریپورت دارید من کمک می کنم . ( با هم انجام می دیم یعنی ) .
توسط خریدار:
کاربر520508
اطلاعات بیشتر:
https://parscoders.com/project/449890/یک-پروژه-دانشگاهی-در-رشته-big-data
t.me/ParscodersCom
یک پروژه در Big Data
#big_data, #mysql, #python, #pyspark
با سلام و خسته نباشید .
یک پروژه دانشجویی در رشته Big Data می باشد . فایل PDF که توضیحات کامل داده شده رودر اختیارتون می زارم . اما یه توضیح مختصر اینجا خدمتتون می دم .
به طور کلی کل پروژه شما باید یه دیتا به سایز بین ۴۰۰ mb تا ۲gb انتخاب کنید . این دیتا رو شما با برنامه های Hadoop ، Impala ، Hive ، ایمپورت کنید و Unstructured دیتا رو با استفاده از Query های Sql انالیز کنید و همین طور با کمک spark RDD به Structured تبدیل کنید.
به طور کلی ۸-۱۰ تا query لازم هست که بیشتر ان ها باید در سطح پیشرفته باشه .
هر بخش به صورت جداگانه نمره داره و باید انجام بشه .
بعد از انجام این کار به ریپورت به صورت فایل HTML باید تبدیل بشه.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/455339/یک-پروژه-در-big-data
t.me/ParscodersCom
#big_data, #mysql, #python, #pyspark
با سلام و خسته نباشید .
یک پروژه دانشجویی در رشته Big Data می باشد . فایل PDF که توضیحات کامل داده شده رودر اختیارتون می زارم . اما یه توضیح مختصر اینجا خدمتتون می دم .
به طور کلی کل پروژه شما باید یه دیتا به سایز بین ۴۰۰ mb تا ۲gb انتخاب کنید . این دیتا رو شما با برنامه های Hadoop ، Impala ، Hive ، ایمپورت کنید و Unstructured دیتا رو با استفاده از Query های Sql انالیز کنید و همین طور با کمک spark RDD به Structured تبدیل کنید.
به طور کلی ۸-۱۰ تا query لازم هست که بیشتر ان ها باید در سطح پیشرفته باشه .
هر بخش به صورت جداگانه نمره داره و باید انجام بشه .
بعد از انجام این کار به ریپورت به صورت فایل HTML باید تبدیل بشه.
توسط خریدار:
پوریا حاجی شاه محمد
اطلاعات بیشتر:
https://parscoders.com/project/455339/یک-پروژه-در-big-data
t.me/ParscodersCom
پروژه spark
#help_do_something, #pyspark
سلام
من یک پروژه کلاسی دارم که باید با استفاده از spark و یا dask انجام بشه
یک سری عملیات هست که روی فایل csv با حجم بالا باید انجام بشه و باید
موازی سازی بکنیم
فایل راهنما و داده ها در فایل ارسالی وجود داره ممنون میشم بررسی کنید و اگر امکان انجامش رو دارید لطفا سریع اطلاع بدید
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/468560/پروژه-spark
t.me/ParscodersCom
#help_do_something, #pyspark
سلام
من یک پروژه کلاسی دارم که باید با استفاده از spark و یا dask انجام بشه
یک سری عملیات هست که روی فایل csv با حجم بالا باید انجام بشه و باید
موازی سازی بکنیم
فایل راهنما و داده ها در فایل ارسالی وجود داره ممنون میشم بررسی کنید و اگر امکان انجامش رو دارید لطفا سریع اطلاع بدید
توسط خریدار:
ایران کار
اطلاعات بیشتر:
https://parscoders.com/project/468560/پروژه-spark
t.me/ParscodersCom
فریلنسر باشید یا پروژه برونسپاری کنید - پارسکدرز
پروژه spark
سلام
من یک پروژه کلاسی دارم که باید با استفاده از spark و یا dask انجام بشه
یک سری عملیات هست که روی فایل csv با حجم بالا باید انجام بشه و باید
موازی سازی بکنیم
فایل راهنما و داده ها در فایل ارسالی وجود داره ممنون میشم بررسی کنید و اگر امکان انجامش رو…
من یک پروژه کلاسی دارم که باید با استفاده از spark و یا dask انجام بشه
یک سری عملیات هست که روی فایل csv با حجم بالا باید انجام بشه و باید
موازی سازی بکنیم
فایل راهنما و داده ها در فایل ارسالی وجود داره ممنون میشم بررسی کنید و اگر امکان انجامش رو…
32104 - پروژه درسی (Spark یا dask)
#electrical_engineering, #electronics, #pyspark
- مقطع : ارشد
- پروژه درسی با Spark و یا dask باید انجام بدم
- جزئیات پروژه را ضمیمه کردم
- فقط موازی سازی با dask و یا spark یکی از اینها باید انجام بشه. پروژه رو باید 4شنبه به استاد تحویل بدم
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/468324/32104-پروژه-درسی-spark-یا-dask
t.me/ParscodersCom
#electrical_engineering, #electronics, #pyspark
- مقطع : ارشد
- پروژه درسی با Spark و یا dask باید انجام بدم
- جزئیات پروژه را ضمیمه کردم
- فقط موازی سازی با dask و یا spark یکی از اینها باید انجام بشه. پروژه رو باید 4شنبه به استاد تحویل بدم
توسط خریدار:
مهندس خوب
اطلاعات بیشتر:
https://parscoders.com/project/468324/32104-پروژه-درسی-spark-یا-dask
t.me/ParscodersCom
اتوماسیون خانه هوشمند
#c_plus_plus_programming, #python, #iot, #pyspark
سلام
لطفا لینک زیر رو ببینید
https://www.instructables.com/IoT-Based-Home-Automation-Using-Sinric-Pro-Google-/
تمامی مشخصات کد ها و pcb و توضیحات داخلش هست فقط باید اجرا بشه
لطفا قیمت قطعات و دستمزد جداگانه بدید
5 عدد لازم دارم که همه بایستی بهم متصل باشند سنسور دما و رطوبت و گاز هم میخام داشته باشه
تعداد رله ها حداکثر تعداد ممکن در نظر گرفته بشه ، توی این سایت 4 عدد در نظر گرفته شده
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/484161/اتوماسیون-خانه-هوشمند
t.me/ParscodersCom
#c_plus_plus_programming, #python, #iot, #pyspark
سلام
لطفا لینک زیر رو ببینید
https://www.instructables.com/IoT-Based-Home-Automation-Using-Sinric-Pro-Google-/
تمامی مشخصات کد ها و pcb و توضیحات داخلش هست فقط باید اجرا بشه
لطفا قیمت قطعات و دستمزد جداگانه بدید
5 عدد لازم دارم که همه بایستی بهم متصل باشند سنسور دما و رطوبت و گاز هم میخام داشته باشه
تعداد رله ها حداکثر تعداد ممکن در نظر گرفته بشه ، توی این سایت 4 عدد در نظر گرفته شده
توسط خریدار:
روح اله شجاعی
اطلاعات بیشتر:
https://parscoders.com/project/484161/اتوماسیون-خانه-هوشمند
t.me/ParscodersCom
برنامه نویسی موازی با اسپارک
#hadoop, #parallels_automation, #python, #algorithm, #pyspark
سلام
توضیحات پروژه در فایل پیوست می باشد.
زمانئخیلی کمی دارم
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/494765/برنامه-نویسی-موازی-با-اسپارک
t.me/ParscodersCom
#hadoop, #parallels_automation, #python, #algorithm, #pyspark
سلام
توضیحات پروژه در فایل پیوست می باشد.
زمانئخیلی کمی دارم
توسط خریدار:
مهندس-709
اطلاعات بیشتر:
https://parscoders.com/project/494765/برنامه-نویسی-موازی-با-اسپارک
t.me/ParscodersCom
تغییر زمان بند تسک در Apache Spark
#matlab, #pyspark, #training, #troubleshooting
تغییر زمان بند تسک در Apache Spark هست.
برنامه Apache Spark یک چارچوب رایانش توزیعشده متنباز است.
زبان اصلی پیاده سازی برنامه آپاچی اسپارک اسکالا است.
زمانبندی تسک ها در آپاچی اسپارک به صورت دیفالت FIFO و Fair است.
در پروژه تعریف شده من می خواهم زمان بند تسک آپاچی اسپارک رو به یک زمان بند اولویت دار تغییر دهم.
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/512679/تغییر-زمان-بند-تسک-در-apache-spark
t.me/ParscodersCom
#matlab, #pyspark, #training, #troubleshooting
تغییر زمان بند تسک در Apache Spark هست.
برنامه Apache Spark یک چارچوب رایانش توزیعشده متنباز است.
زبان اصلی پیاده سازی برنامه آپاچی اسپارک اسکالا است.
زمانبندی تسک ها در آپاچی اسپارک به صورت دیفالت FIFO و Fair است.
در پروژه تعریف شده من می خواهم زمان بند تسک آپاچی اسپارک رو به یک زمان بند اولویت دار تغییر دهم.
توسط خریدار:
آکادمی مهرسام
اطلاعات بیشتر:
https://parscoders.com/project/512679/تغییر-زمان-بند-تسک-در-apache-spark
t.me/ParscodersCom
pyqt6 طراحی GUI برای یک کد
#python, #pyspark, #programming
من یک کد simulation python دارم میخواهم یک gui برای کدم طراحی کنم.
برای اطلاع از جزییات کار به من پیام بدهید
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/523657/pyqt6-طراحی-gui-برای-یک-کد
t.me/ParscodersCom
#python, #pyspark, #programming
من یک کد simulation python دارم میخواهم یک gui برای کدم طراحی کنم.
برای اطلاع از جزییات کار به من پیام بدهید
توسط خریدار:
کاربر614941
اطلاعات بیشتر:
https://parscoders.com/project/523657/pyqt6-طراحی-gui-برای-یک-کد
t.me/ParscodersCom
تمرین کلاسی big data
🔸 فوری
#linux, #word, #pyspark
تمرین کلاسیم هست و میخوام کامل بدون نقص انجام شه لطف کنید فقط کسی که کاملا تسلط داره قبول پروژه کنه 🙏
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/528562/تمرین-کلاسی-big-data
t.me/ParscodersCom
🔸 فوری
#linux, #word, #pyspark
تمرین کلاسیم هست و میخوام کامل بدون نقص انجام شه لطف کنید فقط کسی که کاملا تسلط داره قبول پروژه کنه 🙏
توسط خریدار:
کاربر514225
اطلاعات بیشتر:
https://parscoders.com/project/528562/تمرین-کلاسی-big-data
t.me/ParscodersCom
تمرین بیگ دیتا
#big_data, #hadoop, #linux, #python, #pyspark
لطفا کسی واقعا وارده کمک کنه برای حل قسمتهای عملی میخوام بدون نقص انجام شه و یک گزارش کامل میخوام به نمره ۱۰۰از ۱۰۰احتیاج دارم
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/542255/تمرین-بیگ-دیتا
t.me/ParscodersCom
#big_data, #hadoop, #linux, #python, #pyspark
لطفا کسی واقعا وارده کمک کنه برای حل قسمتهای عملی میخوام بدون نقص انجام شه و یک گزارش کامل میخوام به نمره ۱۰۰از ۱۰۰احتیاج دارم
توسط خریدار:
کاربر514225
اطلاعات بیشتر:
https://parscoders.com/project/542255/تمرین-بیگ-دیتا
t.me/ParscodersCom
تمرین بیگ دیتا
#dotnet, #javascript, #php, #python, #pyspark
تمرین کلاسیم هست گزارش و فایل های ضمیمه کامل
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/542367/تمرین-بیگ-دیتا
t.me/ParscodersCom
#dotnet, #javascript, #php, #python, #pyspark
تمرین کلاسیم هست گزارش و فایل های ضمیمه کامل
توسط خریدار:
کاربر514225
اطلاعات بیشتر:
https://parscoders.com/project/542367/تمرین-بیگ-دیتا
t.me/ParscodersCom
خزش وب - انجام تحلیل اکتشافی (exploratory) بر روی دو دادگان آماده شده
🔸 پروژه ویژه
#apache, #hadoop, #pyspark
۱- ایجاد یک مجموعه داده (دادگان) با استفاده از خزش وب در یک موضوع دلخواه شما (اخبار جنگ، اخبار ورزشی، آرشیو مقالات علمی دانشگاه، فهرست محصولات فناورانه در یک حوزه، ....)
می توانید از ابزارهای آماده
web crawler
برای این منظور استفاده کنید
۲- انتخاب یک مجموعه داده (دادگان) استاندارد مشابه با داده های جمع آوری شده از منابعی مانند
..., Kaggle, UCI Machine Learning Repository
۳- آماده سازی داده های فوق برای تحلیل
۴- راه اندازی یک چارچوب تحلیل کلان داده با استفاده از Spark و Hadoop
۵- انجام تحلیل اکتشافی (exploratory) بر روی دو دادگان آماده شده. برخی اقدامات عبارتند از
summary statistics, visualizations, correlations, ....
۶- نوشتن یک گزارش فنی کامل با جزئیات از کلیه اقدامات (گام به گام با اسکرین شات های مربوطه) و نتایج تحلیل ها و نتیجه گیری از تحلیل های انجام شده
توسط خریدار:
اطلاعات بیشتر:
https://parscoders.com/project/577082/خزش-وب-انجام-تحلیل-اکتشافی-exploratory-بر-روی-دو-دادگان-آماده-شده
t.me/ParscodersCom
🔸 پروژه ویژه
#apache, #hadoop, #pyspark
۱- ایجاد یک مجموعه داده (دادگان) با استفاده از خزش وب در یک موضوع دلخواه شما (اخبار جنگ، اخبار ورزشی، آرشیو مقالات علمی دانشگاه، فهرست محصولات فناورانه در یک حوزه، ....)
می توانید از ابزارهای آماده
web crawler
برای این منظور استفاده کنید
۲- انتخاب یک مجموعه داده (دادگان) استاندارد مشابه با داده های جمع آوری شده از منابعی مانند
..., Kaggle, UCI Machine Learning Repository
۳- آماده سازی داده های فوق برای تحلیل
۴- راه اندازی یک چارچوب تحلیل کلان داده با استفاده از Spark و Hadoop
۵- انجام تحلیل اکتشافی (exploratory) بر روی دو دادگان آماده شده. برخی اقدامات عبارتند از
summary statistics, visualizations, correlations, ....
۶- نوشتن یک گزارش فنی کامل با جزئیات از کلیه اقدامات (گام به گام با اسکرین شات های مربوطه) و نتایج تحلیل ها و نتیجه گیری از تحلیل های انجام شده
توسط خریدار:
کاربر395589
اطلاعات بیشتر:
https://parscoders.com/project/577082/خزش-وب-انجام-تحلیل-اکتشافی-exploratory-بر-روی-دو-دادگان-آماده-شده
t.me/ParscodersCom