Forwarded from Pythonic AI (Soroush Hashemi Far)
Keras for Beginners: Building Your First Neural Network
A beginner-friendly guide on using Keras to implement a simple neural network in python.
لینک
#python #keras #machinelearning #neural #network #deeplearning
@pythonicAI
A beginner-friendly guide on using Keras to implement a simple neural network in python.
لینک
#python #keras #machinelearning #neural #network #deeplearning
@pythonicAI
Forwarded from جادی، کیبورد آزاد - Jadi
توسعه دهنده مایکروسافت فاش کرد که حتی روی آژر هم لینوکس بیشتر از ویندوز سرور استفاده می شه
https://jadi.net/2019/07/linux-azure/
سه سال و نیم قبل، سی تی او آژر – کلاود مایکروسافت – گفته بود که «یک چهارم ماشین های آژر لینوکس هستند». بعد توی سال ۲۰۱۷ مایکروسافت گفت که ۴۰٪ ماشین های مجازی ساخته شده روی آژر، لینوکس هستند. در ۲۰۱۸ اعلام شد که این عدد تقریبا نصف ماشین ها است و حالا ساشا لوین که توسعه دهنده کرنل لینوکس در مایکروسافت است، در درخواست خودش برای عضویت مایکروسافت در لیست سکیوریتی کرنل لینوکس، نوشته که «استفاده از لینوکس در کلاود ما از ویندوز بیشتر شده».
البته این کاملا قابل پیش بینی بود اما کماکان اتفاق افتادنش جالبه. لینوکس به هرحال اکثریت اینترنت رو میچرخونه و استفاده از سرور ویندوز هم همه این سالها در حال افول بوده.
معاون رییس اجرایی مایکروسافت اسکات گوتهری می گه که لینوکس هر ماه داره بالاتر میاد و برخی از سرویس های آژر اصولا با لینوکس درست شدن. اون می گه از ده سال قبل که ASP.NET بازمتن شد، فهمیدن که هر توسعه دهنده ای می تونه از بازمتن بهره ببره،نه به عنوان چیزی خوب که به عنوان موضوعی لازم. اون می گه این بحث کد نیست، بحث جامعه است. در نهایت هم اضافه می کنه که به اعتقادش الان مایکروسافت بزرگترین پشتیبان پروژه بازمتن در جهان است.
https://jadi.net/2019/07/linux-azure/
سه سال و نیم قبل، سی تی او آژر – کلاود مایکروسافت – گفته بود که «یک چهارم ماشین های آژر لینوکس هستند». بعد توی سال ۲۰۱۷ مایکروسافت گفت که ۴۰٪ ماشین های مجازی ساخته شده روی آژر، لینوکس هستند. در ۲۰۱۸ اعلام شد که این عدد تقریبا نصف ماشین ها است و حالا ساشا لوین که توسعه دهنده کرنل لینوکس در مایکروسافت است، در درخواست خودش برای عضویت مایکروسافت در لیست سکیوریتی کرنل لینوکس، نوشته که «استفاده از لینوکس در کلاود ما از ویندوز بیشتر شده».
البته این کاملا قابل پیش بینی بود اما کماکان اتفاق افتادنش جالبه. لینوکس به هرحال اکثریت اینترنت رو میچرخونه و استفاده از سرور ویندوز هم همه این سالها در حال افول بوده.
معاون رییس اجرایی مایکروسافت اسکات گوتهری می گه که لینوکس هر ماه داره بالاتر میاد و برخی از سرویس های آژر اصولا با لینوکس درست شدن. اون می گه از ده سال قبل که ASP.NET بازمتن شد، فهمیدن که هر توسعه دهنده ای می تونه از بازمتن بهره ببره،نه به عنوان چیزی خوب که به عنوان موضوعی لازم. اون می گه این بحث کد نیست، بحث جامعه است. در نهایت هم اضافه می کنه که به اعتقادش الان مایکروسافت بزرگترین پشتیبان پروژه بازمتن در جهان است.
جادی دات نت | کیبرد آزاد
توسعه دهنده مایکروسافت فاش کرد که حتی روی آژر هم لینوکس بیشتر از ویندوز سرور استفاده می شه
سه سال و نیم قبل، سی تی او آژر – کلاود مایکروسافت – گفته بود که «یک چهارم ماشین های آژر لینوکس هستند». بعد توی سال ۲۰۱۷ مایکروسافت گفت که ۴۰٪ ماشین های مجازی ساخته شده روی آژر، لینوکس هستند. در ۲۰۱۸ اعلام شد که این عدد تقریبا نصف ماشین ها است و حالا ساشا…
Forwarded from جادی، کیبورد آزاد - Jadi
Media is too big
VIEW IN TELEGRAM
دزدی هویت خیلی مرسوم شده، یکی خودش رو جای کس دیگه جا میزنه و سر کسی رو کاخ میذاره. نمونه های مرسوم دنیای دیجیتال معمولا با ایمیل و اسمس و پیامرسانها اتفاق میافتن اما یه کلاه بردار تو فرانسه ایده فوق العاده ای زده که براش ۸۰ میلیون یورو پول آورده، و البته میله های زندان رو. ببینین چطوری.
Forwarded from AI, Python, Cognitive Neuroscience (Farzad)
This media is not supported in your browser
VIEW IN TELEGRAM
Prof. Chris Manning, Director of StanfordAILab & founder of Stanfordnlp, shared inspiring thoughts on research trends and challenges in #computervision and #NLP at #CVPR2019. View full interview:
http://bit.ly/2KR21hO
✴️ @AI_Python_EN
http://bit.ly/2KR21hO
✴️ @AI_Python_EN
تفاوت بین مهندس داده، تحلیلگر داده و دانشمند داده؟
در کنفرانس زنان میدان سیلیکون لندن، دکتر ربکا پوپ، نورو ساینتیست و سرپرست تیم دیتا ساینس KPMG، بیان میکند که شما جهت کار کردن در حوزه بیگ دیتا نیازی نیست که یک ریاضیدان یا آماردان فوق العاده و یا یک برنامه نویس باشید. فقط کافیست به آمار علاقه داشته باشید و همچنین تلاش کافی برای یادگیری کدنویسی داشته باشید و همچنین بتوانید برخی عملیاتهای ریاضی سطح بالا را انجام دهید.
پوپ خودش هیچگاه آمار خالص را مطالعه نکرده و همچنین برنامه نویسی را بعد از فارغ التحصیلی یاد گرفته! همچنین میگوید: من زبان R را یادگرفتم ولی اگر میخواهید شغلی در دیتا ساینس داشته باشید، باید در پایتون متخصص شوید. پایتون را زبان اول خود کنید.
یک آماردان مدلی ارائه میدهد که رابطه ای بین یک متغیر و یک خروجی میسازد. اما یک دیتا ساینتیست، کار بیشتری نسبت به آن انجام میدهد: پیشبینی! دیتاساینتیست ها مدلهایی روی دیتا اموزش میدهند که بتواند دیتاهای آینده را با حداکثر دقت پیشبینی کند.
#part1
#machinelearning #data #science #engineer #bigdata #science
@pythonicAI
در کنفرانس زنان میدان سیلیکون لندن، دکتر ربکا پوپ، نورو ساینتیست و سرپرست تیم دیتا ساینس KPMG، بیان میکند که شما جهت کار کردن در حوزه بیگ دیتا نیازی نیست که یک ریاضیدان یا آماردان فوق العاده و یا یک برنامه نویس باشید. فقط کافیست به آمار علاقه داشته باشید و همچنین تلاش کافی برای یادگیری کدنویسی داشته باشید و همچنین بتوانید برخی عملیاتهای ریاضی سطح بالا را انجام دهید.
پوپ خودش هیچگاه آمار خالص را مطالعه نکرده و همچنین برنامه نویسی را بعد از فارغ التحصیلی یاد گرفته! همچنین میگوید: من زبان R را یادگرفتم ولی اگر میخواهید شغلی در دیتا ساینس داشته باشید، باید در پایتون متخصص شوید. پایتون را زبان اول خود کنید.
یک آماردان مدلی ارائه میدهد که رابطه ای بین یک متغیر و یک خروجی میسازد. اما یک دیتا ساینتیست، کار بیشتری نسبت به آن انجام میدهد: پیشبینی! دیتاساینتیست ها مدلهایی روی دیتا اموزش میدهند که بتواند دیتاهای آینده را با حداکثر دقت پیشبینی کند.
#part1
#machinelearning #data #science #engineer #bigdata #science
@pythonicAI
کار مهندس داده
با توجه به نمودار بالا، میبینیم که بیشتر کار مهندس داده، مهندسی نرم افزار و آماده سازی داده است.
پوپ میگوید کار مهندس داده، ارائه و تغییر دیتا به گونه ای که قابل استفاده شود، میباشد. باید دیتای خام را بگیرد، تمیز کند، وارد دیتابیس کند، تگ بزند و انرا برای مراحل بعدی اماده کند.
مهارتهای لازم:
Apache Spark, Scala, Docker, Java, Hadoop, and Kubernetes NiFI
#part2
#machinelearning #data #science #engineer #bigdata #science
@pythonicAI
با توجه به نمودار بالا، میبینیم که بیشتر کار مهندس داده، مهندسی نرم افزار و آماده سازی داده است.
پوپ میگوید کار مهندس داده، ارائه و تغییر دیتا به گونه ای که قابل استفاده شود، میباشد. باید دیتای خام را بگیرد، تمیز کند، وارد دیتابیس کند، تگ بزند و انرا برای مراحل بعدی اماده کند.
مهارتهای لازم:
Apache Spark, Scala, Docker, Java, Hadoop, and Kubernetes NiFI
#part2
#machinelearning #data #science #engineer #bigdata #science
@pythonicAI
کار تحلیلگر داده
کار وی، مواجهه با کسب و کار است تا نیاز کسب و کار به دیتا را مشخص کند و همچنین visualization هایی آماده کند که به کسب و کار در درک دیتا کمک کند.
پوپ میگوید: کار تحلیلگر داده، تفسیر اطلاعات برای استفاده آن در کسب و کار است. این شغل کمتر با ماشین لرنینگ در ارتباط است.
مهارتهای لازم:
RapidMiner, PostgreSQL
#part3
#machinelearning #data #science #engineer #bigdata #science
@pythonicAI
کار وی، مواجهه با کسب و کار است تا نیاز کسب و کار به دیتا را مشخص کند و همچنین visualization هایی آماده کند که به کسب و کار در درک دیتا کمک کند.
پوپ میگوید: کار تحلیلگر داده، تفسیر اطلاعات برای استفاده آن در کسب و کار است. این شغل کمتر با ماشین لرنینگ در ارتباط است.
مهارتهای لازم:
RapidMiner, PostgreSQL
#part3
#machinelearning #data #science #engineer #bigdata #science
@pythonicAI
کار دیتاساینتیست
دیتاساینتیست ها به شدت با کسب و کار درگیر هستند و با مهندسان داده کار میکنند. آنها مدلهای یادگیری ماشین را روی داده های اماده شده اموزش میدهند.
پوپ میگوید: نقش دیتاساینتیست، ساختن مدلها برای استخراج اطلاعات از دیتا و ارائه توصیه هایی مرتبط با کسب و کار است. دیتاساینتیست ها باید آمار را بفهمند اما بیشتر الگوریتم های ماشین لرنینگ براساس ریاضیات چندمتغیره و جبرخطی و غیرخطی بنا شده. تنها در همین حد ریاضیات لازم است.
#part4
#machinelearning #data #science #engineer #bigdata #science
@pythonicAI
دیتاساینتیست ها به شدت با کسب و کار درگیر هستند و با مهندسان داده کار میکنند. آنها مدلهای یادگیری ماشین را روی داده های اماده شده اموزش میدهند.
پوپ میگوید: نقش دیتاساینتیست، ساختن مدلها برای استخراج اطلاعات از دیتا و ارائه توصیه هایی مرتبط با کسب و کار است. دیتاساینتیست ها باید آمار را بفهمند اما بیشتر الگوریتم های ماشین لرنینگ براساس ریاضیات چندمتغیره و جبرخطی و غیرخطی بنا شده. تنها در همین حد ریاضیات لازم است.
#part4
#machinelearning #data #science #engineer #bigdata #science
@pythonicAI
Forwarded from Linux & OpenSource (299 792 458)
⚜GreenTunnel
@UseLinux
ابزار GreenTunnel که با مکانیزمی جالب می تواند ساختار DPI شرکت های ارائه دهنده اینترنت را که برای بلاک کردن ترافیک خاص مورد استفاده قرار می گیرد،دور بزند.
➡️Download From Github
@UseLinux
@UseLinux
ابزار GreenTunnel که با مکانیزمی جالب می تواند ساختار DPI شرکت های ارائه دهنده اینترنت را که برای بلاک کردن ترافیک خاص مورد استفاده قرار می گیرد،دور بزند.
➡️Download From Github
@UseLinux
Forwarded from جادی، کیبورد آزاد - Jadi
آمازون به دنبال گذاشتن ۳۲۳۶ ماهواره اینترنتی در مدار زمین
https://jadi.net/2019/07/amazon-kulper/
شرکت آمازون از کمیسیون ارتباطات فدرال آمریکا (FCC) درخواست کرده تا اجازه بده که ۳۲۳۶ ماهواره رو در مدار زمین قرار بده! این ماهوارهها که به اسم رمز «پروژه کولپر (Kulper) شناخته میشن قراره به ده ها میلیون نفر از مردم جهان که دسترسی محدودی به اینترنت دارن، امکان برقراری ارتباط با این شبکه رو بده.
قبلا شرکت آمازون اشاره های به این پروژه کرده بود ولی هیچ وقت توضیحی در موردش نداده بود ولی حالا که مجبوره به FCC توضیح بده، به نظر می رسه به دنبال گذاشتن هزاران ماهواره در مدار پایین و ارائه اینترنت پر سرعت و با تاخیرکم به مردم است. آمازون از شرکت هایی که هدف مشابه دارن خواسته در پروژه همکاری کنه.
چنین پروژههایی جدید نیستن. قبلا هم گوگل و فیبسوک برنامههایی مشابهی رو شروع کرده بود ولی اینبار احتمالا نزدیکی آمازون به شرکت فضایی بلو اوریجین (که توسط جف بزوس تاسیس شده) می تونه کمکی بهتر به اجرای این برنامه باشه. ما هم که مثل همیشه در ایران منتظریم ببینیم آیا ناجی ای پیدا می شه بالاخره به ما اینترنت بدون فیلتر تقدیم کنه یا نه (:
https://jadi.net/2019/07/amazon-kulper/
شرکت آمازون از کمیسیون ارتباطات فدرال آمریکا (FCC) درخواست کرده تا اجازه بده که ۳۲۳۶ ماهواره رو در مدار زمین قرار بده! این ماهوارهها که به اسم رمز «پروژه کولپر (Kulper) شناخته میشن قراره به ده ها میلیون نفر از مردم جهان که دسترسی محدودی به اینترنت دارن، امکان برقراری ارتباط با این شبکه رو بده.
قبلا شرکت آمازون اشاره های به این پروژه کرده بود ولی هیچ وقت توضیحی در موردش نداده بود ولی حالا که مجبوره به FCC توضیح بده، به نظر می رسه به دنبال گذاشتن هزاران ماهواره در مدار پایین و ارائه اینترنت پر سرعت و با تاخیرکم به مردم است. آمازون از شرکت هایی که هدف مشابه دارن خواسته در پروژه همکاری کنه.
چنین پروژههایی جدید نیستن. قبلا هم گوگل و فیبسوک برنامههایی مشابهی رو شروع کرده بود ولی اینبار احتمالا نزدیکی آمازون به شرکت فضایی بلو اوریجین (که توسط جف بزوس تاسیس شده) می تونه کمکی بهتر به اجرای این برنامه باشه. ما هم که مثل همیشه در ایران منتظریم ببینیم آیا ناجی ای پیدا می شه بالاخره به ما اینترنت بدون فیلتر تقدیم کنه یا نه (:
جادی دات نت | کیبرد آزاد
آمازون به دنبال گذاشتن ۳۲۳۶ ماهواره اینترنتی در مدار زمین
شرکت آمازون از کمیسیون ارتباطات فدرال آمریکا (FCC) درخواست کرده تا اجازه بده که ۳۲۳۶ ماهواره رو در مدار زمین قرار بده! این ماهوارهها که به اسم رمز «پروژه کولپر (Kulper) شناخته میشن قراره به ده ها میلیون نفر از مردم جهان که دسترسی محدودی به اینترنت دارن،…
Pythonic AI
کار مهندس داده با توجه به نمودار بالا، میبینیم که بیشتر کار مهندس داده، مهندسی نرم افزار و آماده سازی داده است. پوپ میگوید کار مهندس داده، ارائه و تغییر دیتا به گونه ای که قابل استفاده شود، میباشد. باید دیتای خام را بگیرد، تمیز کند، وارد دیتابیس کند، تگ…
مهندسین داده، درواقع زیر ساخت های اطلاعاتی ای را میسازند که پروژه های دیتاساینس به آنها وابسته است. این افراد مسئول طراحی و مدیریت جریان داده هایی هستند که از منابع مختلف جمع آوری شده و در یک مخزن، مانند data warehouse یکپارچه میشوند تا بعدا توسط دیتاساینتیست ها تحلیل شوند. بطور کلی، مهندسین داده براساس مدل ETL کار میکنند.
ETL: Extract, Transform, Load
نقش های مختلف مهندسی داده:
- آرشیتکت داده
پایه و اساس سیستم های مدیریت داده جهت وارد کردن، یکپارچه سازی و نگهداری منابع داده را فراهم میکند.
- ادمین دیتابیس
همانطور که از اسمش پیداست باید اطلاعات عمیقی از دیتابیس ها داشته باشد.
- مهندس داده
باید اطلاعاتی از دیتابیس ها، زبانهایی مانند پایتون و جاوا و سیستم های توزیع شده (مانند هدوپ) و... داشته باشد. درواثع ترکیبی از تمام نقش ها در یک نقش است.
ابزارهای موردنیاز مهندس داده:
Apache Hadoop
فریم ورکی جهت مرتب سازی و پردازش حجم زیادی از اطلاعات بصورت توزیع شده
Apache Spark
پلتفرم پردازش داده جهت پردازش جریان real-time و همچنین پردازش بصورت batch. این پلتفرم api هایی برای زبانهای پایتون، R، جاوا و اسکالا دارد.
Apache Kafka
ابزاری قدرتمند جهت جمع آوری و وارد کردن سریع جریان داده ها به سیستمی مانند هدوپ
SQL & NoSQL
دیتابیس های رابطه ای و غیر رابطه ای
زبانهای برنامه نویسی موردنیاز مهندس داده:
پایتون، جاوا، اسکالا scala، جولیا julia
#data #engineer #machinelearning #hadoop #kafka #scala #python #julia
@pythonicAI
ETL: Extract, Transform, Load
نقش های مختلف مهندسی داده:
- آرشیتکت داده
پایه و اساس سیستم های مدیریت داده جهت وارد کردن، یکپارچه سازی و نگهداری منابع داده را فراهم میکند.
- ادمین دیتابیس
همانطور که از اسمش پیداست باید اطلاعات عمیقی از دیتابیس ها داشته باشد.
- مهندس داده
باید اطلاعاتی از دیتابیس ها، زبانهایی مانند پایتون و جاوا و سیستم های توزیع شده (مانند هدوپ) و... داشته باشد. درواثع ترکیبی از تمام نقش ها در یک نقش است.
ابزارهای موردنیاز مهندس داده:
Apache Hadoop
فریم ورکی جهت مرتب سازی و پردازش حجم زیادی از اطلاعات بصورت توزیع شده
Apache Spark
پلتفرم پردازش داده جهت پردازش جریان real-time و همچنین پردازش بصورت batch. این پلتفرم api هایی برای زبانهای پایتون، R، جاوا و اسکالا دارد.
Apache Kafka
ابزاری قدرتمند جهت جمع آوری و وارد کردن سریع جریان داده ها به سیستمی مانند هدوپ
SQL & NoSQL
دیتابیس های رابطه ای و غیر رابطه ای
زبانهای برنامه نویسی موردنیاز مهندس داده:
پایتون، جاوا، اسکالا scala، جولیا julia
#data #engineer #machinelearning #hadoop #kafka #scala #python #julia
@pythonicAI
Pythonic AI
مهندسین داده، درواقع زیر ساخت های اطلاعاتی ای را میسازند که پروژه های دیتاساینس به آنها وابسته است. این افراد مسئول طراحی و مدیریت جریان داده هایی هستند که از منابع مختلف جمع آوری شده و در یک مخزن، مانند data warehouse یکپارچه میشوند تا بعدا توسط دیتاساینتیست…
برخی منابع مفید یادگیری مهندسی داده:
📙 مهندسی داده:
لینک۱
لینک۲
لینک۳
📕 پایتون
لینک۱
لینک۲
لینک۳
📗 سیستم عامل
لینک۱
لینک۲
📘 دیتابیس
لینک۱
لینک۲
لینک۳
لینک۴
لینک۵
لینک۶
لینک۷
لینک۸
لینک۹
لینک۱۰
📙 data warehouse / big data
لینک۱
لینک۲
لینک۳
لینک۴
لینک۵
لینک۶
لینک۷
لینک۸
لینک۹
لینک۱۰
لینک۱۱
لینک۱۲
📕 یادگیری ماشین
لینک۱
لینک۲
لینک۳
#hadoop #spark #python #machinelearning #data #engineer #resource
@pythonicAI
📙 مهندسی داده:
لینک۱
لینک۲
لینک۳
📕 پایتون
لینک۱
لینک۲
لینک۳
📗 سیستم عامل
لینک۱
لینک۲
📘 دیتابیس
لینک۱
لینک۲
لینک۳
لینک۴
لینک۵
لینک۶
لینک۷
لینک۸
لینک۹
لینک۱۰
📙 data warehouse / big data
لینک۱
لینک۲
لینک۳
لینک۴
لینک۵
لینک۶
لینک۷
لینک۸
لینک۹
لینک۱۰
لینک۱۱
لینک۱۲
📕 یادگیری ماشین
لینک۱
لینک۲
لینک۳
#hadoop #spark #python #machinelearning #data #engineer #resource
@pythonicAI
Medium
A Beginner’s Guide to Data Engineering — Part I
Data Engineering: The Close Cousin of Data Science
تعدادی از منابع خوب در زمینه پردازش زبان طبیعی و پردازش متن:
1. Natural Language Processing with Python. by Steven Bird, Ewan Klein and Edward Loper.
2. Foundations of Statistical Natural Language Processing. by Christopher Manning and Hinrich Schütze.
3. Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics and Speech Recognition. by Dan Jurafsky and James H. Martin
4. The Oxford Handbook of Computational Linguistics. by Ruslan Mitkov
5. Text Mining with R. by Julia Silge and David Robinson.
6. Neural Network Methods in Natural Language Processing (Synthesis Lectures on Human Language Technologies). by Yoav Goldberg , Graeme Hirst
7. Taming Text. by Grant Ingersoll, Thomas Morton and Drew Farris.
8. Deep Learning in Natural Language Processing. by Li Deng, Yang Liu
9. Applied Text Analysis with Python: Enabling Language-Aware Data Products with Machine Learning. by Benjamin Bengfort , Rebecca Bilbro , Tony Ojeda
10. Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build
#nlp #natural #language #process #machinelearning #deeplearning #text
@pythonicAI
1. Natural Language Processing with Python. by Steven Bird, Ewan Klein and Edward Loper.
2. Foundations of Statistical Natural Language Processing. by Christopher Manning and Hinrich Schütze.
3. Speech and Language Processing: An Introduction to Natural Language Processing, Computational Linguistics and Speech Recognition. by Dan Jurafsky and James H. Martin
4. The Oxford Handbook of Computational Linguistics. by Ruslan Mitkov
5. Text Mining with R. by Julia Silge and David Robinson.
6. Neural Network Methods in Natural Language Processing (Synthesis Lectures on Human Language Technologies). by Yoav Goldberg , Graeme Hirst
7. Taming Text. by Grant Ingersoll, Thomas Morton and Drew Farris.
8. Deep Learning in Natural Language Processing. by Li Deng, Yang Liu
9. Applied Text Analysis with Python: Enabling Language-Aware Data Products with Machine Learning. by Benjamin Bengfort , Rebecca Bilbro , Tony Ojeda
10. Hands-On Machine Learning with Scikit-Learn and TensorFlow: Concepts, Tools, and Techniques to Build
#nlp #natural #language #process #machinelearning #deeplearning #text
@pythonicAI
چند وبسایت جهت دریافت رایگان پایان نامه های خارجی:
http://oaktrust.library.tamu.edu
http://www.diva-portal.org
http://dspace.mit.edu
http://www.essays.se
http://www.dart-europe.eu
@pythonicAI
http://oaktrust.library.tamu.edu
http://www.diva-portal.org
http://dspace.mit.edu
http://www.essays.se
http://www.dart-europe.eu
@pythonicAI
www.essays.se
ESSAYS.SE: Swedish university essays
Search and download thousands of Swedish university essays. In full text. And free of charge.
Forwarded from Machine learning application (Kartal)
#معرفی_اعضای_کانال
#آموزش
#پروژه_دیپ_لرنینگ
#دیپ_لرنینگ
اعضا: سروش معاضد، دانشجوی ترم آخر کارشناسی ارشد، دانشکده مهندسی پزشکی دانشگاه امیرکبیر
@Machinelearning_Kartal
تشریح کار و پروژه ای که انجام داده اند.
🌿🌿🌿💭💭💭🌹🌹🌹
اگر بخواهید چهره کسی را برای دوست خود توصیف کنید، از کنار هم قرار دادن برخی ویژگیها استفاده میکنید تا دوست شما بتواند آن چهره را مجسم کند: “مرد” “جوان”ی با “موهای سیاه” و “بینی نوک تیز” و ... آیا میتوان مدلی داشت که بتواند تصاویر چهره را توسط این ویژگیهای ظاهری بازنمایی کند؟
@Machinelearning_Kartal
مدلهای معروف به Variational Auto-Encoder یا به اصطلاح VAE مدلهایی هستند که توزیع آماری داده را مدل میکنند. در تصاویر، برای مدلسازی توزیع آماری پیکسلها و پیوستگی بینشان، از شبکه های عصبی کانوولوشنال استفاده میشود. مدلهای ابتدایی VAE به عنوان تابع هزینه از اختلاف دو به دو بین تصاویر تولید شده در خروجی و تصاویر اصلی استفاده میکردند که به همین علت کیفیت تصاویر تولیدی چشمگیر نبود. در شبکه Deep Feature Consistent VAE به جای محاسبه اختلاف دو به دو بین پیکسلها، اختلاف بین بازنمایی تولید شده توسط یک شبکه از پیش تعلیم داده شده مانند VGG19 از تصویر تولید شده و تصویر اصلی به عنوان تابع هزینه در نظر گرفته میشود. در این صورت کیفیت تصاویر تولیدی به مراتب افزایش می یابد و از طرفی به خاطر مدلسازی دقیقتر توزیع داده ها، میتوان بردارهایی برای برخی ویژگیها استخراج نمود.
@Machinelearning_Kartal
به عنوان مثال، اگر تصاویر چهره “خندان” توسط قسمت انکودر مدل کدگذاری شوند و از این بردارها میانگین بگیریم، به یک بردار “خنده” میرسیم که با اضافه کردن این بردار به بردار تولید شده برای یک چهره و سپس بازسازی توسط قسمت دیکودر مدل، خنده به چهره اضافه خواهد شد.
@Machinelearning_Kartal
میتوانید با باز کردن نوتبوک قرار داده شده در مخزن مورد نظر، و اجرای خط به خط کدها، به سادگی طی چندین ساعت مدل خود را تعلیم داده و به دستکاری چهره دوستان خود بپردازید :)
منبع نوشته: ارسالی از خود عضو محترم.
لینک پروژه :
https://github.com/iamsoroush/face_vae/blob/master/README.md
کانال
@Machinelearning_Kartal
#آموزش
#پروژه_دیپ_لرنینگ
#دیپ_لرنینگ
اعضا: سروش معاضد، دانشجوی ترم آخر کارشناسی ارشد، دانشکده مهندسی پزشکی دانشگاه امیرکبیر
@Machinelearning_Kartal
تشریح کار و پروژه ای که انجام داده اند.
🌿🌿🌿💭💭💭🌹🌹🌹
اگر بخواهید چهره کسی را برای دوست خود توصیف کنید، از کنار هم قرار دادن برخی ویژگیها استفاده میکنید تا دوست شما بتواند آن چهره را مجسم کند: “مرد” “جوان”ی با “موهای سیاه” و “بینی نوک تیز” و ... آیا میتوان مدلی داشت که بتواند تصاویر چهره را توسط این ویژگیهای ظاهری بازنمایی کند؟
@Machinelearning_Kartal
مدلهای معروف به Variational Auto-Encoder یا به اصطلاح VAE مدلهایی هستند که توزیع آماری داده را مدل میکنند. در تصاویر، برای مدلسازی توزیع آماری پیکسلها و پیوستگی بینشان، از شبکه های عصبی کانوولوشنال استفاده میشود. مدلهای ابتدایی VAE به عنوان تابع هزینه از اختلاف دو به دو بین تصاویر تولید شده در خروجی و تصاویر اصلی استفاده میکردند که به همین علت کیفیت تصاویر تولیدی چشمگیر نبود. در شبکه Deep Feature Consistent VAE به جای محاسبه اختلاف دو به دو بین پیکسلها، اختلاف بین بازنمایی تولید شده توسط یک شبکه از پیش تعلیم داده شده مانند VGG19 از تصویر تولید شده و تصویر اصلی به عنوان تابع هزینه در نظر گرفته میشود. در این صورت کیفیت تصاویر تولیدی به مراتب افزایش می یابد و از طرفی به خاطر مدلسازی دقیقتر توزیع داده ها، میتوان بردارهایی برای برخی ویژگیها استخراج نمود.
@Machinelearning_Kartal
به عنوان مثال، اگر تصاویر چهره “خندان” توسط قسمت انکودر مدل کدگذاری شوند و از این بردارها میانگین بگیریم، به یک بردار “خنده” میرسیم که با اضافه کردن این بردار به بردار تولید شده برای یک چهره و سپس بازسازی توسط قسمت دیکودر مدل، خنده به چهره اضافه خواهد شد.
@Machinelearning_Kartal
میتوانید با باز کردن نوتبوک قرار داده شده در مخزن مورد نظر، و اجرای خط به خط کدها، به سادگی طی چندین ساعت مدل خود را تعلیم داده و به دستکاری چهره دوستان خود بپردازید :)
منبع نوشته: ارسالی از خود عضو محترم.
لینک پروژه :
https://github.com/iamsoroush/face_vae/blob/master/README.md
کانال
@Machinelearning_Kartal
GitHub
face_vae/README.md at master · iamsoroush/face_vae
Implementation of Variational Auto-Encoder (VAE) and Deep Feature Consistent VAE for facial attribute manipulation using Keras and Tensorflow-dataset module. - face_vae/README.md at master · iamsor...
Pythonic AI
کار تحلیلگر داده کار وی، مواجهه با کسب و کار است تا نیاز کسب و کار به دیتا را مشخص کند و همچنین visualization هایی آماده کند که به کسب و کار در درک دیتا کمک کند. پوپ میگوید: کار تحلیلگر داده، تفسیر اطلاعات برای استفاده آن در کسب و کار است. این شغل کمتر با…
تحلیلگر داده کسی است که اعداد و دیتا را به زبان آدمیزاد تبدیل میکند تا کسب و کارها بتوانند به کمک انها تصمیم بگیرند. خواه دیتای مربوط به مارکتینگ باشد، یا اَشکال فروش یا هزینه های حمل و نقل و... تحلیلگر داده این دیتاها را گرفته و از دل آنها اطلاعاتی بیرون میکشد. مثلا اینکه قیمت مواد جدید چقدر باشد؟ یا چطور هزینه حمل و نقل را کاهش دهند؟
انها وضعیت فعلی را تحلیل میکنند و پیشبینی هایی از اینده ارائه میدهند. دیتا باید مرتب، نرمالیزه و کالیبره بشه تا بشه ازش اطلاعات استخراج کرد یا به تنهایی ازش استفاده کرد یا درکنار اعداد دیگر قرارش داد و همچنان یکپارچگی خودش را حفظ کند.
تحلیلگر داده علاوه بر توانایی رمزگشایی داده، لازم است که بتواند معانی تغییرات اعداد در یک بازه زمانی یا ساختارهای مختلف را توضیح دهد. چون انها تنها افرادی هستند که درک خوبی از داده پیدا کرده اند و معمولا باید به مدیران پروژه یا سرپرست بخش توصیه هایی درخصوص نقاط خاص دیتا و همچنین نحوه بهبود داده ها در یک بازه زمانی، بدهند.
وظایف یک تحلیلگر داده:
- کار کردن با تیم های مدیریتی و دیتاساینتیست ها
- جمع اوری دیتا از منابع اولیه و ثانویه
- تمیز کردن داده ها جهت حذف اطلاعات نامرتبط
- تحلیل و تفسیر نتایج به کمک ابزارهای اماری
- تعیین الگوهای موجود در داده ها
- شناسایی موقعیت های بهبود پروسه ها و رویه ها
- ارائه گزارش داده ها به مدیر
- طراحی، ساخت و نگهداری دیتابیس ها
- رفع ایرادات کدها و مسائل مربوط به داده ها
اهداف تحلیلگر داده و دیتاساینتیست خیلی بهم نزدیک است. گاهی اوقات به تحلیلگر داده، junior data scientist گفته میشود.
#data #analyst #scientist #artificialintelligence
@pythonicAI
انها وضعیت فعلی را تحلیل میکنند و پیشبینی هایی از اینده ارائه میدهند. دیتا باید مرتب، نرمالیزه و کالیبره بشه تا بشه ازش اطلاعات استخراج کرد یا به تنهایی ازش استفاده کرد یا درکنار اعداد دیگر قرارش داد و همچنان یکپارچگی خودش را حفظ کند.
تحلیلگر داده علاوه بر توانایی رمزگشایی داده، لازم است که بتواند معانی تغییرات اعداد در یک بازه زمانی یا ساختارهای مختلف را توضیح دهد. چون انها تنها افرادی هستند که درک خوبی از داده پیدا کرده اند و معمولا باید به مدیران پروژه یا سرپرست بخش توصیه هایی درخصوص نقاط خاص دیتا و همچنین نحوه بهبود داده ها در یک بازه زمانی، بدهند.
وظایف یک تحلیلگر داده:
- کار کردن با تیم های مدیریتی و دیتاساینتیست ها
- جمع اوری دیتا از منابع اولیه و ثانویه
- تمیز کردن داده ها جهت حذف اطلاعات نامرتبط
- تحلیل و تفسیر نتایج به کمک ابزارهای اماری
- تعیین الگوهای موجود در داده ها
- شناسایی موقعیت های بهبود پروسه ها و رویه ها
- ارائه گزارش داده ها به مدیر
- طراحی، ساخت و نگهداری دیتابیس ها
- رفع ایرادات کدها و مسائل مربوط به داده ها
اهداف تحلیلگر داده و دیتاساینتیست خیلی بهم نزدیک است. گاهی اوقات به تحلیلگر داده، junior data scientist گفته میشود.
#data #analyst #scientist #artificialintelligence
@pythonicAI
📕 یادگیری ماشین با متلب | نسخه دوم
📅سال چاپ: 2019
📝چاپ کننده: Apress
🧷لینک دانلود:
https://bit.ly/2M7S0hS
#machin_learning #Matlab
#یادگیری_ماشین #متلب
@pythonicAI
📅سال چاپ: 2019
📝چاپ کننده: Apress
🧷لینک دانلود:
https://bit.ly/2M7S0hS
#machin_learning #Matlab
#یادگیری_ماشین #متلب
@pythonicAI
This media is not supported in your browser
VIEW IN TELEGRAM
متفاوت ترین جلسه #مصاحبه شغلی در #مرسدس_بنز
مصاحبه با بیش از 100 دولوپر در محیطی متفاوت
نهایت #خلاقیت رو همیشه از شرکت های مطرح دنیا مشاهده میکنیم. در اتاق های فکر آنها چه میگذرد؟ حتی برای مصاحبه هم برنامه ای خاص و تبلیغاتی دارند ولی ما همچنان درگیر استخدامی با مزایایی از قبیل حقوق به موقع و بیمه تامین اجتماعی هستیم.
@pythonicAI
مصاحبه با بیش از 100 دولوپر در محیطی متفاوت
نهایت #خلاقیت رو همیشه از شرکت های مطرح دنیا مشاهده میکنیم. در اتاق های فکر آنها چه میگذرد؟ حتی برای مصاحبه هم برنامه ای خاص و تبلیغاتی دارند ولی ما همچنان درگیر استخدامی با مزایایی از قبیل حقوق به موقع و بیمه تامین اجتماعی هستیم.
@pythonicAI
Forwarded from Machine learning application (Kartal)
#معرفی_اعضای_کانال
#آموزش
#پروژه_دیپ_لرنینگ
#دیپ_لرنینگ
اعضا: سروش معاضد، دانشجوی ترم آخر کارشناسی ارشد، دانشکده مهندسی پزشکی دانشگاه امیرکبیر
@Machinelearning_Kartal
تشریح کار و پروژه ای که انجام داده اند.
🌿🌿🌿💭💭💭🌹🌹🌹
اگر بخواهید چهره کسی را برای دوست خود توصیف کنید، از کنار هم قرار دادن برخی ویژگیها استفاده میکنید تا دوست شما بتواند آن چهره را مجسم کند: “مرد” “جوان”ی با “موهای سیاه” و “بینی نوک تیز” و ... آیا میتوان مدلی داشت که بتواند تصاویر چهره را توسط این ویژگیهای ظاهری بازنمایی کند؟
@Machinelearning_Kartal
مدلهای معروف به Variational Auto-Encoder یا به اصطلاح VAE مدلهایی هستند که توزیع آماری داده را مدل میکنند. در تصاویر، برای مدلسازی توزیع آماری پیکسلها و پیوستگی بینشان، از شبکه های عصبی کانوولوشنال استفاده میشود. مدلهای ابتدایی VAE به عنوان تابع هزینه از اختلاف دو به دو بین تصاویر تولید شده در خروجی و تصاویر اصلی استفاده میکردند که به همین علت کیفیت تصاویر تولیدی چشمگیر نبود. در شبکه Deep Feature Consistent VAE به جای محاسبه اختلاف دو به دو بین پیکسلها، اختلاف بین بازنمایی تولید شده توسط یک شبکه از پیش تعلیم داده شده مانند VGG19 از تصویر تولید شده و تصویر اصلی به عنوان تابع هزینه در نظر گرفته میشود. در این صورت کیفیت تصاویر تولیدی به مراتب افزایش می یابد و از طرفی به خاطر مدلسازی دقیقتر توزیع داده ها، میتوان بردارهایی برای برخی ویژگیها استخراج نمود.
@Machinelearning_Kartal
به عنوان مثال، اگر تصاویر چهره “خندان” توسط قسمت انکودر مدل کدگذاری شوند و از این بردارها میانگین بگیریم، به یک بردار “خنده” میرسیم که با اضافه کردن این بردار به بردار تولید شده برای یک چهره و سپس بازسازی توسط قسمت دیکودر مدل، خنده به چهره اضافه خواهد شد.
@Machinelearning_Kartal
میتوانید با باز کردن نوتبوک قرار داده شده در مخزن مورد نظر، و اجرای خط به خط کدها، به سادگی طی چندین ساعت مدل خود را تعلیم داده و به دستکاری چهره دوستان خود بپردازید :)
منبع نوشته: ارسالی از خود عضو محترم.
لینک پروژه :
https://github.com/iamsoroush/face_vae/blob/master/README.md
کانال
@Machinelearning_Kartal
#آموزش
#پروژه_دیپ_لرنینگ
#دیپ_لرنینگ
اعضا: سروش معاضد، دانشجوی ترم آخر کارشناسی ارشد، دانشکده مهندسی پزشکی دانشگاه امیرکبیر
@Machinelearning_Kartal
تشریح کار و پروژه ای که انجام داده اند.
🌿🌿🌿💭💭💭🌹🌹🌹
اگر بخواهید چهره کسی را برای دوست خود توصیف کنید، از کنار هم قرار دادن برخی ویژگیها استفاده میکنید تا دوست شما بتواند آن چهره را مجسم کند: “مرد” “جوان”ی با “موهای سیاه” و “بینی نوک تیز” و ... آیا میتوان مدلی داشت که بتواند تصاویر چهره را توسط این ویژگیهای ظاهری بازنمایی کند؟
@Machinelearning_Kartal
مدلهای معروف به Variational Auto-Encoder یا به اصطلاح VAE مدلهایی هستند که توزیع آماری داده را مدل میکنند. در تصاویر، برای مدلسازی توزیع آماری پیکسلها و پیوستگی بینشان، از شبکه های عصبی کانوولوشنال استفاده میشود. مدلهای ابتدایی VAE به عنوان تابع هزینه از اختلاف دو به دو بین تصاویر تولید شده در خروجی و تصاویر اصلی استفاده میکردند که به همین علت کیفیت تصاویر تولیدی چشمگیر نبود. در شبکه Deep Feature Consistent VAE به جای محاسبه اختلاف دو به دو بین پیکسلها، اختلاف بین بازنمایی تولید شده توسط یک شبکه از پیش تعلیم داده شده مانند VGG19 از تصویر تولید شده و تصویر اصلی به عنوان تابع هزینه در نظر گرفته میشود. در این صورت کیفیت تصاویر تولیدی به مراتب افزایش می یابد و از طرفی به خاطر مدلسازی دقیقتر توزیع داده ها، میتوان بردارهایی برای برخی ویژگیها استخراج نمود.
@Machinelearning_Kartal
به عنوان مثال، اگر تصاویر چهره “خندان” توسط قسمت انکودر مدل کدگذاری شوند و از این بردارها میانگین بگیریم، به یک بردار “خنده” میرسیم که با اضافه کردن این بردار به بردار تولید شده برای یک چهره و سپس بازسازی توسط قسمت دیکودر مدل، خنده به چهره اضافه خواهد شد.
@Machinelearning_Kartal
میتوانید با باز کردن نوتبوک قرار داده شده در مخزن مورد نظر، و اجرای خط به خط کدها، به سادگی طی چندین ساعت مدل خود را تعلیم داده و به دستکاری چهره دوستان خود بپردازید :)
منبع نوشته: ارسالی از خود عضو محترم.
لینک پروژه :
https://github.com/iamsoroush/face_vae/blob/master/README.md
کانال
@Machinelearning_Kartal
GitHub
face_vae/README.md at master · iamsoroush/face_vae
Implementation of Variational Auto-Encoder (VAE) and Deep Feature Consistent VAE for facial attribute manipulation using Keras and Tensorflow-dataset module. - face_vae/README.md at master · iamsor...
Forwarded from AI, Python, Cognitive Neuroscience (Farzad)
Media is too big
VIEW IN TELEGRAM
"A machine capable of learning? That sounds wonderful." Learn how heroes of #deeplearning Yann LeCun and Ruslan Salakhutdinov first became interested in #AI:
✴️ @AI_Python_EN
✴️ @AI_Python_EN
Forwarded from DLeX: AI Python (Farzad)
For Who Have a Passion For:
1. Artificial Intelligence
2. Machine Learning
3. Deep Learning
4. Data Science
5. Computer vision
6. Image Processing
7. Cognitive Neuroscience
8. Research Papers and Related Courses
https://t.me/DeepLearningML
We Are Available in Engilsh Please Ask Your Question in English
1. Artificial Intelligence
2. Machine Learning
3. Deep Learning
4. Data Science
5. Computer vision
6. Image Processing
7. Cognitive Neuroscience
8. Research Papers and Related Courses
https://t.me/DeepLearningML
We Are Available in Engilsh Please Ask Your Question in English