🔵دیتاست به همراه کد بیسلاین استخراج روابط احساسی بین موجودیتهای سیاسی در متن اخبار
با داشتن جمله s که شامل دو موجودیت p و q است، هدف این مسئله تشخیص رابطه احساس از p به q مسئله طبقهبندی پنج کلاسه است: خنثی ، p دارای نظر مثبت یا منفی نسبت به q و جهت معکوس است.
https://arxiv.org/pdf/2106.01033.pdf
با داشتن جمله s که شامل دو موجودیت p و q است، هدف این مسئله تشخیص رابطه احساس از p به q مسئله طبقهبندی پنج کلاسه است: خنثی ، p دارای نظر مثبت یا منفی نسبت به q و جهت معکوس است.
https://arxiv.org/pdf/2106.01033.pdf
🟣 شرکت DeepMind: یادگیری تقویت برای رسیدن به هوش مصنوعی عمومی "کافی" است
هوش مصنوعی که بتواند بصورت عمومی و اجتماعی عملکردی مانند اجتماع پستانداران و پرندگان را داشته باشد، میتواند با استفاده از #یادگیری_تقویتی قابل دستیابی باشد.
محققان DeepMind بر سود شخصی در تعاملات اجتماعی تمرکز دارند. آنها معتقدند که دلبستگی و پیوند یک عامل قدرتمند در تصمیم گیری اجتماعی همانند پستانداران و پرندگان است، به همین دلیل حیوانات برای محافظت از فرزندان خود را در معرض خطر زیادی قرار می دهند.
به نظر میرسد توسعه توانایی ها از طریق به حداکثر رساندن پاداش هر عمل روشی کارآمد برای دستیابی برای هوش اجتماعی باشد.
لینک مقاله
@silicon_brain
هوش مصنوعی که بتواند بصورت عمومی و اجتماعی عملکردی مانند اجتماع پستانداران و پرندگان را داشته باشد، میتواند با استفاده از #یادگیری_تقویتی قابل دستیابی باشد.
محققان DeepMind بر سود شخصی در تعاملات اجتماعی تمرکز دارند. آنها معتقدند که دلبستگی و پیوند یک عامل قدرتمند در تصمیم گیری اجتماعی همانند پستانداران و پرندگان است، به همین دلیل حیوانات برای محافظت از فرزندان خود را در معرض خطر زیادی قرار می دهند.
به نظر میرسد توسعه توانایی ها از طریق به حداکثر رساندن پاداش هر عمل روشی کارآمد برای دستیابی برای هوش اجتماعی باشد.
لینک مقاله
@silicon_brain
🟢طراحی کامپیوترهای جدید optical برای محاسبات هوش مصنوعی:
امروزه افزایش قدرت محاسباتی و افزایش تصاعدی داده ها منجر به رشد سریع هوش مصنوعی شده است.
اما با گذشت زمان و افزایش پیچیدگی سیستم های هوش مصنوعی به انرژی و قدرت محاسباتی بیشتری نیاز است و سخت افزارهای سنتی امروزی به احتمال زیاد قادر به ادامه آن نخواهند بود
برای حل این مشکل شرکت MIT Lightelligence در حال توسعه نسل بعدی سخت افزار محاسباتی است.
این شرکت تراشه هایی بر پایه نور طراحی کرده که در مقایسه با سخت افزارهای سنتی الکترونیکی دارای ویژگیهایی مثل سرعت بالا ، تأخیر کم و مصرف کم انرژی هستند.
بنیانگذار شرکت آقای Yichen Shen در این باره میگوید:
"ما نحوه تعامل فوتون ها با یکدیگر را درون تراشه کنترل می کنیم. نور در تراشه پخش می شود ، فوتون ها با یکدیگر تداخل می کنند. ماهیت تداخل فوتون ها ریاضیاتی را که ما می خواهیم انجام میدهد."
او معتقد است که راه حل او میتواند بسیاری از چالش های محاسباتی آینده را حل کند.
وی می گوید:
"ما در حال تغییر روش محاسبه هستیم.ما اعتقاد داریم که اپتیک حداقل برای هوش مصنوعی ، پلت فرم محاسباتی بعدی خواهد بود"
@silicon_brain
امروزه افزایش قدرت محاسباتی و افزایش تصاعدی داده ها منجر به رشد سریع هوش مصنوعی شده است.
اما با گذشت زمان و افزایش پیچیدگی سیستم های هوش مصنوعی به انرژی و قدرت محاسباتی بیشتری نیاز است و سخت افزارهای سنتی امروزی به احتمال زیاد قادر به ادامه آن نخواهند بود
برای حل این مشکل شرکت MIT Lightelligence در حال توسعه نسل بعدی سخت افزار محاسباتی است.
این شرکت تراشه هایی بر پایه نور طراحی کرده که در مقایسه با سخت افزارهای سنتی الکترونیکی دارای ویژگیهایی مثل سرعت بالا ، تأخیر کم و مصرف کم انرژی هستند.
بنیانگذار شرکت آقای Yichen Shen در این باره میگوید:
"ما نحوه تعامل فوتون ها با یکدیگر را درون تراشه کنترل می کنیم. نور در تراشه پخش می شود ، فوتون ها با یکدیگر تداخل می کنند. ماهیت تداخل فوتون ها ریاضیاتی را که ما می خواهیم انجام میدهد."
او معتقد است که راه حل او میتواند بسیاری از چالش های محاسباتی آینده را حل کند.
وی می گوید:
"ما در حال تغییر روش محاسبه هستیم.ما اعتقاد داریم که اپتیک حداقل برای هوش مصنوعی ، پلت فرم محاسباتی بعدی خواهد بود"
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
🟢احتمالا شما هم تو فضای مجازی از این تصاویر زیاد میبینید.
در واقع این تصاویر با استفاده از Deep Dream (رویای عمیق) ساخته شدن.
رویای عمیق یه برنامه computer vision هستش که توسط یکی از مهندسین گوگل ساخته شده و با پیدا کردن و تقویت الگوهای موجود در تصاویر با استفاده از شبکه های عصبی کانوولوشنی CNN یک جنبه توهمی و رویا مانند به تصاویر میده.
@silicon_brain
در واقع این تصاویر با استفاده از Deep Dream (رویای عمیق) ساخته شدن.
رویای عمیق یه برنامه computer vision هستش که توسط یکی از مهندسین گوگل ساخته شده و با پیدا کردن و تقویت الگوهای موجود در تصاویر با استفاده از شبکه های عصبی کانوولوشنی CNN یک جنبه توهمی و رویا مانند به تصاویر میده.
@silicon_brain
🟣یک GAN محلی قابل کنترل برای ویرایش دقیق تصاویر و ساخت تصاویر فیک
روش استفاده شده در این سیستم روش وارونگی #GAN در دامنه است، که نه تنها تصویر ورودی را دقیق بازسازی می کند بلکه از کد معکوس برای ویرایش تصاویر بصورت معنی دار استفاده میکند.
گیتهاب
@silicon_brain
روش استفاده شده در این سیستم روش وارونگی #GAN در دامنه است، که نه تنها تصویر ورودی را دقیق بازسازی می کند بلکه از کد معکوس برای ویرایش تصاویر بصورت معنی دار استفاده میکند.
گیتهاب
@silicon_brain
🟣کورس رایگان یادگیری ماشین دکتر رهبان
دکتر محمدحسین رهبان یکی اساتید دانشکده کامپیوتر دانشگاه شریف در فیلد هوش مصنوعی، فیلمجلسات کورس های این ترمشون رو ضبط کرده و در آپارات بصورت عمومی منتشر کردند.
کورس ماشین لرنینگ
کورس فرآیندهای تصادفی
کورس هوش مصنوعی
#course
@silicon_brain
دکتر محمدحسین رهبان یکی اساتید دانشکده کامپیوتر دانشگاه شریف در فیلد هوش مصنوعی، فیلمجلسات کورس های این ترمشون رو ضبط کرده و در آپارات بصورت عمومی منتشر کردند.
کورس ماشین لرنینگ
کورس فرآیندهای تصادفی
کورس هوش مصنوعی
#course
@silicon_brain
❤1
🔵 کتابخانه برای Data Augmentation از فیس بوک با نام AugLy
https://github.com/facebookresearch/AugLy
@silicon_brain
https://github.com/facebookresearch/AugLy
@silicon_brain
🟢یک مقایسه کلی بین pandas و numpy:
⬅️وقتی با داده های جدولی سر و کار داریم از pandas استفاده میکنیم
در مقابل وقتی با دادههای عددی کار میکنیم ترجیحا از numpy استفاده میکنیم
⬅️ابزار قدرتمند کتابخانه pandas دیتافریم و سری ها هستند.
ابزار قدرتمند numpy آرایه ها هستند.
⬅️مصرف مموری در pandas بیشتر است
ولی در numpy مصرف مموری بهینه است
⬅️زمانی که تعداد سطرها از 500 هزار بیشتر است pandas پرفورمنس بهتری دارد در مقابل زمانی که تعداد سطر ها کمتر از 50 هزار است numpy پرفورمنس بهتری دارد.
⬅️در نامپای indexing بسیار سریعتر از pandas است.
⬅️کتابخانه pandas ابزاری بنام دیتافریم دارد که یک آبجکت دو بعدیست.
در حالی که numpy قابلیت تعریف آرایه های چند بعدی را دارد.
@silicon_brain
⬅️وقتی با داده های جدولی سر و کار داریم از pandas استفاده میکنیم
در مقابل وقتی با دادههای عددی کار میکنیم ترجیحا از numpy استفاده میکنیم
⬅️ابزار قدرتمند کتابخانه pandas دیتافریم و سری ها هستند.
ابزار قدرتمند numpy آرایه ها هستند.
⬅️مصرف مموری در pandas بیشتر است
ولی در numpy مصرف مموری بهینه است
⬅️زمانی که تعداد سطرها از 500 هزار بیشتر است pandas پرفورمنس بهتری دارد در مقابل زمانی که تعداد سطر ها کمتر از 50 هزار است numpy پرفورمنس بهتری دارد.
⬅️در نامپای indexing بسیار سریعتر از pandas است.
⬅️کتابخانه pandas ابزاری بنام دیتافریم دارد که یک آبجکت دو بعدیست.
در حالی که numpy قابلیت تعریف آرایه های چند بعدی را دارد.
@silicon_brain
🟣 هوش مصنوعی برای طراحی سریع تراشه های کامپیوتری
گروهی از محققان شرکت گوگل مدل هوش مصنوعی جدیدی را ابداع کردهاند که طراحی تراشههای پیشرفته را در عرض چند ساعت ممکن میکند. تراشههای مدرن متشکل از میلیاردها مؤلفه مختلف هستند که ضخامت و ابعاد برخی از آنها از ناخن انگشت هم کوچکتر است. این روند اگر توسط انسانها انجام شود چندین ماه وقت میگیرد.
برای ساخت این مدل هوش مصنوعی، دادههای مربوط به طراحی ده هزار تراشه جمعآوری شده و مورد استفاده قرار گرفته است.
لینک مقاله
@silicon_brain
گروهی از محققان شرکت گوگل مدل هوش مصنوعی جدیدی را ابداع کردهاند که طراحی تراشههای پیشرفته را در عرض چند ساعت ممکن میکند. تراشههای مدرن متشکل از میلیاردها مؤلفه مختلف هستند که ضخامت و ابعاد برخی از آنها از ناخن انگشت هم کوچکتر است. این روند اگر توسط انسانها انجام شود چندین ماه وقت میگیرد.
برای ساخت این مدل هوش مصنوعی، دادههای مربوط به طراحی ده هزار تراشه جمعآوری شده و مورد استفاده قرار گرفته است.
لینک مقاله
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
🟣خطری که در سال 2038 تمامی کامپیوتر های 32 بیتی را تهدید میکند
به گیف شکل بالا دقت کنید، اگر از بیت و بایت سر در بیاورید، می توانید با یک محاسبه ساده بفهمید که حداکثر ارزش یک عدد ۴ بایتی رقم ۲٫۱۴۷٫۴۸۳٫۶۴۷ است. اگر این عدد را به زمان قابل فهم ترجمه کنید خواهید فهمید که در ۱۹ ژانویه ۲۰۳۸ به پایان میرسد.
مشکل سال ۲۰۳۸ همینجاست. در آن زمان با به پایان رسیدن این عدد، کلیه برنامه ها و سیستم عامل های مبنتی بر زبان C برای درک زمان دچار مشکل شده و ممکن است باگ های بسیاری برای سیستم های کامپیوتری سراسر جهان پیش آید.
@silicon_brain
به گیف شکل بالا دقت کنید، اگر از بیت و بایت سر در بیاورید، می توانید با یک محاسبه ساده بفهمید که حداکثر ارزش یک عدد ۴ بایتی رقم ۲٫۱۴۷٫۴۸۳٫۶۴۷ است. اگر این عدد را به زمان قابل فهم ترجمه کنید خواهید فهمید که در ۱۹ ژانویه ۲۰۳۸ به پایان میرسد.
مشکل سال ۲۰۳۸ همینجاست. در آن زمان با به پایان رسیدن این عدد، کلیه برنامه ها و سیستم عامل های مبنتی بر زبان C برای درک زمان دچار مشکل شده و ممکن است باگ های بسیاری برای سیستم های کامپیوتری سراسر جهان پیش آید.
@silicon_brain
🟣تحلیل داده ها چگونه فوتبال را متحول می کند
در طول دهه 90، منچستر یونایتد به یکی از تیم های پیشگام برای تجزیه و تحلیل تصمیم گیری خود تبدیل شد. تا سال 2010، تحلیل ها به طور گسترده ای توسط تیم های معتبر بین المللی پذیرفته شدند.
در سال های اخیر #فوتبال، با سیستم هایی که قادر به ضبط و تجزیه و تحلیل داده ها از تمرین و مسابقه هستند، مانند اینترنت اشیا (IoT) پیشرفت زیادی را تجربه کرده است. اکنون مربیان برای تصمیم گیری در تیم های خود، به داده ها اعتماد می کنند.
اطلاعات بصورت عمده از طریق پخش گزارش ها، ویدئو و ردیابی GPS جمع می شوند. برای مثال، داده های نقشه گرما نشان داده است که تیم هایی که توپ را در اختیار دارند و تعداد افراد بالایی در ناحیه خاصی دارند به احتمال زیاد گل می زنند.
داده های تیمی همچنین می تواند به عنوان یک شبکه بررسی شود که در آن گره های شبکه بازیکنان را نشان می دهند و خطوط بین گره ها نشان دهنده فعل و انفعالات، مانند پاس های بین تیم است. مربیان می توانند انواع مختلف تعاملات را شناسایی کرده و انواع مختلف رویدادها را رمزگذاری کنند.
@silicon_brain
در طول دهه 90، منچستر یونایتد به یکی از تیم های پیشگام برای تجزیه و تحلیل تصمیم گیری خود تبدیل شد. تا سال 2010، تحلیل ها به طور گسترده ای توسط تیم های معتبر بین المللی پذیرفته شدند.
در سال های اخیر #فوتبال، با سیستم هایی که قادر به ضبط و تجزیه و تحلیل داده ها از تمرین و مسابقه هستند، مانند اینترنت اشیا (IoT) پیشرفت زیادی را تجربه کرده است. اکنون مربیان برای تصمیم گیری در تیم های خود، به داده ها اعتماد می کنند.
اطلاعات بصورت عمده از طریق پخش گزارش ها، ویدئو و ردیابی GPS جمع می شوند. برای مثال، داده های نقشه گرما نشان داده است که تیم هایی که توپ را در اختیار دارند و تعداد افراد بالایی در ناحیه خاصی دارند به احتمال زیاد گل می زنند.
داده های تیمی همچنین می تواند به عنوان یک شبکه بررسی شود که در آن گره های شبکه بازیکنان را نشان می دهند و خطوط بین گره ها نشان دهنده فعل و انفعالات، مانند پاس های بین تیم است. مربیان می توانند انواع مختلف تعاملات را شناسایی کرده و انواع مختلف رویدادها را رمزگذاری کنند.
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
🟢ابزار جدید GitHub ساخته شده با هوش مصنوعی برای برنامه نویسان و توسعه دهندگان.
این ابزار GitHub Copilot نام دارد که از سیستم هوش مصنوعی ساخته شده توسط شرکت OpenAI استفاده میکند.
این سیستم میتواند با استفاده از درک متن کدی که برنامه نویس نوشته است خطوط و توابع کاملی را برای برنامه نویس پیشنهاد دهد.
این ابزار از طیف گسترده ای از زبان ها پشتیبانی میکند اما در حال حاضر با پایتون و جاوا نتایج بهتر کار میکند.
برای اطلاعات بیشتر و شروع کار با Copilot در اینجا بیشتر بخوانید.
@silicon_brain
این ابزار GitHub Copilot نام دارد که از سیستم هوش مصنوعی ساخته شده توسط شرکت OpenAI استفاده میکند.
این سیستم میتواند با استفاده از درک متن کدی که برنامه نویس نوشته است خطوط و توابع کاملی را برای برنامه نویس پیشنهاد دهد.
این ابزار از طیف گسترده ای از زبان ها پشتیبانی میکند اما در حال حاضر با پایتون و جاوا نتایج بهتر کار میکند.
برای اطلاعات بیشتر و شروع کار با Copilot در اینجا بیشتر بخوانید.
@silicon_brain
Data Science Cheatsheet 2021 @silicon_brain.pdf
1.7 MB
🟣 تقلب نامه جامع 2021 از الگوریتم ها و روش های مختلف یادگیری ماشین #cheatsheet
🔸#Linear_Regression
🔹#Logistic_Regression
🔸#Decision_Trees
🔹#Random_Forest
🔸#SVM
🔹#K_Nearest_Neighbors
🔸#Clustering
🔹#Boosting
🔸#Dimension_Reduction
🔹#NLP
🔸#Neural_Networks
🔹#Recommender_Systems
🔸#Reinforcement_Learning
🔹#Anomaly_Detection
🔸#Time_Series
🔹#A_B_Testing
🔸#Statistics
🔹#Probability
@silicon_brain
🔸#Linear_Regression
🔹#Logistic_Regression
🔸#Decision_Trees
🔹#Random_Forest
🔸#SVM
🔹#K_Nearest_Neighbors
🔸#Clustering
🔹#Boosting
🔸#Dimension_Reduction
🔹#NLP
🔸#Neural_Networks
🔹#Recommender_Systems
🔸#Reinforcement_Learning
🔹#Anomaly_Detection
🔸#Time_Series
🔹#A_B_Testing
🔸#Statistics
🔹#Probability
@silicon_brain
🟢هفت قدم جهت Data scientist شدن:
۱-یادگیری یک زبان برنامه نویسی:
اولین قدم برای شروع Data science انتخاب و آشنایی با یک زبان برنامه نویسی است. از بین زبان های R و پایتون زبان پایتون دارای محبوبیت بیشتری است. چون یادگیری آن ساده تر است و از کتابخانه هایی مثل numpy - pandas - seaborn matplotlib - scipy و ... ساپورت میکند.
۲-آمار و احتمالات:
داشتن دانش آمار و احتمالات کمک بسیاری برای Data scientist ها برای تحلیل و آنالیز دیتاست های بزرگ میکند.
۳-دانش SQL :
از SQL برای استخراج اطلاعات از دیتابیس های بزرگ و ارتباط با آنها استفاده میشود. از مباحث پر استفاده SQL میتوان به نرمال سازی؛ نوشتن کوئری های تو در تو و همچنین عملیاتی مانند groupby و join و ... اشاره کرد.
۴-پاکسازی داده:
در هر پروژه دیتاساینتز بیشتر زمان پروژه صرف پاکسازی داده میشود. از این قبیل میتوان به تصمیم گیری در مورد missing value ها ؛ داده های بی اهمیت ؛ داده های تکراری ؛ outlier ها ؛ همچنین داده های اشتباه و ... اشاره کرد. برای این عملیات میتوان از کتابخانه های numpy و pandas استفاده کرد.
5-اکتشاف اطلاعات:
یک Data scientist تسک های زیادی باید انجام دهد. مثل پیدا کردن الگو ها در داده ها ؛ آنالیز داده ها و کشف اطلاعات از داده ها. وی باید بتواند این اطلاعات را با ابزار های گرافیکی و شبیه سازی ارائه دهد
6-آموختن یادگیری ماشین:
یادگیری ماشین روشی برای تجزیه و تحلیل داده ها است که مدل تحلیلی را اتوماتیک میسازد. با استفاده از یادگیری ماشین سیستم ها می توانند با حداقل مداخلات انسانی از داده ها بیاموزند ، الگوها را شناسایی کرده و تصمیم بگیرند.
دیتا ساینتز با کمک ماشین لرنینگ و مدل های تحلیلی میتواند پاسخ بهینه را برای مسایل مختلف ارائه کند.
7- انجام تمرین:
پس از گذراندن مقدمات وقت عمل است. شما باید با انجام تمرین در سایت هایی مثل kaggle مهارت خود را افزایش دهید. برای اینکار میتوانید دیتاست را دانلود کرده و سپس عملیات آنالیز را بر روی آن انجام دهید و بعد با مراجعه به عملکرد سایر شرکت کنندگان و نحوه پاسخ آنها به تمرین مورد نظر و انجام مقایسه ایرادات خود را کشف کرده و مهارت خود را افزایش دهید. پس از انجام تمرین میتوانید با شرکت در مسابقات خود را محک بزنید.
@silicon_brain
۱-یادگیری یک زبان برنامه نویسی:
اولین قدم برای شروع Data science انتخاب و آشنایی با یک زبان برنامه نویسی است. از بین زبان های R و پایتون زبان پایتون دارای محبوبیت بیشتری است. چون یادگیری آن ساده تر است و از کتابخانه هایی مثل numpy - pandas - seaborn matplotlib - scipy و ... ساپورت میکند.
۲-آمار و احتمالات:
داشتن دانش آمار و احتمالات کمک بسیاری برای Data scientist ها برای تحلیل و آنالیز دیتاست های بزرگ میکند.
۳-دانش SQL :
از SQL برای استخراج اطلاعات از دیتابیس های بزرگ و ارتباط با آنها استفاده میشود. از مباحث پر استفاده SQL میتوان به نرمال سازی؛ نوشتن کوئری های تو در تو و همچنین عملیاتی مانند groupby و join و ... اشاره کرد.
۴-پاکسازی داده:
در هر پروژه دیتاساینتز بیشتر زمان پروژه صرف پاکسازی داده میشود. از این قبیل میتوان به تصمیم گیری در مورد missing value ها ؛ داده های بی اهمیت ؛ داده های تکراری ؛ outlier ها ؛ همچنین داده های اشتباه و ... اشاره کرد. برای این عملیات میتوان از کتابخانه های numpy و pandas استفاده کرد.
5-اکتشاف اطلاعات:
یک Data scientist تسک های زیادی باید انجام دهد. مثل پیدا کردن الگو ها در داده ها ؛ آنالیز داده ها و کشف اطلاعات از داده ها. وی باید بتواند این اطلاعات را با ابزار های گرافیکی و شبیه سازی ارائه دهد
6-آموختن یادگیری ماشین:
یادگیری ماشین روشی برای تجزیه و تحلیل داده ها است که مدل تحلیلی را اتوماتیک میسازد. با استفاده از یادگیری ماشین سیستم ها می توانند با حداقل مداخلات انسانی از داده ها بیاموزند ، الگوها را شناسایی کرده و تصمیم بگیرند.
دیتا ساینتز با کمک ماشین لرنینگ و مدل های تحلیلی میتواند پاسخ بهینه را برای مسایل مختلف ارائه کند.
7- انجام تمرین:
پس از گذراندن مقدمات وقت عمل است. شما باید با انجام تمرین در سایت هایی مثل kaggle مهارت خود را افزایش دهید. برای اینکار میتوانید دیتاست را دانلود کرده و سپس عملیات آنالیز را بر روی آن انجام دهید و بعد با مراجعه به عملکرد سایر شرکت کنندگان و نحوه پاسخ آنها به تمرین مورد نظر و انجام مقایسه ایرادات خود را کشف کرده و مهارت خود را افزایش دهید. پس از انجام تمرین میتوانید با شرکت در مسابقات خود را محک بزنید.
@silicon_brain
👍1
🟢پیچیدگی محاسباتی الگوریتم های یادگیری ماشین:
نماد n: تعداد نمونه های training
نماد p: تعداد feature ها
نماد (n(trees: تعداد درخت ها
نماد (n(sv: تعداد support vector ها
نماد (n(li: تعداد نورون های موجود در لایه i ام شبکه عصبی
@silicon_brain
نماد n: تعداد نمونه های training
نماد p: تعداد feature ها
نماد (n(trees: تعداد درخت ها
نماد (n(sv: تعداد support vector ها
نماد (n(li: تعداد نورون های موجود در لایه i ام شبکه عصبی
@silicon_brain
🔵آموزش یادگیری ماشین با پایتون از صفر
در این دوره کلاسیفایرهای مختلف رو میتونید یاد بگیرید و کدشو بزنید !
https://www.youtube.com/playlist?list=PLqnslRFeH2Upcrywf-u2etjdxxkL8nl7E
@silicon_brain
در این دوره کلاسیفایرهای مختلف رو میتونید یاد بگیرید و کدشو بزنید !
https://www.youtube.com/playlist?list=PLqnslRFeH2Upcrywf-u2etjdxxkL8nl7E
@silicon_brain
🔵لیست جامع و کامل از بهترین آموزشهای ML
Stanford CS229: Machine Learning (لینک)
Applied Machine Learning (لینک)
Machine Learning with Graphs (Stanford) (لینک)
Probabilistic Machine Learning (لینک)
Introduction to Deep Learning (MIT) (لینک)
Deep Learning: CS 182 (لینک)
Deep Unsupervised Learning (لینک)
NYU Deep Learning SP21 (لینک)
CMU Neural Networks for NLP (لینک)
Multilingual NLP (لینک)
Advanced NLP (لینک)
Deep Learning for Computer Vision (لینک)
Deep Reinforcement Learning (لینک)
Full Stack Deep Learning (لینک)
@Silicon_Brain
Stanford CS229: Machine Learning (لینک)
Applied Machine Learning (لینک)
Machine Learning with Graphs (Stanford) (لینک)
Probabilistic Machine Learning (لینک)
Introduction to Deep Learning (MIT) (لینک)
Deep Learning: CS 182 (لینک)
Deep Unsupervised Learning (لینک)
NYU Deep Learning SP21 (لینک)
CMU Neural Networks for NLP (لینک)
Multilingual NLP (لینک)
Advanced NLP (لینک)
Deep Learning for Computer Vision (لینک)
Deep Reinforcement Learning (لینک)
Full Stack Deep Learning (لینک)
@Silicon_Brain
🟣 ابزار تبدیل تصاویر ورودی شبکه عصبی به ابعاد ثابت
در بعضی از دیتاست ها اندازه تصاویر دیتاست با هم متفاوت است و این برای مدل های مبتنی بر شبکه عصبی مشکل ایجاد میکند. دلیل این مشکل این است که تعداد پیکسلهای تصاویر در این حالت متفاوت است و در نتیجه ابعاد ورودی ها نیز متفاوت خواهد بود اما برای استفاده از شبکههای عصبی نیاز است که ابعاد ورودی با هم برابر باشند.
برای حل این مشکل از کتابخانه opencv و تابع ()resize آن به همراه قابلیت List Comprehension پایتون استفاده میکنیم تا همه تصاویر موجود در دیتاست را به یک اندازه یکسان تبدیل کنیم.
به مثال موجود در تصویر توجه کنید که توسط این کتابخانه ابعاد تصاویر را به ابعاد ثابت 5 در 5 تبدیل کرده است.
#opencv #image #image_processing
@silicon_brain
در بعضی از دیتاست ها اندازه تصاویر دیتاست با هم متفاوت است و این برای مدل های مبتنی بر شبکه عصبی مشکل ایجاد میکند. دلیل این مشکل این است که تعداد پیکسلهای تصاویر در این حالت متفاوت است و در نتیجه ابعاد ورودی ها نیز متفاوت خواهد بود اما برای استفاده از شبکههای عصبی نیاز است که ابعاد ورودی با هم برابر باشند.
برای حل این مشکل از کتابخانه opencv و تابع ()resize آن به همراه قابلیت List Comprehension پایتون استفاده میکنیم تا همه تصاویر موجود در دیتاست را به یک اندازه یکسان تبدیل کنیم.
به مثال موجود در تصویر توجه کنید که توسط این کتابخانه ابعاد تصاویر را به ابعاد ثابت 5 در 5 تبدیل کرده است.
#opencv #image #image_processing
@silicon_brain