Forwarded from دستاوردهای یادگیری عمیق(InTec)
چندتا از دوستان سوال پرسیدن چطوری از info و warning های تنسورفلو راحت بشیم، دو خط کد زیر رو به ابتدای اسکریپتهاتون اضافه کنید
import warnings; warnings.simplefilter('ignore')
import os; os.environ['TF_CPP_MIN_LOG_LEVEL'] = '1'
دیفالت روی '0' هست و بالاترین مقدار '3' هست (اگر اشتباه نکنم) که تا log های Critical رو هم حذف میکنه، بهترین مقدار همین '1' هست چون معمولاً اطلاعات مهمتر ازین سطح لازم میشه
import warnings; warnings.simplefilter('ignore')
import os; os.environ['TF_CPP_MIN_LOG_LEVEL'] = '1'
دیفالت روی '0' هست و بالاترین مقدار '3' هست (اگر اشتباه نکنم) که تا log های Critical رو هم حذف میکنه، بهترین مقدار همین '1' هست چون معمولاً اطلاعات مهمتر ازین سطح لازم میشه
سایتی جهت دستیابی به تمام دانشگاههای جهان و میلیونها استاد دانشگاه در هر رشتهای
http://www.bulter.nl/universities/index.asp
@pythonicAi
http://www.bulter.nl/universities/index.asp
@pythonicAi
www.bulter.nl
All College and University Home Pages directory
University and college index site with all universities from all over the world, find the university you are looking for free.
Pytorch implementation for Capsules with Inverted Dot-Product Attention Routing
Link
#deeplearning #artificialintelligence
@pythonicAI
Link
#deeplearning #artificialintelligence
@pythonicAI
GitHub
GitHub - apple/ml-capsules-inverted-attention-routing
Contribute to apple/ml-capsules-inverted-attention-routing development by creating an account on GitHub.
DeepMind Releases a New Architecture and a New Dataset to Improve Long-Term Memory in Deep Learning Systems
Link
#deeplearning #artificialintelligence
@pythonicAi
Link
#deeplearning #artificialintelligence
@pythonicAi
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from دستاوردهای یادگیری عمیق(InTec)
دیتاست
STT (TTS)
فارسی رو موزیلا دراختیار گذاشته، دیتاستی که چندی پیش با مشارکت عالی مردم تهیه شد، حالا به حجم ۶ گیگ رسیده
اما از جمله مشکلاتی که شخصاً باهاش برخورد کردم موقع کار با داده بایاس شدید داده هست
طبق گذارش وبسایت ۷۸٪ دادهها صدای آقایون و ۶٪ دادهها صدای خانمها هست (احتمالا باقی افراد جنسیتشون رو ترجیح دادند انتخاب نکنن موقع ثبت نام)
تو این روزای قرنطینه اگر وقت داشتید و ازین دیتا استفاده کردید، کمک کنید دیتاست قویتری داشته باشیم برای زبان فارسی و البته گویشهای مختلف
Dataset Link
STT (TTS)
فارسی رو موزیلا دراختیار گذاشته، دیتاستی که چندی پیش با مشارکت عالی مردم تهیه شد، حالا به حجم ۶ گیگ رسیده
اما از جمله مشکلاتی که شخصاً باهاش برخورد کردم موقع کار با داده بایاس شدید داده هست
طبق گذارش وبسایت ۷۸٪ دادهها صدای آقایون و ۶٪ دادهها صدای خانمها هست (احتمالا باقی افراد جنسیتشون رو ترجیح دادند انتخاب نکنن موقع ثبت نام)
تو این روزای قرنطینه اگر وقت داشتید و ازین دیتا استفاده کردید، کمک کنید دیتاست قویتری داشته باشیم برای زبان فارسی و البته گویشهای مختلف
Dataset Link
Part1_TensorFlow_Solution.ipynb
23.9 KB
نوت بوک آموزش tensorflow 2 از کلاس یادگیری عمیق دانشگاه MIT که در حال برگزاری هست.
introtodeeplearning.com
#deeplearning #artificialintelligence
@pythonicAi
introtodeeplearning.com
#deeplearning #artificialintelligence
@pythonicAi
https://github.com/humandecoded/People-Detector
High level python script that looks at a folder and tells you which video and/or image files contain people. Saves snapshots of those detections and a log file of all detections.
#deeplearning #artificialintelligence
@pythonicAi
High level python script that looks at a folder and tells you which video and/or image files contain people. Saves snapshots of those detections and a log file of all detections.
#deeplearning #artificialintelligence
@pythonicAi
GitHub
GitHub - humandecoded/People-Detector: High level python script that looks at a folder of video files and tells you which files…
High level python script that looks at a folder of video files and tells you which files contain people. - GitHub - humandecoded/People-Detector: High level python script that looks at a folder of...
Forwarded from دستاوردهای یادگیری عمیق(InTec)
پیشنهاد میکنم حتماً این مقاله رو بخونید 👌
توی کار با دیتاهای متنی و دیتاهایی که متغییری به اسم زمان دارند، ی چالش مهم حافظه هست و معماریهایی که میتونند دیتای قدیمی رو بخاطر بسپارند همیشه برنده بنچمارکهای این بخش هستند
همین موضوع و پیشرفتای خوب دیپلرنینگ ترنسفرمرهارو معرفی کرد، حالا تیم DeepMind یک قدم جلوتر رفته معرفی
Compressive Transformers
و یک دیتاست بنچمارک جدید
Link of paper
توی کار با دیتاهای متنی و دیتاهایی که متغییری به اسم زمان دارند، ی چالش مهم حافظه هست و معماریهایی که میتونند دیتای قدیمی رو بخاطر بسپارند همیشه برنده بنچمارکهای این بخش هستند
همین موضوع و پیشرفتای خوب دیپلرنینگ ترنسفرمرهارو معرفی کرد، حالا تیم DeepMind یک قدم جلوتر رفته معرفی
Compressive Transformers
و یک دیتاست بنچمارک جدید
Link of paper
Forwarded from جادی، کیبورد آزاد - Jadi (Jadi)
انتشار دوره کامل بلاکچین و بیت کوین فارسی بر اساس سرفصلهای استنفرد
https://jadi.net/2020/03/blockchain-and-bitcoin-course/
در این ۵۵۰ دقیقه، از روی کتاب دانشگاه استنفورد، تکنولوژی رمزارزها و بلاکچین و بیت کوین رو مرور می کنیم و در نهایت یکی هم می نویسیم!
https://jadi.net/2020/03/blockchain-and-bitcoin-course/
در این ۵۵۰ دقیقه، از روی کتاب دانشگاه استنفورد، تکنولوژی رمزارزها و بلاکچین و بیت کوین رو مرور می کنیم و در نهایت یکی هم می نویسیم!
جادی دات نت | کیبرد آزاد
انتشار دوره کامل بلاکچین و بیت کوین فارسی بر اساس سرفصلهای پرینستون
پارسال اعلام کردم که به مناسب سیل، یه دوره کامل بلاکچین و بیت کوین بر اساس دوره ای که توی پرینستون تدریس می شه برگزار می کنم و از دوستان خواستم ۱۰ میلیون تومن به مناسبتش کمک مالی کنن که صد در صدش برسه به سیل زدهها. کمک دوستان و شرکت های مختلف به ۱۴ … ادامه…
Forwarded from kalami.ir
در روز دهم از طرح آموزش رایگان فرادرس، علاوه بر ۵ آموزشی که از قبل برنامهریزی شده بود، ۱۰ آموزش دیگر نیز افزوده شد و تعداد کل آموزشهای رایگان ارائه شده در این طرح، به ۶۰ عنوان (شامل ۵۰۰ ساعت آموزش) رسید.
فهرست آموزشهای روز دهم، در ادامه آمده است:
– طراحی رزومه با نرمافزار پابلیشر (Publisher)
– روش صحیح جستجو در گوگل
– مدیریت زمان برای بهرهوری شخصی و حرفهای
– آموزش طراحی وب با بوتاسترپ (Bootstrap)
– آموزش لینوکس (Linux)
– الگوهای طراحی (Design Patterns) در پایتون
– ریاضی عمومی ۲
– مدیریت بازاریابی
– نرمافزار Cinema 4D برای موشن گرافیک
– آمار و احتمال مهندسی
– آموزش میکروکنترلر AVR و کدویژن
– الکترونیک ۲
– برنامهریزی و کنترل تولید و موجودی
– کار با AJAX در PHP و MySQL
– مبانی و روشهای اقتصاد سنجی با Eviews
🔗 لینک طرح آموزش رایگان فرادرس [+]
ــــــــــــــــــــــــــــــــــــ
سید مصطفی کلامی هریس
وبسایت: kalami.ir
کانال رسمی: @KalamiHeris
کانال پرسش و پاسخ: @Kalami_QA
در روز دهم از طرح آموزش رایگان فرادرس، علاوه بر ۵ آموزشی که از قبل برنامهریزی شده بود، ۱۰ آموزش دیگر نیز افزوده شد و تعداد کل آموزشهای رایگان ارائه شده در این طرح، به ۶۰ عنوان (شامل ۵۰۰ ساعت آموزش) رسید.
فهرست آموزشهای روز دهم، در ادامه آمده است:
– طراحی رزومه با نرمافزار پابلیشر (Publisher)
– روش صحیح جستجو در گوگل
– مدیریت زمان برای بهرهوری شخصی و حرفهای
– آموزش طراحی وب با بوتاسترپ (Bootstrap)
– آموزش لینوکس (Linux)
– الگوهای طراحی (Design Patterns) در پایتون
– ریاضی عمومی ۲
– مدیریت بازاریابی
– نرمافزار Cinema 4D برای موشن گرافیک
– آمار و احتمال مهندسی
– آموزش میکروکنترلر AVR و کدویژن
– الکترونیک ۲
– برنامهریزی و کنترل تولید و موجودی
– کار با AJAX در PHP و MySQL
– مبانی و روشهای اقتصاد سنجی با Eviews
🔗 لینک طرح آموزش رایگان فرادرس [+]
ــــــــــــــــــــــــــــــــــــ
سید مصطفی کلامی هریس
وبسایت: kalami.ir
کانال رسمی: @KalamiHeris
کانال پرسش و پاسخ: @Kalami_QA
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#آموزش
قبلا مطالبی پیرامون آموزش دادن شبکه های عصبی عمیق وقتی با چالش #imbalance بودن دیتا مواجه هستیم نوشته شده بود. که انتهای این پست لینک شدند.
این بلاگ پست روشهای ارزیابی مناسب برای وقتی که با این چالش مواجهیم را به خوبی تشریح کرده که توصیه میکنم بخوانید.
معیارهایی نظیر نمودار #ROC، معیار #AUC یا همون مساحت زیر نمودار، #Sensitivity و #Specificity یا معیار #GMean که بر اساس دو معیار قبلی تعریف میشه، #precision ، #Recall و #FMeasure و ...
https://machinelearningmastery.com/tour-of-evaluation-metrics-for-imbalanced-classification/
——-
مطالب مرتبط قبلی
Weight balancing in #keras
Weight balancing
Handling Imbalanced Datasets in Deep Learning
https://t.me/cvision/1236
Extreme Rare Event Classification using Autoencoders in Keras
https://t.me/cvision/1238
#imbalance
قبلا مطالبی پیرامون آموزش دادن شبکه های عصبی عمیق وقتی با چالش #imbalance بودن دیتا مواجه هستیم نوشته شده بود. که انتهای این پست لینک شدند.
این بلاگ پست روشهای ارزیابی مناسب برای وقتی که با این چالش مواجهیم را به خوبی تشریح کرده که توصیه میکنم بخوانید.
معیارهایی نظیر نمودار #ROC، معیار #AUC یا همون مساحت زیر نمودار، #Sensitivity و #Specificity یا معیار #GMean که بر اساس دو معیار قبلی تعریف میشه، #precision ، #Recall و #FMeasure و ...
https://machinelearningmastery.com/tour-of-evaluation-metrics-for-imbalanced-classification/
——-
مطالب مرتبط قبلی
Weight balancing in #keras
Weight balancing
Handling Imbalanced Datasets in Deep Learning
https://t.me/cvision/1236
Extreme Rare Event Classification using Autoencoders in Keras
https://t.me/cvision/1238
#imbalance
شرکت ابر آروان در نظر دارد در شهریور ۱۳۹۹ با همکاری و حمایت هلدینگ فناپ، شناسا، بانک پاسارگاد، دانشگاه خاتم، پادیوم، نشان، رهنما کالج و کوئرا رویدادی تخصصی در حوزه IT با نام "ابر بازی" برگزار کند.
در این رویداد، بیش از ۹۹۹ متخصص در قالب بیش از ۹۹ تیم ، زیر یک سقف، به مدت ۷ روز گردهم میآیند تا با هدایت برترین مشاوران اکوسیستم استارتاپ ایران، برای تولید برترین نرمافزارهای ابری به رقابت بپردازند.
از بین ۱۳۰۰ محصول برتر ابری جهان، ۹۹ محصول با ۸ پارامتر کلیدی انتخاب شدهاند که شرکتکنندگان میتوانند از بین این محصولات، ایدهی ابری خود را انتخاب کنند.
در این ۷ روز تمامی تیمها با در اختیار داشتن زیرساخت ابری آروان و همچنین بهرهمندی از ورکشاپها و راهنماییهای متخصصان، فرصت دارند تا بر مبنای MVP خواسته شده، محصول نرمافزاری خود را تولید کنند.
در پایان به سه تیم برتر مسابقات جوایز نقدی (در مجموع ۵۰۰ میلیون تومان) تعلق میگیرد و ده تیم برتر از حمایت مالی سرمایهگذار رویداد برخوردار خواهند شد.
برای اطلاع از جزییات این مسابقه و تکمیل فرم پیش ثبت نام، به لینک زیر مراجعه کنید.
https://www.arvancloud.com/fa/abrbazi
در این رویداد، بیش از ۹۹۹ متخصص در قالب بیش از ۹۹ تیم ، زیر یک سقف، به مدت ۷ روز گردهم میآیند تا با هدایت برترین مشاوران اکوسیستم استارتاپ ایران، برای تولید برترین نرمافزارهای ابری به رقابت بپردازند.
از بین ۱۳۰۰ محصول برتر ابری جهان، ۹۹ محصول با ۸ پارامتر کلیدی انتخاب شدهاند که شرکتکنندگان میتوانند از بین این محصولات، ایدهی ابری خود را انتخاب کنند.
در این ۷ روز تمامی تیمها با در اختیار داشتن زیرساخت ابری آروان و همچنین بهرهمندی از ورکشاپها و راهنماییهای متخصصان، فرصت دارند تا بر مبنای MVP خواسته شده، محصول نرمافزاری خود را تولید کنند.
در پایان به سه تیم برتر مسابقات جوایز نقدی (در مجموع ۵۰۰ میلیون تومان) تعلق میگیرد و ده تیم برتر از حمایت مالی سرمایهگذار رویداد برخوردار خواهند شد.
برای اطلاع از جزییات این مسابقه و تکمیل فرم پیش ثبت نام، به لینک زیر مراجعه کنید.
https://www.arvancloud.com/fa/abrbazi
ابر آروان
مسابقهی ابربازی | ابر آروان
ابربازی مسابقه تخصصی تولید محصولات ابری
Forwarded from هوش مصنوعی
مقاله خیلی خوبی درمورد استفاده مدل های دیپ لرنینگ برای تشخیص ویروس کرونا
مدل های یادگیری عمیق ایجاد شده در این مطالعه برای غربالگری اولیه بیماران مبتلا به COVID-19 مؤثر بودند
Deep Learning System to Screen Coronavirus Disease 2019 Pneumonia
https://arxiv.org/abs/2002.09334
کانال هوش مصنوعی
@Masirdan_AI
مدل های یادگیری عمیق ایجاد شده در این مطالعه برای غربالگری اولیه بیماران مبتلا به COVID-19 مؤثر بودند
Deep Learning System to Screen Coronavirus Disease 2019 Pneumonia
https://arxiv.org/abs/2002.09334
کانال هوش مصنوعی
@Masirdan_AI
Forwarded from هوش مصنوعی |یادگیری ماشین| علم داده
وزارت انرژی امریکا اعلام کرده که به محققان اجازه داده از Summit؛ قویترین سوپرکامپیوتر دنیا برای تحقیقات درباره کروناویروس (COVID-19) استفاده کنن. این محققان از این سوپرکامپیوتر میتونن برای انجام شبیه سازی هایی که به پردازش بالایی نیاز دارن و برای یافتن درمانی برای کروناویروس نیاز هستن، استفاده کنن. شبیه سازی هایی که روی کامپیوترهای عادی ممکنه ماه ها طول بکشن روی این سوپرکامپیوتر طی یک تا دو روز قابل انجام هستن. در همین مدت کوتاه محققان 8000 ترکیب دارویی مختلف رو شبیه سازی کردن که 77 مورد از اونها نشانه هایی مبنی بر مهار کردن این ویروس رو نشون دادن و محققان میتونن رو اونها مطالعات بیشتری انجام بدن تا شاید در بین اونها درمانی برای این ویروس پیدا کنن.
این وزارت خونه همچنین اجازه دسترسی به Sierra؛ دومین سوپرکامپیوتر قدرتمند در دنیا، رو هم داده تا محققان روی اون شبیه سازی هایی انجام بدن و با استفاده از اونها کشف کنن که کدوم انتی بادی ها میتونن به کروناویروس حمله و اون رو خنثی کنن.
🆔 @Ai_Tv
این وزارت خونه همچنین اجازه دسترسی به Sierra؛ دومین سوپرکامپیوتر قدرتمند در دنیا، رو هم داده تا محققان روی اون شبیه سازی هایی انجام بدن و با استفاده از اونها کشف کنن که کدوم انتی بادی ها میتونن به کروناویروس حمله و اون رو خنثی کنن.
🆔 @Ai_Tv
گروهی از پزشکان و متخصصین هوش مصنوعی، گروهی تلگرامی برای بررسی امکان استفاده از هوش مصنوعی برای درمان و کنترل ویروس کرونا تشکیل داده اند.
عزیزانی که فکر می کنند از حیث علمی میتوانند به اعضای این گروه کمک کنند میتوانند در این گروه عضو شوند:
https://t.me/joinchat/BjXTeBpCB-zjLT9yIVgoYA
عزیزانی که فکر می کنند از حیث علمی میتوانند به اعضای این گروه کمک کنند میتوانند در این گروه عضو شوند:
https://t.me/joinchat/BjXTeBpCB-zjLT9yIVgoYA
مقاله استفاده از یادگیری عمیق برای تعیین میزان عفونت ویروس کرونا در تصاویر CT ریه
Lung Infection Quantification of COVID-19 in CT Images with Deep Learning
#deeplearning #artificialintelligence
@pythonicAi
Lung Infection Quantification of COVID-19 in CT Images with Deep Learning
#deeplearning #artificialintelligence
@pythonicAi
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#خبر
تنسرفلو با 100 دلار امتحان و مدرک معتبر ارائه میدهد!
بلاگ پست خبر:
https://blog.tensorflow.org/2020/03/introducing-tensorflow-developer-certificate.html
شرایط امتحان و ثبت نام:
https://app.trueability.com/google-certificates/tensorflow-developer
راهنمای ثبت نام و CandidateHandbook:
https://www.tensorflow.org/site-assets/downloads/marketing/cert/TF_Certificate_Candidate_Handbook.pdf
#certificate
تنسرفلو با 100 دلار امتحان و مدرک معتبر ارائه میدهد!
بلاگ پست خبر:
https://blog.tensorflow.org/2020/03/introducing-tensorflow-developer-certificate.html
شرایط امتحان و ثبت نام:
https://app.trueability.com/google-certificates/tensorflow-developer
راهنمای ثبت نام و CandidateHandbook:
https://www.tensorflow.org/site-assets/downloads/marketing/cert/TF_Certificate_Candidate_Handbook.pdf
#certificate