✅ شروع کلاسهای آموزشی یادگیری عمیق دانشگاه برکلی (Berkeley) سال ۲۰۱۹ که به صورت هفتگی منتشر میشود در اختیار عموم قرار گرفت.
Lecture videos for the first week, by Alex Smola: https://lnkd.in/eW6MfzM
#artificialneuralnetworks #deeplearning #neuralnetworks @unixmens
Lecture videos for the first week, by Alex Smola: https://lnkd.in/eW6MfzM
#artificialneuralnetworks #deeplearning #neuralnetworks @unixmens
چطور یک کشاورژ ژاپنی با رسپری و opencv و tensorflow - با استفاده از deep learning روشی برای بسته بندی میوه ها ایجاد کرده است .
https://cloud.google.com/blog/products/gcp/how-a-japanese-cucumber-farmer-is-using-deep-learning-and-tensorflow
#deeplearning @unixmens
https://cloud.google.com/blog/products/gcp/how-a-japanese-cucumber-farmer-is-using-deep-learning-and-tensorflow
#deeplearning @unixmens
Google Cloud Blog
How a Japanese cucumber farmer is using deep learning and TensorFlow | Google Cloud Blog
Learn how a Makoto Koike created a cucumber sorter with TensorFlow and deep learning technology
تنسورفلو (انگلیسی: TensorFlow یک کتابخانهٔ نرمافزاری متنباز برای یادگیری ماشین در انواع مختلف وظایف مفهومی و زبان است که در حال حاضر توسط ۵۰ تیم تحقیقاتی و محصولات مختلف گوگل از جمله بازشناسی گفتار، جیمیل، گوگل فوتوز و جستجو که بسیاری از آنها سابقاً از دیستبلیف استفاده کرده بودند، استفاده میشود. تنسورفلو در آغاز توسط تیم گوگل برین مرکز تحقیقاتی گوگل به صورت داخلی استفاده میشد ولی بعدها در ۹ نوامبر ۲۰۱۵ تحت مجوز آپاچی منتشر شد.
دلایل زیادی نظیر اینکه تصاویر طیف خاکستری در کامپیوتر معمولاً به صورت ماتریسهای n∗m ذخیره میشوند(تصاویر رنگی با ابعاد بیشتر مانند n∗m∗3) و وقتی ما دستهای از تصاویر داریم (مثلاً k تصویر)، مجبوریم ابعاد ماتریسها را به صورت n∗m∗k یا در تصاویر رنگی n∗m∗3∗k افزایش دهیم سبب شدند که در طراحی تنسورفلو از داده ساختار تنسور برای نگهداری مقادیر و نوع داده متغیرها استفاده شود. اما مهمترین دلیل استفاده تنسورفلو از تنسورها، در حقیقت سهولت مدیریت وزنها و مقادیر نرونها در لایههای مختلف در شبکههای عصبی عمیق و یادگیری عمیق است #tensorflow #deeplearning @unixmens
دلایل زیادی نظیر اینکه تصاویر طیف خاکستری در کامپیوتر معمولاً به صورت ماتریسهای n∗m ذخیره میشوند(تصاویر رنگی با ابعاد بیشتر مانند n∗m∗3) و وقتی ما دستهای از تصاویر داریم (مثلاً k تصویر)، مجبوریم ابعاد ماتریسها را به صورت n∗m∗k یا در تصاویر رنگی n∗m∗3∗k افزایش دهیم سبب شدند که در طراحی تنسورفلو از داده ساختار تنسور برای نگهداری مقادیر و نوع داده متغیرها استفاده شود. اما مهمترین دلیل استفاده تنسورفلو از تنسورها، در حقیقت سهولت مدیریت وزنها و مقادیر نرونها در لایههای مختلف در شبکههای عصبی عمیق و یادگیری عمیق است #tensorflow #deeplearning @unixmens
محققان در ایالات متحده آمریکا توانستهاند مشکل حمله هکرها به مدلهای هوش مصنوعی را برطرف کنند. آنها برای دستیابی به این هدف، از مدل دیگری برای فریب شبکه عصبی و اجبار برای تحلیل تصاویر ویرایش شده استفاده کردند.
بنابر گزارش MIT Technology Review، محققان در دانشگاه «ایلینوی» اعلام کردهاند یکی از بزرگترین نقصها در آموزش هوش مصنوعی، آسیبپذیری آنها در برابر حملات هکرها است. در این زمینه سیستمهای تشخیص عکس یا بازسازی تصاویر با بیشترین حملات مواجه میشوند.
حملات گسترده به این سیستمها زنگ خطری برای مقامات در بخش مراقبتهای پزشکی محسوب میشود، جایی که اغلب این روش برای بازسازی تصاویر پزشکی مورد استفاده قرار میگیرد. در صورتی که هوش مصنوعی تصویر اشتباهی دریافت کند، نتیجه آن تشخیص غلط نوع بیماری خواهد بود.
برای جلوگیری از چنین مشکلی، دانشمندان روش جدیدی برای آموزش سیستمهای یادگیری عمیق ارائه کردهاند که آنها را در برابر خطا مقاومتر میکند و همچنین آنها را در زمانی که مسائل امنیتی اهمیت بالایی دارند، قابل اطمینانتر میکند.
محققان برای دستیابی به این روش، شبکه عصبی مسئول بازسازی تصاویر را به یک مدل با امکان تولید نمونههای رقابتی (تصاویر با تفاوتهای اندک نسبت به عکسهای اصلی) متصل کردند. در طی آموزش، یکی از هوشهای مصنوعی بدنبال فریب دیگری با نمایش تصاویر متفاوت نسبت به نمونههای اصلی بود.
در طی این آزمایش، مدل مخصوص بازسازی تصاویر دائما در حال تحلیل تصاویر بود تا بتواند تغییرات در آنها را تشخیص دهد و متوجه شود با یک تصویر ویرایش شده روبهرو است یا خیر. در نهایت این سیستم توانست تمام تصاویر ویرایش شده را شناسایی کند که از عملکرد بهتر آن نسبت به سایر شبکههای عصبی خبر میدهد.
دانشمندان در هنگام آزمایشها سعی کردند به صورت دستی سیستم را هک کرده و تصاویر ویرایش شده را به آن نشان دهند که تمام آنها از سوی هوش مصنوعی رد شدند.
#hack #ai #deep_learning #deeplearning
بنابر گزارش MIT Technology Review، محققان در دانشگاه «ایلینوی» اعلام کردهاند یکی از بزرگترین نقصها در آموزش هوش مصنوعی، آسیبپذیری آنها در برابر حملات هکرها است. در این زمینه سیستمهای تشخیص عکس یا بازسازی تصاویر با بیشترین حملات مواجه میشوند.
حملات گسترده به این سیستمها زنگ خطری برای مقامات در بخش مراقبتهای پزشکی محسوب میشود، جایی که اغلب این روش برای بازسازی تصاویر پزشکی مورد استفاده قرار میگیرد. در صورتی که هوش مصنوعی تصویر اشتباهی دریافت کند، نتیجه آن تشخیص غلط نوع بیماری خواهد بود.
برای جلوگیری از چنین مشکلی، دانشمندان روش جدیدی برای آموزش سیستمهای یادگیری عمیق ارائه کردهاند که آنها را در برابر خطا مقاومتر میکند و همچنین آنها را در زمانی که مسائل امنیتی اهمیت بالایی دارند، قابل اطمینانتر میکند.
محققان برای دستیابی به این روش، شبکه عصبی مسئول بازسازی تصاویر را به یک مدل با امکان تولید نمونههای رقابتی (تصاویر با تفاوتهای اندک نسبت به عکسهای اصلی) متصل کردند. در طی آموزش، یکی از هوشهای مصنوعی بدنبال فریب دیگری با نمایش تصاویر متفاوت نسبت به نمونههای اصلی بود.
در طی این آزمایش، مدل مخصوص بازسازی تصاویر دائما در حال تحلیل تصاویر بود تا بتواند تغییرات در آنها را تشخیص دهد و متوجه شود با یک تصویر ویرایش شده روبهرو است یا خیر. در نهایت این سیستم توانست تمام تصاویر ویرایش شده را شناسایی کند که از عملکرد بهتر آن نسبت به سایر شبکههای عصبی خبر میدهد.
دانشمندان در هنگام آزمایشها سعی کردند به صورت دستی سیستم را هک کرده و تصاویر ویرایش شده را به آن نشان دهند که تمام آنها از سوی هوش مصنوعی رد شدند.
#hack #ai #deep_learning #deeplearning
Academy and Foundation unixmens | Your skills, Your future
Video
👁 باز کردن قفل آینده: چگونه Vision کامپیوتر می تواند در زمان واقعی ببیند، ردیابی کند و تصمیم بگیرد 👁
این فقط مربوط به «دیدن» ماشین ها نیست، بلکه به درک، تجزیه و تحلیل و تصمیم گیری در چند ثانیه بر اساس آنچه که «می بینند» است.
🎯 چرا ردیابی هر فرد در یک اتاق دیگر علمی تخیلی نیست
1️⃣ دید شفاف: ظهور دوربینهای با وضوح بالا به این معنی است که میتوانیم جزئیات پیچیده را ثبت کنیم و هویت فردی را در فضاهای شلوغ به واقعیت تبدیل کنیم.
2️⃣ نابغه الگوریتمی: به لطف یادگیری ماشینی و یادگیری عمیق، اکنون الگوریتم هایی داریم که می توانند چندین شی (از جمله انسان ها) را با دقت و سرعت شگفت انگیز ردیابی کنند.
3️⃣ فاکتور لبه: محاسبات لبه، پردازش داده را به محل تولید نزدیکتر میکند و تأخیر را کاهش میدهد و ردیابی بلادرنگ را نه تنها ممکن، بلکه کارآمد میکند.
4️⃣ قدرت فیوژن: ادغام داده های حسگرهای مختلف دقت و قابلیت اطمینان سیستم ردیابی را افزایش می دهد.
🤖 انقلاب تصمیم گیری
هنگامی که بتوانیم هر فرد را در یک اتاق ردیابی کنیم، امکانات برای تصمیم گیری هوشمندانه بی پایان است:
- رنسانس خرده فروشی: مناطق پر رفت و آمد را شناسایی کنید و چیدمان فروشگاه ها را برای افزایش فروش بهینه کنید.
ا - Healthcare 2.0: نظارت مستمر بیمار می تواند به استاندارد جدید تبدیل شود، با هشدارهای فوری برای هر نشانه ای از ناراحتی.
- خانه های هوشمند، زندگی هوشمندتر: تصور کنید که خانه شما نور و دما را بر اساس تعداد ساکنان هر اتاق تنظیم می کند.
🔒 پیمایش در پیچ و خم اخلاقی
قدرت این فناوری با مسئولیت بزرگ همراه است. مسائل مربوط به رضایت و امنیت داده ها را نمی توان نادیده گرفت و شفافیت در استفاده از داده ها غیرقابل مذاکره است.
🌟 افق بی حد و حصر است
همانطور که ما به اصلاح فناوری بینایی کامپیوتری ادامه می دهیم، کاربردهای آن فقط از نظر دامنه و تاثیر افزایش می یابد. سوال این نیست که آیا این فناوری در همه جا حاضر خواهد شد یا خیر، بلکه این است که چگونه ما در چشم انداز اخلاقی آن طور که انجام می شود حرکت خواهیم کرد.
من از شما دعوت می کنم تا بینش خود را در مورد این فناوری تحول آفرین به اشتراک بگذارید. vision کامپیوتری را چگونه می بینید که آینده ما را شکل می دهد؟
#computervision #machinelearning #deeplearning #emergingtechnologies #Innovation #datascience #future #opencv
https://t.me/unixmens
این فقط مربوط به «دیدن» ماشین ها نیست، بلکه به درک، تجزیه و تحلیل و تصمیم گیری در چند ثانیه بر اساس آنچه که «می بینند» است.
🎯 چرا ردیابی هر فرد در یک اتاق دیگر علمی تخیلی نیست
1️⃣ دید شفاف: ظهور دوربینهای با وضوح بالا به این معنی است که میتوانیم جزئیات پیچیده را ثبت کنیم و هویت فردی را در فضاهای شلوغ به واقعیت تبدیل کنیم.
2️⃣ نابغه الگوریتمی: به لطف یادگیری ماشینی و یادگیری عمیق، اکنون الگوریتم هایی داریم که می توانند چندین شی (از جمله انسان ها) را با دقت و سرعت شگفت انگیز ردیابی کنند.
3️⃣ فاکتور لبه: محاسبات لبه، پردازش داده را به محل تولید نزدیکتر میکند و تأخیر را کاهش میدهد و ردیابی بلادرنگ را نه تنها ممکن، بلکه کارآمد میکند.
4️⃣ قدرت فیوژن: ادغام داده های حسگرهای مختلف دقت و قابلیت اطمینان سیستم ردیابی را افزایش می دهد.
🤖 انقلاب تصمیم گیری
هنگامی که بتوانیم هر فرد را در یک اتاق ردیابی کنیم، امکانات برای تصمیم گیری هوشمندانه بی پایان است:
- رنسانس خرده فروشی: مناطق پر رفت و آمد را شناسایی کنید و چیدمان فروشگاه ها را برای افزایش فروش بهینه کنید.
ا - Healthcare 2.0: نظارت مستمر بیمار می تواند به استاندارد جدید تبدیل شود، با هشدارهای فوری برای هر نشانه ای از ناراحتی.
- خانه های هوشمند، زندگی هوشمندتر: تصور کنید که خانه شما نور و دما را بر اساس تعداد ساکنان هر اتاق تنظیم می کند.
🔒 پیمایش در پیچ و خم اخلاقی
قدرت این فناوری با مسئولیت بزرگ همراه است. مسائل مربوط به رضایت و امنیت داده ها را نمی توان نادیده گرفت و شفافیت در استفاده از داده ها غیرقابل مذاکره است.
🌟 افق بی حد و حصر است
همانطور که ما به اصلاح فناوری بینایی کامپیوتری ادامه می دهیم، کاربردهای آن فقط از نظر دامنه و تاثیر افزایش می یابد. سوال این نیست که آیا این فناوری در همه جا حاضر خواهد شد یا خیر، بلکه این است که چگونه ما در چشم انداز اخلاقی آن طور که انجام می شود حرکت خواهیم کرد.
من از شما دعوت می کنم تا بینش خود را در مورد این فناوری تحول آفرین به اشتراک بگذارید. vision کامپیوتری را چگونه می بینید که آینده ما را شکل می دهد؟
#computervision #machinelearning #deeplearning #emergingtechnologies #Innovation #datascience #future #opencv
https://t.me/unixmens
Forwarded from Academy and Foundation unixmens | Your skills, Your future (yashar esmaildokht 🐧)
تنسورفلو (انگلیسی: TensorFlow یک کتابخانهٔ نرمافزاری متنباز برای یادگیری ماشین در انواع مختلف وظایف مفهومی و زبان است که در حال حاضر توسط ۵۰ تیم تحقیقاتی و محصولات مختلف گوگل از جمله بازشناسی گفتار، جیمیل، گوگل فوتوز و جستجو که بسیاری از آنها سابقاً از دیستبلیف استفاده کرده بودند، استفاده میشود. تنسورفلو در آغاز توسط تیم گوگل برین مرکز تحقیقاتی گوگل به صورت داخلی استفاده میشد ولی بعدها در ۹ نوامبر ۲۰۱۵ تحت مجوز آپاچی منتشر شد.
دلایل زیادی نظیر اینکه تصاویر طیف خاکستری در کامپیوتر معمولاً به صورت ماتریسهای n∗m ذخیره میشوند(تصاویر رنگی با ابعاد بیشتر مانند n∗m∗3) و وقتی ما دستهای از تصاویر داریم (مثلاً k تصویر)، مجبوریم ابعاد ماتریسها را به صورت n∗m∗k یا در تصاویر رنگی n∗m∗3∗k افزایش دهیم سبب شدند که در طراحی تنسورفلو از داده ساختار تنسور برای نگهداری مقادیر و نوع داده متغیرها استفاده شود. اما مهمترین دلیل استفاده تنسورفلو از تنسورها، در حقیقت سهولت مدیریت وزنها و مقادیر نرونها در لایههای مختلف در شبکههای عصبی عمیق و یادگیری عمیق است #tensorflow #deeplearning @unixmens
دلایل زیادی نظیر اینکه تصاویر طیف خاکستری در کامپیوتر معمولاً به صورت ماتریسهای n∗m ذخیره میشوند(تصاویر رنگی با ابعاد بیشتر مانند n∗m∗3) و وقتی ما دستهای از تصاویر داریم (مثلاً k تصویر)، مجبوریم ابعاد ماتریسها را به صورت n∗m∗k یا در تصاویر رنگی n∗m∗3∗k افزایش دهیم سبب شدند که در طراحی تنسورفلو از داده ساختار تنسور برای نگهداری مقادیر و نوع داده متغیرها استفاده شود. اما مهمترین دلیل استفاده تنسورفلو از تنسورها، در حقیقت سهولت مدیریت وزنها و مقادیر نرونها در لایههای مختلف در شبکههای عصبی عمیق و یادگیری عمیق است #tensorflow #deeplearning @unixmens
👍4