شرکت بلژیکی-ایرانی Sensifai فعال در زمینه یادگیری عمیق و آنالیز ویدئو و استخراج مفاهیم اقدام به جذب نیرو میکند. محل کار در ایران میباشد ولی تجربه کار با متخصصان برجسته مقیم اروپا را خواهید داشت.
تواناییهای مورد نیاز:
✔️تسلط به زبان برنامه نویسی Python
✔️ آشنایی با اصول یادگیری عمیق، یادگیری ماشین و بینایی ماشین
✔️آشنایی با فریم ورکهای Tensorflow یا Pytorch
✔️ توانایی توسعه محصول و کاربا سیستم عاملهای مختلف
لطفا اگر تجربه کافی در زمینه یادگیری عمیق دارید رزومههای خود را به آدرس زیر ارسال کنید
jobs@sensifai.com
www.sensifai.com
#jobs #deep_learning @unixmens
تواناییهای مورد نیاز:
✔️تسلط به زبان برنامه نویسی Python
✔️ آشنایی با اصول یادگیری عمیق، یادگیری ماشین و بینایی ماشین
✔️آشنایی با فریم ورکهای Tensorflow یا Pytorch
✔️ توانایی توسعه محصول و کاربا سیستم عاملهای مختلف
لطفا اگر تجربه کافی در زمینه یادگیری عمیق دارید رزومههای خود را به آدرس زیر ارسال کنید
jobs@sensifai.com
www.sensifai.com
#jobs #deep_learning @unixmens
محققان در ایالات متحده آمریکا توانستهاند مشکل حمله هکرها به مدلهای هوش مصنوعی را برطرف کنند. آنها برای دستیابی به این هدف، از مدل دیگری برای فریب شبکه عصبی و اجبار برای تحلیل تصاویر ویرایش شده استفاده کردند.
بنابر گزارش MIT Technology Review، محققان در دانشگاه «ایلینوی» اعلام کردهاند یکی از بزرگترین نقصها در آموزش هوش مصنوعی، آسیبپذیری آنها در برابر حملات هکرها است. در این زمینه سیستمهای تشخیص عکس یا بازسازی تصاویر با بیشترین حملات مواجه میشوند.
حملات گسترده به این سیستمها زنگ خطری برای مقامات در بخش مراقبتهای پزشکی محسوب میشود، جایی که اغلب این روش برای بازسازی تصاویر پزشکی مورد استفاده قرار میگیرد. در صورتی که هوش مصنوعی تصویر اشتباهی دریافت کند، نتیجه آن تشخیص غلط نوع بیماری خواهد بود.
برای جلوگیری از چنین مشکلی، دانشمندان روش جدیدی برای آموزش سیستمهای یادگیری عمیق ارائه کردهاند که آنها را در برابر خطا مقاومتر میکند و همچنین آنها را در زمانی که مسائل امنیتی اهمیت بالایی دارند، قابل اطمینانتر میکند.
محققان برای دستیابی به این روش، شبکه عصبی مسئول بازسازی تصاویر را به یک مدل با امکان تولید نمونههای رقابتی (تصاویر با تفاوتهای اندک نسبت به عکسهای اصلی) متصل کردند. در طی آموزش، یکی از هوشهای مصنوعی بدنبال فریب دیگری با نمایش تصاویر متفاوت نسبت به نمونههای اصلی بود.
در طی این آزمایش، مدل مخصوص بازسازی تصاویر دائما در حال تحلیل تصاویر بود تا بتواند تغییرات در آنها را تشخیص دهد و متوجه شود با یک تصویر ویرایش شده روبهرو است یا خیر. در نهایت این سیستم توانست تمام تصاویر ویرایش شده را شناسایی کند که از عملکرد بهتر آن نسبت به سایر شبکههای عصبی خبر میدهد.
دانشمندان در هنگام آزمایشها سعی کردند به صورت دستی سیستم را هک کرده و تصاویر ویرایش شده را به آن نشان دهند که تمام آنها از سوی هوش مصنوعی رد شدند.
#hack #ai #deep_learning #deeplearning
بنابر گزارش MIT Technology Review، محققان در دانشگاه «ایلینوی» اعلام کردهاند یکی از بزرگترین نقصها در آموزش هوش مصنوعی، آسیبپذیری آنها در برابر حملات هکرها است. در این زمینه سیستمهای تشخیص عکس یا بازسازی تصاویر با بیشترین حملات مواجه میشوند.
حملات گسترده به این سیستمها زنگ خطری برای مقامات در بخش مراقبتهای پزشکی محسوب میشود، جایی که اغلب این روش برای بازسازی تصاویر پزشکی مورد استفاده قرار میگیرد. در صورتی که هوش مصنوعی تصویر اشتباهی دریافت کند، نتیجه آن تشخیص غلط نوع بیماری خواهد بود.
برای جلوگیری از چنین مشکلی، دانشمندان روش جدیدی برای آموزش سیستمهای یادگیری عمیق ارائه کردهاند که آنها را در برابر خطا مقاومتر میکند و همچنین آنها را در زمانی که مسائل امنیتی اهمیت بالایی دارند، قابل اطمینانتر میکند.
محققان برای دستیابی به این روش، شبکه عصبی مسئول بازسازی تصاویر را به یک مدل با امکان تولید نمونههای رقابتی (تصاویر با تفاوتهای اندک نسبت به عکسهای اصلی) متصل کردند. در طی آموزش، یکی از هوشهای مصنوعی بدنبال فریب دیگری با نمایش تصاویر متفاوت نسبت به نمونههای اصلی بود.
در طی این آزمایش، مدل مخصوص بازسازی تصاویر دائما در حال تحلیل تصاویر بود تا بتواند تغییرات در آنها را تشخیص دهد و متوجه شود با یک تصویر ویرایش شده روبهرو است یا خیر. در نهایت این سیستم توانست تمام تصاویر ویرایش شده را شناسایی کند که از عملکرد بهتر آن نسبت به سایر شبکههای عصبی خبر میدهد.
دانشمندان در هنگام آزمایشها سعی کردند به صورت دستی سیستم را هک کرده و تصاویر ویرایش شده را به آن نشان دهند که تمام آنها از سوی هوش مصنوعی رد شدند.
#hack #ai #deep_learning #deeplearning