خانم اسلامی، دانشجوی هوش مصنوعی علم و صنعت و از فالورهای کانال:
https://www.linkedin.com/in/maryam-eslami-2a226916b/
برای بخشی از پایان نامه که در حوزه ی خلاقیت محاسباتی و ماشین لرنینگ هست، یک فرمی تهیه کردند که توضیحاتش تو این لینک هست:
https://www.linkedin.com/posts/maryam-eslami-2a226916b_computational-creativity-in-visual-metaphor-activity-6886722090058166272-ljvu
لینک پر کردن فرم نظر سنجی این هست:
https://lnkd.in/dztpJA4n?trk=public_post_share-update_update-text
https://www.linkedin.com/in/maryam-eslami-2a226916b/
برای بخشی از پایان نامه که در حوزه ی خلاقیت محاسباتی و ماشین لرنینگ هست، یک فرمی تهیه کردند که توضیحاتش تو این لینک هست:
https://www.linkedin.com/posts/maryam-eslami-2a226916b_computational-creativity-in-visual-metaphor-activity-6886722090058166272-ljvu
لینک پر کردن فرم نظر سنجی این هست:
https://lnkd.in/dztpJA4n?trk=public_post_share-update_update-text
Linkedin
Maryam Eslami on LinkedIn: Computational Creativity in Visual Metaphor
"𝑨 𝒑𝒊𝒄𝒕𝒖𝒓𝒆 𝒊𝒔 𝒘𝒐𝒓𝒕𝒉 𝒂 𝒕𝒉𝒐𝒖𝒔𝒂𝒏𝒅 𝒘𝒐𝒓𝒅𝒔".
With help of 𝐌𝐚𝐜𝐡𝐢𝐧𝐞 𝐋𝐞𝐚𝐫𝐧𝐢𝐧𝐠 tools and algorithms, a 𝐂𝐨𝐦𝐩𝐮𝐭𝐚...
With help of 𝐌𝐚𝐜𝐡𝐢𝐧𝐞 𝐋𝐞𝐚𝐫𝐧𝐢𝐧𝐠 tools and algorithms, a 𝐂𝐨𝐦𝐩𝐮𝐭𝐚...
training Vision Transformers (ViT) on small datasets
https://keras.io/examples/vision/vit_small_ds/
https://keras.io/examples/vision/vit_small_ds/
keras.io
Keras documentation: Train a Vision Transformer on small datasets
Forwarded from DLeX: AI Python (Farzad 🦅)
بحث آزاد پرسش و پاسخ با دکتر رحیم دهخوارقانی و دکتر میثم عسگری پیرامون موضوع زیر: 👇👇
🔰 Sentiment Analysis and its Challenges for the NLP World
🔸 در تاریخ یکشنبه ۲۶ دی ساعت ۲۱ به وقت تهران
در پیج اینستاگرام زیر برگزار میگردد.
https://instagram.com/ai_python_podcast
📣 هر گونه سوالی که دارید روی این پست کامنت کنید.
❇️ @AI_Python
🔰 Sentiment Analysis and its Challenges for the NLP World
🔸 در تاریخ یکشنبه ۲۶ دی ساعت ۲۱ به وقت تهران
در پیج اینستاگرام زیر برگزار میگردد.
https://instagram.com/ai_python_podcast
📣 هر گونه سوالی که دارید روی این پست کامنت کنید.
❇️ @AI_Python
در انتقال یادگیری از لایههای میانی غافل نشوید
در سناریو انتقال یادگیری و هنگامی که بخواهیم شبکه پیش آموزش دیده روی تسک مبدا را برای تسک مقصد استفاده کنیم، دو راه پیشروی خود داریم. راه اول این است که شبکه را به اصطلاح فریز کنیم و یک لایه خطی روی فیچرهای لایه آخر شبکه برای تسک مقصد استفاده کنیم. راه دوم هم این است که کل شبکه را مورد فاین تیون قرار بدهیم. حالا مقالهای اومده که نشون داده راه سومی هم جز این دو هست و این راه فریزکردن شبکه و در عین حال سوارکردن یک لایه خطی بر روی فیچرهای تمام لایههای میانی شبکه است (نه فقط فیچرهای لایه آخر). در واقع سوالی که منجر به این ایده شده این بوده که Fine-tuning با این که پیچیدگی و تعداد پارامتر بیشتری نسبت به حالت فریزکردن مدل داره چرا بهتر عمل میکنه؟ نکنه در سناریو Fine-tuning صرفا فیچرهای میانی شبکه دارند به آخر شبکه پاس داده میشوند؟؟)
این مقاله ابتدا اومده imagenet رو به عنوان تسک مبدا در نظر گرفته و ۱۹ دیتاست دیگه مثل Cifar100 و Clevr و Pets و ... رو به عنوان تسک مقصد در نظر گرفته. سپس یک مقداری تحت عنوان domain affinity محاسبه کرده که نشون میده هر کدوم از این ۱۹ تسک مقصد چه قدر به imagenet نزدیک هستند. حالا اومدند و برای هر کدوم از این دیتاستها سه سناریو دستهبند خطی روی شبکه مبدا فریزشده (Linear)، فاین تیونکردن شبکه مبدا (Fine-tuning) و اموزش دادن از اول (Scratch) و نتایج این روشها رو تو عکس figure2 ای که مشاهده میکنید گذاشتند. در این نمودار دیتاست های سمت چپ دارای affinity کمتر و دیتاستهای سمت راست دارای affinity بیشتری هستند. نمودار نشون میده که برای دیتاستهای چپ سناریو Scratch جواببهتری از بقیه میده و برای دیتاستهای راست هم سناریو Linear جواب خوبی میده ( که منطقی هم هست).
در گام بعدی مقاله اومده و مدل خودش یعنی Head2Toe رو مطرح کرده. در این مدل ابتدا شبکه مبدا (همون پیش آموزش دیدهه روی imagent) فریز میشه و سپس تمامی فیچرهای میانی شبکه انتخاب میشوند. از اونجایی که سایز اینها خب زیاده فیچرهای هر لایه توسط یک مکانیزم pooling ابعادشون کاهش پیدا میکنه. در نهایت تمامی این فیچرهای کاهش بعد داده شده تمامی لایهها با هم کانکت میشوند و یک بردار ویژگی بزرگ به دست میاد (اسمش رو h_all بذارید). از اونجایی که این h_all هم بزرگه و آموزش دادن کلاسیفایر خطی روش ممکنه منجر به اورفیت بشه، مقاله اومده از رگولاریزیشن Group lasso برای آموزش یک دستهبند خطی روی این بردار بزرگ استفاده کرده تا وزنهایی که به دست میان اسپارس باشن و هم به نوعی عمل فیچر سلکشن رو روی h_all انجام داده. در نهایت هم اومدن head2Toe رو روی اون ۱۹ دیتاست مختلف اجرا کردند و نشون دادند که در میانگین روششون بهتر از سناریوهای دیگه نظیر Linear و حتی Fine-tune داره عمل میکنه!
لینک مقاله:
https://arxiv.org/abs/2201.03529
#read
#paper
🙏Thanks to: @nlp_stuff 🌹
در سناریو انتقال یادگیری و هنگامی که بخواهیم شبکه پیش آموزش دیده روی تسک مبدا را برای تسک مقصد استفاده کنیم، دو راه پیشروی خود داریم. راه اول این است که شبکه را به اصطلاح فریز کنیم و یک لایه خطی روی فیچرهای لایه آخر شبکه برای تسک مقصد استفاده کنیم. راه دوم هم این است که کل شبکه را مورد فاین تیون قرار بدهیم. حالا مقالهای اومده که نشون داده راه سومی هم جز این دو هست و این راه فریزکردن شبکه و در عین حال سوارکردن یک لایه خطی بر روی فیچرهای تمام لایههای میانی شبکه است (نه فقط فیچرهای لایه آخر). در واقع سوالی که منجر به این ایده شده این بوده که Fine-tuning با این که پیچیدگی و تعداد پارامتر بیشتری نسبت به حالت فریزکردن مدل داره چرا بهتر عمل میکنه؟ نکنه در سناریو Fine-tuning صرفا فیچرهای میانی شبکه دارند به آخر شبکه پاس داده میشوند؟؟)
این مقاله ابتدا اومده imagenet رو به عنوان تسک مبدا در نظر گرفته و ۱۹ دیتاست دیگه مثل Cifar100 و Clevr و Pets و ... رو به عنوان تسک مقصد در نظر گرفته. سپس یک مقداری تحت عنوان domain affinity محاسبه کرده که نشون میده هر کدوم از این ۱۹ تسک مقصد چه قدر به imagenet نزدیک هستند. حالا اومدند و برای هر کدوم از این دیتاستها سه سناریو دستهبند خطی روی شبکه مبدا فریزشده (Linear)، فاین تیونکردن شبکه مبدا (Fine-tuning) و اموزش دادن از اول (Scratch) و نتایج این روشها رو تو عکس figure2 ای که مشاهده میکنید گذاشتند. در این نمودار دیتاست های سمت چپ دارای affinity کمتر و دیتاستهای سمت راست دارای affinity بیشتری هستند. نمودار نشون میده که برای دیتاستهای چپ سناریو Scratch جواببهتری از بقیه میده و برای دیتاستهای راست هم سناریو Linear جواب خوبی میده ( که منطقی هم هست).
در گام بعدی مقاله اومده و مدل خودش یعنی Head2Toe رو مطرح کرده. در این مدل ابتدا شبکه مبدا (همون پیش آموزش دیدهه روی imagent) فریز میشه و سپس تمامی فیچرهای میانی شبکه انتخاب میشوند. از اونجایی که سایز اینها خب زیاده فیچرهای هر لایه توسط یک مکانیزم pooling ابعادشون کاهش پیدا میکنه. در نهایت تمامی این فیچرهای کاهش بعد داده شده تمامی لایهها با هم کانکت میشوند و یک بردار ویژگی بزرگ به دست میاد (اسمش رو h_all بذارید). از اونجایی که این h_all هم بزرگه و آموزش دادن کلاسیفایر خطی روش ممکنه منجر به اورفیت بشه، مقاله اومده از رگولاریزیشن Group lasso برای آموزش یک دستهبند خطی روی این بردار بزرگ استفاده کرده تا وزنهایی که به دست میان اسپارس باشن و هم به نوعی عمل فیچر سلکشن رو روی h_all انجام داده. در نهایت هم اومدن head2Toe رو روی اون ۱۹ دیتاست مختلف اجرا کردند و نشون دادند که در میانگین روششون بهتر از سناریوهای دیگه نظیر Linear و حتی Fine-tune داره عمل میکنه!
لینک مقاله:
https://arxiv.org/abs/2201.03529
#read
#paper
🙏Thanks to: @nlp_stuff 🌹
🔹 ۲۵ دی ۱۴۰۰ | چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست
اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد:
«سلام به همگی، من مجری خبری هوش مصنوعی نشنال بیزینیس دیلی هستم. دوقلوی مجازی مجری اصلی محسوب میشوم. اکنون ۷۰ روز است که بهطور ناشناس در حال اجرا هستم و اخبار را گزارش میکنم»
persianepochtimes.com/?p=56464
اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد:
«سلام به همگی، من مجری خبری هوش مصنوعی نشنال بیزینیس دیلی هستم. دوقلوی مجازی مجری اصلی محسوب میشوم. اکنون ۷۰ روز است که بهطور ناشناس در حال اجرا هستم و اخبار را گزارش میکنم»
persianepochtimes.com/?p=56464
Persian Epoch Times
چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست
اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد
Tensorflow(@CVision)
🔹 ۲۵ دی ۱۴۰۰ | چین از مجری خبری هوش مصنوعی خود رونمایی کرد که تقریباً از انسان واقعی قابل تشخیص نیست اِنشیائوهی یک مجری خبری هوش مصنوعی است که ۲۰ دسامبر ۲۰۲۱، پس از ۱۷۰۰ ساعت پخش خبری بیوقفه، هویت خود را برای مخاطبان فاش کرد: «سلام به همگی، من مجری خبری…
🔹 ۲۴ دی ۱۴۰۰ | بنجامین فولفورد، سردبیر سابق مجله فوربس و نوه جرج تیلور فولفورد، بزرگترین سهامدار جنرال الکتریک، مدعی شد: در کنفرانس مجازی داووس، بسیاری از چهرههای حاضر درواقع شخصیتهای مجازی شبیهسازی شده از روی افراد واقعی هستند و افراد اصلی، دیگر وجود ندارند! گفته شده کلاوس شوآب، فائوچی، و بسیاری از چهرههای سرشناس، دیگر زنده نیستند!
benjaminfulford.net/2022/01/17/the-gnostic-illuminati-was-right-we-really-are-dealing-with-a-rogue-ai
benjaminfulford.net/2022/01/17/the-gnostic-illuminati-was-right-we-really-are-dealing-with-a-rogue-ai
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
#دوره #آنلاین
دوره مقدماتی یادگیری عمیق و بینایی کامپیوتر.
این دوره با همکاری #دیجی_نکست برگزار می گردد.
کد تخفیف 15 درصدی مخصوص اعضای کانال:
cvision
برای ثبت نام و جزئیات دوره به سایت مراجعه فرمائید:
http://class.vision
دوره مقدماتی یادگیری عمیق و بینایی کامپیوتر.
این دوره با همکاری #دیجی_نکست برگزار می گردد.
کد تخفیف 15 درصدی مخصوص اعضای کانال:
cvision
برای ثبت نام و جزئیات دوره به سایت مراجعه فرمائید:
http://class.vision
Tensorflow(@CVision)
#دوره #آنلاین دوره مقدماتی یادگیری عمیق و بینایی کامپیوتر. این دوره با همکاری #دیجی_نکست برگزار می گردد. کد تخفیف 15 درصدی مخصوص اعضای کانال: cvision برای ثبت نام و جزئیات دوره به سایت مراجعه فرمائید: http://class.vision
ایوند
یادگیری عمیق و بینایی کامپیوتر - شنبه ۲ بهمن ۰۰
خرید بلیت و ثبتنام یادگیری عمیق و بینایی کامپیوتر در ایوند - موضوع: برنامه نویسی - رویداد آنلاین است
https://youtu.be/SGzMElJ11Cc
دومین مصاحبه لکز فریدمن با یان لکان که دیروز منتشر شد. خیلی جالبه!
دومین مصاحبه لکز فریدمن با یان لکان که دیروز منتشر شد. خیلی جالبه!
YouTube
Yann LeCun: Dark Matter of Intelligence and Self-Supervised Learning | Lex Fridman Podcast #258
Yann LeCun is the Chief AI Scientist at Meta, professor at NYU, Turing Award winner, and one of the seminal researchers in the history of machine learning. Please support this podcast by checking out our sponsors:
- Public Goods: https://publicgoods.com/lex…
- Public Goods: https://publicgoods.com/lex…
آخرین فرصت ثبت نام این هفته سه شنبه 5 ام بهمن است.
#رویداد_آنلاین
زمان تشکیل کلاس:
7 الی 22 بهمن به مدت 18 ساعت.
مدرس: علیرضا اخوان پور
http://class.vision/product/gan-winter400/
#رویداد_آنلاین
زمان تشکیل کلاس:
7 الی 22 بهمن به مدت 18 ساعت.
مدرس: علیرضا اخوان پور
http://class.vision/product/gan-winter400/
Forwarded from DLeX: AI Python (Farzad 🦅)
سلام اگه کسی درس بیواتفورماتیک رشته کامپیوتر کارشناسی ارشد اشنایی داره میتونه کمک کنه بهم پی وی پیام بده
@farzadhss
@farzadhss
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
یکی به جای یه استادی به دانشجوهاش پیام داده که تو بد وضعیتیم، که به این واسطه پولشونو به جیب بزنه! دانشجوی باهوشتر از هکره هم یه سوال تخصصی پرسیده که بفهمه استادش پشت قضیست یا هکره! :))
https://twitter.com/roydanroy/status/1485787999631667200?cxt=HBwWgMCrmYmUyp4pAAAA&cn=ZmxleGlibGVfcmVjcw%3D%3D&refsrc=email
https://twitter.com/roydanroy/status/1485787999631667200?cxt=HBwWgMCrmYmUyp4pAAAA&cn=ZmxleGlibGVfcmVjcw%3D%3D&refsrc=email