ما در ویرگول یه انتشارات به نام overfit ساختیم و دوست داریم فعلا مطالب در حوزهی پردازش زبان طبیعی را منتشر کنیم. اگر پست خوبی داشتید خبر بدید.
به عنوان اولین پست، یکی از معیارهای سنجش مدلهای زبانی به اسم perplexity (سرگشتگی) را توضیح دادیم.
لطفا نظر فراموش نشه.
https://virgool.io/overfit/معیار-سرگشتگی-perplexity-obyc9zkvwli2
#read
#blog
#overfit
@nlp_stuff
به عنوان اولین پست، یکی از معیارهای سنجش مدلهای زبانی به اسم perplexity (سرگشتگی) را توضیح دادیم.
لطفا نظر فراموش نشه.
https://virgool.io/overfit/معیار-سرگشتگی-perplexity-obyc9zkvwli2
#read
#blog
#overfit
@nlp_stuff
در این پست از انتشارات overfit، یک رشتهپست به نام «داستان ترنسفورمرها» را شروع کردیم که به امید خدا قصد داریم داستان لزوم، پیدایش و حیات ترنسفورمرها را شرح بدیم. این اولیشه.
نظر فراموش نشه!
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers1-b31wtfstlwvc
#read
#blog
#overfit
@nlp_stuff
نظر فراموش نشه!
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers1-b31wtfstlwvc
#read
#blog
#overfit
@nlp_stuff
ویرگول
داستان ترنسفورمرها (۱): ناکارآمدی بازگشتیها
مکانیزم توجه انقلابی در هوش مصنوعی و پردازش زبان طبیعی ایجاد کرد و باعث شروع سلطهی ترنسفورمرها شد؛ در رشته پستی این معماری را توضیح دادیم.
NLP stuff
در این پست از انتشارات overfit، یک رشتهپست به نام «داستان ترنسفورمرها» را شروع کردیم که به امید خدا قصد داریم داستان لزوم، پیدایش و حیات ترنسفورمرها را شرح بدیم. این اولیشه. نظر فراموش نشه! اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم. https:/…
در دومین پست از رشتهپست «داستان ترنسفورمرها»، انواع مکانیزمهای توجه را بررسی کردیم.
لطفا بخونید و نظر بدید!
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers2-ch6ojadripur
#read
#blog
#overfit
@nlp_stuff
لطفا بخونید و نظر بدید!
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers2-ch6ojadripur
#read
#blog
#overfit
@nlp_stuff
ویرگول
داستان ترنسفورمرها (۲): attention برمیخیزد!
در دومین پست از رشتهپست «داستان ترنسفورمرها» انواع مدلهای مکانیزم توجه و کاربردهایش را بررسی مختصری کردیم!
در سومین پست از رشتهپست «داستان ترنسفورمرها»، رفتیم سراغ اصل مطلب و معماری ترنسفورمرها و مقالهی attention is all you need را کامل تشریح کردیم.
این مطلب دریچه ورود به مدلهایی مثل برته؛ پس حتما بخونید!
کمکاری نکنید. نظر بدید و با بقیه به اشتراک بگذارید.
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers3-uzhfclfjaikl
#read
#blog
#overfit
@nlp_stuff
این مطلب دریچه ورود به مدلهایی مثل برته؛ پس حتما بخونید!
کمکاری نکنید. نظر بدید و با بقیه به اشتراک بگذارید.
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers3-uzhfclfjaikl
#read
#blog
#overfit
@nlp_stuff
ویرگول
داستان ترنسفورمرها (۳): توجه و دیگر هیچ!
در سومین پست از رشته پست «داستان ترنسفورمرها» سعی کردیم مدل ترنسفورمر رو به نحو نیکویی بررسی کنیم!
مهدیمون در کنفرانس WSS 2020 ارائهای با موضوع Transfer Learning in NLP with Huggingface داره و قراره مرور کاملی روی مباحث انتقال یادگیری در پردازش زبان طبیعی و استفاده از کتابخانهی هاگینگفیس داشته باشه.
سعی کنید به هیچ وجه از دستش ندید و لطفا دست به دست کنید.
زمان ارائه: ۱۰ دی (۳۰ دسامبر)
https://sharif-wss.ir/workshop/26
#coach
#overfit
@WSS_SUT
@nlp_stuff
سعی کنید به هیچ وجه از دستش ندید و لطفا دست به دست کنید.
زمان ارائه: ۱۰ دی (۳۰ دسامبر)
https://sharif-wss.ir/workshop/26
#coach
#overfit
@WSS_SUT
@nlp_stuff
یکی از تسکهای اولیه و مهم در پردازش زبان طبیعی، تشخیص اسامی خاص یا همون NER است که یک مرحله مقدماتی برای خیلی از تسکهای دیگهست.
محمدمهدی برامون در این پست ویرگول، به صورت کامل از ابتدا تا انتهای این تسک (تعریف، مدلها، دیتاستها و ...) را توضیح داده. حتی اگر هیچ آشنایی با این موضوع نداشته باشید، این نوشتار براتون مباحث را به شکل نیکویی روشن میکنه. لطفا نظر بدید و با بقیه هم به اشتراک بذارید.
پ.ن. شما هم اگر پست خوبی در زمینهی هوش مصنوعی و پردازش زبان دارید، به ما خبر بدید که در انتشارات اورفیت منتشر کنیم.
https://vrgl.ir/OvlJR
#read
#blog
#overfit
@nlp_stuff
محمدمهدی برامون در این پست ویرگول، به صورت کامل از ابتدا تا انتهای این تسک (تعریف، مدلها، دیتاستها و ...) را توضیح داده. حتی اگر هیچ آشنایی با این موضوع نداشته باشید، این نوشتار براتون مباحث را به شکل نیکویی روشن میکنه. لطفا نظر بدید و با بقیه هم به اشتراک بذارید.
پ.ن. شما هم اگر پست خوبی در زمینهی هوش مصنوعی و پردازش زبان دارید، به ما خبر بدید که در انتشارات اورفیت منتشر کنیم.
https://vrgl.ir/OvlJR
#read
#blog
#overfit
@nlp_stuff
ویرگول
داستان نامداران: یافتن اسامی خاص!
برای یافتن اسامی خاص توی متن با استفاده از یادگیری ماشین این پست رو بخونین
آمار کانال در سال ۱۳۹۹
سال نو همهمون مبارکا! انشاءالله همگی در سال ۱۴۰۰ مفیدتر و کاراتر از ۱۳۹۹ باشیم و سال جدید پر از امید، عزت و سلامتی برامون باشه.
ما این کانال را ۳۰ اردیبهشت ۱۳۹۹ به امید کمک به گسترش و یادگیری بیشتر هوش مصنوعی و پردازش زبان طبیعی ساختیم.
ممنون از همهی کسایی که بهمون انتقاد و کمک کردند. تشکر از همه کسایی که ما را به بقیه معرفی کردند و میکنند. دمتون گرم.
اینها تصاویری از آمارهای امسال کاناله. گفتیم شاید براتون جالب باشه (شایدم هیچ اهمیتی نداشته باشه یه کانال ۷۰۰ نفره چه آماری داره😄)!
نتایج کانال در این نه ماه شده: بیش از ۷۱۰ تا عضو، میانگین ۱۶ تا پست در ماه، میانگین ۶۵۰ تا بازدید به ازای هر پست، میانگین ۹۰ تا اشتراک به ازای هر پست و از همه مهمتر کلی پیام مهرآمیز و حمایتهای مشتی از سمت شما. به نظرمون برای یک کانال تخصصی بد نیست. بیش باد!
اگر مشکلی میبینید یا پیشنهادی دارید، بهمون بگید که سال بعد بهتر عمل کنیم. اندک کانال خودتونه، تعارف نکنید خلاصه!
#overfit
@nlp_stuff
سال نو همهمون مبارکا! انشاءالله همگی در سال ۱۴۰۰ مفیدتر و کاراتر از ۱۳۹۹ باشیم و سال جدید پر از امید، عزت و سلامتی برامون باشه.
ما این کانال را ۳۰ اردیبهشت ۱۳۹۹ به امید کمک به گسترش و یادگیری بیشتر هوش مصنوعی و پردازش زبان طبیعی ساختیم.
ممنون از همهی کسایی که بهمون انتقاد و کمک کردند. تشکر از همه کسایی که ما را به بقیه معرفی کردند و میکنند. دمتون گرم.
اینها تصاویری از آمارهای امسال کاناله. گفتیم شاید براتون جالب باشه (شایدم هیچ اهمیتی نداشته باشه یه کانال ۷۰۰ نفره چه آماری داره😄)!
نتایج کانال در این نه ماه شده: بیش از ۷۱۰ تا عضو، میانگین ۱۶ تا پست در ماه، میانگین ۶۵۰ تا بازدید به ازای هر پست، میانگین ۹۰ تا اشتراک به ازای هر پست و از همه مهمتر کلی پیام مهرآمیز و حمایتهای مشتی از سمت شما. به نظرمون برای یک کانال تخصصی بد نیست. بیش باد!
اگر مشکلی میبینید یا پیشنهادی دارید، بهمون بگید که سال بعد بهتر عمل کنیم. اندک کانال خودتونه، تعارف نکنید خلاصه!
#overfit
@nlp_stuff
خاطرههای قدیمی رو زنده کنید؛ این بار با مدل GFP-GAN
موضوع بازسازی تصاویر قدیمی همیشه یکی از آرزوهای پاک بشریت بوده! خیلی وقتها دوست داریم عکسهای چهره قدیمی از اجدادمون رو بتونیم واضحتر ببینیم که ببینیم چه شکلی بودند. این تسک به نوعی حذف نویز و بهبود و بازسازی تصاویر است. با این پست ویرگول از انتشارات اورفیت همراه باشید تا این مقاله رو بهتر درک کنید و از لینک دموی مدل و مقاله آگاه بشید.
آدرس پست:
https://virgool.io/overfit/gfp-gan-gxudgqbqptsd
پ.ن: با معرفی کانال به دیگران، بقیه رو هم در لذتی که میبرید شریک کنید!
#paper
#read
#blog
#overfit
@nlp_stuff
موضوع بازسازی تصاویر قدیمی همیشه یکی از آرزوهای پاک بشریت بوده! خیلی وقتها دوست داریم عکسهای چهره قدیمی از اجدادمون رو بتونیم واضحتر ببینیم که ببینیم چه شکلی بودند. این تسک به نوعی حذف نویز و بهبود و بازسازی تصاویر است. با این پست ویرگول از انتشارات اورفیت همراه باشید تا این مقاله رو بهتر درک کنید و از لینک دموی مدل و مقاله آگاه بشید.
آدرس پست:
https://virgool.io/overfit/gfp-gan-gxudgqbqptsd
پ.ن: با معرفی کانال به دیگران، بقیه رو هم در لذتی که میبرید شریک کنید!
#paper
#read
#blog
#overfit
@nlp_stuff
ویرگول
بازسازی عکسهای قدیمی با هوشمصنوعی
موضوع بازسازی تصاویر قدیمی همیشه یکی از آرزوهای پاک بشریت بوده! خیلی وقتها دوست داریم عکسهای چهره قدیمی اجدادمون رو بتونیم واضحتر
آشنایی با متد gather در pytorch
استفاده از حلقهها نظیر for در کدهای یادگیری عمیق به شدت قبیح و سخیف است، از این نظر که فلسفه یادگیری عمیق را که مبتنی بر موازیسازی است تباه میسازد و باعث کاهش سرعت در اجرای کد میشود. نحوه پاکسازی کد از حلقه در بعضی مواقع با تکنیکهای indexing یا slicing واضح و روشن است اما در بعضی مواقع دیگر نیز حذف حلقه و استفاده از توابع وکتوری، نیازمند آشنایی با توابع خاص منظوره این موارد است. یکی از موارد سناریویی است که در آن تنسوری به ما داده شده و بایستی در راستای یک محور تنسوری مقادیر خاصی را استخراج کنیم. انجام این عملیات با indexing ممکن نبوده و راه حل فرار از حلقه for در این سناریو در چارچوب پایتورچ، استفاده از متد gather است.
در صورتی که علاقهمند به آشنایی با gather و آموختن این تکنیک هستید، میتوانید از پست جدید ما در ویرگول که در این باره است استفاده کامل را ببرید.
لینک ویرگول:
https://virgool.io/overfit/gather-in-pytorch-lhce2bm1wkb3
#read
#blog
#overfit
@nlp_stuff
استفاده از حلقهها نظیر for در کدهای یادگیری عمیق به شدت قبیح و سخیف است، از این نظر که فلسفه یادگیری عمیق را که مبتنی بر موازیسازی است تباه میسازد و باعث کاهش سرعت در اجرای کد میشود. نحوه پاکسازی کد از حلقه در بعضی مواقع با تکنیکهای indexing یا slicing واضح و روشن است اما در بعضی مواقع دیگر نیز حذف حلقه و استفاده از توابع وکتوری، نیازمند آشنایی با توابع خاص منظوره این موارد است. یکی از موارد سناریویی است که در آن تنسوری به ما داده شده و بایستی در راستای یک محور تنسوری مقادیر خاصی را استخراج کنیم. انجام این عملیات با indexing ممکن نبوده و راه حل فرار از حلقه for در این سناریو در چارچوب پایتورچ، استفاده از متد gather است.
در صورتی که علاقهمند به آشنایی با gather و آموختن این تکنیک هستید، میتوانید از پست جدید ما در ویرگول که در این باره است استفاده کامل را ببرید.
لینک ویرگول:
https://virgool.io/overfit/gather-in-pytorch-lhce2bm1wkb3
#read
#blog
#overfit
@nlp_stuff
ویرگول
متد gather در pytorch
با gather آشنا شویم تا کمتر از for قبیح وقت گیر در پایتورچ استفاده کنیم!
Transfer_learning_in_nlp_by_Huggingface_Mahdi_Samiei_WSS_2020.mp4
296.8 MB
ویدئوی ورکشاپ انتقال یادگیری با هاگینگفیس
این فایل ویدئوی ورکشاپ مهدیمون در کنفرانس WSS2020 با موضوع «یادگیری انتقالی در پردازش زبان طبیعی با استفاده از کتابخانهی هاگینگ فیس» است. ابتدا مباحث تئوری رو توضیح میده و بعد هم با استفاده از کتابخونههای پایتورچ و هاگینگفیس کد میزنه.
متاسفانه علی رغم قولهایی که داده بودند، با ۷ ماه فاصله ویدیو رو منتشر کردند و این باکیفیتترین ویدیوئیه که به دستمون رسیده.
پ.ن. این پست رو دست به دست کنید که افراد بیشتری ببینند. انشاءالله به زودی از این ورکشاپها خودمون بیشتر و بهتر برگزار میکنیم.
لینک آپارات ویدئو:
https://aparat.com/v/4Jivq
لینک اسلایدها و نوتبوکها (استار فراموش نشه):
https://github.com/mmsamiei/huggingface-workshop
#coach
#watch
#overfit
@nlp_stuff
این فایل ویدئوی ورکشاپ مهدیمون در کنفرانس WSS2020 با موضوع «یادگیری انتقالی در پردازش زبان طبیعی با استفاده از کتابخانهی هاگینگ فیس» است. ابتدا مباحث تئوری رو توضیح میده و بعد هم با استفاده از کتابخونههای پایتورچ و هاگینگفیس کد میزنه.
متاسفانه علی رغم قولهایی که داده بودند، با ۷ ماه فاصله ویدیو رو منتشر کردند و این باکیفیتترین ویدیوئیه که به دستمون رسیده.
پ.ن. این پست رو دست به دست کنید که افراد بیشتری ببینند. انشاءالله به زودی از این ورکشاپها خودمون بیشتر و بهتر برگزار میکنیم.
لینک آپارات ویدئو:
https://aparat.com/v/4Jivq
لینک اسلایدها و نوتبوکها (استار فراموش نشه):
https://github.com/mmsamiei/huggingface-workshop
#coach
#watch
#overfit
@nlp_stuff
ارائهای با موضوع «معیار هوشمندی»
مهدیمون فردا (چهارشنبه ۱۲ آبان) ساعت ۱۰ قراره راجع به معیار هوشمندی صحبت کنه. دید خیلی خوبی از وضعیت واقعگرایانهی حال و آینده هوش بهتون میده. از دست ندید و لطفا دستبهدست کنید.
خلاصه: به لطف یادگیری عمیق، امروز ما در بهار هوش مصنوعی هستیم. مدلهای از پیش آموزش دیده بزرگ عملکرد خیرهکننده را در مسائل در حوزههای پردازش تصویر، پردازش زبان و پردازش صوت به دست آوردهاند و حتی در بعضی از موارد از عملکرد انسانی نیز پیشی گرفتهاند.
نکته ناامیدکننده اما این است که مدلهای عصبی امروزی در برابر حملات خصمانه شکنندهاند، بسیار به داده گرسنهاند و از همه مهمتر قادر به انتقال یادگیری خود به محیطهای نو نیستند. این نقاط تاریک این سوال را به وجود میآورد که آیا واقعا این شبکهها هوشمند هستند؟ برای فهمیدن این مطلب ابتدا بایستی هوش را تعریف کنیم. ما برای بررسی این بحث از نظرات «فرانسوا شله» کمک میگیریم. در این ارائه ما پس از بررسی ویژگیهای موردنیاز برای تعریف هوش، تعریف صوری «شله» از هوش را بحث خواهیم کرد. سپس با محک ARC که توسط «شله» برای سنجیدن هوش خلق شده است آشنا میشویم و به گمانهپردازی میپردازیم که چاره و راه حل این چالش به چه شکل خواهد بود. در انتهای بحث در مورد تعریف هوش احتمالا با سوالات چالش برانگیزتری مواجه خواهیم شد. آیا دیپ لرنینگ همه آن چیزی است که برای رسیدن به مقصد هوش مصنوعی نیاز داریم یا این که قربانی زمستان بعدی هوش مصنوعی خواهد بود؟
لینک اتاق برگزاری:
http://vc.sharif.edu/ch/rohban
#overfit
@nlp_stuff
مهدیمون فردا (چهارشنبه ۱۲ آبان) ساعت ۱۰ قراره راجع به معیار هوشمندی صحبت کنه. دید خیلی خوبی از وضعیت واقعگرایانهی حال و آینده هوش بهتون میده. از دست ندید و لطفا دستبهدست کنید.
خلاصه: به لطف یادگیری عمیق، امروز ما در بهار هوش مصنوعی هستیم. مدلهای از پیش آموزش دیده بزرگ عملکرد خیرهکننده را در مسائل در حوزههای پردازش تصویر، پردازش زبان و پردازش صوت به دست آوردهاند و حتی در بعضی از موارد از عملکرد انسانی نیز پیشی گرفتهاند.
نکته ناامیدکننده اما این است که مدلهای عصبی امروزی در برابر حملات خصمانه شکنندهاند، بسیار به داده گرسنهاند و از همه مهمتر قادر به انتقال یادگیری خود به محیطهای نو نیستند. این نقاط تاریک این سوال را به وجود میآورد که آیا واقعا این شبکهها هوشمند هستند؟ برای فهمیدن این مطلب ابتدا بایستی هوش را تعریف کنیم. ما برای بررسی این بحث از نظرات «فرانسوا شله» کمک میگیریم. در این ارائه ما پس از بررسی ویژگیهای موردنیاز برای تعریف هوش، تعریف صوری «شله» از هوش را بحث خواهیم کرد. سپس با محک ARC که توسط «شله» برای سنجیدن هوش خلق شده است آشنا میشویم و به گمانهپردازی میپردازیم که چاره و راه حل این چالش به چه شکل خواهد بود. در انتهای بحث در مورد تعریف هوش احتمالا با سوالات چالش برانگیزتری مواجه خواهیم شد. آیا دیپ لرنینگ همه آن چیزی است که برای رسیدن به مقصد هوش مصنوعی نیاز داریم یا این که قربانی زمستان بعدی هوش مصنوعی خواهد بود؟
لینک اتاق برگزاری:
http://vc.sharif.edu/ch/rohban
#overfit
@nlp_stuff
Telegram
stuff
Measuring_Intelligence_@nlp_stuff.pdf
1.8 MB
ویدیو و اسلاید ارائهی «معیار هوشمندی»
فایل اسلاید ارائه مهدیمون [https://t.me/nlp_stuff/246] ضمیمه این پست شده. ویدیوی ارائه به همراه پرسش و پاسخ هم در آپارات در لینک زیر موجوده.
لینک ویدیو:
https://www.aparat.com/v/hlkre
پ.ن. لطفا این پست رو تا حد امکان دستبهدست کنید.
#overfit
#watch
@nlp_stuff
فایل اسلاید ارائه مهدیمون [https://t.me/nlp_stuff/246] ضمیمه این پست شده. ویدیوی ارائه به همراه پرسش و پاسخ هم در آپارات در لینک زیر موجوده.
لینک ویدیو:
https://www.aparat.com/v/hlkre
پ.ن. لطفا این پست رو تا حد امکان دستبهدست کنید.
#overfit
#watch
@nlp_stuff
داستان برت
اگر در کار پردازش زبان هستید قطعا اسم برت به گوشتون خورده. در چهارمین پست از رشتهپست «داستان ترنسفورمرها»، رفتیم سراغ bert و سعی کردیم به شیوه نیکو، روان و جامعی این مدل رو شرح بدیم. اگر تا به حال از برت استفاده نکردهاید یا اگر استفاده کردهاید ولی دقیقا نمیدونید تو برت چه خبره، خوندن این پست رو به شما پیشنهاد میکنیم.
لطفا کمکاری نکنید. نظر بدید و با بقیه به اشتراک بگذارید. :)
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers4-bert-c6ah7xv69vjj
#read
#blog
#overfit
@nlp_stuff
اگر در کار پردازش زبان هستید قطعا اسم برت به گوشتون خورده. در چهارمین پست از رشتهپست «داستان ترنسفورمرها»، رفتیم سراغ bert و سعی کردیم به شیوه نیکو، روان و جامعی این مدل رو شرح بدیم. اگر تا به حال از برت استفاده نکردهاید یا اگر استفاده کردهاید ولی دقیقا نمیدونید تو برت چه خبره، خوندن این پست رو به شما پیشنهاد میکنیم.
لطفا کمکاری نکنید. نظر بدید و با بقیه به اشتراک بگذارید. :)
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers4-bert-c6ah7xv69vjj
#read
#blog
#overfit
@nlp_stuff
ویرگول
داستان ترنسفورمرها (۴): داستان برت
اگر در کار پردازش زبان هستید قطعا اسم برت به گوشتون خورده در این پست قصد داریم تا با شیوه نیکو و روان و جامعی داستان برت رو توضیح بدیم
داستان ترنسفورمرها (۵): سریع و سبک، گلابگیری از برت با دیستیلبرت
مدل برت با وجود تمام قدرتی که داره اما به خاطر سنگینبودنش در عمل سخت میشه ازش استفاده کرد و هم حافظه و هم زمان قابل توجهی رو میطلبه. در پنجمین پست از رشتهپست «داستان ترنسفورمرها»، سعی کردیم تکنیک distillation رو که یک راه حل ارائه شده برای فشردهسازی مدلهای بزرگ است بررسی کنیم و بعد هم مدل distilbert رو که حاصل از انجام این تکنیک بر روی مدل برت هست معرفی کنیم.
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers5-distilbert-smwuod8mlb9p
#read
#blog
#overfit
@nlp_stuff
مدل برت با وجود تمام قدرتی که داره اما به خاطر سنگینبودنش در عمل سخت میشه ازش استفاده کرد و هم حافظه و هم زمان قابل توجهی رو میطلبه. در پنجمین پست از رشتهپست «داستان ترنسفورمرها»، سعی کردیم تکنیک distillation رو که یک راه حل ارائه شده برای فشردهسازی مدلهای بزرگ است بررسی کنیم و بعد هم مدل distilbert رو که حاصل از انجام این تکنیک بر روی مدل برت هست معرفی کنیم.
اگر پست خوبی داشتید خبر بدید که در انتشارات بگذاریم.
https://virgool.io/overfit/transformers5-distilbert-smwuod8mlb9p
#read
#blog
#overfit
@nlp_stuff
ویرگول
داستان ترنسفورمرها (۵): سریع و سبک، گلابگیری از برت با دیستیلبرت
در این پست میخوایم تکنیک distillation رو که برای فشرده سازی مدل های عصبی بزرگ به کار میره رو بررسی کنیم و بعد هم با مدل distilbert آشنا بشی…
مدل WebGPT؛ به GPT-3 اینترنت و مرورگر دادند!
چند وقت قبل شرکت OpenAI از مدل WebGPT رونمایی کرد که باعث شگفتی خیلیها شد و خیلی ترکوند.
شرکت OpenAI با یه تیم متشکل از یه نیسان آدم اومده GPT-3 رو فاینتیون کرده تا بتونه سوالهای دامنهباز رو با استفاده از یک مرورگر (browser) پاسخ بلند (در حد پاراگراف) بده! یعنی واقعا یه مرورگر تکستی درست کردند و دادند دست مدل GPT-3 که با بینگ (موتور جستجوی مایکروسافت) سرچ کنه و جواب سوال رو «تولید» کنه.
در این پست خلاصهای از نحوهی کار و نتایج این مدل رو بررسی کردیم. اگر به نظرتون خوب بود، لایک کنید و دست به دست کنید.
https://virgool.io/overfit/papers-webgpt-a0xvwzafrj2q
#overfit
#read
#blog
پ.ن. رسیدیم به دو کا. مبارکا. ممنون که به بقیه، اندک کانال خودتون رو معرفی میکنید. تشکرات!
@nlp_stuff
چند وقت قبل شرکت OpenAI از مدل WebGPT رونمایی کرد که باعث شگفتی خیلیها شد و خیلی ترکوند.
شرکت OpenAI با یه تیم متشکل از یه نیسان آدم اومده GPT-3 رو فاینتیون کرده تا بتونه سوالهای دامنهباز رو با استفاده از یک مرورگر (browser) پاسخ بلند (در حد پاراگراف) بده! یعنی واقعا یه مرورگر تکستی درست کردند و دادند دست مدل GPT-3 که با بینگ (موتور جستجوی مایکروسافت) سرچ کنه و جواب سوال رو «تولید» کنه.
در این پست خلاصهای از نحوهی کار و نتایج این مدل رو بررسی کردیم. اگر به نظرتون خوب بود، لایک کنید و دست به دست کنید.
https://virgool.io/overfit/papers-webgpt-a0xvwzafrj2q
#overfit
#read
#blog
پ.ن. رسیدیم به دو کا. مبارکا. ممنون که به بقیه، اندک کانال خودتون رو معرفی میکنید. تشکرات!
@nlp_stuff
داستان ترنسفورمرها (۶): داستان XLNet
در ششمین قسمت از سریال «داستان ترنسفورمرها»، رفتیم سراغ داستان شبکه XLNet که از خانواده مدلهای autoregressive است. این مدل به نوعی در برابر BERT قد علم کرده و میراثدار نبرد تاریخی بین مدلهای autoregressive و autoencoder است. برای اینکه این نبرد رو بشناسید و با XLNet هم آشنا بشید این پست ویرگول رو از دست ندید.
پ.ن.۱: کمکاری نکنید. نظر بدید و با بقیه به اشتراک بذارید.
پ.ن.۲: اگر پست خوبی داشتید خبر بدید که در انتشارات بذاریم.
لینک پست ویرگول:
https://virgool.io/overfit/transformers6-xlnet-ufgmgu9rl8rs
#read
#blog
#overfit
@nlp_stuff
در ششمین قسمت از سریال «داستان ترنسفورمرها»، رفتیم سراغ داستان شبکه XLNet که از خانواده مدلهای autoregressive است. این مدل به نوعی در برابر BERT قد علم کرده و میراثدار نبرد تاریخی بین مدلهای autoregressive و autoencoder است. برای اینکه این نبرد رو بشناسید و با XLNet هم آشنا بشید این پست ویرگول رو از دست ندید.
پ.ن.۱: کمکاری نکنید. نظر بدید و با بقیه به اشتراک بذارید.
پ.ن.۲: اگر پست خوبی داشتید خبر بدید که در انتشارات بذاریم.
لینک پست ویرگول:
https://virgool.io/overfit/transformers6-xlnet-ufgmgu9rl8rs
#read
#blog
#overfit
@nlp_stuff
ویرگول
داستان ترنسفورمرها (۶): داستان XLNet
اگر علاقهمند هستید که درباره XLNet و علل برتریش بر BERT بیشتر بدونید، این پست رو از دست ندید
تیپیکال سمپلینگ، تکه گمشده پازل تولید متن توسط رباتها
در سالهای گذشته محققان سعی کردهاند تا با آموزش دادن مدلهای هر چه بزرگتر نظیر GPT، بتونند کیفیت متنهای تولید شده رو افزایش بدند. اما حالا مقالهای اومده و نشون داده انتخاب و ابداع روش نمونهبرداری فارغ از سایز مدل، میتونه در کیفیت متنهای تولیدی خیلی موثر باشه. این دوستان روشی رو پیشنهاد دادند که میشه به صورت جعبه سیاه، به مکانیزم نمونهبرداری هر مدل جنریتیو زبانی اعمال کرد و نتیجه رو بهبود بخشید.
پ.ن.۱: کمکاری نکنید. نظر بدید و با بقیه به اشتراک بذارید.
پ.ن.۲: اگر پست خوبی داشتید خبر بدید که در انتشارات بذاریم.
لینک پست ویرگول:
https://vrgl.ir/DNaDb
لینک مقاله:
https://arxiv.org/abs/2202.00666
#read
#blog
#overfit
@nlp_stuff
در سالهای گذشته محققان سعی کردهاند تا با آموزش دادن مدلهای هر چه بزرگتر نظیر GPT، بتونند کیفیت متنهای تولید شده رو افزایش بدند. اما حالا مقالهای اومده و نشون داده انتخاب و ابداع روش نمونهبرداری فارغ از سایز مدل، میتونه در کیفیت متنهای تولیدی خیلی موثر باشه. این دوستان روشی رو پیشنهاد دادند که میشه به صورت جعبه سیاه، به مکانیزم نمونهبرداری هر مدل جنریتیو زبانی اعمال کرد و نتیجه رو بهبود بخشید.
پ.ن.۱: کمکاری نکنید. نظر بدید و با بقیه به اشتراک بذارید.
پ.ن.۲: اگر پست خوبی داشتید خبر بدید که در انتشارات بذاریم.
لینک پست ویرگول:
https://vrgl.ir/DNaDb
لینک مقاله:
https://arxiv.org/abs/2202.00666
#read
#blog
#overfit
@nlp_stuff
ویرگول
تیپیکال سمپلینگ، تکه گمشده پازل تولید متن توسط رباتها
در این پست میخواهیم به بهانه یه مقاله جدید در حوزه تولید متن، ببینیم آیا رباتها میتونند با استفاده از هوش مصنوعی مانند انسانها تکلم کنند…
داستان آلفاگو
بازی گو یک بازی تخته ای دو نفره است که در شرق آسیا از قدیم الایام خیلی طرفدار داشته و قوانینش از شطرنج هم سادهترند. اما علی رغم این سادگی قوانین، استراتژیهای خیلی پیچیدهای رو میطلبه. به همین علت با این که کامپیوترها تونستند سال ۱۹۹۶ برای اولین بار قهرمان انسانها رو در شطرنج شکست بدن ولی برای تکرار این موفقیت در گو، قریب به دو دهه انتظار کشیدند تا بالاخره دیپ مایند با مدل آلفاگو تونست این کار رو به سرانجام برسونه.
در این پست در ویرگول سعی کردیم معماری و نحوه آموزش مدل آلفاگو رو به توضیح بدیم. آلفاگو در سال ۲۰۱۵ برای خودش انقلابی در زمینه هوش مصنوعی محسوب میشده و باعث شد که موجی از توجهات به RL و یادگیری تقویتی جلب بشه. انشالله اگر عمری باقی باشه به باقی مقالات و مدلهای مهم جریانساز هوش مصنوعی نیز میپردازیم.
لینک پست:
https://virgool.io/overfit/alphago-mhoamralnzeq
#overfit
#read
#paper
#blog
@nlp_stuff
بازی گو یک بازی تخته ای دو نفره است که در شرق آسیا از قدیم الایام خیلی طرفدار داشته و قوانینش از شطرنج هم سادهترند. اما علی رغم این سادگی قوانین، استراتژیهای خیلی پیچیدهای رو میطلبه. به همین علت با این که کامپیوترها تونستند سال ۱۹۹۶ برای اولین بار قهرمان انسانها رو در شطرنج شکست بدن ولی برای تکرار این موفقیت در گو، قریب به دو دهه انتظار کشیدند تا بالاخره دیپ مایند با مدل آلفاگو تونست این کار رو به سرانجام برسونه.
در این پست در ویرگول سعی کردیم معماری و نحوه آموزش مدل آلفاگو رو به توضیح بدیم. آلفاگو در سال ۲۰۱۵ برای خودش انقلابی در زمینه هوش مصنوعی محسوب میشده و باعث شد که موجی از توجهات به RL و یادگیری تقویتی جلب بشه. انشالله اگر عمری باقی باشه به باقی مقالات و مدلهای مهم جریانساز هوش مصنوعی نیز میپردازیم.
لینک پست:
https://virgool.io/overfit/alphago-mhoamralnzeq
#overfit
#read
#paper
#blog
@nlp_stuff
ویرگول
آلفاگو، یادگیری ماشین برای چیرگی بر یک بازی کهن
وقتی برای اولین بار یک کامپیوتر، قهرمان انسانها توی بازی گو رو شکست میده.
اندر حکایت GPT-4 و چالهچولههای آن!
اندکی از انتشار GPT-4 میگذره و حالا در این پست ویرگول قصد داریم بر اساس مقاله اخیری که تیم microsoft منتشر کرده به نقاط کور و چالشهای این مدل بپردازیم. در این مقاله به صورت هنرمندانه promptهایی تهیه شده که این نقاط ضعف رو نشون میده و دیدنش خالی از لطف نیست.
پ.ن. اینا نشستند ۱۵۰ صفحه مقاله نوشتند خداوکیلی ظلم در حقشون هست که شما مقاله شون رو حتی یه تورق هم نکنید! حداقل تصاویرش رو ببینید D:
لینک پست ویرگول:
https://virgool.io/overfit/gpt-4-b35cyw5oxi4t
لینک مقاله:
https://arxiv.org/abs/2303.12712
#read
#paper
#overfit
@nlp_stuff
اندکی از انتشار GPT-4 میگذره و حالا در این پست ویرگول قصد داریم بر اساس مقاله اخیری که تیم microsoft منتشر کرده به نقاط کور و چالشهای این مدل بپردازیم. در این مقاله به صورت هنرمندانه promptهایی تهیه شده که این نقاط ضعف رو نشون میده و دیدنش خالی از لطف نیست.
پ.ن. اینا نشستند ۱۵۰ صفحه مقاله نوشتند خداوکیلی ظلم در حقشون هست که شما مقاله شون رو حتی یه تورق هم نکنید! حداقل تصاویرش رو ببینید D:
لینک پست ویرگول:
https://virgool.io/overfit/gpt-4-b35cyw5oxi4t
لینک مقاله:
https://arxiv.org/abs/2303.12712
#read
#paper
#overfit
@nlp_stuff
ویدیوهای کارگاه آشنایی با HF و میزگرد آیا زمستان هوش مصنوعی در پیش است؟
مهدیمون در دو برنامه از WSS امسال حضور داشت.
اولی ورکشاپی بود با عنوان آHugging Face: A Platform to Democratize Open-Source AI که در اون سعی کرده به شکل متفاوتی از ابتدای تایملاین دیپ لرنینگ شروع کنه به توضیح دادن تا به این برسه که هاگینگفیس چجوری داره به دموکراتایز کردن هوش مصنوعی کمک میکنه. دیدنش دید خیلی خوبی از بالا بهتون میده.
دومی هم میزگردی بود که زمستان هوش مصنوعی را بررسی میکنند. آقای دکتر ربیعی، آقای دکتر رهبان و محمدرضا صمصامی (از محققین موسسه میلا) هم در این میزگرد حضور داشتند و راجع به این موضوع صحبت میکردند که آیا این مسیر به AGI ختم میشه یا به زمستان بعدی هوش مصنوعی خواهیم رسید.
لینک ویدیوی ورکشاپ:
https://aparat.com/v/PC952
لینک ویدیوی میزگرد:
https://aparat.com/v/nUVJR
#overfit
#coach
@nlp_stuff
مهدیمون در دو برنامه از WSS امسال حضور داشت.
اولی ورکشاپی بود با عنوان آHugging Face: A Platform to Democratize Open-Source AI که در اون سعی کرده به شکل متفاوتی از ابتدای تایملاین دیپ لرنینگ شروع کنه به توضیح دادن تا به این برسه که هاگینگفیس چجوری داره به دموکراتایز کردن هوش مصنوعی کمک میکنه. دیدنش دید خیلی خوبی از بالا بهتون میده.
دومی هم میزگردی بود که زمستان هوش مصنوعی را بررسی میکنند. آقای دکتر ربیعی، آقای دکتر رهبان و محمدرضا صمصامی (از محققین موسسه میلا) هم در این میزگرد حضور داشتند و راجع به این موضوع صحبت میکردند که آیا این مسیر به AGI ختم میشه یا به زمستان بعدی هوش مصنوعی خواهیم رسید.
لینک ویدیوی ورکشاپ:
https://aparat.com/v/PC952
لینک ویدیوی میزگرد:
https://aparat.com/v/nUVJR
#overfit
#coach
@nlp_stuff