Optimizing Prompts for Text-to-Image Generation
🖥 Github: https://github.com/microsoft/lmops
➡️Paprer: https://arxiv.org/abs/2212.09611v1
✔️Dataset: https://paperswithcode.com/dataset/diffusiondb
💨 Transformers at Scale: https://github.com/microsoft/torchscale
#مقاله
✅ @AI_Python
🖥 Github: https://github.com/microsoft/lmops
➡️Paprer: https://arxiv.org/abs/2212.09611v1
✔️Dataset: https://paperswithcode.com/dataset/diffusiondb
💨 Transformers at Scale: https://github.com/microsoft/torchscale
#مقاله
✅ @AI_Python
Forwarded from Meysam
This media is not supported in your browser
VIEW IN TELEGRAM
کانولوشن چطوری کار میکنه؟
Forwarded from Meysam
میدونم همتون chatgpt رو دوست دارید ولی یه یادی هم بکنیم از فلامینگو و چندتا از خروجی هاش رو باهم مرور کنیم.
لینک:
https://www.deepmind.com/blog/tackling-multiple-tasks-with-a-single-visual-language-model
لینک:
https://www.deepmind.com/blog/tackling-multiple-tasks-with-a-single-visual-language-model
Forwarded from زانکو (Javad Amirian)
اگر سریال Game of Thrones به سبک ژاپنی ساخته میشد، به روایت هوش مصنوعی 😀
تولید شده توسط مدل Stable Diffusion
linkedin.com/posts/david-ha-168a012_scenes-from-game-of-thrones-as-a-japanese-activity-7009910366247796736-hBVz
@zankoo_ai
تولید شده توسط مدل Stable Diffusion
linkedin.com/posts/david-ha-168a012_scenes-from-game-of-thrones-as-a-japanese-activity-7009910366247796736-hBVz
@zankoo_ai
https://www.linkedin.com/posts/nazlisiasi_phdposition-gradschool-scholarship-activity-7011099996624228353-qIBi?utm_source=share&utm_medium=member_android
#اپلای
#اپلای
Linkedin
Sign Up | LinkedIn
500 million+ members | Manage your professional identity. Build and engage with your professional network. Access knowledge, insights and opportunities.
Forwarded from Meysam
This media is not supported in your browser
VIEW IN TELEGRAM
یک مدل دیگه باز از طرف openai معرفی شد که میتونه متن رو به آبجکت سه بعدی تبدیل کنه.
به این صورت که به صورت متن بهش میگید چی میخواهید اونم براتون جنریت میکنه.
https://github.com/openai/point-e
به این صورت که به صورت متن بهش میگید چی میخواهید اونم براتون جنریت میکنه.
https://github.com/openai/point-e
Forwarded from Meysam
اسم من میثمه،
در این کانال فقط چیزهایی که به نظر خودم جالب هستند رو پست میکنم.
هوش مصنوعی یکی از موضوعاتی هست که در موردش مینویسم.
دوست داشتید دنبال کنید دوست نداشتید میوت نکنید لفت بدید.
مرسی.
@ai_person
در این کانال فقط چیزهایی که به نظر خودم جالب هستند رو پست میکنم.
هوش مصنوعی یکی از موضوعاتی هست که در موردش مینویسم.
دوست داشتید دنبال کنید دوست نداشتید میوت نکنید لفت بدید.
مرسی.
@ai_person
Generalized Decoding for Pixel, Image, and Language
🖥 Github: https://github.com/microsoft/X-Decoder
Hugging Face Demo: https://huggingface.co/spaces/xdecoder/Demo
⭐️ Project: https://x-decoder-vl.github.io/
⏩ Paprer: https://arxiv.org/pdf/2212.11270.pdf
✔️ Dataset: https://paperswithcode.com/dataset/visual-genome
#مقاله
✅ @AI_Python
🖥 Github: https://github.com/microsoft/X-Decoder
Hugging Face Demo: https://huggingface.co/spaces/xdecoder/Demo
⭐️ Project: https://x-decoder-vl.github.io/
⏩ Paprer: https://arxiv.org/pdf/2212.11270.pdf
✔️ Dataset: https://paperswithcode.com/dataset/visual-genome
#مقاله
✅ @AI_Python
GitHub
GitHub - microsoft/X-Decoder: [CVPR 2023] Official Implementation of X-Decoder for generalized decoding for pixel, image and language
[CVPR 2023] Official Implementation of X-Decoder for generalized decoding for pixel, image and language - microsoft/X-Decoder
🔥 Training neural networks 𝘄𝗶𝘁𝗵𝗼𝘂𝘁 𝗯𝗮𝗰𝗸𝗽𝗿𝗼𝗽?
Geoffrey Hinton proposed a forward-forward (FF) algorithm at this year's NeurIPS.
The idea is inspired by the realization that there is very little to no evidence that mammal brains are performing back-prop-like operations when learning. Are mammal brains strictly feed-forward? Maybe. Paper Link: https://www.cs.toronto.edu/~hinton/FFA13.pdf
Want to try FF yourself? Now you can do it in PyTorch!
Checkout it's now available on #github :
https://github.com/mohammadpz/pytorch_forward_forward
#مقاله
✅ @AI_Python
Geoffrey Hinton proposed a forward-forward (FF) algorithm at this year's NeurIPS.
The idea is inspired by the realization that there is very little to no evidence that mammal brains are performing back-prop-like operations when learning. Are mammal brains strictly feed-forward? Maybe. Paper Link: https://www.cs.toronto.edu/~hinton/FFA13.pdf
Want to try FF yourself? Now you can do it in PyTorch!
Checkout it's now available on #github :
https://github.com/mohammadpz/pytorch_forward_forward
#مقاله
✅ @AI_Python
3D Highlighter: Localizing Regions on 3D Shapes via Text Descriptions
🖥 Github: https://github.com/threedle/3DHighlighter
⭐️ Project: https://threedle.github.io/3DHighlighter/
⏩ Paprer: https://arxiv.org/abs/2212.11263
#مقاله
✅ @AI_Python
🖥 Github: https://github.com/threedle/3DHighlighter
⭐️ Project: https://threedle.github.io/3DHighlighter/
⏩ Paprer: https://arxiv.org/abs/2212.11263
#مقاله
✅ @AI_Python
✅ Text Autoencoder (RNN) to generate news headlines
✅
✳️ @ai_python
✅
The idea is similar to the kind of image autoencoder we built in lecture: we will have an encoder that maps a news headline to a vector embedding, and then a decoder that reconstructs the news headline. Both our encoder and decoder networks will be Recurrent Neural Networks, so that you have a chance to practice building a neural network that takes a sequence as an input a neural network that generates a sequence as an output.
✳️ Github Link✳️ @ai_python
Brain tumor detection and segmentation from MRI images using CNN and Unet models.
The CNN model is used to detect whether a tumor is there or not. After 15 epochs of training, the calculated accuracy is about 99.6%.
The U-net model is used to segment tumors in MRI images of the brain. After 10 epochs of training, the calculated accuracy is about 98%.
These deep neural networks are implemented with Keras functional API. Use the trained models to detect and segment tumors on brain MRI images. The result is satisfactory.
You can download my U-net trained model from: "" and CNN trained model from "".
To access the codes, refer to my GitHub.
GitHub:
LinkedIn
Website
#آموزش
The CNN model is used to detect whether a tumor is there or not. After 15 epochs of training, the calculated accuracy is about 99.6%.
The U-net model is used to segment tumors in MRI images of the brain. After 10 epochs of training, the calculated accuracy is about 98%.
These deep neural networks are implemented with Keras functional API. Use the trained models to detect and segment tumors on brain MRI images. The result is satisfactory.
You can download my U-net trained model from: "" and CNN trained model from "".
To access the codes, refer to my GitHub.
GitHub:
Website
#آموزش
Forwarded from NLP stuff
عمرتان زیادی کرده که دکترا بخوانید؟
این هفته آقای لکان (یکی از سه خدای دیپلرنینگ) توییتی زده و به مورد Aditya Ramesh اشاره کرد. فردی که لیسانسش رو از دانشگاه NYU گرفته و قصد داشت تا وارد دوره دکتری شود اما با یک کارآموزی در OpenAI مسیرش تغییر کرده و در آن جا مانده و در نهایت با مدرک لیسانس تبدیل به نویسنده اصلی مقاله مدل معروف Dall-E میشود.
آقای بهنام نیشابور محقق گوگل هم توییت لکان را کوت کرده و نکات ریزتری برای تایید "نباید برای یادگیری ماشین دکترا خواند" به آن اضافه کرده است. نکته اصلی که تحصیلات تکمیلی برای زمینهای مثل ML آورریتد است. چرا؟ چون که یک نفر بدون هیچ گونه پیش زمینه خاصی میتواند به این فیلد وارد شده و با اندکی وقت گذاشتن، حتی میتواند به راحتی در کنفرانسهای مطرح دنیا مقالهای چاپ کند. منابع آموزشی ML روز به روز گستردهتر و در دسترستر میشوند و واقعا لازم نیست کسی برای وارد شدن به وادی پژوهشگری یادگیری ماشین بیاید و ۵ الی ۶ سال از عمرش را در ارشد یا دکتری هدر دهد. (و خودمانیم، رشتههایی مثل فیزیک را با ML مقایسه کنید. طرف در فیزیک تا بخواهد به جایی برسید باید مو سفید کند اما امروزه از صفر تا صد ماشین لرنینگ را با این تئوریهای آبکی که دارد میتوان در کمتر از دو سال طی نمود)
نکته دیگری که آقای نیشابور اشاره کرده است این است که تعداد موقعیتهای دکترای یادگیری ماشین روز به روز بیشتر میشود اما از آن طرف تعداد شغلهایی که به مدرک دکتری یادگیری ماشین نیاز دارد در آینده روز به روز کمتر میشود. در واقع با داشتن دکتری شما over-qualified میشوید و از طرف دیگر هم مگر آکادمی چه قدر موقعیت شغلی میتواند داشته باشد؟ در مقابل، صنعت اما بیش از ML Researcher به ML Engineerها نیازمند است. کسی که بتواند چیزی را واقعا بسازد. دوره دکتری باعث دوری نسبی از شما صنعت و مهارتهای آن خواهد شد. آقای نیشابور در انتها به نتایج تحقیقی اشاره کرده که در آن گفته شده درصد زیادی از دانشجویان تحصیلات تکمیلی دچار افسردگی و اضطراب شدید هستند.
نکته دیگری که ما به صحبتهای بالا اضافه میتوانیم بکنیم این است که جایگاه متفاوت یادگیری ماشین و به طور عام هوش مصنوعی نسبت به سایر علوم را باید در نظر گرفت. هوش مصنوعی در مدت ۷۰ سال اخیری که از خدا عمر گرفته است، همچنان حوزه یکپارچهای نبوده است. هر از چند گاهی ایدهای آمده است و با هوش مصنوعی وارد بهاری شده و در نهایت در زمستانی دفن شده است. گاهی منطقدانها به آن وارد شدهاند و با دیدشان روشهای سیستمهای خبره و منطق را برای هوش مصنوعی توسعه دادهاند. گاهی برقیها وارد شدهاند و مفاهیم سیگنالی را در حوزه هوش مصنوعی غالب کردهاند و این اواخر هم ریاضیدانها و آماردانها وارد شده و پارادایم یادگیری ماشین را پادشاه هوش مصنوعی کردهاند. از حدود ۲۰۱۲ به این ور هم شبکههای دیپ (شاید مدیون پیشرفتهای سختافزاری) فرمان بازی را به دست گرفته و بهاریترین دوران هوش مصنوعی را رقم زدهاند. اما واقعیت این است که یادگیری عمیق نیز اکنون احتمالا وارد پاییز خود شده است (در این مورد در آینده احتمالا صحبت میکنیم). مسیر تحقیقاتی هوش مصنوعی و یادگیری ماشین احتمال دارد به زودی دوباره وارد زمستان سخت شده و تمامی سرمایهگذاریهای تحقیقاتی بسوزند. البته که بحث دنیای صنعت فرق میکند و همین الان بسیاری راهحلهای یافت شده در دنیای آکادمی آماده هستند تا به دنیای صنعت و کاربرد اعمال شوند. در همین راستا شاید پیشنهاد ML Engineer شدن به جای ML Researcher شدن پیشنهاد عافیت داری برای دین و دنیا باشد. برای حسن ختام به قول سعدی:
کرامت جوانمردی و ناندهی است
مقالات بیهوده طبل تهی است
پینوشت-۲: البته اگر در بلاد کفر نیستید قاعدتا برای رسیدن به جایی مانند گوگل یا کوچکتر از آن مسیری جز اپلای تحصیلی برای ساختن رزومه و تقویت حلقه تاثیر شاید نیست. بحث کلی این است که در شرایط عادی، دکترای یادگیری ماشین معنی چندانی در دنیای امروز ندارد.
لینک توییت لکان:
https://twitter.com/ylecun/status/1605450677806895104
لینک توییت نیشابور:
https://twitter.com/bneyshabur/status/1605677285255675904
#tweet
#read
@nlp_stuff
این هفته آقای لکان (یکی از سه خدای دیپلرنینگ) توییتی زده و به مورد Aditya Ramesh اشاره کرد. فردی که لیسانسش رو از دانشگاه NYU گرفته و قصد داشت تا وارد دوره دکتری شود اما با یک کارآموزی در OpenAI مسیرش تغییر کرده و در آن جا مانده و در نهایت با مدرک لیسانس تبدیل به نویسنده اصلی مقاله مدل معروف Dall-E میشود.
آقای بهنام نیشابور محقق گوگل هم توییت لکان را کوت کرده و نکات ریزتری برای تایید "نباید برای یادگیری ماشین دکترا خواند" به آن اضافه کرده است. نکته اصلی که تحصیلات تکمیلی برای زمینهای مثل ML آورریتد است. چرا؟ چون که یک نفر بدون هیچ گونه پیش زمینه خاصی میتواند به این فیلد وارد شده و با اندکی وقت گذاشتن، حتی میتواند به راحتی در کنفرانسهای مطرح دنیا مقالهای چاپ کند. منابع آموزشی ML روز به روز گستردهتر و در دسترستر میشوند و واقعا لازم نیست کسی برای وارد شدن به وادی پژوهشگری یادگیری ماشین بیاید و ۵ الی ۶ سال از عمرش را در ارشد یا دکتری هدر دهد. (و خودمانیم، رشتههایی مثل فیزیک را با ML مقایسه کنید. طرف در فیزیک تا بخواهد به جایی برسید باید مو سفید کند اما امروزه از صفر تا صد ماشین لرنینگ را با این تئوریهای آبکی که دارد میتوان در کمتر از دو سال طی نمود)
نکته دیگری که آقای نیشابور اشاره کرده است این است که تعداد موقعیتهای دکترای یادگیری ماشین روز به روز بیشتر میشود اما از آن طرف تعداد شغلهایی که به مدرک دکتری یادگیری ماشین نیاز دارد در آینده روز به روز کمتر میشود. در واقع با داشتن دکتری شما over-qualified میشوید و از طرف دیگر هم مگر آکادمی چه قدر موقعیت شغلی میتواند داشته باشد؟ در مقابل، صنعت اما بیش از ML Researcher به ML Engineerها نیازمند است. کسی که بتواند چیزی را واقعا بسازد. دوره دکتری باعث دوری نسبی از شما صنعت و مهارتهای آن خواهد شد. آقای نیشابور در انتها به نتایج تحقیقی اشاره کرده که در آن گفته شده درصد زیادی از دانشجویان تحصیلات تکمیلی دچار افسردگی و اضطراب شدید هستند.
نکته دیگری که ما به صحبتهای بالا اضافه میتوانیم بکنیم این است که جایگاه متفاوت یادگیری ماشین و به طور عام هوش مصنوعی نسبت به سایر علوم را باید در نظر گرفت. هوش مصنوعی در مدت ۷۰ سال اخیری که از خدا عمر گرفته است، همچنان حوزه یکپارچهای نبوده است. هر از چند گاهی ایدهای آمده است و با هوش مصنوعی وارد بهاری شده و در نهایت در زمستانی دفن شده است. گاهی منطقدانها به آن وارد شدهاند و با دیدشان روشهای سیستمهای خبره و منطق را برای هوش مصنوعی توسعه دادهاند. گاهی برقیها وارد شدهاند و مفاهیم سیگنالی را در حوزه هوش مصنوعی غالب کردهاند و این اواخر هم ریاضیدانها و آماردانها وارد شده و پارادایم یادگیری ماشین را پادشاه هوش مصنوعی کردهاند. از حدود ۲۰۱۲ به این ور هم شبکههای دیپ (شاید مدیون پیشرفتهای سختافزاری) فرمان بازی را به دست گرفته و بهاریترین دوران هوش مصنوعی را رقم زدهاند. اما واقعیت این است که یادگیری عمیق نیز اکنون احتمالا وارد پاییز خود شده است (در این مورد در آینده احتمالا صحبت میکنیم). مسیر تحقیقاتی هوش مصنوعی و یادگیری ماشین احتمال دارد به زودی دوباره وارد زمستان سخت شده و تمامی سرمایهگذاریهای تحقیقاتی بسوزند. البته که بحث دنیای صنعت فرق میکند و همین الان بسیاری راهحلهای یافت شده در دنیای آکادمی آماده هستند تا به دنیای صنعت و کاربرد اعمال شوند. در همین راستا شاید پیشنهاد ML Engineer شدن به جای ML Researcher شدن پیشنهاد عافیت داری برای دین و دنیا باشد. برای حسن ختام به قول سعدی:
کرامت جوانمردی و ناندهی است
مقالات بیهوده طبل تهی است
پینوشت-۲: البته اگر در بلاد کفر نیستید قاعدتا برای رسیدن به جایی مانند گوگل یا کوچکتر از آن مسیری جز اپلای تحصیلی برای ساختن رزومه و تقویت حلقه تاثیر شاید نیست. بحث کلی این است که در شرایط عادی، دکترای یادگیری ماشین معنی چندانی در دنیای امروز ندارد.
لینک توییت لکان:
https://twitter.com/ylecun/status/1605450677806895104
لینک توییت نیشابور:
https://twitter.com/bneyshabur/status/1605677285255675904
#tweet
#read
@nlp_stuff
Telegram
stuff
✅ Stacking Ensemble for Deep Learning Neural Networks in Python
✳️ BlogToLearn
✳️ @ai_python
✳️ Model averaging can be improved by weighting the contributions of each sub-model to the combined prediction by the expected performance of the submodel. This can be extended further by training an entirely new model to learn how to best combine the contributions from each submodel. This approach is called stacked generalization, or stacking for short, and can result in better predictive performance than any single contributing model.
✳️ BlogToLearn✳️ BlogToLearn
✳️ @ai_python
Forwarded from Meysam