DLeX: AI Python
22.8K subscribers
4.95K photos
1.22K videos
765 files
4.3K links
هوش‌مصنوعی و برنامه‌نویسی

ارتباط با نوید داریا در توییتر :
https://twitter.com/NaviDDariya

اراتباط با لی لی علوی در تلگرام :
@lilylawww
Download Telegram
Optimizing Prompts for Text-to-Image Generation


🖥 Github: https://github.com/microsoft/lmops

➡️Paprer: https://arxiv.org/abs/2212.09611v1

✔️Dataset: https://paperswithcode.com/dataset/diffusiondb

💨 Transformers at Scale: https://github.com/microsoft/torchscale

#مقاله

@AI_Python
Forwarded from Meysam
This media is not supported in your browser
VIEW IN TELEGRAM
کانولوشن چطوری کار میکنه؟
Forwarded from Meysam
میدونم همتون chatgpt رو دوست دارید ولی یه یادی هم بکنیم از فلامینگو و چندتا از خروجی هاش رو باهم مرور کنیم.

لینک:
https://www.deepmind.com/blog/tackling-multiple-tasks-with-a-single-visual-language-model
Forwarded from زانکو (Javad Amirian)
اگر سریال Game of Thrones به سبک ژاپنی ساخته میشد، به روایت هوش مصنوعی 😀
تولید شده توسط مدل Stable Diffusion

linkedin.com/posts/david-ha-168a012_scenes-from-game-of-thrones-as-a-japanese-activity-7009910366247796736-hBVz
@zankoo_ai
Forwarded from Meysam
This media is not supported in your browser
VIEW IN TELEGRAM
یک مدل دیگه باز از طرف openai معرفی شد که می‌تونه متن رو به آبجکت سه بعدی تبدیل کنه.
به این صورت که به صورت متن بهش میگید چی میخواهید اونم براتون جنریت می‌کنه.


https://github.com/openai/point-e
Forwarded from Meysam
اسم من میثمه،
در این کانال فقط چیزهایی که به نظر خودم جالب هستند رو پست میکنم.
هوش مصنوعی یکی از موضوعاتی هست که در موردش می‌نویسم.
دوست داشتید دنبال کنید دوست نداشتید میوت نکنید لفت بدید.
مرسی.

@ai_person
🔥 Training neural networks 𝘄𝗶𝘁𝗵𝗼𝘂𝘁 𝗯𝗮𝗰𝗸𝗽𝗿𝗼𝗽?
Geoffrey Hinton proposed a forward-forward (FF) algorithm at this year's NeurIPS.

The idea is inspired by the realization that there is very little to no evidence that mammal brains are performing back-prop-like operations when learning. Are mammal brains strictly feed-forward? Maybe. Paper Link: https://www.cs.toronto.edu/~hinton/FFA13.pdf

Want to try FF yourself? Now you can do it in PyTorch!

Checkout it's now available on #github :
https://github.com/mohammadpz/pytorch_forward_forward

#مقاله

@AI_Python
3D Highlighter: Localizing Regions on 3D Shapes via Text Descriptions


🖥 Github: https://github.com/threedle/3DHighlighter

⭐️ Project: https://threedle.github.io/3DHighlighter/

Paprer: https://arxiv.org/abs/2212.11263

#مقاله

@AI_Python
Text Autoencoder (RNN) to generate news headlines

The idea is similar to the kind of image autoencoder we built in lecture: we will have an encoder that maps a news headline to a vector embedding, and then a decoder that reconstructs the news headline. Both our encoder and decoder networks will be Recurrent Neural Networks, so that you have a chance to practice building a neural network that takes a sequence as an input a neural network that generates a sequence as an output.

✳️ Github Link

✳️ @ai_python
Brain tumor detection and segmentation from MRI images using CNN and Unet models.

The CNN model is used to detect whether a tumor is there or not. After 15 epochs of training, the calculated accuracy is about 99.6%.
The U-net model is used to segment tumors in MRI images of the brain. After 10 epochs of training, the calculated accuracy is about 98%.
These deep neural networks are implemented with Keras functional API. Use the trained models to detect and segment tumors on brain MRI images. The result is satisfactory.

You can download my U-net trained model from: "" and CNN trained model from "".

To access the codes, refer to my GitHub.

GitHub:

LinkedIn

Website

#آموزش
Forwarded from NLP stuff
عمرتان زیادی کرده که دکترا بخوانید؟

این
هفته آقای لکان (یکی از سه‌ خدای دیپ‌لرنینگ) توییتی زده و به مورد Aditya Ramesh اشاره کرد. فردی که لیسانسش رو از دانشگاه NYU گرفته و قصد داشت تا وارد دوره دکتری شود اما با یک کارآموزی در OpenAI مسیرش تغییر کرده و در آن جا مانده و در نهایت با مدرک لیسانس تبدیل به نویسنده اصلی مقاله مدل معروف Dall-E می‌شود.

آقای بهنام نیشابور محقق گوگل هم توییت لکان را کوت کرده و نکات ریزتری برای تایید "نباید برای یادگیری ماشین دکترا خواند" به آن اضافه کرده است. نکته اصلی که تحصیلات تکمیلی برای زمینه‌ای مثل ML آورریتد است. چرا؟ چون که یک نفر بدون هیچ گونه پیش زمینه خاصی می‌تواند به این فیلد وارد شده و با اندکی وقت گذاشتن، حتی می‌تواند به راحتی در کنفرانس‌های مطرح دنیا مقاله‌ای چاپ کند. منابع آموزشی ML روز به روز گسترده‌تر و در دسترس‌تر می‌شوند و واقعا لازم نیست کسی برای وارد شدن به وادی پژوهشگری یادگیری ماشین بیاید و ۵ الی ۶ سال از عمرش را در ارشد یا دکتری هدر دهد. (و خودمانیم، رشته‌‌هایی مثل فیزیک را با ML مقایسه کنید. طرف در فیزیک تا بخواهد به جایی برسید باید مو سفید کند اما امروزه از صفر تا صد ماشین لرنینگ را با این تئوری‌های آبکی که دارد می‌توان در کمتر از دو سال طی نمود)

نکته‌ دیگری که آقای نیشابور اشاره کرده است این است که تعداد موقعیت‌های دکترای یادگیری ماشین روز به روز بیشتر می‌‌شود اما از آن طرف تعداد شغل‌هایی که به مدرک دکتری یادگیری ماشین نیاز دارد در آینده روز به روز کمتر می‌شود. در واقع با داشتن دکتری شما over-qualified می‌شوید و از طرف دیگر هم مگر آکادمی چه قدر موقعیت شغلی می‌تواند داشته باشد؟ در مقابل، صنعت اما بیش از ML Researcher به ML Engineer‌ها نیازمند است. کسی که بتواند چیزی را واقعا بسازد. دوره دکتری باعث دوری نسبی از شما صنعت و مهارت‌های آن خواهد شد. آقای نیشابور در انتها به نتایج تحقیقی اشاره کرده که در آن گفته شده درصد زیادی از دانشجویان تحصیلات تکمیلی دچار افسردگی و اضطراب شدید هستند.

نکته دیگری که ما به صحبت‌های بالا اضافه می‌توانیم بکنیم این است که جایگاه متفاوت یادگیری ماشین و به طور عام هوش مصنوعی نسبت به سایر علوم را باید در نظر گرفت. هوش مصنوعی در مدت ۷۰ سال اخیری که از خدا عمر گرفته است، همچنان حوزه یکپارچه‌ای نبوده است. هر از چند گاهی ایده‌ای آمده است و با هوش مصنوعی وارد بهاری شده و در نهایت در زمستانی دفن شده است. گاهی منطق‌دان‌ها به آن وارد شده‌اند و با دیدشان روش‌های سیستم‌های خبره و منطق را برای هوش مصنوعی توسعه داده‌اند. گاهی برقی‌ها وارد شده‌اند و مفاهیم سیگنالی را در حوزه هوش مصنوعی غالب کرده‌اند و این اواخر هم ریاضی‌دان‌ها و آماردان‌ها وارد شده و پارادایم یادگیری ماشین را پادشاه هوش مصنوعی کرده‌اند. از حدود ۲۰۱۲ به این ور هم شبکه‌های دیپ (شاید مدیون پیشرفت‌‌های سخت‌افزاری) فرمان بازی را به دست گرفته و بهاری‌ترین دوران هوش مصنوعی را رقم زده‌اند. اما واقعیت این است که یادگیری عمیق نیز اکنون احتمالا وارد پاییز خود شده است (در این مورد در آینده احتمالا صحبت می‌کنیم). مسیر تحقیقاتی هوش مصنوعی و یادگیری ماشین احتمال دارد به زودی دوباره وارد زمستان سخت شده و تمامی سرمایه‌گذاری‌های تحقیقاتی بسوزند. البته که بحث دنیای صنعت فرق می‌کند و همین الان بسیاری راه‌حل‌های یافت شده در دنیای آکادمی آماده هستند تا به دنیای صنعت و کاربرد اعمال شوند. در همین راستا شاید پیشنهاد ML Engineer شدن به جای ML Researcher شدن پیشنهاد عافیت داری برای دین و دنیا باشد. برای حسن ختام به قول سعدی:
کرامت جوانمردی و نان‌دهی است
مقالات بیهوده طبل تهی است

پی‌نوشت-۲: البته اگر در بلاد کفر نیستید قاعدتا برای رسیدن به جایی مانند گوگل یا کوچکتر از آن مسیری جز اپلای تحصیلی برای ساختن رزومه و تقویت حلقه تاثیر شاید نیست. بحث کلی این است که در شرایط عادی، دکترای یادگیری ماشین معنی چندانی در دنیای امروز ندارد.

لینک توییت لکان:
https://twitter.com/ylecun/status/1605450677806895104

لینک توییت نیشابور:
https://twitter.com/bneyshabur/status/1605677285255675904

#tweet
#read

@nlp_stuff
Stacking Ensemble for Deep Learning Neural Networks in Python


✳️ Model averaging can be improved by weighting the contributions of each sub-model to the combined prediction by the expected performance of the submodel. This can be extended further by training an entirely new model to learn how to best combine the contributions from each submodel. This approach is called stacked generalization, or stacking for short, and can result in better predictive performance than any single contributing model.

✳️ BlogToLearn
✳️ BlogToLearn

✳️ @ai_python
Forwarded from Meysam
آیا مدلهای زبانی بزرگ میتونند سوالات بیومدیکال رو جواب بدند؟

لینک:
https://arxiv.org/abs/2207.08143