Forwarded from RecommenderSystems
🔅 ابزارهای رایگان هوش مصنوعی برای پژوهشگران
▫️ typeset.io
پاسخ به سوال بر اساس مقالات
ساخت جدول اطلاعات از فایل مقاله
دستیار مطالعه مقاله
بازنویسی متن
▫️ researchrabbit.ai
دسته بندی مقالات
پیدا کردن و اتصال مقالات مشابه
▫️ glasp.co
یادداشت برداری از مقالات
▫️ bing.com
جستجو با هوش مصنوعی
سوال و جواب از فایل و سایت
دستیار مطالعه مقاله
درک و توضیح تصویر
▫️ https://gemini.google.com
جستجو با هوش مصنوعی
درک و توضیح تصویر
▫️ semanticscholar.org
جستجوی مقاله
پیدا کردن مقالات مشابه
▫️ consensus.app
پاسخ به سوال براساس مقاله
▫️ elicit.com
پاسخ به سوال بر اساس فایل مقاله
استخراج لیست مفاهیم برای مقاله
استخراج اطلاعات از مقالات
▫️ scite.ai
استناد جملات به مقالات
▫️ connectedpapers.com
پیدا کردن مقالات مشابه
▫️ scholarcy.com
خلاصه سازی مقاله
▫️ paperpal.com
کمک به نوشتار مقاله
✅ بهترین های هوش مصنوعی برای پژوهشگران
#هوش_مصنوعی #پژوهش #ابزار #ابزار_پژوهش
#AI #AI_Tools #ChatGPT #Best #BestTools #Best_Tools #Perplexity #Perplexity.ai #Copilot #ChatGPT4 #Word #Edit
#Research #Tools #ResearchTools #Research_Tools
@Recommender_Systems
▫️ typeset.io
پاسخ به سوال بر اساس مقالات
ساخت جدول اطلاعات از فایل مقاله
دستیار مطالعه مقاله
بازنویسی متن
▫️ researchrabbit.ai
دسته بندی مقالات
پیدا کردن و اتصال مقالات مشابه
▫️ glasp.co
یادداشت برداری از مقالات
▫️ bing.com
جستجو با هوش مصنوعی
سوال و جواب از فایل و سایت
دستیار مطالعه مقاله
درک و توضیح تصویر
▫️ https://gemini.google.com
جستجو با هوش مصنوعی
درک و توضیح تصویر
▫️ semanticscholar.org
جستجوی مقاله
پیدا کردن مقالات مشابه
▫️ consensus.app
پاسخ به سوال براساس مقاله
▫️ elicit.com
پاسخ به سوال بر اساس فایل مقاله
استخراج لیست مفاهیم برای مقاله
استخراج اطلاعات از مقالات
▫️ scite.ai
استناد جملات به مقالات
▫️ connectedpapers.com
پیدا کردن مقالات مشابه
▫️ scholarcy.com
خلاصه سازی مقاله
▫️ paperpal.com
کمک به نوشتار مقاله
✅ بهترین های هوش مصنوعی برای پژوهشگران
#هوش_مصنوعی #پژوهش #ابزار #ابزار_پژوهش
#AI #AI_Tools #ChatGPT #Best #BestTools #Best_Tools #Perplexity #Perplexity.ai #Copilot #ChatGPT4 #Word #Edit
#Research #Tools #ResearchTools #Research_Tools
@Recommender_Systems
❤7👍3👎1
منبع اصلی یادگیری Rust این کتاب
http://doc.rust-lang.org/book
اگه بخوای مثال ببینی چه جوری یه کاری انجام میدن
http://doc.rust-lang.org/rust-by-example
بهترین ویدیوها برای مفاهیم ابتدایی این کانال
https://www.youtube.com/watch?v=1QoT9fmPYr8
اگه بخوای سریع سینتکس رو یادبگیری و کلی بفهمی چه خبره
https://google.github.io/comprehensive-rust/
#برنامه_نویسی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
http://doc.rust-lang.org/book
اگه بخوای مثال ببینی چه جوری یه کاری انجام میدن
http://doc.rust-lang.org/rust-by-example
بهترین ویدیوها برای مفاهیم ابتدایی این کانال
https://www.youtube.com/watch?v=1QoT9fmPYr8
اگه بخوای سریع سینتکس رو یادبگیری و کلی بفهمی چه خبره
https://google.github.io/comprehensive-rust/
#برنامه_نویسی #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
doc.rust-lang.org
Introduction - Rust By Example
Rust by Example (RBE) is a collection of runnable examples that illustrate various Rust concepts and standard libraries.
❤6👍1👎1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
۹ اگوست روز دست گرفتن همدیگه است تو سختیها دست همدیگه رو بگیرید.
#انگیزشی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
#انگیزشی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👎6👍5🤣4🙏2👏1
Forwarded from Deep Mind
نسل 3.1 لاما تغییرات جالبی رو با خودش همراه کرد.
این سری از مدلهای لاما در سه نسخه 8B، 70B و 405B منتشر شدن و یه تغییر بزرگ رو توی جامعه اوپن سورس رقم زدن. این تغییر بزرگ به واسطه انتشار بزرگترین مدل این سری یعنی Llama 3.1 405B اتفاق افتاده. مدلی با 405 میلیارد پارامتر که بزرگترین مدل اوپن سورس تا به امروز هست. تا حالا هیچ کمپانیای مدلی به این عظمت رو اوپن نکرده بود و این یعنی قراره شاهد اتفاقات بزرگی توی جامعه اوپن سورس باشیم.
سنجش کیفیت مدلها با استفاده از بنچمارکها اهمیت زیادی داره چون این کار به ما امکان میده تا عملکرد مدلها رو در شرایط مختلف ارزیابی کنیم و به مقایسه دقیقتری دست پیدا کنیم. بنچمارکها بهعنوان ابزارهای استاندارد برای اندازهگیری دقت و کارایی مدلها استفاده میشن و نتایج بهدستآمده کمک میکنه تا بهطور مؤثری نقاط قوت و ضعف مدلها شناسایی بشه و بهبودهای لازم اعمال بشه. حالا با توجه به اهمیت این ارزیابیها، نگاهی میندازیم به نتایج بنچمارک مدلهای جدید لاما و تغییرات کلیدی که با خودشون به همراه داشتن.
این مدل روی 150 تا بنچمارک مختلف سنجیده شده و اتفاق جالب اینه که توی بنچمارکهایی که متا منتشر کرده، به سطحی نزدیک به Claude 3.5 Sonnet، GPT-4 و GPT-4o رسیده و حتی توی بعضی بنچمارکها بهتر عمل کرده. مثلا توی بنچمارک IFeval که مربوط به Instruction following هست، از هردوی Claude Sonnet 3.5 و GPT-4o بهتر عمل کرده.
این نتایج نشون میدن که پیشرفت های موثری تو پرفورمنس مدل های اوپن سورس در حال صورت گرفتن هست.
در رابطه با دو نسخه کوچیک 8 و 70 میلیاردی،
دو تغییر اصلی این دو مدل شامل طول کانتکست 128K و پشتیبانی از چند زبان مختلف مثل انگلیسی، فرانسوی، آلمانی، هندی، ایتالیایی، پرتغالی، اسپانیایی و تای هستن. متأسفانه، زبان فارسی هنوز بهصورت رسمی به این مدلها اضافه نشده. البته، این مدلها میتونن تا حدی فارسی صحبت کنن، اما نمیشه بهشون اعتماد کامل داشت و امیدواریم تو آپدیتهای بعدی زبان فارسی هم بهصورت کامل پشتیبانی بشه.
و همینطور عملکرد مدلهای این نسل توی کدنویسی خیلی بهتر شده.
درکل جز تغییراتی که گفته شد تغییر خیلی مهم دیگه ای صورت نگرفته و این دو مدل صرفا اپدیتی از مدل های قبلی نسل ۳ هستن.
جزییات فنی:
- دیتا: دیتای آموزشی این نسل نسبت به نسل قبل خیلی بزرگتر و باکیفیتتر شده. حجم دیتا حدود 15.6 تریلیون توکن هست که تقریباً 8 برابر دیتای نسل قبلی لاما (نسل 2) هست.
- آموزش: مدل 405B با 3.8 × 10**25 FLOPs روی 15.6T توکن آموزش داده شده. این مدل چند ماه توی فاز آموزش بوده و روی 16000 تا تراشه H100 آموزش دیده که در مجموع به 39.3 میلیون ساعت محاسباتی GPU میرسه و چند صد میلیون دلار هزینه داشته. همچنین مدلهای این سری روی 10 میلیون سوال و جواب انسانی و 25 میلیون داده مصنوعی (synthetic) فاینتیون شدن. توی این فرآیند از SFT و DPO استفاده شده. SFT یعنی مدل رو با دادههای واقعی که انسانها آماده کردن، بهبود دادن. DPO هم روشی برای تنظیم مدل هست که بر اساس ترجیحات انسانی، دادههای مصنوعی ایجاد میکنه تا عملکرد مدل بهتر بشه.
- معماری: توی معماری این سری خبری از روشهای پیچیدهای مثل MoE نیست و از یک معماری ساده Decoder Only استفاده شده. همه مدلهای این سری از تکنیکی به نام GQA یا Grouped Query Attention استفاده میکنن. GQA یه روش هست که با بهینه کردن عملکرد الگوریتم اتنشن، کمک میکنه مدل در طول آموزش، پایداری و کارایی بهتری داشته باشه.
همچنین، مدل رو از فرمت BF16 به FP8 کوانتایز کردن تا حجمش کمتر بشه و جالبه که میگن اینکار باعث شده بتونن مدل رو روی یه نود سرور واحد اجرا کنن.
اجرا و تست مدلها:
مشخصاً مدل بزرگ رو نمیتونین بهصورت لوکال اجرا کنین و باید از پروایدرهای third-party استفاده کنین. متا با 25 تا سرویس قرارداد داره مثل Nvidia Nims, fire works, ... که مدل هارو ارائه میدن. برای تست نسخههای کوچیکتر میتونین از Ollama استفاده کنین. برای استفاده از نسخه 8B کوانتایز شده میتونین با 4090 لودش کنین و نسخه کوانتایز شده 70B هم با A100، L40 یا L40S قابل اجراست.
همچنین از طریق پلتفرم ما هم میتونین از همه مدل های این سری استفاده کنین
نکات اضافی:
- متا گفته که قراره نسلهای جدید لاما MultiModal باشن.
- متا به زودی یه سرویس API برای این مدلها ایجاد میکنه که با Bing هم سازگار خواهد بود.
این سری از مدلهای لاما در سه نسخه 8B، 70B و 405B منتشر شدن و یه تغییر بزرگ رو توی جامعه اوپن سورس رقم زدن. این تغییر بزرگ به واسطه انتشار بزرگترین مدل این سری یعنی Llama 3.1 405B اتفاق افتاده. مدلی با 405 میلیارد پارامتر که بزرگترین مدل اوپن سورس تا به امروز هست. تا حالا هیچ کمپانیای مدلی به این عظمت رو اوپن نکرده بود و این یعنی قراره شاهد اتفاقات بزرگی توی جامعه اوپن سورس باشیم.
سنجش کیفیت مدلها با استفاده از بنچمارکها اهمیت زیادی داره چون این کار به ما امکان میده تا عملکرد مدلها رو در شرایط مختلف ارزیابی کنیم و به مقایسه دقیقتری دست پیدا کنیم. بنچمارکها بهعنوان ابزارهای استاندارد برای اندازهگیری دقت و کارایی مدلها استفاده میشن و نتایج بهدستآمده کمک میکنه تا بهطور مؤثری نقاط قوت و ضعف مدلها شناسایی بشه و بهبودهای لازم اعمال بشه. حالا با توجه به اهمیت این ارزیابیها، نگاهی میندازیم به نتایج بنچمارک مدلهای جدید لاما و تغییرات کلیدی که با خودشون به همراه داشتن.
این مدل روی 150 تا بنچمارک مختلف سنجیده شده و اتفاق جالب اینه که توی بنچمارکهایی که متا منتشر کرده، به سطحی نزدیک به Claude 3.5 Sonnet، GPT-4 و GPT-4o رسیده و حتی توی بعضی بنچمارکها بهتر عمل کرده. مثلا توی بنچمارک IFeval که مربوط به Instruction following هست، از هردوی Claude Sonnet 3.5 و GPT-4o بهتر عمل کرده.
این نتایج نشون میدن که پیشرفت های موثری تو پرفورمنس مدل های اوپن سورس در حال صورت گرفتن هست.
در رابطه با دو نسخه کوچیک 8 و 70 میلیاردی،
دو تغییر اصلی این دو مدل شامل طول کانتکست 128K و پشتیبانی از چند زبان مختلف مثل انگلیسی، فرانسوی، آلمانی، هندی، ایتالیایی، پرتغالی، اسپانیایی و تای هستن. متأسفانه، زبان فارسی هنوز بهصورت رسمی به این مدلها اضافه نشده. البته، این مدلها میتونن تا حدی فارسی صحبت کنن، اما نمیشه بهشون اعتماد کامل داشت و امیدواریم تو آپدیتهای بعدی زبان فارسی هم بهصورت کامل پشتیبانی بشه.
و همینطور عملکرد مدلهای این نسل توی کدنویسی خیلی بهتر شده.
درکل جز تغییراتی که گفته شد تغییر خیلی مهم دیگه ای صورت نگرفته و این دو مدل صرفا اپدیتی از مدل های قبلی نسل ۳ هستن.
جزییات فنی:
- دیتا: دیتای آموزشی این نسل نسبت به نسل قبل خیلی بزرگتر و باکیفیتتر شده. حجم دیتا حدود 15.6 تریلیون توکن هست که تقریباً 8 برابر دیتای نسل قبلی لاما (نسل 2) هست.
- آموزش: مدل 405B با 3.8 × 10**25 FLOPs روی 15.6T توکن آموزش داده شده. این مدل چند ماه توی فاز آموزش بوده و روی 16000 تا تراشه H100 آموزش دیده که در مجموع به 39.3 میلیون ساعت محاسباتی GPU میرسه و چند صد میلیون دلار هزینه داشته. همچنین مدلهای این سری روی 10 میلیون سوال و جواب انسانی و 25 میلیون داده مصنوعی (synthetic) فاینتیون شدن. توی این فرآیند از SFT و DPO استفاده شده. SFT یعنی مدل رو با دادههای واقعی که انسانها آماده کردن، بهبود دادن. DPO هم روشی برای تنظیم مدل هست که بر اساس ترجیحات انسانی، دادههای مصنوعی ایجاد میکنه تا عملکرد مدل بهتر بشه.
- معماری: توی معماری این سری خبری از روشهای پیچیدهای مثل MoE نیست و از یک معماری ساده Decoder Only استفاده شده. همه مدلهای این سری از تکنیکی به نام GQA یا Grouped Query Attention استفاده میکنن. GQA یه روش هست که با بهینه کردن عملکرد الگوریتم اتنشن، کمک میکنه مدل در طول آموزش، پایداری و کارایی بهتری داشته باشه.
همچنین، مدل رو از فرمت BF16 به FP8 کوانتایز کردن تا حجمش کمتر بشه و جالبه که میگن اینکار باعث شده بتونن مدل رو روی یه نود سرور واحد اجرا کنن.
اجرا و تست مدلها:
مشخصاً مدل بزرگ رو نمیتونین بهصورت لوکال اجرا کنین و باید از پروایدرهای third-party استفاده کنین. متا با 25 تا سرویس قرارداد داره مثل Nvidia Nims, fire works, ... که مدل هارو ارائه میدن. برای تست نسخههای کوچیکتر میتونین از Ollama استفاده کنین. برای استفاده از نسخه 8B کوانتایز شده میتونین با 4090 لودش کنین و نسخه کوانتایز شده 70B هم با A100، L40 یا L40S قابل اجراست.
همچنین از طریق پلتفرم ما هم میتونین از همه مدل های این سری استفاده کنین
نکات اضافی:
- متا گفته که قراره نسلهای جدید لاما MultiModal باشن.
- متا به زودی یه سرویس API برای این مدلها ایجاد میکنه که با Bing هم سازگار خواهد بود.
👍7❤3👎2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
مدل جالبی هستش میتونین عکسها و بک گراندتصاویر خودتون قشنگ تر کنین
Flux.1-DEV with ControlNet Canny!
◾️ Launch the app with this Colab
◾️ access the app on huggingface
#مقاله #ایده_جذاب #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Flux.1-DEV with ControlNet Canny!
◾️ Launch the app with this Colab
◾️ access the app on huggingface
#مقاله #ایده_جذاب #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍8👎2
فاین توین جالبی از Idefics3 (multimodal model based on LLama-3.1-8B) انجام شده اینجا میتونین ببینید.
captioning images, a great combo with FLUX
https://huggingface.co/spaces/HuggingFaceM4/idefics3
#مقاله #ایده_جذاب #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
captioning images, a great combo with FLUX
https://huggingface.co/spaces/HuggingFaceM4/idefics3
#مقاله #ایده_جذاب #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
huggingface.co
Idefics3 - a Hugging Face Space by HuggingFaceM4
Discover amazing ML apps made by the community
👍3👎2❤1
the Adam-mini optimizer into LLaMA-Factory, slashing the memory footprint of full-finetuning Qwen2-1.5B from 33GB to 24GB!
https://github.com/zyushun/Adam-mini
#مقاله #ایده_جذاب #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://github.com/zyushun/Adam-mini
#مقاله #ایده_جذاب #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3👎2🔥1
Qwen2-Audio: Chat with Your Voice!
Qwen2-Audio-7B, the next version of Qwen-Audio, which is capable of accepting audio and text inputs and generating text outputs!
https://huggingface.co/collections/Qwen/qwen2-audio-66b628d694096020e0c52ff6
https://huggingface.co/spaces/Qwen/Qwen2-Audio-Instruct-Demo
#مقاله #ایده_جذاب #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Qwen2-Audio-7B, the next version of Qwen-Audio, which is capable of accepting audio and text inputs and generating text outputs!
https://huggingface.co/collections/Qwen/qwen2-audio-66b628d694096020e0c52ff6
https://huggingface.co/spaces/Qwen/Qwen2-Audio-Instruct-Demo
#مقاله #ایده_جذاب #پروژه
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
huggingface.co
Qwen2-Audio - a Qwen Collection
Audio-language model series based on Qwen2
👍9👎1🆒1
A Course in Dynamic Optimizatio
https://arxiv.org/abs/2408.03034
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://arxiv.org/abs/2408.03034
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
arXiv.org
A Course in Dynamic Optimization
These lecture notes are derived from a graduate-level course in dynamic optimization, offering an introduction to techniques and models extensively used in management science, economics,...
👍3👎1👌1
Diffusion Models as Data Mining Tools
https://huggingface.co/papers/2408.02752
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
https://huggingface.co/papers/2408.02752
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
❤1👍1👎1
اگه کلی فایل pdf دارین و هنوز نخوندین این سایت بهتون کمک میکنه که اونها رو خلاصه کنید
pdfsummarizer.org
#هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
pdfsummarizer.org
#هوش_مصنوعی
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍8👎2🔥1
Forwarded from Sadra Codes
This media is not supported in your browser
VIEW IN TELEGRAM
اگه اوپنسورس کار میکنید، حتما ببینید!
دلسرد نشید. ❤️
دلسرد نشید. ❤️
👍4👎1
Forwarded from Sadra Codes
مانی حرف قشنگی زد. گفت الان کلی بیزینس اومده بالا که صرفا ChatGPT Wrapperه و نه چیز دیگه! 👌
👍19👎1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
یکی از بهترین روشهای یادگیری مدلهای transformers اینه که تصویری ببینیم چطورکارمیکنن بخصوص قسمت attention.یک نفر یک اپ درست کرده که عالی نشون میده مدلهای GPT چطور کارمیکنن. جالب اینکه مدل GPT-2 را درbrowser اجرا میکنه که میتونید با تکست خودتون امتحان کنید.
◾️ Transformer Explainer: Interactive Learning of Text-Generative Models
https://poloclub.github.io/transformer-explainer/
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ Transformer Explainer: Interactive Learning of Text-Generative Models
https://poloclub.github.io/transformer-explainer/
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍10👎1
در هفته گذشته چه مقالات و مدلهایی از #هوش_مصنوعی برای رشته #علوم_پزشکی منتشر شد.
◾️ - Palmyra-Med ( New Medical LLM ) and
Palmyra-Med-70B and nvidia palmyra-med-70b and nvidia palmyra-fin-70b-32k
◾️ - Can Medical LLMs be Fooled? ( Microsoft Research)
◾️ - Improving RAG in Medicine
◾️ - CollectiveSFT
◾️ - MedExpQA
◾️ - Pretraining Medical LLMs
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ - Palmyra-Med ( New Medical LLM ) and
Palmyra-Med-70B and nvidia palmyra-med-70b and nvidia palmyra-fin-70b-32k
◾️ - Can Medical LLMs be Fooled? ( Microsoft Research)
◾️ - Improving RAG in Medicine
◾️ - CollectiveSFT
◾️ - MedExpQA
◾️ - Pretraining Medical LLMs
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
🔥5👍2👎1👌1
دوستان فعال در حوزه استارت آپ های #لباس میتونین با این مدل CatVTON در ایران پیشرفتهای قابل توجهی رو برای این حوزه رقم بزنین بودجه زیادی رو در این حیطه حیف و میل کنین 😂🚶♂️🚶♂️
◾️ 🐈 CatVTON: Concatenation Is All You Need for Virtual Try-On with Diffusion Models
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
◾️ 🐈 CatVTON: Concatenation Is All You Need for Virtual Try-On with Diffusion Models
#مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍3❤1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
دختری که در واقعیت وجود نداره! کیفیت فیلم ها به نسبت چند ماه پیش افزایش چشم گیری دادشته است.
عکس این دختر توسط #هوش_مصنوعی قدرتمند FLUX (عبارت FLUX رو در کانال سرچ کنین یک سری پروژه با این مدل معرفی کردم) ساخته شده و بعد از اون با استفاده از مدل تولید ویدیوی Gen-3 Alpha متحرک و به ویدیو تبدیل شده.
🔗 Flux Pro
🔗 Flux Dev
🔗 Flux Schnell
#پروژه #مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
عکس این دختر توسط #هوش_مصنوعی قدرتمند FLUX (عبارت FLUX رو در کانال سرچ کنین یک سری پروژه با این مدل معرفی کردم) ساخته شده و بعد از اون با استفاده از مدل تولید ویدیوی Gen-3 Alpha متحرک و به ویدیو تبدیل شده.
🔗 Flux Pro
🔗 Flux Dev
🔗 Flux Schnell
#پروژه #مقاله #ایده_جذاب
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍8👌7👎4❤1🆒1
میگن ده آگوست روز تنبلی بوده این روز رو به تنبل ها تبریک میگم😂
🔥19👎4🆒1
Forwarded from زندگی به عنوان سرویس
خیلی توصیه میکنم که اگه میتونید حتما برای این پوزیشن اپلای کنید. تجربه کار کردن با تیم Tapsell Brain پر از یادگیری و خفونت هستش.
امکان ریفر هم دارم.
#job
امکان ریفر هم دارم.
#job
👍9👎3👌2
Forwarded from Data world with Mina (Mina Ra)
بهترین و درست ترین توصیف برای وظایف یک دیتا ساینتیست و تفاوتش با دیتا آنالیز
بدون دنگ و فنگ و قاطی شدنش با مهندس نرم افزار و مهندس داده
We are looking for Data Scientists to help us create innovative machine learning solutions. Data Scientist responsibilities include understanding the business problem and experimenting with different modelling architectures to create the best possible setup from model performance as well as computational performance. To do this job successfully, you need exceptional skills in Machine Learning and Programming. Your goal will be to find the best data-based solution for the problem at hand.
بدون دنگ و فنگ و قاطی شدنش با مهندس نرم افزار و مهندس داده
We are looking for Data Scientists to help us create innovative machine learning solutions. Data Scientist responsibilities include understanding the business problem and experimenting with different modelling architectures to create the best possible setup from model performance as well as computational performance. To do this job successfully, you need exceptional skills in Machine Learning and Programming. Your goal will be to find the best data-based solution for the problem at hand.
👍8👎3👌1