🔍 دانشمندان کلیدی در پیشرفت اولیه شبکههای عصبی و یادگیری ماشین:
1️⃣ فرانک روزنبلات (Frank Rosenblatt)
تولد: 1928 (نیویورک)
فوت: 1971
🎓 تحصیلات: رشته روانشناسی، دانشگاه کرنل
📚 دستاوردها:
مدل پرسپترون: اولین مدل شبکههای عصبی مصنوعی در سال 1960.
این مدل برای تفکیک الگوهای ساده و طبقهبندی باینری توسعه یافت.
🌟 پژوهشهای او بر شبیهسازی فرآیندهای یادگیری انسانی تمرکز داشت.
2️⃣ دیوید روملهارت (David Rumelhart)
تولد: 1942 (واشنگتن)
فوت: 2011
🎓 تحصیلات: دکترای روانشناسی ریاضی، دانشگاه استنفورد
📚 دستاوردها:
الگوریتم Backpropagation: معرفی در دهه 1980.
این الگوریتم آموزش شبکههای عصبی چندلایه را ممکن کرد و یکی از پیشرفتهای کلیدی یادگیری عمیق به شمار میآید.
🌟 تمرکز او بر پیوند روانشناسی، شبکههای عصبی، و علوم شناختی بود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
1️⃣ فرانک روزنبلات (Frank Rosenblatt)
تولد: 1928 (نیویورک)
فوت: 1971
🎓 تحصیلات: رشته روانشناسی، دانشگاه کرنل
📚 دستاوردها:
مدل پرسپترون: اولین مدل شبکههای عصبی مصنوعی در سال 1960.
این مدل برای تفکیک الگوهای ساده و طبقهبندی باینری توسعه یافت.
🌟 پژوهشهای او بر شبیهسازی فرآیندهای یادگیری انسانی تمرکز داشت.
2️⃣ دیوید روملهارت (David Rumelhart)
تولد: 1942 (واشنگتن)
فوت: 2011
🎓 تحصیلات: دکترای روانشناسی ریاضی، دانشگاه استنفورد
📚 دستاوردها:
الگوریتم Backpropagation: معرفی در دهه 1980.
این الگوریتم آموزش شبکههای عصبی چندلایه را ممکن کرد و یکی از پیشرفتهای کلیدی یادگیری عمیق به شمار میآید.
🌟 تمرکز او بر پیوند روانشناسی، شبکههای عصبی، و علوم شناختی بود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
✳️ Self-Ensembling Gaussian Splatting for Few-shot Novel View Synthesis
🔍 چرا این مقاله مهم است؟
مدل 3D Gaussian Splatting (3DGS) معمولاً در مواجهه با نماهای پراکنده دچار بیشبرازش میشود و نمیتواند تغییرات وسیع در زوایای دید را بهخوبی تعمیم دهد. این مقاله با معرفی روش Self-Ensembling Gaussian Splatting (SE-GS)، این مشکل را حل کرده و رویکردی مبتنی بر Self-ensemble برای تنظیم بهتر مدلها ارائه میدهد.
🔑 دستاورد کلیدی:
دو مدل Σ و Δ معرفی شدهاند که در کنار یکدیگر، کیفیت تولید تصاویر جدید را با تنظیمهای دینامیک و مبتنی بر عدم قطعیت، بهبود میبخشند. این روش علاوه بر کارایی، هزینههای اضافی آموزش را کاهش داده و یک مدل نهایی قویتر ارائه میدهد.
✨ این مقاله برای علاقهمندان به یادگیری ماشین، گرافیک کامپیوتری، و تولید نماهای جدید، کاربردی و ارزشمند است.
Paper : https://arxiv.org/abs/2411.00144
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔍 چرا این مقاله مهم است؟
مدل 3D Gaussian Splatting (3DGS) معمولاً در مواجهه با نماهای پراکنده دچار بیشبرازش میشود و نمیتواند تغییرات وسیع در زوایای دید را بهخوبی تعمیم دهد. این مقاله با معرفی روش Self-Ensembling Gaussian Splatting (SE-GS)، این مشکل را حل کرده و رویکردی مبتنی بر Self-ensemble برای تنظیم بهتر مدلها ارائه میدهد.
🔑 دستاورد کلیدی:
دو مدل Σ و Δ معرفی شدهاند که در کنار یکدیگر، کیفیت تولید تصاویر جدید را با تنظیمهای دینامیک و مبتنی بر عدم قطعیت، بهبود میبخشند. این روش علاوه بر کارایی، هزینههای اضافی آموزش را کاهش داده و یک مدل نهایی قویتر ارائه میدهد.
✨ این مقاله برای علاقهمندان به یادگیری ماشین، گرافیک کامپیوتری، و تولید نماهای جدید، کاربردی و ارزشمند است.
Paper : https://arxiv.org/abs/2411.00144
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مقاله GNN-RAG روشی نوین ارائه میدهد که تواناییهای زبانشناختی مدلهای زبانی بزرگ (LLMs) را با قدرت استدلال گرافهای عصبی (GNNs) ترکیب میکند. در این روش، GNN روی زیرگرافهای متراکم استدلال میکند تا پاسخهای احتمالی را استخراج کند. سپس مسیرهای استدلالی گراف دانش به زبان طبیعی تبدیل شده و به مدل زبانی داده میشوند تا فرآیند پاسخدهی تکمیل شود. این روش ترکیبی از قابلیتهای GNN و LLM برای پاسخدهی به سؤالات مبتنی بر گراف دانش است.
Paper:https://arxiv.org/abs/2405.20139
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Paper:https://arxiv.org/abs/2405.20139
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
𝗧𝗵𝗲_𝗠𝗮𝘁𝗿𝗶𝘅_𝗖𝗼𝗼𝗸_𝗕𝗼𝗼𝗸.pdf
13 MB
📘 The Matrix Cookbook
یک منبع فوقالعاده برای هرآنچه که باید درباره ماتریسها بدانید! این کتاب شامل روابط، تقریبها، نابرابریها و نکات کلیدی درباره ماتریسها است که در مهندسی، علوم کامپیوتر و حتی فیزیک محاسباتی کاربرد دارند.
اگر با ماتریسها سر و کار دارید، این کتاب راهنمای ضروری شماست! 🚀✨
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
یک منبع فوقالعاده برای هرآنچه که باید درباره ماتریسها بدانید! این کتاب شامل روابط، تقریبها، نابرابریها و نکات کلیدی درباره ماتریسها است که در مهندسی، علوم کامپیوتر و حتی فیزیک محاسباتی کاربرد دارند.
اگر با ماتریسها سر و کار دارید، این کتاب راهنمای ضروری شماست! 🚀✨
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
لایبرری LLM یکی از ابزارهای قدرتمند پایتون برای کار با مدلهای زبانی (Language Models) است. با استفاده از این لایبرری، میتوانید به راحتی مدلهای زبانی را فراخوانی کرده، از آنها برای کاربردهای مختلف بهره ببرید، پرامپتهای دلخواه بنویسید، مدلها را آموزش دهید و بسیاری امکانات پیشرفته دیگر را کشف کنید.
این ابزار برای توسعهدهندگان و علاقهمندان به پردازش زبان طبیعی و هوش مصنوعی، یک گزینه ایدهآل است تا بهطور کارآمد از مدلهای زبانی بهرهمند شوند. 🌟
Link:https://llm.datasette.io/en/stable/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این ابزار برای توسعهدهندگان و علاقهمندان به پردازش زبان طبیعی و هوش مصنوعی، یک گزینه ایدهآل است تا بهطور کارآمد از مدلهای زبانی بهرهمند شوند. 🌟
Link:https://llm.datasette.io/en/stable/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
شرکت OpenAI و دیگر شرکتها به دنبال مسیرهای جدیدی برای هوش مصنوعی هوشمندتر، با توجه به محدودیتهای روشهای فعلی
با گسترش مرزهای AI، شرکتهایی مانند OpenAI با چالشهای غیرمنتظرهای در Large Language Models (LLMs) روبرو شدهاند. به نظر میرسد دوران "bigger is better" رو به پایان است و فصل جدیدی از نوآوری در AI در حال شکلگیری است.
Here’s what’s happening:
1️⃣ Scaling Challenges:
شعار گسترش مقیاس پیشآموزش با استفاده از vast datasets و computing power گسترده به مرزهای خود رسیده است. حتی پیشگامانی مانند Ilya Sutskever به این مسئله اذعان دارند.
2️⃣ Resource Race:
آموزش cutting-edge models روزبهروز پیچیدهتر میشود و به میلیونها دلار هزینه، massive energy و specialized chips نیاز دارد. کمبود منابع انرژی و data scarcity، روند پیشرفت را کند کرده است.
3️⃣ A New Approach:
آزمایشگاههای AI در حال بررسی الگوریتمهایی با تفکر مشابه انسان هستند که بر quality به جای sheer scale تأکید دارند. این تغییر میتواند AI arms race را بازتعریف کند.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
با گسترش مرزهای AI، شرکتهایی مانند OpenAI با چالشهای غیرمنتظرهای در Large Language Models (LLMs) روبرو شدهاند. به نظر میرسد دوران "bigger is better" رو به پایان است و فصل جدیدی از نوآوری در AI در حال شکلگیری است.
Here’s what’s happening:
1️⃣ Scaling Challenges:
شعار گسترش مقیاس پیشآموزش با استفاده از vast datasets و computing power گسترده به مرزهای خود رسیده است. حتی پیشگامانی مانند Ilya Sutskever به این مسئله اذعان دارند.
2️⃣ Resource Race:
آموزش cutting-edge models روزبهروز پیچیدهتر میشود و به میلیونها دلار هزینه، massive energy و specialized chips نیاز دارد. کمبود منابع انرژی و data scarcity، روند پیشرفت را کند کرده است.
3️⃣ A New Approach:
آزمایشگاههای AI در حال بررسی الگوریتمهایی با تفکر مشابه انسان هستند که بر quality به جای sheer scale تأکید دارند. این تغییر میتواند AI arms race را بازتعریف کند.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🚀 خبر هیجانانگیز! معرفی دیتاست IUST_PersonReID 🚀
دیتاست IUST_PersonReID منتشر شد! این دیتاست با هدف حل چالشهای منحصربهفرد در شناسایی مجدد افراد (Person Re-Identification) در محیطهای فرهنگی متنوع و پیچیده، بهویژه در بسترهای اسلامی، توسعه یافته است. این پروژه گامی مهم در بهبود دقت مدلها و کاهش سوگیریهای جمعیتی به شمار میرود. 📊
📍 چه چیزی IUST_PersonReID را منحصربهفرد میکند؟
- پوشش گسترده از چندین مکان در ایران و عراق، از جمله دانشگاهها، مساجد، بازارها و رویدادهای عمومی
- شامل انواع پوششهای خاص فرهنگی، از سنتی تا مدرن، به منظور حمایت از AI عادلانهتر
- بهرهگیری از چندین زاویه دوربین برای بهبود شناسایی در محیطهای پیچیده و واقعی
🔍 ویژگیهای کلیدی این دیتاست:
- 118,883 تصویر شامل 1,847 هویت در 19 صحنه مختلف
- برچسبگذاری دقیق با استفاده از ترکیب مدلهای پیشرفته و حاشیهنویسی انسانی
- ایدهآل برای آموزش مدلهای AI که در محیطها و جمعیتهای مختلف عملکرد موثری دارند
Link:https://computervisioniust.github.io/IUST_PersonReId/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
دیتاست IUST_PersonReID منتشر شد! این دیتاست با هدف حل چالشهای منحصربهفرد در شناسایی مجدد افراد (Person Re-Identification) در محیطهای فرهنگی متنوع و پیچیده، بهویژه در بسترهای اسلامی، توسعه یافته است. این پروژه گامی مهم در بهبود دقت مدلها و کاهش سوگیریهای جمعیتی به شمار میرود. 📊
📍 چه چیزی IUST_PersonReID را منحصربهفرد میکند؟
- پوشش گسترده از چندین مکان در ایران و عراق، از جمله دانشگاهها، مساجد، بازارها و رویدادهای عمومی
- شامل انواع پوششهای خاص فرهنگی، از سنتی تا مدرن، به منظور حمایت از AI عادلانهتر
- بهرهگیری از چندین زاویه دوربین برای بهبود شناسایی در محیطهای پیچیده و واقعی
🔍 ویژگیهای کلیدی این دیتاست:
- 118,883 تصویر شامل 1,847 هویت در 19 صحنه مختلف
- برچسبگذاری دقیق با استفاده از ترکیب مدلهای پیشرفته و حاشیهنویسی انسانی
- ایدهآل برای آموزش مدلهای AI که در محیطها و جمعیتهای مختلف عملکرد موثری دارند
Link:https://computervisioniust.github.io/IUST_PersonReId/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
سلام دوستان عزیز👋🏻😉
امیدوارم حالتون خوب باشه. 🌟
اگر در درسهای رشته کامپیوتر نیاز به راهنمایی یا کمک دارین مخصوصا دوستانی که تازه وارد این رشته شدن، حتماً از ادمین کمک بگیرین. ادمین کانال ما همیشه آماده پاسخگویی به سوالات شما و ارائه مشاوره هست.
پس بدون هیچ نگرانی سوالاتتون رو بپرسید و از راهنماییهای مفید ادمین استفاده کنید. موفق باشید! 💻📚
برای ارتباط با ادمین به آیدی زیر پیام بدید.👇🏻👇🏻
✅ @Se_mohamad
امیدوارم حالتون خوب باشه. 🌟
اگر در درسهای رشته کامپیوتر نیاز به راهنمایی یا کمک دارین مخصوصا دوستانی که تازه وارد این رشته شدن، حتماً از ادمین کمک بگیرین. ادمین کانال ما همیشه آماده پاسخگویی به سوالات شما و ارائه مشاوره هست.
پس بدون هیچ نگرانی سوالاتتون رو بپرسید و از راهنماییهای مفید ادمین استفاده کنید. موفق باشید! 💻📚
برای ارتباط با ادمین به آیدی زیر پیام بدید.👇🏻👇🏻
✅ @Se_mohamad
الگوریتم Trep یکی از ساختارهای دادهای است که برای ذخیرهسازی و بازیابی دادهها به صورت مؤثر استفاده میشود. این الگوریتم ترکیبی از دو مفهوم درخت دودویی جستجو (Binary Search Tree) و هیپ (Heap) است و از این رو، به عنوان Treap (Tree + Heap) شناخته میشود. 📚🌟
💡 ویژگیهای Treap
1. ساختار درخت دودویی جستجو:
در Treap، تمام قوانین درخت دودویی جستجو رعایت میشود. به این معنا که:
- مقدار تمام گرههای زیرشاخه چپ از مقدار گره والد کوچکتر است.
- مقدار تمام گرههای زیرشاخه راست از مقدار گره والد بزرگتر است.
📈 این ویژگی باعث میشود که عملیاتهایی مانند جستجو، درج و حذف مشابه درخت دودویی جستجو عمل کنند.
2. اولویت گرهها (Priority):
هر گره یک اولویت (Priority) تصادفی دریافت میکند و Treap باید بهگونهای باشد که این اولویتها خصوصیات هیپ ماکسیمم یا مینیمم را رعایت کنند.
- در هیپ ماکسیمم: اولویت گره والد همیشه بیشتر از فرزندان است.
- در هیپ مینیمم: اولویت گره والد کمتر از فرزندان است.
🎲 این اولویتها معمولا به صورت تصادفی تخصیص داده میشوند تا توازن درخت حفظ شود.
⏳ عملیات در Treap
1. درج (Insertion):
گره جدید ابتدا بر اساس مقدار (Key) در درخت دودویی جستجو قرار میگیرد. سپس، با چرخشهای لازم (Rotations) اولویتهای هیپ رعایت میشود.
🔄 این فرآیند تضمین میکند که ساختار Treap همواره متوازن بماند.
2. حذف (Deletion):
برای حذف یک گره، ابتدا باید آن را به یک برگ تبدیل کنیم. این کار با چرخش گره تا برگ شدن انجام میشود و سپس گره حذف میشود.
3. جستجو (Search):
این عملیات مشابه جستجوی درخت دودویی جستجو است و از مقایسه مقدار گرهها استفاده میکند.
📊 مزایا و کاربردها
- حفظ توازن به صورت پویا:
برخلاف درخت دودویی جستجوی عادی که ممکن است توازن خود را از دست بدهد، Treap به لطف اولویتهای تصادفی و چرخشها همواره متوازن باقی میماند. ⚖️
- کاربرد در مسائل real-time:
برای ذخیرهسازی دادهها در حافظه و پاسخ سریع به کوئریها در سیستمهایی که به عملکرد بلادرنگ نیاز دارند، بسیار مناسب است. 🕒✨
- سادگی پیادهسازی:
نسبت به سایر درختهای متوازن مانند AVL و Red-Black، پیادهسازی Treap به دلیل استفاده از اولویتهای تصادفی سادهتر است. ✅
🚀 چرا Treap مهم است؟
در واقع Treap با ترکیب دو ایده قوی (درخت دودویی جستجو و هیپ)، کارایی بالا و سادگی الگوریتمی را ارائه میدهد. این الگوریتم به ویژه در مسائلی که جستجو و بهروزرسانی مداوم دادهها مورد نیاز است، بسیار کارآمد است.
استفاده از Treap باعث میشود که زمان اجرای عملیاتها به طور متوسط O(log n) باقی بماند و در عین حال، کدنویسی آن به نسبت ساده و قابل درک باشد. 👨💻✨
#الگوریتم
👨💻 @AlgorithmDesign_DataStructuer
💡 ویژگیهای Treap
1. ساختار درخت دودویی جستجو:
در Treap، تمام قوانین درخت دودویی جستجو رعایت میشود. به این معنا که:
- مقدار تمام گرههای زیرشاخه چپ از مقدار گره والد کوچکتر است.
- مقدار تمام گرههای زیرشاخه راست از مقدار گره والد بزرگتر است.
📈 این ویژگی باعث میشود که عملیاتهایی مانند جستجو، درج و حذف مشابه درخت دودویی جستجو عمل کنند.
2. اولویت گرهها (Priority):
هر گره یک اولویت (Priority) تصادفی دریافت میکند و Treap باید بهگونهای باشد که این اولویتها خصوصیات هیپ ماکسیمم یا مینیمم را رعایت کنند.
- در هیپ ماکسیمم: اولویت گره والد همیشه بیشتر از فرزندان است.
- در هیپ مینیمم: اولویت گره والد کمتر از فرزندان است.
🎲 این اولویتها معمولا به صورت تصادفی تخصیص داده میشوند تا توازن درخت حفظ شود.
⏳ عملیات در Treap
1. درج (Insertion):
گره جدید ابتدا بر اساس مقدار (Key) در درخت دودویی جستجو قرار میگیرد. سپس، با چرخشهای لازم (Rotations) اولویتهای هیپ رعایت میشود.
🔄 این فرآیند تضمین میکند که ساختار Treap همواره متوازن بماند.
2. حذف (Deletion):
برای حذف یک گره، ابتدا باید آن را به یک برگ تبدیل کنیم. این کار با چرخش گره تا برگ شدن انجام میشود و سپس گره حذف میشود.
3. جستجو (Search):
این عملیات مشابه جستجوی درخت دودویی جستجو است و از مقایسه مقدار گرهها استفاده میکند.
📊 مزایا و کاربردها
- حفظ توازن به صورت پویا:
برخلاف درخت دودویی جستجوی عادی که ممکن است توازن خود را از دست بدهد، Treap به لطف اولویتهای تصادفی و چرخشها همواره متوازن باقی میماند. ⚖️
- کاربرد در مسائل real-time:
برای ذخیرهسازی دادهها در حافظه و پاسخ سریع به کوئریها در سیستمهایی که به عملکرد بلادرنگ نیاز دارند، بسیار مناسب است. 🕒✨
- سادگی پیادهسازی:
نسبت به سایر درختهای متوازن مانند AVL و Red-Black، پیادهسازی Treap به دلیل استفاده از اولویتهای تصادفی سادهتر است. ✅
🚀 چرا Treap مهم است؟
در واقع Treap با ترکیب دو ایده قوی (درخت دودویی جستجو و هیپ)، کارایی بالا و سادگی الگوریتمی را ارائه میدهد. این الگوریتم به ویژه در مسائلی که جستجو و بهروزرسانی مداوم دادهها مورد نیاز است، بسیار کارآمد است.
استفاده از Treap باعث میشود که زمان اجرای عملیاتها به طور متوسط O(log n) باقی بماند و در عین حال، کدنویسی آن به نسبت ساده و قابل درک باشد. 👨💻✨
#الگوریتم
👨💻 @AlgorithmDesign_DataStructuer
دوره کوتاه "Pretraining LLMs" که با همکاری upstageai توسعه داده شده است.
این دوره شامل مباحثی مانند pretraining from scratch، ادامه pretraining روی دادههای سفارشی و نحوه استفاده از مدلهای کوچکتر و open-source برای کاهش هزینهها میباشد.
این دوره را به صورت رایگان ببینید:
https://hubs.la/Q02YFKyx0
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این دوره شامل مباحثی مانند pretraining from scratch، ادامه pretraining روی دادههای سفارشی و نحوه استفاده از مدلهای کوچکتر و open-source برای کاهش هزینهها میباشد.
این دوره را به صورت رایگان ببینید:
https://hubs.la/Q02YFKyx0
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
روی مدلهای بینایی-زبانی (Vision Language Models - VLMs) حساب ویژهای باز کنید.
با انتشار Llama 3.2 و ColQwen2، مدلهای چندوجهی (Multimodal) روزبهروز محبوبتر میشوند.
مدلهای VLM مدلهایی چندوجهی هستند که قابلیت کار با دو مد تصویر و متن را دارند:
ورودی: تصویر و متن
خروجی: متن
این مدلها در کاربردهای زیادی از جمله پاسخدهی به سوالات بصری یا درک اسناد (مانند کاربرد ColQwen2) مورد استفاده قرار میگیرند.
نحوه عملکرد در پشت صحنه
چالش اصلی در مدلهای VLM، یکپارچهسازی نمایشهای تصویر و متن است.
برای این منظور، معماری معمول یک VLM شامل اجزای زیر است:
- رمزگذار تصویر (Image Encoder) مانند CLIP یا SigLIP
-در واقع Embedding Projector برای همتراز کردن نمایشهای تصویر و متن
- رمزگشای متن (Text Decoder) مانند Vicuna یا Gemma
http://huggingface.co/blog/vlms
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
با انتشار Llama 3.2 و ColQwen2، مدلهای چندوجهی (Multimodal) روزبهروز محبوبتر میشوند.
مدلهای VLM مدلهایی چندوجهی هستند که قابلیت کار با دو مد تصویر و متن را دارند:
ورودی: تصویر و متن
خروجی: متن
این مدلها در کاربردهای زیادی از جمله پاسخدهی به سوالات بصری یا درک اسناد (مانند کاربرد ColQwen2) مورد استفاده قرار میگیرند.
نحوه عملکرد در پشت صحنه
چالش اصلی در مدلهای VLM، یکپارچهسازی نمایشهای تصویر و متن است.
برای این منظور، معماری معمول یک VLM شامل اجزای زیر است:
- رمزگذار تصویر (Image Encoder) مانند CLIP یا SigLIP
-در واقع Embedding Projector برای همتراز کردن نمایشهای تصویر و متن
- رمزگشای متن (Text Decoder) مانند Vicuna یا Gemma
http://huggingface.co/blog/vlms
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
OmniGen: Unified Image Generation
Paper: https://arxiv.org/pdf/2409.11340v1.pdf
Code: https://github.com/vectorspacelab/omnigen
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Paper: https://arxiv.org/pdf/2409.11340v1.pdf
Code: https://github.com/vectorspacelab/omnigen
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
کتاب هوش مصنوعی راسل.pdf
19.9 MB
📚 کتاب هوش مصنوعی راسل
✨ این کتاب یکی از منابع اصلی درس هوش مصنوعی در دانشگاههای معتبر است و مطالعه آن برای دانشجویان این حوزه بسیار توصیه میشود. همچنین، داوطلبان کنکور ارشد اگر زمان کافی داشته باشند، با مطالعه این کتاب میتوانند دانش عمیقتری به دست آورند که در موفقیتشان تأثیرگذار خواهد بود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
✨ این کتاب یکی از منابع اصلی درس هوش مصنوعی در دانشگاههای معتبر است و مطالعه آن برای دانشجویان این حوزه بسیار توصیه میشود. همچنین، داوطلبان کنکور ارشد اگر زمان کافی داشته باشند، با مطالعه این کتاب میتوانند دانش عمیقتری به دست آورند که در موفقیتشان تأثیرگذار خواهد بود.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
حل المسائل هوش مصنوعی کتاب راسل.pdf
4.6 MB
📘 حلالمسائل کتاب هوش مصنوعی راسل
✅ بهرهگیری از حلالمسائل کتابهای مرجع، بهویژه کتاب راسل، میتواند برای داوطلبان کنکور کارشناسی ارشد بسیار مفید باشد و به درک عمیقتر مفاهیم کمک کند.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
✅ بهرهگیری از حلالمسائل کتابهای مرجع، بهویژه کتاب راسل، میتواند برای داوطلبان کنکور کارشناسی ارشد بسیار مفید باشد و به درک عمیقتر مفاهیم کمک کند.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer