✨ معرفی Qwen2.5-Turbo: جدیدترین LLM از علیبابا
🔹 پردازش حجمهای بیسابقهای از دادهها:
در واقعQwen2.5-Turbo اکنون قادر است تا یک میلیون توکن/واژه را بهصورت همزمان پردازش کند. این معادل است با:
📚 ۱۰ رمان کامل
🗣 ۱۵۰ ساعت متنهای گفتاری
💻 ۳۰,۰۰۰ خط کد
🔹 برتری در مقایسه با سایر مدلها:
این مدل از GPT-4o-mini در وظایف بالای ۱۲۸K توکن پیشی میگیرد و ۳.۶ برابر بیشتر از آن، توکن پردازش میکند، آن هم با هزینه برابر!
🔹 سرعت بیشتر در استنتاج:
با استفاده از مکانیسم Sparse Attention، زمان تولید اولین توکن برای متنی با **یک میلیون توکن ۴.۳ برابر کاهش یافته است.
https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔹 پردازش حجمهای بیسابقهای از دادهها:
در واقعQwen2.5-Turbo اکنون قادر است تا یک میلیون توکن/واژه را بهصورت همزمان پردازش کند. این معادل است با:
📚 ۱۰ رمان کامل
🗣 ۱۵۰ ساعت متنهای گفتاری
💻 ۳۰,۰۰۰ خط کد
🔹 برتری در مقایسه با سایر مدلها:
این مدل از GPT-4o-mini در وظایف بالای ۱۲۸K توکن پیشی میگیرد و ۳.۶ برابر بیشتر از آن، توکن پردازش میکند، آن هم با هزینه برابر!
🔹 سرعت بیشتر در استنتاج:
با استفاده از مکانیسم Sparse Attention، زمان تولید اولین توکن برای متنی با **یک میلیون توکن ۴.۳ برابر کاهش یافته است.
https://huggingface.co/spaces/Qwen/Qwen2.5-Turbo-1M-Demo
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
یک دوره آموزشی با موضوع Multi-Agent Reinforcement Learning (MARL) توسط Dr. Stefano V. Albrecht یکی از نویسندگان کتاب جدید منتشرشده در این زمینه با عنوان **Multi-Agent Reinforcement Learning: Foundations and Modern Approaches (انتشارات MIT Press, 2024)، برگزار شده است.
این دوره از 16 تا 19 سپتامبر 2024 در Artificial Intelligence Research Institute (IIIA-CSIC) در بارسلونا، اسپانیا، با گزینههای شرکت حضوری و آنلاین برگزار شد.
محتوای دوره شامل مفاهیم پایه Reinforcement Learning،Game Theory، و الگوریتمهای پیشرفته MARL با استفاده از تکنیکهای Deep Learning بوده است. این دوره برای افراد علاقهمند به یادگیری اصول بنیادین و کاربردهای مدرن در این حوزه طراحی شده بود.
lectures:https://www.youtube.com/playlist?list=PLkoCa1tf0XjCU6GkAfRCkChOOSH6-JC_2
Textbook:https://www.marl-book.com/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این دوره از 16 تا 19 سپتامبر 2024 در Artificial Intelligence Research Institute (IIIA-CSIC) در بارسلونا، اسپانیا، با گزینههای شرکت حضوری و آنلاین برگزار شد.
محتوای دوره شامل مفاهیم پایه Reinforcement Learning،Game Theory، و الگوریتمهای پیشرفته MARL با استفاده از تکنیکهای Deep Learning بوده است. این دوره برای افراد علاقهمند به یادگیری اصول بنیادین و کاربردهای مدرن در این حوزه طراحی شده بود.
lectures:https://www.youtube.com/playlist?list=PLkoCa1tf0XjCU6GkAfRCkChOOSH6-JC_2
Textbook:https://www.marl-book.com/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
این وبلاگ دنیای پیچیده Large Language Models (LLMs) را رمزگشایی میکند و تحقیقات پیشرفته را به مفاهیمی شفاف و قابلفهم تبدیل میکند.
مناسب برای درک معماریهای Transformer، فرآیندهای آموزشی و آخرین اخبار در تحقیقات AI.
هر کسی که سعی دارد مفاهیم مربوط به Transformers یا Large Language Models را درک کند، حتماً باید این وبلاگ را مطالعه کند!
https://magazine.sebastianraschka.com/p/understanding-large-language-models
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
مناسب برای درک معماریهای Transformer، فرآیندهای آموزشی و آخرین اخبار در تحقیقات AI.
هر کسی که سعی دارد مفاهیم مربوط به Transformers یا Large Language Models را درک کند، حتماً باید این وبلاگ را مطالعه کند!
https://magazine.sebastianraschka.com/p/understanding-large-language-models
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
ایجاد اعداد دستنویس فارسی با استفاده از Deep Convolutional Generative Adversarial Networks (DCGANs) و PyTorch
1-Loading Handwritten Persian numerals dataset
2-Generator and Discriminator (for DCGANs)
2-1-Building the Generator
2-2-Building the Discriminator
2-3-Defining Loss Functions
2-4-Defining Optimizers
3-Training DCGANs
Github:https://github.com/omid-sakaki-ghazvini/Projects/blob/main/handwritten-persian-numerals-dcgans-pytorch.ipynb
Kaggle:https://www.kaggle.com/code/omidsakaki1370/handwritten-persian-numerals-dcgans-pytorch
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
1-Loading Handwritten Persian numerals dataset
2-Generator and Discriminator (for DCGANs)
2-1-Building the Generator
2-2-Building the Discriminator
2-3-Defining Loss Functions
2-4-Defining Optimizers
3-Training DCGANs
Github:https://github.com/omid-sakaki-ghazvini/Projects/blob/main/handwritten-persian-numerals-dcgans-pytorch.ipynb
Kaggle:https://www.kaggle.com/code/omidsakaki1370/handwritten-persian-numerals-dcgans-pytorch
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Dual-Branch Subpixel-Guided Network for Hyperspectral Image Classification
Publication date: 5 Dec 2024
Topic: Image Classification
Paper: https://arxiv.org/pdf/2412.03893v1.pdf
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Publication date: 5 Dec 2024
Topic: Image Classification
Paper: https://arxiv.org/pdf/2412.03893v1.pdf
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Building Blocks for Theoretical Computer Science
https://mfleck.cs.illinois.edu/building-blocks/index-sp2020.html
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
https://mfleck.cs.illinois.edu/building-blocks/index-sp2020.html
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
یک سایت عالی برای دستیابی به یک نقشه جامع و کاربردی در زمینه هوش مصنوعی!
🔹 اگر به دنبال یک راهنمای کامل برای یادگیری هوش مصنوعی هستید، این سایت یکی از بهترین گزینههاست. با ارائه منابع، مسیرهای یادگیری و ابزارهای کاربردی، این نقشه میتواند شما را در مسیر یادگیری و تسلط بر مفاهیم هوش مصنوعی هدایت کند.
💻🌐https://addgraph.com/ai
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔹 اگر به دنبال یک راهنمای کامل برای یادگیری هوش مصنوعی هستید، این سایت یکی از بهترین گزینههاست. با ارائه منابع، مسیرهای یادگیری و ابزارهای کاربردی، این نقشه میتواند شما را در مسیر یادگیری و تسلط بر مفاهیم هوش مصنوعی هدایت کند.
💻🌐https://addgraph.com/ai
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Addgraph
AddGraph – A tool for Mind map, RoadMaps, Flowchart, Diagrammings
use AI to generate all kinds of Mind Map and Diagrammings
✔️ 7 پیچیدگی زمانی مهم که باید بدانید!
𝐎(1) - زمان ثابت
زمان اجرا بدون توجه به اندازه ورودی تغییر نمیکند.
مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس.
𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی
زمان اجرا بهآرامی با افزایش اندازه ورودی رشد میکند. معمولاً در الگوریتمهایی دیده میشود که مسئله را در هر مرحله نصف میکنند.
مثال: جستجوی دودویی در یک آرایه مرتب.
𝐎(𝐧) - زمان خطی
زمان اجرا به صورت خطی با اندازه ورودی افزایش مییابد.
مثال: یافتن یک عنصر در آرایه با پیمایش تمام عناصر.
𝐎(𝐧 𝐥𝐨𝐠 𝐧) - زمان خطی لگاریتمی
زمان اجرا کمی سریعتر از زمان خطی رشد میکند. این پیچیدگی معمولاً شامل تعداد لگاریتمی عملیات برای هر عنصر ورودی است.
مثال: مرتبسازی آرایه با استفاده از الگوریتمهایی مانند quick sort یا merge sort.
𝐎(𝐧^2) - زمان درجه دوم
زمان اجرا به مربع اندازه ورودی وابسته است.
مثال: الگوریتم حبابی که هر جفت از عناصر را مقایسه و در صورت نیاز جابجا میکند.
𝐎(2^𝐧) - زمان نمایی
زمان اجرا با هر واحد افزایش در ورودی دو برابر میشود. این الگوریتمها برای ورودیهای بزرگ غیرعملی هستند.
مثال: تولید تمام زیرمجموعههای یک مجموعه.
𝐎(𝐧!) - زمان فاکتوریل
زمان اجرا متناسب با فاکتوریل اندازه ورودی است.
مثال: تولید تمام جایگشتهای یک مجموعه.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
𝐎(1) - زمان ثابت
زمان اجرا بدون توجه به اندازه ورودی تغییر نمیکند.
مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس.
𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی
زمان اجرا بهآرامی با افزایش اندازه ورودی رشد میکند. معمولاً در الگوریتمهایی دیده میشود که مسئله را در هر مرحله نصف میکنند.
مثال: جستجوی دودویی در یک آرایه مرتب.
𝐎(𝐧) - زمان خطی
زمان اجرا به صورت خطی با اندازه ورودی افزایش مییابد.
مثال: یافتن یک عنصر در آرایه با پیمایش تمام عناصر.
𝐎(𝐧 𝐥𝐨𝐠 𝐧) - زمان خطی لگاریتمی
زمان اجرا کمی سریعتر از زمان خطی رشد میکند. این پیچیدگی معمولاً شامل تعداد لگاریتمی عملیات برای هر عنصر ورودی است.
مثال: مرتبسازی آرایه با استفاده از الگوریتمهایی مانند quick sort یا merge sort.
𝐎(𝐧^2) - زمان درجه دوم
زمان اجرا به مربع اندازه ورودی وابسته است.
مثال: الگوریتم حبابی که هر جفت از عناصر را مقایسه و در صورت نیاز جابجا میکند.
𝐎(2^𝐧) - زمان نمایی
زمان اجرا با هر واحد افزایش در ورودی دو برابر میشود. این الگوریتمها برای ورودیهای بزرگ غیرعملی هستند.
مثال: تولید تمام زیرمجموعههای یک مجموعه.
𝐎(𝐧!) - زمان فاکتوریل
زمان اجرا متناسب با فاکتوریل اندازه ورودی است.
مثال: تولید تمام جایگشتهای یک مجموعه.
#الگوریتم
📣👨💻 @AlgorithmDesign_DataStructuer
5 دوره رایگان برای تسلط بر مدلهای زبانی بزرگ (LLMs)
1. Introduction to Large Language Models by Google :-
Course Link
2. AI for Educators by Microsoft:- Course Link
3. Cohere’s LLM University:-
Course Link
4. Anthropic Prompt Engineering Courses:-
Course Link
5. Large Language Model Agents:- Course Link
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
1. Introduction to Large Language Models by Google :-
Course Link
2. AI for Educators by Microsoft:- Course Link
3. Cohere’s LLM University:-
Course Link
4. Anthropic Prompt Engineering Courses:-
Course Link
5. Large Language Model Agents:- Course Link
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Towards Natural Image Matting in the Wild via Real-Scenario Prior
Topic: Semantic Segmentation
Paper: https://arxiv.org/pdf/2410.06593v1.pdf
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Topic: Semantic Segmentation
Paper: https://arxiv.org/pdf/2410.06593v1.pdf
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📚 معرفی پروژه Mini-Torch: یک تجربه یادگیری متفاوت در دنیای PyTorch! 🔥
پروژه Mini-Torch یه کتابخونه آموزشی خلاقانهست که توسط دو فارغالتحصیل ریاضی از دانشگاههای امیرکبیر و مکگیل طراحی شده. این کتابخونه، با الهام از PyTorch ساخته شده و قراره فرآیندهای داخلی این کتابخونه محبوب رو به زبان ساده و قابل فهم توضیح بده. 🎓✨
هدف اصلی Mini-Torch اینه که شما رو با مفاهیم پشت صحنه PyTorch آشنا کنه و اگه این پروژه با استقبال روبهرو بشه.
https://github.com/omidiu/Mini-Torch
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
پروژه Mini-Torch یه کتابخونه آموزشی خلاقانهست که توسط دو فارغالتحصیل ریاضی از دانشگاههای امیرکبیر و مکگیل طراحی شده. این کتابخونه، با الهام از PyTorch ساخته شده و قراره فرآیندهای داخلی این کتابخونه محبوب رو به زبان ساده و قابل فهم توضیح بده. 🎓✨
هدف اصلی Mini-Torch اینه که شما رو با مفاهیم پشت صحنه PyTorch آشنا کنه و اگه این پروژه با استقبال روبهرو بشه.
https://github.com/omidiu/Mini-Torch
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🌐 تولید متن به تصویر با GANها
Generative Adversarial Networks (GANs)
انقلابی در زمینه تولید متن به تصویر ایجاد کردهاند و امکان ساخت تصاویر واقعی و معنادار را از توضیحات متنی فراهم کردهاند. این پیشرفت، فرصتهای هیجانانگیزی را در حوزههایی مانند تولید محتوای خلاقانه و بصریسازی شخصی فراهم کرده است.
📦 نحوه عملکرد GANها برای تولید متن به تصویر
- Generator:
این شبکه عصبی توضیحات متنی را دریافت کرده و تصویری متناسب با متن تولید میکند.
- Discriminator:
این شبکه نقش داور را دارد و تصاویر تولید شده را برای تعیین واقعی بودنشان ارزیابی میکند. این شبکه تفاوت بین تصاویر واقعی (از مجموعه داده آموزشی) و تصاویر جعلی (ایجاد شده توسط Generator) را تشخیص میدهد.
💸 فرآیند آموزش Adversarial
آموزش GANها شامل رقابت بین Generator و Discriminator است:
- بهبود Generator: Generator تلاش میکند تصاویری تولید کند که بتوانند Discriminator را گمراه کرده و به عنوان واقعی شناسایی شوند.
- بهبود Discriminator: Discriminator تلاش میکند تصاویر جعلی تولید شده را دقیقتر شناسایی کند.
با این فرآیند تکراری، هر دو شبکه بهبود مییابند. Generator یاد میگیرد تصاویر واقعیتر و با جزئیات بیشتر ایجاد کند و Discriminator در شناسایی ظرافتهای تصاویر جعلی بهتر میشود.
🚀 چالشها و پیشرفتهای اخیر
در حالی که GANها موفقیت چشمگیری در تولید متن به تصویر داشتهاند، چالشهایی همچنان وجود دارد:
- Mode Collapse: Generator
ممکن است تنها یک مجموعه محدود از تصاویر تولید کند که تنوع را محدود میکند.
- بیثباتی در آموزش: فرآیند آموزش GANها میتواند ناپایدار باشد و هماهنگی بین Generator و Discriminator از بین برود.
🐧 پیشرفتهای اخیر این چالشها را کاهش دادهاند:
- Improved Architectures:
معماریهای پیشرفته مانند StyleGAN و ProGAN کیفیت و تنوع تصاویر را بهبود بخشیدهاند.
- Conditional GANs:
با اضافه کردن اطلاعات شرطی (مانند متن) به Generator، این مدلها میتوانند تصاویر متناسب با توضیحات متنی خاص تولید کنند.
🤖 مدلهای محبوب Text-to-Image GAN
- StackGAN:
در دو مرحله تصاویر را ایجاد میکند؛ ابتدا تصاویر با وضوح پایین و سپس تصاویری با وضوح بالا.
- AttnGAN:
از مکانیزم توجه (Attention) برای تمرکز بر بخشهای مرتبط توضیحات متنی استفاده میکند.
- DF-GAN:
با استفاده از معماری دو مسیری کیفیت و تنوع تصاویر را بهبود میبخشد.
👨🏻💻 کاربردهای Text-to-Image GANs
- Creative Content Generation:
تولید هنر، تصاویر و طراحی بر اساس متن.
- Personalized Visualizations:
ساخت بصریسازیهای سفارشی برای تحلیل داده و داستانسرایی.
- Image Editing and Manipulation:
ویرایش و تغییر تصاویر موجود بر اساس توضیحات متنی.
- Virtual and Augmented Reality:
تولید محیطها و اشیاء واقعی برای واقعیت مجازی و افزوده.
📗 نتیجهگیری
در واقع Text-to-Image GANها به عنوان ابزاری قدرتمند برای تولید تصاویر باکیفیت و واقعی از توضیحات متنی ظاهر شدهاند. با ادامه تحقیقات و توسعه، شاهد پیشرفتهای بیشتری خواهیم بود که به آیندهای منجر میشود که در آن ماشینها بتوانند زبان انسانی را به تصاویری خیرهکننده تبدیل کنند.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Generative Adversarial Networks (GANs)
انقلابی در زمینه تولید متن به تصویر ایجاد کردهاند و امکان ساخت تصاویر واقعی و معنادار را از توضیحات متنی فراهم کردهاند. این پیشرفت، فرصتهای هیجانانگیزی را در حوزههایی مانند تولید محتوای خلاقانه و بصریسازی شخصی فراهم کرده است.
📦 نحوه عملکرد GANها برای تولید متن به تصویر
- Generator:
این شبکه عصبی توضیحات متنی را دریافت کرده و تصویری متناسب با متن تولید میکند.
- Discriminator:
این شبکه نقش داور را دارد و تصاویر تولید شده را برای تعیین واقعی بودنشان ارزیابی میکند. این شبکه تفاوت بین تصاویر واقعی (از مجموعه داده آموزشی) و تصاویر جعلی (ایجاد شده توسط Generator) را تشخیص میدهد.
💸 فرآیند آموزش Adversarial
آموزش GANها شامل رقابت بین Generator و Discriminator است:
- بهبود Generator: Generator تلاش میکند تصاویری تولید کند که بتوانند Discriminator را گمراه کرده و به عنوان واقعی شناسایی شوند.
- بهبود Discriminator: Discriminator تلاش میکند تصاویر جعلی تولید شده را دقیقتر شناسایی کند.
با این فرآیند تکراری، هر دو شبکه بهبود مییابند. Generator یاد میگیرد تصاویر واقعیتر و با جزئیات بیشتر ایجاد کند و Discriminator در شناسایی ظرافتهای تصاویر جعلی بهتر میشود.
🚀 چالشها و پیشرفتهای اخیر
در حالی که GANها موفقیت چشمگیری در تولید متن به تصویر داشتهاند، چالشهایی همچنان وجود دارد:
- Mode Collapse: Generator
ممکن است تنها یک مجموعه محدود از تصاویر تولید کند که تنوع را محدود میکند.
- بیثباتی در آموزش: فرآیند آموزش GANها میتواند ناپایدار باشد و هماهنگی بین Generator و Discriminator از بین برود.
🐧 پیشرفتهای اخیر این چالشها را کاهش دادهاند:
- Improved Architectures:
معماریهای پیشرفته مانند StyleGAN و ProGAN کیفیت و تنوع تصاویر را بهبود بخشیدهاند.
- Conditional GANs:
با اضافه کردن اطلاعات شرطی (مانند متن) به Generator، این مدلها میتوانند تصاویر متناسب با توضیحات متنی خاص تولید کنند.
🤖 مدلهای محبوب Text-to-Image GAN
- StackGAN:
در دو مرحله تصاویر را ایجاد میکند؛ ابتدا تصاویر با وضوح پایین و سپس تصاویری با وضوح بالا.
- AttnGAN:
از مکانیزم توجه (Attention) برای تمرکز بر بخشهای مرتبط توضیحات متنی استفاده میکند.
- DF-GAN:
با استفاده از معماری دو مسیری کیفیت و تنوع تصاویر را بهبود میبخشد.
👨🏻💻 کاربردهای Text-to-Image GANs
- Creative Content Generation:
تولید هنر، تصاویر و طراحی بر اساس متن.
- Personalized Visualizations:
ساخت بصریسازیهای سفارشی برای تحلیل داده و داستانسرایی.
- Image Editing and Manipulation:
ویرایش و تغییر تصاویر موجود بر اساس توضیحات متنی.
- Virtual and Augmented Reality:
تولید محیطها و اشیاء واقعی برای واقعیت مجازی و افزوده.
📗 نتیجهگیری
در واقع Text-to-Image GANها به عنوان ابزاری قدرتمند برای تولید تصاویر باکیفیت و واقعی از توضیحات متنی ظاهر شدهاند. با ادامه تحقیقات و توسعه، شاهد پیشرفتهای بیشتری خواهیم بود که به آیندهای منجر میشود که در آن ماشینها بتوانند زبان انسانی را به تصاویری خیرهکننده تبدیل کنند.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
DEYOLO: Dual-Feature-Enhancement YOLO for Cross-Modality Object Detection
Topic: Object detection
Paper: https://arxiv.org/pdf/2412.04931v1.pdf
GitHub: https://github.com/chips96/deyolo
معماری DEYOLO برای تشخیص اشیاء در محیطهای کمنور با ترکیب تصاویر RGB و مادون قرمز (IR) طراحی شده است. این مدل از دو ماژول تقویتی DECA و DEPA استفاده میکند تا ویژگیهای معنایی و فضایی هر دو مدالیته را تقویت کرده و تداخل آنها را کاهش دهد. همچنین، با بهرهگیری از Bi-Directional Decoupled Focus میدان دید شبکه را گسترش میدهد. این روش در مقایسه با الگوریتمهای پیشرفته موجود، عملکرد بهتری در تشخیص اشیاء نشان داده است.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
Topic: Object detection
Paper: https://arxiv.org/pdf/2412.04931v1.pdf
GitHub: https://github.com/chips96/deyolo
معماری DEYOLO برای تشخیص اشیاء در محیطهای کمنور با ترکیب تصاویر RGB و مادون قرمز (IR) طراحی شده است. این مدل از دو ماژول تقویتی DECA و DEPA استفاده میکند تا ویژگیهای معنایی و فضایی هر دو مدالیته را تقویت کرده و تداخل آنها را کاهش دهد. همچنین، با بهرهگیری از Bi-Directional Decoupled Focus میدان دید شبکه را گسترش میدهد. این روش در مقایسه با الگوریتمهای پیشرفته موجود، عملکرد بهتری در تشخیص اشیاء نشان داده است.
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔥 کاوش در مجموعه دادههای عظیم - Stanford 🔥
📂 Distributed file system
🔄 MapReduce
📈 PageRank
🔍 Nearest Neighbor Search
📌 Locality Sensitive Hashing
🌸 Bloom Filters
👥 Collaborative Filtering
📊 Clustering
🌳 Decision Trees
... و بسیاری موضوعات جذاب دیگر!
https://www.youtube.com/playlist?list=PLLssT5z_DsK9JDLcT8T62VtzwyW9LNepV
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
📂 Distributed file system
🔄 MapReduce
📈 PageRank
🔍 Nearest Neighbor Search
📌 Locality Sensitive Hashing
🌸 Bloom Filters
👥 Collaborative Filtering
📊 Clustering
🌳 Decision Trees
... و بسیاری موضوعات جذاب دیگر!
https://www.youtube.com/playlist?list=PLLssT5z_DsK9JDLcT8T62VtzwyW9LNepV
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
This media is not supported in your browser
VIEW IN TELEGRAM
✨ Transformer Explainer
در واقعTransformer Explainer یک ابزار بصری و تعاملی است که برای درک بهتر عملکرد مدلهای مبتنی بر Transformer، مانند GPT، طراحی شده است. 🌟 این ابزار، مدل زندهی GPT-2 را مستقیماً در مرورگر شما اجرا میکند و به شما این امکان را میدهد که با متنهای خود آزمایش کنید و بهصورت زنده مشاهده کنید که اجزای داخلی و عملیات Transformer چگونه برای پیشبینی توکنهای بعدی با یکدیگر هماهنگ میشوند. 🔍📖
https://poloclub.github.io/transformer-explainer/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
در واقعTransformer Explainer یک ابزار بصری و تعاملی است که برای درک بهتر عملکرد مدلهای مبتنی بر Transformer، مانند GPT، طراحی شده است. 🌟 این ابزار، مدل زندهی GPT-2 را مستقیماً در مرورگر شما اجرا میکند و به شما این امکان را میدهد که با متنهای خود آزمایش کنید و بهصورت زنده مشاهده کنید که اجزای داخلی و عملیات Transformer چگونه برای پیشبینی توکنهای بعدی با یکدیگر هماهنگ میشوند. 🔍📖
https://poloclub.github.io/transformer-explainer/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
💡 معرفی مدل I-JEPA از Meta 💡
🔍 مدل جدیدی از Meta در Hugging Face Transformers منتشر شده که این بار خبری از LLM یا GenAI نیست! این مدل، I-JEPA نام دارد و بر اساس دیدگاه Yann LeCun طراحی شده تا هوش مصنوعی واقعیتری ایجاد کند؛ هوشی که جهان را همانند ما انسانها درک کند.
https://ai.meta.com/blog/yann-lecun-ai-model-i-jepa/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer
🔍 مدل جدیدی از Meta در Hugging Face Transformers منتشر شده که این بار خبری از LLM یا GenAI نیست! این مدل، I-JEPA نام دارد و بر اساس دیدگاه Yann LeCun طراحی شده تا هوش مصنوعی واقعیتری ایجاد کند؛ هوشی که جهان را همانند ما انسانها درک کند.
https://ai.meta.com/blog/yann-lecun-ai-model-i-jepa/
#هوش_مصنوعی
📣👨💻 @AlgorithmDesign_DataStructuer