کاربری به اسم frosty این سوالات رو تو Stack Overflow پرسیده و FBI هم از طریق این اسمش و کدهایی که تو سایتش استفاده کرده تونسته ردشو بزنه.
فریمورکی که هم که استفاده کرده CodeIgniter پیاچپی بوده. یه نفر بهش میگه که چتاشون لو رفته و باید سریع پاکش کنه که اومده سرچ کرده چطوری session رو تو CodeIgniter پاکش کنه.
پ.ن: این کاربر راس ویلیام اولبریکت، بنیانگذار سایت خرید و فروش مواد مخ.در در دارک وب به نام Silk Road بود که در اکتبر ۲۰۱۳ تحت عملیاتی مشترک از سوی افبیآی، اداره مبارزه با مواد مخدر، وزارت دادگستری و آژانس امنیت ملی دستگیر و به حبس ابد محکوم شد.
پ.ن۲: اگه خواستین جرمی مرتکب بشین، جوابای Stack Overflow رو مستقیم کپی نکنید، خودتون بنویسید
پادکست جذاب Silk Road از چنلبی رو حتما گوش کنید فوقالعاده هس.
منبع:
@DevTwitter | <Reza Asgharzadeh />
فریمورکی که هم که استفاده کرده CodeIgniter پیاچپی بوده. یه نفر بهش میگه که چتاشون لو رفته و باید سریع پاکش کنه که اومده سرچ کرده چطوری session رو تو CodeIgniter پاکش کنه.
پ.ن: این کاربر راس ویلیام اولبریکت، بنیانگذار سایت خرید و فروش مواد مخ.در در دارک وب به نام Silk Road بود که در اکتبر ۲۰۱۳ تحت عملیاتی مشترک از سوی افبیآی، اداره مبارزه با مواد مخدر، وزارت دادگستری و آژانس امنیت ملی دستگیر و به حبس ابد محکوم شد.
پ.ن۲: اگه خواستین جرمی مرتکب بشین، جوابای Stack Overflow رو مستقیم کپی نکنید، خودتون بنویسید
پادکست جذاب Silk Road از چنلبی رو حتما گوش کنید فوقالعاده هس.
منبع:
@DevTwitter | <Reza Asgharzadeh />
👌11👍7👀7
Forwarded from 🚀 کلاسویژن | یادگیری هوش مصنوعی از پایه تا پیشرفته
وبینار رایگان: تفسیرپذیری شبکههای عصبی گرافی
این وبینار بهصورت آنلاین برگزار میشود.
🗓 زمان: پنج شنبه، ۱۳ دی ۱۴۰۳
⏰ ساعت: 10 الی 12 صبح
https://class.vision/product/explainable-ai-graph-neural-networks/
این وبینار بهصورت آنلاین برگزار میشود.
🗓 زمان: پنج شنبه، ۱۳ دی ۱۴۰۳
⏰ ساعت: 10 الی 12 صبح
https://class.vision/product/explainable-ai-graph-neural-networks/
👍2
ابزار markitdown؛ همه چیز را به فرمت markdown تبدیل کن!
مایکروسافت یک کتابخونه به نام MarkItDown را به صورت متنباز بیرون داده که باهاش میتونید فایلهایی با فرمتهای زیر را به فرمت markdown (مثل فایلهای readme گیت) تبدیل کنید.
فایل ورد فارسی رو هم خوب پشتیبانی میکنه
• PDF
• PowerPoint
• Word
• Excel
• Images (EXIF metadata and OCR)
• Audio (EXIF metadata and speech transcription)
• HTML
• Text-based formats (CSV, JSON, XML)
• ZIP files (iterates over contents)
https://github.com/microsoft/markitdown/tree/main
🙏Thanks to: @nlp_stuff
مایکروسافت یک کتابخونه به نام MarkItDown را به صورت متنباز بیرون داده که باهاش میتونید فایلهایی با فرمتهای زیر را به فرمت markdown (مثل فایلهای readme گیت) تبدیل کنید.
فایل ورد فارسی رو هم خوب پشتیبانی میکنه
• PowerPoint
• Word
• Excel
• Images (EXIF metadata and OCR)
• Audio (EXIF metadata and speech transcription)
• HTML
• Text-based formats (CSV, JSON, XML)
• ZIP files (iterates over contents)
https://github.com/microsoft/markitdown/tree/main
🙏Thanks to: @nlp_stuff
3👍24🤔2
🚀 کلاسویژن | یادگیری هوش مصنوعی از پایه تا پیشرفته
وبینار رایگان: تفسیرپذیری شبکههای عصبی گرافی این وبینار بهصورت آنلاین برگزار میشود. 🗓 زمان: پنج شنبه، ۱۳ دی ۱۴۰۳ ⏰ ساعت: 10 الی 12 صبح https://class.vision/product/explainable-ai-graph-neural-networks/
ویدویها _کدها + اسلاید این وبینار روی سایت قرار گرفت
https://class.vision/product/explainable-ai-graph-neural-networks/
https://class.vision/product/explainable-ai-graph-neural-networks/
کلاسویژن
ویدیوی وبینار رایگان تفسیرپذیری شبکههای عصبی گرافی + کد و اسلاید - کلاسویژن
این وبینار قبلا برگزار شده و فیلم آن پس از ثبت نام در دسترس است
1❤17😱1
Tensorflow(@CVision)
ویدویها _کدها + اسلاید این وبینار روی سایت قرار گرفت https://class.vision/product/explainable-ai-graph-neural-networks/
یک کد تخفیف 200 هزار تومانی برای علاقه مندان دوره ی GNN با اعتبار 2 هفته ایجاد شد
https://class.vision/product/graph-neural-network/
xai_gnnhttps://class.vision/product/graph-neural-network/
کلاسویژن
دورهی آموزشی ویدیویی Graph Neural Network - کلاسویژن
در دنیای امروز، دادههای گرافی بخش بزرگی از دادههای موجود را تشکیل میدهند. از شبکههای اجتماعی گرفته تا سیستمهای توصیهگر، گرافها در بسیاری از برنامههای کاربردی به کار میروند. در این ویدویوی آموزشی حدودا 13ساعته، شما با مفاهیم پایهای Graph Neural Network…
👍2😱2❤1
final-exam-1403-mvije3.pdf
427.7 KB
آزمون مباحث ویژه ۳ مقطع کارشناسی با مبحث دیپ لرنینگ پیشرفته،
ویدیوهای این دوره همانند مباحث ویژه ۱ و ۲، در مکتب خونه قرار میگیرد.
ویدیوهای این دوره همانند مباحث ویژه ۱ و ۲، در مکتب خونه قرار میگیرد.
👍9❤8
Forwarded from رویدادهای هوش مصنوعی
یازدهمین جشنواره فناوری اطلاعات کشور- ITWEEKEND 2025
🗓30 دی ماه 1403 ساعت 9:00 الی 17:30
📍دانشگاه صنعتی شریف ( دانشکده مهندسی کامپیوتر، سالن استاد ربیعی)
https://itweekend.sharif.ir
〰️〰️〰️〰️〰️
این کانال با هدف آگاه سازی از رویدادهای مرتبط با هوش مصنوعی نظیر همایش، کنفرانس، ورکشاپ و کلاس تشکیل شده است.
@eventai
🗓30 دی ماه 1403 ساعت 9:00 الی 17:30
📍دانشگاه صنعتی شریف ( دانشکده مهندسی کامپیوتر، سالن استاد ربیعی)
https://itweekend.sharif.ir
〰️〰️〰️〰️〰️
این کانال با هدف آگاه سازی از رویدادهای مرتبط با هوش مصنوعی نظیر همایش، کنفرانس، ورکشاپ و کلاس تشکیل شده است.
@eventai
❤3🔥2👏2👍1
Tensorflow(@CVision)
final-exam-1403-mvije3.pdf
برای این امتحان دوستان ویدیوها یا منبع دوره را خواسته بودند.
پیش نیاز این دوره مباحث ویژه 1 و 2 است که در مکتب خونه با این نامها قرار گرفته:
آموزش رایگان مقدمات هوش مصنوعی و یادگیری عمیق و آموزش رایگان هوش مصنوعی و یادگیری عمیق پیشرفته
و بخش سوم این درس هنوز تو مکتب خونه قرار نگرفته اما در آپاراتم هست:
https://www.aparat.com/v/vqc793d/
این سه درس برای مقطع کارشناسی در دانشگاه شهید رجایی ارائه شده بوده است.
پیش نیاز این دوره مباحث ویژه 1 و 2 است که در مکتب خونه با این نامها قرار گرفته:
آموزش رایگان مقدمات هوش مصنوعی و یادگیری عمیق و آموزش رایگان هوش مصنوعی و یادگیری عمیق پیشرفته
و بخش سوم این درس هنوز تو مکتب خونه قرار نگرفته اما در آپاراتم هست:
https://www.aparat.com/v/vqc793d/
این سه درس برای مقطع کارشناسی در دانشگاه شهید رجایی ارائه شده بوده است.
Telegram
Tensorflow(@CVision)
آزمون مباحث ویژه ۳ مقطع کارشناسی با مبحث دیپ لرنینگ پیشرفته،
ویدیوهای این دوره همانند مباحث ویژه ۱ و ۲، در مکتب خونه قرار میگیرد.
ویدیوهای این دوره همانند مباحث ویژه ۱ و ۲، در مکتب خونه قرار میگیرد.
❤11👍2🙏1
🟥 معرفی پنل های تخصصی یازدهمین جشنواره فناوری اطلاعات کشور
🟧 پنل سوم: هوش مصنوعی در کسب و کار ها
🗓 30 دی ماه 1403 ساعت 15:00 الی 16:00
📍دانشگاه صنعتی شریف ( دانشکده مهندسی کامپیوتر، سالن استاد ربیعی)
1️⃣ علیرضا اخوانپور، مدرس دانشگاه، مشاور هوشمصنوعی
2️⃣ سمیه چشمی، مدیر ارشد محصول پروژه خودرو هوشمند فناپ
3️⃣ محمد اتابکی، همبنیانگذار و مدیرعامل آپتایم
4️⃣ علی نادری، بنیانگذار چتبات فلوچت
5️⃣ پرهام کاظمی، همبنیانگذار گنجه
6️⃣ آرش سروری ( راهبر و تسهیلگر پنل)
🌐 https://itweekend.sharif.ir
🚀 @sharifit | 📷 @sharif_ict
🟧 پنل سوم: هوش مصنوعی در کسب و کار ها
🗓 30 دی ماه 1403 ساعت 15:00 الی 16:00
📍دانشگاه صنعتی شریف ( دانشکده مهندسی کامپیوتر، سالن استاد ربیعی)
1️⃣ علیرضا اخوانپور، مدرس دانشگاه، مشاور هوشمصنوعی
2️⃣ سمیه چشمی، مدیر ارشد محصول پروژه خودرو هوشمند فناپ
3️⃣ محمد اتابکی، همبنیانگذار و مدیرعامل آپتایم
4️⃣ علی نادری، بنیانگذار چتبات فلوچت
5️⃣ پرهام کاظمی، همبنیانگذار گنجه
6️⃣ آرش سروری ( راهبر و تسهیلگر پنل)
🌐 https://itweekend.sharif.ir
🚀 @sharifit | 📷 @sharif_ict
👍4👀1
🔻OWASP Top 10 for LLM Applications 2025
مخاطرات بکارگیری AI در برنامهها
genai.owasp.org/download/43299/?tmstv=1731900559
genai.owasp.org/resource/owasp-top-10-for-llm-applications-2025
مخاطرات بکارگیری AI در برنامهها
genai.owasp.org/download/43299/?tmstv=1731900559
genai.owasp.org/resource/owasp-top-10-for-llm-applications-2025
👍7
تیم پستترینینگ هاگینگ فیس در این جلسه، گزارش فنی مدل جدید DeepSeek R1 را بررسی میکند:
https://youtu.be/1xDVbu-WaFo
https://youtu.be/1xDVbu-WaFo
YouTube
Hugging Face Journal Club - DeepSeek R1
The post-training team at Hugging Face discuss the tech report behind DeepSeek's ground breaking R1 models.
- Report: https://github.com/deepseek-ai/DeepSeek-R1
- Models: https://huggingface.co/collections/deepseek-ai/deepseek-r1-678e1e131c0169c0bc89728d
- Report: https://github.com/deepseek-ai/DeepSeek-R1
- Models: https://huggingface.co/collections/deepseek-ai/deepseek-r1-678e1e131c0169c0bc89728d
👍6
مدلهای DeepSeek-R1-Zero و DeepSeek-R1 اولین نسل از مدلهای استدلالی هستند که برای بهبود قابلیتهای reasoning طراحی شدهاند. DeepSeek-R1-Zero به کمک یادگیری تقویتی در مقیاس بزرگ (RL) و بدون تنظیم دقیق نظارتشده (SFT) آموزش دیده است. این مدل توانسته رفتارهای جالبی مثل زنجیره تفکر (Chain-of-Thought)، خودبازبینی (Self-Verification)، و بازتاب (Reflection) را بهصورت طبیعی یاد بگیرد. نکته مهم این است که این مدل اولین نمونه تحقیقاتی است که نشان داده فقط با استفاده از RL و بدون نیاز به SFT میتوان قابلیتهای reasoning مدلهای زبانی را بهبود داد. با این حال، DeepSeek-R1-Zero مشکلاتی مثل تکرار بیپایان، خوانایی پایین و ترکیب غیرمنطقی زبانها دارد.
برای رفع این مشکلات و ارتقای عملکرد، مدل DeepSeek-R1 توسعه داده شد. این مدل از یک فرایند آموزشی پیچیده استفاده میکند که شامل دو مرحله RL برای کشف الگوهای بهتر استدلال و هماهنگی با ترجیحات انسانی، و همچنین دو مرحله SFT برای بهبود قابلیتهای مدل در استدلال و وظایف عمومی است. نتیجه این فرآیند، مدلی است که در وظایف ریاضی، کدنویسی، و استدلال عملکردی مشابه OpenAI-o1 دارد.
از طرف دیگر، تیم تحقیقاتی نشان داده که میتوان الگوهای استدلال مدلهای بزرگتر را به مدلهای کوچکتر انتقال داد (distillation) و همچنان عملکرد بالایی به دست آورد. با استفاده از دادههای تولیدشده توسط DeepSeek-R1، چندین مدل کوچکتر بهینهسازی شدهاند که در ارزیابیها نتایج فوقالعادهای داشتهاند. این مدلهای کوچکتر، با اندازههای مختلف (مثل 1.5 میلیارد تا 70 میلیارد پارامتر)، بهصورت متنباز در دسترس جامعه تحقیقاتی قرار گرفتهاند. بهطور خاص، مدل DeepSeek-R1-Distill-Qwen-32B در مقایسه با OpenAI-o1-mini در آزمونهای مختلف عملکرد بهتری داشته و استانداردهای جدیدی برای مدلهای dense ایجاد کرده است.
کد:
https://github.com/deepseek-ai/DeepSeek-R1
مقاله:
https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
برای رفع این مشکلات و ارتقای عملکرد، مدل DeepSeek-R1 توسعه داده شد. این مدل از یک فرایند آموزشی پیچیده استفاده میکند که شامل دو مرحله RL برای کشف الگوهای بهتر استدلال و هماهنگی با ترجیحات انسانی، و همچنین دو مرحله SFT برای بهبود قابلیتهای مدل در استدلال و وظایف عمومی است. نتیجه این فرآیند، مدلی است که در وظایف ریاضی، کدنویسی، و استدلال عملکردی مشابه OpenAI-o1 دارد.
از طرف دیگر، تیم تحقیقاتی نشان داده که میتوان الگوهای استدلال مدلهای بزرگتر را به مدلهای کوچکتر انتقال داد (distillation) و همچنان عملکرد بالایی به دست آورد. با استفاده از دادههای تولیدشده توسط DeepSeek-R1، چندین مدل کوچکتر بهینهسازی شدهاند که در ارزیابیها نتایج فوقالعادهای داشتهاند. این مدلهای کوچکتر، با اندازههای مختلف (مثل 1.5 میلیارد تا 70 میلیارد پارامتر)، بهصورت متنباز در دسترس جامعه تحقیقاتی قرار گرفتهاند. بهطور خاص، مدل DeepSeek-R1-Distill-Qwen-32B در مقایسه با OpenAI-o1-mini در آزمونهای مختلف عملکرد بهتری داشته و استانداردهای جدیدی برای مدلهای dense ایجاد کرده است.
کد:
https://github.com/deepseek-ai/DeepSeek-R1
مقاله:
https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf
GitHub
GitHub - deepseek-ai/DeepSeek-R1
Contribute to deepseek-ai/DeepSeek-R1 development by creating an account on GitHub.
👍20❤3
Tensorflow(@CVision)
🔥 مدل DeepSeek چالش جدید چینی برای غولهای هوش مصنوعی 🔥
🔹 استارتاپ چینی DeepSeek با معرفی مدل هوش مصنوعی جدید خود، R1، تحولی در بازار هوش مصنوعی ایجاد کرده است. این مدل با عملکردی مشابه مدلهای پیشرفته غربی، اما با هزینهای بهمراتب کمتر توسعه یافته است. این دستاورد باعث کاهش ۱۲ درصدی ارزش سهام انویدیا و افت ۳۸۴ میلیارد دلاری ارزش بازار آن شده است.
🔸 مدل DeepSeek-R1 با ۶۷۱ میلیارد پارامتر، از معماری «ترکیب متخصصان» (Mixture of Experts) بهره میبرد که در آن تنها ۳۷ میلیارد پارامتر در هر پردازش فعال میشوند. این رویکرد منجر به کاهش قابلتوجهی در مصرف منابع محاسباتی و افزایش کارایی مدل شده است.
این مدل با استفاده از تنها ۲,۰۰۰ واحد پردازش گرافیکی (GPU) انویدیا، مدل خود را آموزش داده است؛ در حالی که مدلهای مشابه به حدود ۱۶,۰۰۰ GPU نیاز دارند. این کارایی بالا و هزینه پایین، نگرانیهایی را در مورد آینده سرمایهگذاریهای شرکتهایی مانند مایکروسافت و گوگل در حوزه هوش مصنوعی برانگیخته است.
🔹 مدل DeepSeek-R1 با استفاده از یادگیری تقویتی (Reinforcement Learning) و بدون نیاز به تنظیمات نظارتشده (Supervised Fine-Tuning)، توانسته است در بنچمارکهای مختلفی مانند AIME و MATH-500 عملکردی بهتر یا مشابه با مدل o1 از OpenAI ارائه دهد. این مدل در تستهای ریاضی AIME امتیاز ۷۹.۸ درصد و در MATH-500 امتیاز ۹۷.۳ درصد را کسب کرده است.
GIT
Source: barrons - theverge - wikipedia
🔸 مدل DeepSeek-R1 با ۶۷۱ میلیارد پارامتر، از معماری «ترکیب متخصصان» (Mixture of Experts) بهره میبرد که در آن تنها ۳۷ میلیارد پارامتر در هر پردازش فعال میشوند. این رویکرد منجر به کاهش قابلتوجهی در مصرف منابع محاسباتی و افزایش کارایی مدل شده است.
این مدل با استفاده از تنها ۲,۰۰۰ واحد پردازش گرافیکی (GPU) انویدیا، مدل خود را آموزش داده است؛ در حالی که مدلهای مشابه به حدود ۱۶,۰۰۰ GPU نیاز دارند. این کارایی بالا و هزینه پایین، نگرانیهایی را در مورد آینده سرمایهگذاریهای شرکتهایی مانند مایکروسافت و گوگل در حوزه هوش مصنوعی برانگیخته است.
🔹 مدل DeepSeek-R1 با استفاده از یادگیری تقویتی (Reinforcement Learning) و بدون نیاز به تنظیمات نظارتشده (Supervised Fine-Tuning)، توانسته است در بنچمارکهای مختلفی مانند AIME و MATH-500 عملکردی بهتر یا مشابه با مدل o1 از OpenAI ارائه دهد. این مدل در تستهای ریاضی AIME امتیاز ۷۹.۸ درصد و در MATH-500 امتیاز ۹۷.۳ درصد را کسب کرده است.
GIT
Source: barrons - theverge - wikipedia
❤39👍11⚡1
مدل جدید DeepSeek به اسم Janus که مولتیمدال هست هم در ورودی هم خروجی امروز منتشر شد:
https://github.com/deepseek-ai/Janus
https://github.com/deepseek-ai/Janus
GitHub
GitHub - deepseek-ai/Janus: Janus-Series: Unified Multimodal Understanding and Generation Models
Janus-Series: Unified Multimodal Understanding and Generation Models - deepseek-ai/Janus
👍9
سری Janus از تیم DeepSeek نسل جدیدی از مدلهای هوش مصنوعی هست که برای کار با دادههای متنوع مثل متن، تصویر و حتی ترکیب این دو طراحی شده. این مدلها میتونن هر نوع ورودی رو بگیرن (متن، تصویر) و هر نوع خروجی تولید کنن (متن، تصویر). به خاطر همین، بهشون میگن مدلهای “any-to-any” که یعنی هر چیزی رو به هر چیزی تبدیل میکنن!
نسخه پیشرفتهی این سری (Janus-Pro) که با سه تا بهبود اصلی ارائه شده:
1. استراتژی آموزشی بهینهشده که یادگیری مدل رو دقیقتر کرده.
2. اضافه شدن دادههای بیشتر به فرایند آموزش که مدل رو باهوشتر کرده.
3. بزرگتر شدن ابعاد مدل که باعث شده عملکردش توی درک و تولید تصویر از متن خیلی قویتر بشه.
نتیجه این شده که Janus-Pro توی درک و تولید Multimodal پیشرفتهای فوقالعادهای داشته و حتی توی تولید تصویر از متن، پایداری خیلی بالایی نشون داده.
نسخه اصلی، یعنی Janus، یه معماری جالب و هوشمندانه داره. این مدل پردازش تصویر رو از بقیه وظایف جدا کرده ولی همچنان با یه معماری یکپارچهی ترانسفورمر همه چیز رو مدیریت میکنه. این طراحی باعث شده مدل توی هر دو بخش درک و تولید خیلی منعطف و کارآمد باشه و حتی از مدلهای تخصصی توی این زمینه جلو بزنه.
یه مدل دیگه توی این سری JanusFlow هست که یه ایده جدید رو اجرا کرده: ترکیب مدلهای اتورگرسیو با روش پیشرفتهای به اسم Rectified Flow. این ترکیب، ساده و موثر انجام شده و نیاز به پیچیدگی خاصی نداره. نتیجه؟ یه مدل که هم میتونه تصویر تولید کنه و هم توی کارهای Multimodal عملکردش خیلی بهتر از بقیه مدلهای موجوده.
نسخه پیشرفتهی این سری (Janus-Pro) که با سه تا بهبود اصلی ارائه شده:
1. استراتژی آموزشی بهینهشده که یادگیری مدل رو دقیقتر کرده.
2. اضافه شدن دادههای بیشتر به فرایند آموزش که مدل رو باهوشتر کرده.
3. بزرگتر شدن ابعاد مدل که باعث شده عملکردش توی درک و تولید تصویر از متن خیلی قویتر بشه.
نتیجه این شده که Janus-Pro توی درک و تولید Multimodal پیشرفتهای فوقالعادهای داشته و حتی توی تولید تصویر از متن، پایداری خیلی بالایی نشون داده.
نسخه اصلی، یعنی Janus، یه معماری جالب و هوشمندانه داره. این مدل پردازش تصویر رو از بقیه وظایف جدا کرده ولی همچنان با یه معماری یکپارچهی ترانسفورمر همه چیز رو مدیریت میکنه. این طراحی باعث شده مدل توی هر دو بخش درک و تولید خیلی منعطف و کارآمد باشه و حتی از مدلهای تخصصی توی این زمینه جلو بزنه.
یه مدل دیگه توی این سری JanusFlow هست که یه ایده جدید رو اجرا کرده: ترکیب مدلهای اتورگرسیو با روش پیشرفتهای به اسم Rectified Flow. این ترکیب، ساده و موثر انجام شده و نیاز به پیچیدگی خاصی نداره. نتیجه؟ یه مدل که هم میتونه تصویر تولید کنه و هم توی کارهای Multimodal عملکردش خیلی بهتر از بقیه مدلهای موجوده.
👍42👏1
گروهی از محققان هوش مصنوعی دانشگاه کالیفرنیا، برکلی،ادعا می کنند که فناوری اصلی DeepSeek R1-Zero را با تنها 30 دلار بازسازی کردن و نشون دادن که چگونه میشه مدل های پیشرفته را با هزینه ای مقرون به صرفه پیاده سازی کرد.
تیم DeepSeek این کارو با چندین نوآوری واقعی و چشمگیر انجام داد، که بیشترشون مربوط به افزایش کارایی مهندسی بودن. پیشرفت های خیلی خلاقانه ای توی مدیریت در بخش"Key-Value cache" و فعال کردن "MOEs" به وجود اومد که تا قبل از این توجه چندانی بهش نشده بود، هر چند که ایده mixture of experts به ۱۹۹۱ بر میگرده
https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-research-team-claims-to-reproduce-deepseek-core-technologies-for-usd30-relatively-small-r1-zero-model-has-remarkable-problem-solving-abilities
https://github.com/Jiayi-Pan/TinyZero
تیم DeepSeek این کارو با چندین نوآوری واقعی و چشمگیر انجام داد، که بیشترشون مربوط به افزایش کارایی مهندسی بودن. پیشرفت های خیلی خلاقانه ای توی مدیریت در بخش"Key-Value cache" و فعال کردن "MOEs" به وجود اومد که تا قبل از این توجه چندانی بهش نشده بود، هر چند که ایده mixture of experts به ۱۹۹۱ بر میگرده
https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-research-team-claims-to-reproduce-deepseek-core-technologies-for-usd30-relatively-small-r1-zero-model-has-remarkable-problem-solving-abilities
https://github.com/Jiayi-Pan/TinyZero
GitHub
GitHub - Jiayi-Pan/TinyZero: Minimal reproduction of DeepSeek R1-Zero
Minimal reproduction of DeepSeek R1-Zero. Contribute to Jiayi-Pan/TinyZero development by creating an account on GitHub.
👍25❤8👀2⚡1
DeepSeek
اخیرا نسخه سوم مدل خودش بنام DeepSeek V3رو منتشر کرد که در حال حاضر بهترین عملکرد در بین مدل های متن باز در بنچ مارک های مختلف داره. به همراه این مدل، یک گزارش فنی هم منتشر شد که جزئیات آموزش مدل رو شرح میده.
نکته جالب اینجاست که این عملکرد عالی با استفاده از فقط ۲.۸ میلیون ساعت سخت افزار آموزشی H800 بدست اومده که این مقدار تقریبا ده برابر کمتر از محاسبات آموزشی مدل Llama3.1 405B با عملکرد مشابه ست.
امشب در این مورد بحث خواهیم کرد و به برخی از بهبودهای معماری مهمی که DeepSeek در گزارش خود به اونها اشاره کرده می پردازیم و اینکه چطور این بهبودها منجر به عملکرد بهتر در مقایسه با یک مدل ترانسفورمر معمولی شد.
مهم ترین نوآوری های این معماری به ترتیب:
✅Multi-head latent attention
✅Mixture-of-experts
✅Auxiliary-loss-free load balancing
✅Multi-token prediction
هستند که به مرور بحث خواهیم کرد.
🔅Multi-head latent attention
مهم ترین نوآوری معماری در DeepSeek برای استنتاج متن های طولانی هست. این تکنیک برای اولین بار در DeepSeek نسخه ۲ معرفی شد و روشی بهتر برای کاهش اندازه KV cache در مقایسه با روشهای معرفی شده grouped-query attention و multi-query attention هست.
ادامه دارد...
اخیرا نسخه سوم مدل خودش بنام DeepSeek V3رو منتشر کرد که در حال حاضر بهترین عملکرد در بین مدل های متن باز در بنچ مارک های مختلف داره. به همراه این مدل، یک گزارش فنی هم منتشر شد که جزئیات آموزش مدل رو شرح میده.
نکته جالب اینجاست که این عملکرد عالی با استفاده از فقط ۲.۸ میلیون ساعت سخت افزار آموزشی H800 بدست اومده که این مقدار تقریبا ده برابر کمتر از محاسبات آموزشی مدل Llama3.1 405B با عملکرد مشابه ست.
امشب در این مورد بحث خواهیم کرد و به برخی از بهبودهای معماری مهمی که DeepSeek در گزارش خود به اونها اشاره کرده می پردازیم و اینکه چطور این بهبودها منجر به عملکرد بهتر در مقایسه با یک مدل ترانسفورمر معمولی شد.
مهم ترین نوآوری های این معماری به ترتیب:
✅Multi-head latent attention
✅Mixture-of-experts
✅Auxiliary-loss-free load balancing
✅Multi-token prediction
هستند که به مرور بحث خواهیم کرد.
🔅Multi-head latent attention
مهم ترین نوآوری معماری در DeepSeek برای استنتاج متن های طولانی هست. این تکنیک برای اولین بار در DeepSeek نسخه ۲ معرفی شد و روشی بهتر برای کاهش اندازه KV cache در مقایسه با روشهای معرفی شده grouped-query attention و multi-query attention هست.
ادامه دارد...
👍17❤7⚡1