دستاوردهای یادگیری عمیق(InTec)
9.36K subscribers
353 photos
39 videos
44 files
650 links
هوش مصنوعی، یادگیری ماشین و یادگیری عمیق
موضوع اصلی کانال

این یک بلاگ شخصی با طرز تفکر شخصی هست.

Core Python : @PyHints

تلاشی هم در یادگیری Rust دارم که درحال داکیومنت شدن هم هست؛ اگر شماهم به این زبان علاقمند هستید join یادتون نره

Rust: @PyRust
Download Telegram
دستاوردهای یادگیری عمیق(InTec)
moonshot.ai مدل جدید خودش رو معرفی کرده به اسم kimiK2 (بهترین مدل open source هست) این مدل non thinking ولی MOE هست : https://github.com/MoonshotAI/Kimi-K2 تعداد پارامترها : ۱ تریلیون، با تعداد پارامتر فعال ۳۲ میلیاردی. لایسنس خوبی هم داره (MIT بیس…
تیم groq با این پست از Artificial Analysis خبر از انتشار Kimi k2 روی پلتفرم خودش داد

با سرعت 40x؛ اگر مدل رو تست کرده باشید می‌دونید توی تسک‌های کد فوق‌العاده هست با اینکه thinking نیست.
اما مشکل اصلی کند بودنش بود که Groq اون رو حل کرده

۴۰ برابر سرعت بیشتر؛ روی پروژه جدیدم این مدل رو دقیق تست می‌کنم و با Gemini2.5 Pro مقایسه خواهم کرد.

نتایجش رو می‌ذارم حتماً (امیدوارم گراک نسخه بزرگش رو دپلوی کرده باشه)


توی تست mini دقیقاً میشه گفت near-realtime هست 😂😂🤯🤯🤯
👍248
دستاوردهای یادگیری عمیق(InTec)
تیم groq با این پست از Artificial Analysis خبر از انتشار Kimi k2 روی پلتفرم خودش داد با سرعت 40x؛ اگر مدل رو تست کرده باشید می‌دونید توی تسک‌های کد فوق‌العاده هست با اینکه thinking نیست. اما مشکل اصلی کند بودنش بود که Groq اون رو حل کرده ۴۰ برابر سرعت…
این مدل رو کلی تست کردم؛
خیلی مدل خوبیه و خیلی استانداردها رو وقتی بهش می‌گی رعایت می‌کنه.
مثلا استانداردهای امنیتی و ... (مثل همه مدل‌های دیگه هم باید بدونی این استانداردها چی هستند تا دقیق ازش بخوای تا رعایت کنه)


اما من یک مشکل اساسی باهاش دارم؛ استایل کد زدنم رو کامل رعایت نمی‌کنه؛ خیلی عالی هست برای استاندارد کد زدن و وایب کدینگ
ولی
من vibe code اصلا به کارم نمیاد؛ و استانداردها هم باید با استاندارد کدهای خودم باشه (ساده و قابل درک) ولی این مدل زیادی خلاقیت و اپتیمایز و ... میزنه که هیچوقت توی نسخه اولیه پروژه نباید اینطوری کد زد.
(البته خیلی وقتا با پرامپت حل می‌شه ولی خب)

جایگزین ۱۰۰٪ برام نشده توی استفاده از Gemini Pro ولی 70-80% مواقع ازین مدل استفاده می‌کنم بخاطر ریسپانس‌های سریعتر و 20-30% رو میرم روی Gemini Pro بطور کلی رضایت دارم

بخصوص اگر حوصله داشته باشید و یکبار یک System Prompt عالی براش بنویسید با استانداردهای خودتون.


در حال حاضر هم دارم روی نسخه آپدیت شده Qwen3 تست میزنم بخوص برای تسک‌های react پروژه خودم.
تا اینجا راضی‌ام ازین آپدیت.
👍167
Forwarded from Python Hints
هرکسی گوه غزه رو خورد اینو بزنید تو صورتش!

بعد از این‌ همه جنگ و بزرگ‌نمایی، فقط ۲۰٪ کودکان غزه سو تغذیه دارند
ولی از طرفی در ایران
۵۴٪ بچه‌های سیستان و بلوچستان سو تغذیه دارند

اون حرومزاده‌هایی که غزه از دهنشون نمیوفته یک کامنت هم برای بچه‌های سیستان و بلوچستان ندارند!

آره عزیز؛ حتی توی این همدردی هم به فکر وام دولتی و پشتیبانی حکومتی هستید.

لینک خبر رکنا
120👍50
این رو چندباری از چندتا از بچه‌ها شنیدم ؛
تا امروز راجبش چیزی نگفتم چون در مدل‌های دیگه شنیده بودم.

مثلاً اینکه از طرف شما ۴۰۰-۶۰۰ میلیون وام بگیرند بعد شما اقساط اون رو بدید (توی این مورد هم هیچی از پروژه و ... مشخص نبود) یعنی یک دوره هوش مصنوعی برای شما حداقل ۳۰۰ میلیون تومان در میاد!

برای دانشگاه stanford و دوره‌ی پروفسور Manning شما با مبلغ ۱۰,۰۰۰ دلار می‌تونید مدرک معتبر استنفورد رو برای NLP بگیرید
(حداقل ۲ سال پیش که من پرسیدم)

خیلی مراقب این سودجویی ها باشید؛ شاید بهتر باشه مقامات قانونی کشور یک سری هم به این مدل شرکت‌ها بزنند!


پی‌نوشت:
دوستان خواهشاً خودتون مراقب باشید، از متخصص های فعلی مشورت بگیرید، توی گروها بپرسد و ...
با هر شرایطی سراغ کار نرید. هنوز شروع به کار نکرده خودتون رو بدهی بالا نیارید.
👍614
Forwarded from Python Hints
متا دیگه دنبال coder نمی‌گرده
حتی اینکه چندتا leetcode هم حل کردید و حفظ کردید توی متا مهم نیست.

ازین پس، توی مصاحبه‌های شرکت META اجازه استفاده از هوش مصنوعی رو هم دارید.

۱ سال و نیم قبل گفتم، شرکت‌ها قطعاً و حتماً به این سمت خواهند رفت 👌

تعریف جونیور هم بیشتر عوض خواهد شد !
👍508🤣1
نسخه جدید ollama یک اپلیکیشن هم بهت میده
دیگه نیازی به open webui نداری و مهمتر از اون؛ تغییر مسیر دیفالت مدل‌ها دیگه دردسر بزرگ نخواهد بود.

اگر خواستید با:
qwen3:30b-a3b-instruct-2507-q4_K_M

تستش کنید (ورژن جدید qwen3 این هست)
👍212
مدل‌های جدید openai که opensource هم هست روی groq دپلوی شده !


تست کنید متوجه می‌شید؛ دنیای open source توی این سایز از مدل‌ها خیلی از openai جلوتر هست!

برای تست :

من روی دیتاست تست خودم تست میگیرم، مشکلاتی که توی این مدت داشتم و مدل‌های بزرگ نتونستند حل کنند ولی توی ورژن‌های بعدی حل شده!
حالا یک فایل csv بزرگ شده که دسته بندی هم داره؛
برای مدل‌های ۳۰ میلیاردی و کمتر
برای مدل‌های ۳۰-۷۰ میلیاردی
برای مدل‌های ۷۰ تا ۱۵۰ میلیاردی
برای مدل‌های ۱۵۰ تا ۲۵۰ میلیاردی
برای مدل‌های ۲۵۰ تا ۳۵۰ میلیاردی
و درنهایت مدل‌های بالای ۳۵۰ میلیارد پارامتر

و اینجوری هست که سوالی که بنظرم چالشی بوده رو انتخاب کردم از مدل‌های کوچیک شروع کردم تا بزرگ و اولین کوچکترین مدلی که تونسته به سوالم جواب درست بده رو علامت زدم!

پیشنهاد می‌کنم شماهم اینکارو بکنید و دوتا دلیل هم دارم :

۱- دیگه اکثر بنچمارک‌ها بی‌معنی شدند
۲- نحوه استفاده شما از مدل‌ بسیار تعیین کننده هست.

مثلاً برای یک نویسنده، هیچوقت مدلی که بهترین نتایج روی SWE یا LMSYS داره شاید مهم نباشه ولی یک مدل که بهترین کلمات جایگزین رو پیشنهاد می‌ده بهترین مدل بشه.


Groq chat
👍214
شرکت OpenAI اینطوری chatgpt 5.0 رو معرفی کرد.

فقط کسی هست دقیقاً توضیح بده؛ چطوری 52.8% از 69.1% بیشتر میشه ؟!

یا اینکه چجوری 30.8% با 69.1% هم اندازه می‌شه ؟!

😂😂😂😂

از استان ما؛ ۴۰٪ خانوم و ۹۰٪ آقا برای کربلا ثبت‌نام کردند
که از تعداد ۲ میلیون و ۸۰۰ هزار و خورده‌ای
شاید تا الان که صحبت می‌کنیم به ۳۰ میلیون هم رسیده باشه دیگه!
🤣974
دستاوردهای یادگیری عمیق(InTec)
شرکت OpenAI اینطوری chatgpt 5.0 رو معرفی کرد. فقط کسی هست دقیقاً توضیح بده؛ چطوری 52.8% از 69.1% بیشتر میشه ؟! یا اینکه چجوری 30.8% با 69.1% هم اندازه می‌شه ؟! 😂😂😂😂 از استان ما؛ ۴۰٪ خانوم و ۹۰٪ آقا برای کربلا ثبت‌نام کردند که از تعداد ۲ میلیون و ۸۰۰…
برای کد نویسی واقعاً این ترکیب برنده‌اس :

Gemini 2.5 Pro (Math & Coding)
Qwen3-coder


برای بحث‌های روزمره و یادگیری زبان و ...
Grok4

البته Claude 4.1 هم ادعا کرده که مشکل code base بزرگ رو کمتر کرده ولی هنوز نتونستم تست کنم؛ اگر این باشه گزینه خوبی میشه اینم.
👍403
این پیام رو محراب عزیز برام فرستاد:

با فعال کردن Github Student هر کسی که دانشجو هست
میتونه از همه مدل‌های OpenAI، Google و Anthropic رایگان استفاده کنه. که gpt5 رو هم شامل میشه.



البته من دیدم غیر دانشجوها هم با جعل کارت دانشجویی قدیمی خودشون و تغییر تاریخش دسترسی گرفتن ولی خب.
🤣527👍7
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا می‌شه.

GitHub
👍223
#تجربه

وقتی هوش مصنوعی رو درست و مفهومی یاد گرفتی!
چند هفته قبل شرکت رقیب یک فیچر جدید داده بود که برای مشتری‌هاش یک سری سایت‌‌های خاص رو کرال می‌کرد (حدوداً ۵۰۰ تا) و گزارشات در لحظه و دقیقی رو ارائه می‌داد.

برای این فیچر، یک مبلغ خوبی هم ماهانه بیشتر داشت می‌گرفت از یوزرهاش؛ یکی از شرکت‌هایی که مشتری ما هست درخواست این ویژگی رو بهمون داد و گفت کاملاً بهش نیاز دارند، چون خیلی از کارهاشون ساده‌تر می‌شه و گفت اگر حدوداً تا ۳ ماه دیگه هم راه بیوفته خوشحال هستند.

بخش کرال کردن رو ما کلی پروژه براش داشتیم؛ و اصلا چیز سختی نیست؛ به کمک الگوریتم BFS هم ۵۰۰ تا سایت رو تک تک می‌تونستیم بریم جلو اما توی حل مسئله به چندتا چالش خوردیم:

۱- جایی که دامنه عوض می‌شد باید چک کنیم اگر موضوع سایت بدردمون نمیخوره حذفش کنیم و کرالش نکنیم دیگه.

۲- صفحات کرال شده رو دیگه کرال نکنیم

۳- صفحات عمومی سایت‌ها که اطلاعات مورد نیاز مارو ندارند حذف کنیم تا توی کرال‌های بعدی دیگه سراغشون نریم.

۴- این صفحات کلی کرال شده رو، اطلاعات رو از داخلش در بیاریم که JSON بگیریم ازش و بتونیم گزارش تحویل بدیم (۳ تا گزارش تو اولویت هست برامون)

دو هفته وقت گذاشتیم؛ هفته اول ۳۰ تا کارمند شرکت بعد از تایم ناهار و قبل از اینکه کارهای خودشون رو دوباره شروع کنند یک سری دیتا رو لیبل زدند (روز اول ابزار براشون ساختیم)
هر نفر حداقل ۱۰۰ تا ولی اینقدر سریع بود، که بعضی‌ها ۲۰۰ تا هم زده بودند.
توی این ۱ هفته با دیتای ماک شده؛ گزارشات رو آماده کردیم (۶ مورد) و بعد کوچکترین LLM با نتایج خوب (SmolLm تو کانال معرفی کردم و روی ollama هم بردیم باهم، آموزشش توی پست‌های قبلی هست) رو روی اونها finetune کردیم شد چیزی که می‌خوایم
Named Entity Recognition

دیتای کرال شده و درحال کرال رو دادیم به این مدل و هر روز خروجی‌ها رو validate کردیم؛ بعد از اضافه کردن دیتای بیشتر برای مواردی که اشتباه می‌کرد، به دقت بالای ۹۵٪ رسیدیم و برای بعضی مشتری‌ها این فیچر رو لانچ کردیم.

همه راضی بودند؛ چون :

۱- فیچر رو رایگان اضافه کردیم، به شرطی که فیدبک بدند بهمون.
۲- فیدبک‌های منفی رو برای بهبود مدل استفاده می‌کنیم.

درنهایت هم قراره البته فیچرها رایگان بمونه؛ چون هزینه زیادی برای توسعه نداشت برامون!

ولی کاری که تیم رقیب با ۵-۶ ماه توسعه کد ارائه داده با استفاده درست از هوش مصنوعی توی ۲ هفته ارائه شد.

شرکت رقیب، ۱۰ تا ابزار هوش مصنوعی روی پروژه‌‌اش گذاشته که فقط هزینه‌هاش میره بالا و این تنها فیچر روی این پروژه ما هست که هوش مصنوعی توش دخیل هست.

هوش مصنوعی رو فقط وقتی استفاده می‌کنیم که ارزش ایجاد می‌کنه.

پ.ن:
تیمی که این کار رو کرد (چون خودم کد نمی‌زنم) فقط ۳ نفر بود، من فقط لید بودم! برای بررسی و استاندارد سازی و ....
👍5821🤣6
Forwarded from RandRng
اگر خواستید prompt engineering یاد بگیرید؛ گوگل یک pdf برای این موضوع داره که توسط مهندس‌های خودش نوشته شده.

الکی پول و عمر و .... خودتون رو صرف این دوره‌های شر و ور نکنید!

طرف ۵۰ خط پرامپت نوشته (یکی از بچه‌ها از دوره‌ای که خریده بود بهم داد)؛ میگم می‌دونی چقدر پول توکن بابت این پرامپت ساده داری میدی ؟

براش توی ۲ خط بازنویسی کردم کل پرامپت رو ...

مثلاً یکی از نکاتش که ۲۰ خط رو کم کرد؛ رفرنس دادن بهش بود.
بجای اینکه بگم ی سیستم می‌خوام با این فیچرها و ....
گفتم برای دسته بندی؛ مشابه reddit عمل کن و چون مدل‌های گوگل روی دیتاست‌هایی مثل reddit هم آموزش دیده با همین نیم خط پرامپت کل سیستم تگ زدن و دسته‌بندی رو فهمید.
👍3010
RandRng
اگر خواستید prompt engineering یاد بگیرید؛ گوگل یک pdf برای این موضوع داره که توسط مهندس‌های خودش نوشته شده. الکی پول و عمر و .... خودتون رو صرف این دوره‌های شر و ور نکنید! طرف ۵۰ خط پرامپت نوشته (یکی از بچه‌ها از دوره‌ای که خریده بود بهم داد)؛ میگم می‌دونی…
#موقت

این شرکت‌هایی که برای تبلیغ مدل‌های frontend خودشون که کدهای
html, css, react, ...

میزنه میان از clone یک سایت استفاده می‌کنند هم همین داستان رو می‌دونند؛ ۹۹٪ مدل‌های LLM امروزی توی clone کردن فوق‌العاده هستند.

گول مدل‌های این شرکت‌ها رو هم نخورید؛ خودتون تستش کنید روی ایده‌های خودتون بگید سایت طراحی کنه یا ...
👍198
یک تصمیم خوبی گرفته شد توی تیم یک سری سرویس کوچیک داشتیم که فکر می‌کردیم اگر پروژه بزرگ بشه؛ قطعاً خفت مارو خواهد گرفت چون bottleneck می‌شه ولی هر کدوم به تنهایی سرویس کوچیکی محسوب می‌شد!

توی همین وادی که داشتیم کدهاشون رو می‌زدیم یک تصمیم مغرورانه گرفتم؛ به بچه‌های سنیور تیم گفتم این‌ها رو با Rust کد بزنیم چون مطمئنم این پروژه قراره بترکونه (هیچ اطمینانی نبود، فقط خواستم انرژی تیم بالا بره، دلمم نمی‌خواست این سرویس‌های کوچولو باعث شکست پروژه‌‌های اصلی باشه)

بچه‌های سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و deploy های مربوط به tensorflow یاد گرفتم که gRPC واسه ارتباطات بین سرویس‌ها خیلی بهتر هست؛ همین کارو هم کردیم.

الان که ۱-۲ ماه گذشته؛ نتایج رو می‌بینم و لذت می‌برم.

حتماً یک مقدار که سرم خلوت بشه زیر load test نتایجش رو می‌ذارم؛ شاید بخش کد نویسی با Rust بدرد تیم شما یا ۹۰٪ کارهای شما نخوره اما استفاده از gRPC برای ارتباط بین سرویس‌های خودتون رو جدی بگیرید.
👍42🤣223
دستاوردهای یادگیری عمیق(InTec)
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا می‌شه. GitHub
Whisper farsi

منتشر شده (شخصاً هنوز تستش نکردم)

ولی این یعنی؛ راه برای خیلی کارها باز می‌شه اگر نتایجش خوب باشه!

حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
KittenTTS
رو برای فارسی بزنه!
👍154
۱-۲ سال پیش یک پرامپتی نوشتم برای مواقعی که دارم یک مفهوم جدید رو یاد میگیرم!
بخصوص موقع خوندن کتاب یا داکیومنت‌ درموردش.

بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفاده‌اش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترن‌ها) و جزئیات عملکرد.

این پرامپت رو روی chatGpt داشتم؛ مدتی هست که دارم با actix-web سرویس می‌نویسم و چندروزی هست که برای یادگیری دقیق‌تر رفتم سراغ لایه‌های مختلف tokio؛ توی همین مسیر و استفاده از پرامپت بالا؛ به معنای واقعی به این درک رسیدم که chatGpt5 روزانه داره احمق‌تر می‌شه!

اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!

دیگه حتی برای کارهای کوچیک هم نمی‌شه از chatGpt استفاده کرد، Duck.ai فعلا همچنان 4o-mini رو ارائه میده.
اما این آپدیت chatGpt دقیقاً مثل لحظه‌ی Llama4 برای Meta بود.


اصطلاح خوبی شد، ازین به بعد آپدیت مدل ضعیف منتشر شد بجای توضیحات تست و ... ازش استفاده می‌کنم
Meta Llama4 Moment



پی‌نوشت‌؛
اگر دوست داشتید بر اساس توضیحات می‌تونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر‌
فقط بخش مثال زدنش رو یادتون نره
36👍18
اگر nano-banana تبدیل به عنوان یک مدل open-source معرفی بشه (که ۹۹.۹٪ نمی‌شه)

دیگه خیلی‌ها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازی‌هاش) هم از توییتر می‌تونه حذف بشه.

تنها جایی که می‌تونید مدل رو تست کنید؛
https://lmarena.ai/

فقط همینجا هست؛ و حتما هم باید روی Battle mode باشید؛ قابلیت تصویر رو انتخاب کنید و اگر شانس بزنه مدل nano banana به شما هم میوفته.


شخصا احتمال میدم مدل از DeepMind باشه!
👍167