دستاوردهای یادگیری عمیق(InTec)
moonshot.ai مدل جدید خودش رو معرفی کرده به اسم kimiK2 (بهترین مدل open source هست) این مدل non thinking ولی MOE هست : https://github.com/MoonshotAI/Kimi-K2 تعداد پارامترها : ۱ تریلیون، با تعداد پارامتر فعال ۳۲ میلیاردی. لایسنس خوبی هم داره (MIT بیس…
تیم groq با این پست از
با سرعت
اما مشکل اصلی کند بودنش بود که
۴۰ برابر سرعت بیشتر؛ روی پروژه جدیدم این مدل رو دقیق تست میکنم و با
نتایجش رو میذارم حتماً (امیدوارم گراک نسخه بزرگش رو دپلوی کرده باشه)
توی تست mini دقیقاً میشه گفت near-realtime هست 😂😂🤯🤯🤯
Artificial Analysis
خبر از انتشار Kimi k2
روی پلتفرم خودش داد با سرعت
40x
؛ اگر مدل رو تست کرده باشید میدونید توی تسکهای کد فوقالعاده هست با اینکه thinking
نیست.اما مشکل اصلی کند بودنش بود که
Groq
اون رو حل کرده ۴۰ برابر سرعت بیشتر؛ روی پروژه جدیدم این مدل رو دقیق تست میکنم و با
Gemini2.5 Pro
مقایسه خواهم کرد.نتایجش رو میذارم حتماً (امیدوارم گراک نسخه بزرگش رو دپلوی کرده باشه)
توی تست mini دقیقاً میشه گفت near-realtime هست 😂😂🤯🤯🤯
👍24❤8
دستاوردهای یادگیری عمیق(InTec)
تیم groq با این پست از Artificial Analysis خبر از انتشار Kimi k2 روی پلتفرم خودش داد با سرعت 40x؛ اگر مدل رو تست کرده باشید میدونید توی تسکهای کد فوقالعاده هست با اینکه thinking نیست. اما مشکل اصلی کند بودنش بود که Groq اون رو حل کرده ۴۰ برابر سرعت…
این مدل رو کلی تست کردم؛
خیلی مدل خوبیه و خیلی استانداردها رو وقتی بهش میگی رعایت میکنه.
مثلا استانداردهای امنیتی و ... (مثل همه مدلهای دیگه هم باید بدونی این استانداردها چی هستند تا دقیق ازش بخوای تا رعایت کنه)
اما من یک مشکل اساسی باهاش دارم؛ استایل کد زدنم رو کامل رعایت نمیکنه؛ خیلی عالی هست برای استاندارد کد زدن و وایب کدینگ
ولی
من
(البته خیلی وقتا با پرامپت حل میشه ولی خب)
جایگزین ۱۰۰٪ برام نشده توی استفاده از
بخصوص اگر حوصله داشته باشید و یکبار یک
در حال حاضر هم دارم روی نسخه آپدیت شده
تا اینجا راضیام ازین آپدیت.
خیلی مدل خوبیه و خیلی استانداردها رو وقتی بهش میگی رعایت میکنه.
مثلا استانداردهای امنیتی و ... (مثل همه مدلهای دیگه هم باید بدونی این استانداردها چی هستند تا دقیق ازش بخوای تا رعایت کنه)
اما من یک مشکل اساسی باهاش دارم؛ استایل کد زدنم رو کامل رعایت نمیکنه؛ خیلی عالی هست برای استاندارد کد زدن و وایب کدینگ
ولی
من
vibe code
اصلا به کارم نمیاد؛ و استانداردها هم باید با استاندارد کدهای خودم باشه (ساده و قابل درک) ولی این مدل زیادی خلاقیت و اپتیمایز و ... میزنه که هیچوقت توی نسخه اولیه پروژه نباید اینطوری کد زد.(البته خیلی وقتا با پرامپت حل میشه ولی خب)
جایگزین ۱۰۰٪ برام نشده توی استفاده از
Gemini Pro
ولی 70-80% مواقع ازین مدل استفاده میکنم بخاطر ریسپانسهای سریعتر و 20-30% رو میرم روی Gemini Pro
بطور کلی رضایت دارم بخصوص اگر حوصله داشته باشید و یکبار یک
System Prompt
عالی براش بنویسید با استانداردهای خودتون.در حال حاضر هم دارم روی نسخه آپدیت شده
Qwen3
تست میزنم بخوص برای تسکهای react
پروژه خودم.تا اینجا راضیام ازین آپدیت.
👍16❤7
Forwarded from Python Hints
هرکسی گوه غزه رو خورد اینو بزنید تو صورتش!
بعد از این همه جنگ و بزرگنمایی، فقط ۲۰٪ کودکان غزه سو تغذیه دارند
ولی از طرفی در ایران
۵۴٪ بچههای سیستان و بلوچستان سو تغذیه دارند
اون حرومزادههایی که غزه از دهنشون نمیوفته یک کامنت هم برای بچههای سیستان و بلوچستان ندارند!
آره عزیز؛ حتی توی این همدردی هم به فکر وام دولتی و پشتیبانی حکومتی هستید.
لینک خبر رکنا
بعد از این همه جنگ و بزرگنمایی، فقط ۲۰٪ کودکان غزه سو تغذیه دارند
ولی از طرفی در ایران
۵۴٪ بچههای سیستان و بلوچستان سو تغذیه دارند
اون حرومزادههایی که غزه از دهنشون نمیوفته یک کامنت هم برای بچههای سیستان و بلوچستان ندارند!
آره عزیز؛ حتی توی این همدردی هم به فکر وام دولتی و پشتیبانی حکومتی هستید.
لینک خبر رکنا
❤120👍50
این رو چندباری از چندتا از بچهها شنیدم ؛
تا امروز راجبش چیزی نگفتم چون در مدلهای دیگه شنیده بودم.
مثلاً اینکه از طرف شما ۴۰۰-۶۰۰ میلیون وام بگیرند بعد شما اقساط اون رو بدید (توی این مورد هم هیچی از پروژه و ... مشخص نبود) یعنی یک دوره هوش مصنوعی برای شما حداقل ۳۰۰ میلیون تومان در میاد!
برای دانشگاه stanford و دورهی پروفسور Manning شما با مبلغ ۱۰,۰۰۰ دلار میتونید مدرک معتبر استنفورد رو برای NLP بگیرید
(حداقل ۲ سال پیش که من پرسیدم)
خیلی مراقب این سودجویی ها باشید؛ شاید بهتر باشه مقامات قانونی کشور یک سری هم به این مدل شرکتها بزنند!
پینوشت:
تا امروز راجبش چیزی نگفتم چون در مدلهای دیگه شنیده بودم.
مثلاً اینکه از طرف شما ۴۰۰-۶۰۰ میلیون وام بگیرند بعد شما اقساط اون رو بدید (توی این مورد هم هیچی از پروژه و ... مشخص نبود) یعنی یک دوره هوش مصنوعی برای شما حداقل ۳۰۰ میلیون تومان در میاد!
برای دانشگاه stanford و دورهی پروفسور Manning شما با مبلغ ۱۰,۰۰۰ دلار میتونید مدرک معتبر استنفورد رو برای NLP بگیرید
(حداقل ۲ سال پیش که من پرسیدم)
خیلی مراقب این سودجویی ها باشید؛ شاید بهتر باشه مقامات قانونی کشور یک سری هم به این مدل شرکتها بزنند!
پینوشت:
دوستان خواهشاً خودتون مراقب باشید، از متخصص های فعلی مشورت بگیرید، توی گروها بپرسد و ...
با هر شرایطی سراغ کار نرید. هنوز شروع به کار نکرده خودتون رو بدهی بالا نیارید.
👍61❤4
Forwarded from Python Hints
متا دیگه دنبال
حتی اینکه چندتا
ازین پس، توی مصاحبههای شرکت
۱ سال و نیم قبل گفتم، شرکتها قطعاً و حتماً به این سمت خواهند رفت 👌
تعریف جونیور هم بیشتر عوض خواهد شد !
coder
نمیگرده حتی اینکه چندتا
leetcode
هم حل کردید و حفظ کردید توی متا مهم نیست.ازین پس، توی مصاحبههای شرکت
META
اجازه استفاده از هوش مصنوعی رو هم دارید.۱ سال و نیم قبل گفتم، شرکتها قطعاً و حتماً به این سمت خواهند رفت 👌
تعریف جونیور هم بیشتر عوض خواهد شد !
👍50❤8🤣1
نسخه جدید
دیگه نیازی به
اگر خواستید با:
تستش کنید (ورژن جدید
ollama
یک اپلیکیشن هم بهت میده دیگه نیازی به
open webui
نداری و مهمتر از اون؛ تغییر مسیر دیفالت مدلها دیگه دردسر بزرگ نخواهد بود.اگر خواستید با:
qwen3:30b-a3b-instruct-2507-q4_K_M
تستش کنید (ورژن جدید
qwen3
این هست)👍21❤2
مدلهای جدید openai که opensource هم هست روی groq دپلوی شده !
تست کنید متوجه میشید؛ دنیای open source توی این سایز از مدلها خیلی از openai جلوتر هست!
برای تست :
من روی دیتاست تست خودم تست میگیرم، مشکلاتی که توی این مدت داشتم و مدلهای بزرگ نتونستند حل کنند ولی توی ورژنهای بعدی حل شده!
حالا یک فایل csv بزرگ شده که دسته بندی هم داره؛
برای مدلهای ۳۰ میلیاردی و کمتر
برای مدلهای ۳۰-۷۰ میلیاردی
برای مدلهای ۷۰ تا ۱۵۰ میلیاردی
برای مدلهای ۱۵۰ تا ۲۵۰ میلیاردی
برای مدلهای ۲۵۰ تا ۳۵۰ میلیاردی
و درنهایت مدلهای بالای ۳۵۰ میلیارد پارامتر
و اینجوری هست که سوالی که بنظرم چالشی بوده رو انتخاب کردم از مدلهای کوچیک شروع کردم تا بزرگ و اولین کوچکترین مدلی که تونسته به سوالم جواب درست بده رو علامت زدم!
پیشنهاد میکنم شماهم اینکارو بکنید و دوتا دلیل هم دارم :
۱- دیگه اکثر بنچمارکها بیمعنی شدند
۲- نحوه استفاده شما از مدل بسیار تعیین کننده هست.
مثلاً برای یک نویسنده، هیچوقت مدلی که بهترین نتایج روی SWE یا LMSYS داره شاید مهم نباشه ولی یک مدل که بهترین کلمات جایگزین رو پیشنهاد میده بهترین مدل بشه.
Groq chat
تست کنید متوجه میشید؛ دنیای open source توی این سایز از مدلها خیلی از openai جلوتر هست!
برای تست :
من روی دیتاست تست خودم تست میگیرم، مشکلاتی که توی این مدت داشتم و مدلهای بزرگ نتونستند حل کنند ولی توی ورژنهای بعدی حل شده!
حالا یک فایل csv بزرگ شده که دسته بندی هم داره؛
برای مدلهای ۳۰ میلیاردی و کمتر
برای مدلهای ۳۰-۷۰ میلیاردی
برای مدلهای ۷۰ تا ۱۵۰ میلیاردی
برای مدلهای ۱۵۰ تا ۲۵۰ میلیاردی
برای مدلهای ۲۵۰ تا ۳۵۰ میلیاردی
و درنهایت مدلهای بالای ۳۵۰ میلیارد پارامتر
و اینجوری هست که سوالی که بنظرم چالشی بوده رو انتخاب کردم از مدلهای کوچیک شروع کردم تا بزرگ و اولین کوچکترین مدلی که تونسته به سوالم جواب درست بده رو علامت زدم!
پیشنهاد میکنم شماهم اینکارو بکنید و دوتا دلیل هم دارم :
۱- دیگه اکثر بنچمارکها بیمعنی شدند
۲- نحوه استفاده شما از مدل بسیار تعیین کننده هست.
مثلاً برای یک نویسنده، هیچوقت مدلی که بهترین نتایج روی SWE یا LMSYS داره شاید مهم نباشه ولی یک مدل که بهترین کلمات جایگزین رو پیشنهاد میده بهترین مدل بشه.
Groq chat
Groq
Groq is Fast AI Inference
The LPU™ Inference Engine by Groq is a hardware and software platform that delivers exceptional compute speed, quality, and energy efficiency. Groq provides cloud and on-prem solutions at scale for AI applications.
Headquartered in Silicon Valley and…
Headquartered in Silicon Valley and…
👍21❤4
شرکت OpenAI اینطوری chatgpt 5.0 رو معرفی کرد.
فقط کسی هست دقیقاً توضیح بده؛ چطوری 52.8% از 69.1% بیشتر میشه ؟!
یا اینکه چجوری 30.8% با 69.1% هم اندازه میشه ؟!
😂😂😂😂
فقط کسی هست دقیقاً توضیح بده؛ چطوری 52.8% از 69.1% بیشتر میشه ؟!
یا اینکه چجوری 30.8% با 69.1% هم اندازه میشه ؟!
😂😂😂😂
از استان ما؛ ۴۰٪ خانوم و ۹۰٪ آقا برای کربلا ثبتنام کردند
که از تعداد ۲ میلیون و ۸۰۰ هزار و خوردهای
شاید تا الان که صحبت میکنیم به ۳۰ میلیون هم رسیده باشه دیگه!
🤣97❤4
دستاوردهای یادگیری عمیق(InTec)
شرکت OpenAI اینطوری chatgpt 5.0 رو معرفی کرد. فقط کسی هست دقیقاً توضیح بده؛ چطوری 52.8% از 69.1% بیشتر میشه ؟! یا اینکه چجوری 30.8% با 69.1% هم اندازه میشه ؟! 😂😂😂😂 از استان ما؛ ۴۰٪ خانوم و ۹۰٪ آقا برای کربلا ثبتنام کردند که از تعداد ۲ میلیون و ۸۰۰…
برای کد نویسی واقعاً این ترکیب برندهاس :
برای بحثهای روزمره و یادگیری زبان و ...
البته Claude 4.1 هم ادعا کرده که مشکل code base بزرگ رو کمتر کرده ولی هنوز نتونستم تست کنم؛ اگر این باشه گزینه خوبی میشه اینم.
Gemini 2.5 Pro (Math & Coding)
Qwen3-coder
برای بحثهای روزمره و یادگیری زبان و ...
Grok4
البته Claude 4.1 هم ادعا کرده که مشکل code base بزرگ رو کمتر کرده ولی هنوز نتونستم تست کنم؛ اگر این باشه گزینه خوبی میشه اینم.
👍40❤3
این پیام رو محراب عزیز برام فرستاد:
البته من دیدم غیر دانشجوها هم با جعل کارت دانشجویی قدیمی خودشون و تغییر تاریخش دسترسی گرفتن ولی خب.
با فعال کردن Github Student هر کسی که دانشجو هست
میتونه از همه مدلهای OpenAI، Google و Anthropic رایگان استفاده کنه. که gpt5 رو هم شامل میشه.
البته من دیدم غیر دانشجوها هم با جعل کارت دانشجویی قدیمی خودشون و تغییر تاریخش دسترسی گرفتن ولی خب.
🤣52❤7👍7
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا میشه.
GitHub
GitHub
GitHub
GitHub - KittenML/KittenTTS: State-of-the-art TTS model under 25MB 😻
State-of-the-art TTS model under 25MB 😻 . Contribute to KittenML/KittenTTS development by creating an account on GitHub.
👍22❤3
دستاوردهای یادگیری عمیق(InTec)
برای کد نویسی واقعاً این ترکیب برندهاس : Gemini 2.5 Pro (Math & Coding) Qwen3-coder برای بحثهای روزمره و یادگیری زبان و ... Grok4 البته Claude 4.1 هم ادعا کرده که مشکل code base بزرگ رو کمتر کرده ولی هنوز نتونستم تست کنم؛ اگر این باشه گزینه خوبی میشه…
دوستان این Qwen3-coder که گفتم نسخه open source نیستا !!!
برید روی سایت
https://chat.qwen.ai
و از بخش انتخاب مدل، مدل qwen3-coder رو انتخاب کنید.
چون چندتا از دوستان پیام دادند؛ مدل ۳۰ میلیارد هست و نمیشه و ...
خواستم بگم که منظورم نسخه open source نبوده!
برید روی سایت
https://chat.qwen.ai
و از بخش انتخاب مدل، مدل qwen3-coder رو انتخاب کنید.
چون چندتا از دوستان پیام دادند؛ مدل ۳۰ میلیارد هست و نمیشه و ...
خواستم بگم که منظورم نسخه open source نبوده!
chat.qwen.ai
Qwen Chat
Qwen Chat offers comprehensive functionality spanning chatbot, image and video understanding, image generation, document processing, web search integration, tool utilization, and artifacts.
👍21❤3
#تجربه
وقتی هوش مصنوعی رو درست و مفهومی یاد گرفتی!
چند هفته قبل شرکت رقیب یک فیچر جدید داده بود که برای مشتریهاش یک سری سایتهای خاص رو کرال میکرد (حدوداً ۵۰۰ تا) و گزارشات در لحظه و دقیقی رو ارائه میداد.
برای این فیچر، یک مبلغ خوبی هم ماهانه بیشتر داشت میگرفت از یوزرهاش؛ یکی از شرکتهایی که مشتری ما هست درخواست این ویژگی رو بهمون داد و گفت کاملاً بهش نیاز دارند، چون خیلی از کارهاشون سادهتر میشه و گفت اگر حدوداً تا ۳ ماه دیگه هم راه بیوفته خوشحال هستند.
بخش کرال کردن رو ما کلی پروژه براش داشتیم؛ و اصلا چیز سختی نیست؛ به کمک الگوریتم BFS هم ۵۰۰ تا سایت رو تک تک میتونستیم بریم جلو اما توی حل مسئله به چندتا چالش خوردیم:
۱- جایی که دامنه عوض میشد باید چک کنیم اگر موضوع سایت بدردمون نمیخوره حذفش کنیم و کرالش نکنیم دیگه.
۲- صفحات کرال شده رو دیگه کرال نکنیم
۳- صفحات عمومی سایتها که اطلاعات مورد نیاز مارو ندارند حذف کنیم تا توی کرالهای بعدی دیگه سراغشون نریم.
۴- این صفحات کلی کرال شده رو، اطلاعات رو از داخلش در بیاریم که JSON بگیریم ازش و بتونیم گزارش تحویل بدیم (۳ تا گزارش تو اولویت هست برامون)
دو هفته وقت گذاشتیم؛ هفته اول ۳۰ تا کارمند شرکت بعد از تایم ناهار و قبل از اینکه کارهای خودشون رو دوباره شروع کنند یک سری دیتا رو لیبل زدند (روز اول ابزار براشون ساختیم)
هر نفر حداقل ۱۰۰ تا ولی اینقدر سریع بود، که بعضیها ۲۰۰ تا هم زده بودند.
توی این ۱ هفته با دیتای ماک شده؛ گزارشات رو آماده کردیم (۶ مورد) و بعد کوچکترین LLM با نتایج خوب (SmolLm تو کانال معرفی کردم و روی ollama هم بردیم باهم، آموزشش توی پستهای قبلی هست) رو روی اونها finetune کردیم شد چیزی که میخوایم
دیتای کرال شده و درحال کرال رو دادیم به این مدل و هر روز خروجیها رو validate کردیم؛ بعد از اضافه کردن دیتای بیشتر برای مواردی که اشتباه میکرد، به دقت بالای ۹۵٪ رسیدیم و برای بعضی مشتریها این فیچر رو لانچ کردیم.
همه راضی بودند؛ چون :
۱- فیچر رو رایگان اضافه کردیم، به شرطی که فیدبک بدند بهمون.
۲- فیدبکهای منفی رو برای بهبود مدل استفاده میکنیم.
درنهایت هم قراره البته فیچرها رایگان بمونه؛ چون هزینه زیادی برای توسعه نداشت برامون!
ولی کاری که تیم رقیب با ۵-۶ ماه توسعه کد ارائه داده با استفاده درست از هوش مصنوعی توی ۲ هفته ارائه شد.
شرکت رقیب، ۱۰ تا ابزار هوش مصنوعی روی پروژهاش گذاشته که فقط هزینههاش میره بالا و این تنها فیچر روی این پروژه ما هست که هوش مصنوعی توش دخیل هست.
هوش مصنوعی رو فقط وقتی استفاده میکنیم که ارزش ایجاد میکنه.
پ.ن:
تیمی که این کار رو کرد (چون خودم کد نمیزنم) فقط ۳ نفر بود، من فقط لید بودم! برای بررسی و استاندارد سازی و ....
وقتی هوش مصنوعی رو درست و مفهومی یاد گرفتی!
چند هفته قبل شرکت رقیب یک فیچر جدید داده بود که برای مشتریهاش یک سری سایتهای خاص رو کرال میکرد (حدوداً ۵۰۰ تا) و گزارشات در لحظه و دقیقی رو ارائه میداد.
برای این فیچر، یک مبلغ خوبی هم ماهانه بیشتر داشت میگرفت از یوزرهاش؛ یکی از شرکتهایی که مشتری ما هست درخواست این ویژگی رو بهمون داد و گفت کاملاً بهش نیاز دارند، چون خیلی از کارهاشون سادهتر میشه و گفت اگر حدوداً تا ۳ ماه دیگه هم راه بیوفته خوشحال هستند.
بخش کرال کردن رو ما کلی پروژه براش داشتیم؛ و اصلا چیز سختی نیست؛ به کمک الگوریتم BFS هم ۵۰۰ تا سایت رو تک تک میتونستیم بریم جلو اما توی حل مسئله به چندتا چالش خوردیم:
۱- جایی که دامنه عوض میشد باید چک کنیم اگر موضوع سایت بدردمون نمیخوره حذفش کنیم و کرالش نکنیم دیگه.
۲- صفحات کرال شده رو دیگه کرال نکنیم
۳- صفحات عمومی سایتها که اطلاعات مورد نیاز مارو ندارند حذف کنیم تا توی کرالهای بعدی دیگه سراغشون نریم.
۴- این صفحات کلی کرال شده رو، اطلاعات رو از داخلش در بیاریم که JSON بگیریم ازش و بتونیم گزارش تحویل بدیم (۳ تا گزارش تو اولویت هست برامون)
دو هفته وقت گذاشتیم؛ هفته اول ۳۰ تا کارمند شرکت بعد از تایم ناهار و قبل از اینکه کارهای خودشون رو دوباره شروع کنند یک سری دیتا رو لیبل زدند (روز اول ابزار براشون ساختیم)
هر نفر حداقل ۱۰۰ تا ولی اینقدر سریع بود، که بعضیها ۲۰۰ تا هم زده بودند.
توی این ۱ هفته با دیتای ماک شده؛ گزارشات رو آماده کردیم (۶ مورد) و بعد کوچکترین LLM با نتایج خوب (SmolLm تو کانال معرفی کردم و روی ollama هم بردیم باهم، آموزشش توی پستهای قبلی هست) رو روی اونها finetune کردیم شد چیزی که میخوایم
Named Entity Recognition
دیتای کرال شده و درحال کرال رو دادیم به این مدل و هر روز خروجیها رو validate کردیم؛ بعد از اضافه کردن دیتای بیشتر برای مواردی که اشتباه میکرد، به دقت بالای ۹۵٪ رسیدیم و برای بعضی مشتریها این فیچر رو لانچ کردیم.
همه راضی بودند؛ چون :
۱- فیچر رو رایگان اضافه کردیم، به شرطی که فیدبک بدند بهمون.
۲- فیدبکهای منفی رو برای بهبود مدل استفاده میکنیم.
درنهایت هم قراره البته فیچرها رایگان بمونه؛ چون هزینه زیادی برای توسعه نداشت برامون!
ولی کاری که تیم رقیب با ۵-۶ ماه توسعه کد ارائه داده با استفاده درست از هوش مصنوعی توی ۲ هفته ارائه شد.
شرکت رقیب، ۱۰ تا ابزار هوش مصنوعی روی پروژهاش گذاشته که فقط هزینههاش میره بالا و این تنها فیچر روی این پروژه ما هست که هوش مصنوعی توش دخیل هست.
هوش مصنوعی رو فقط وقتی استفاده میکنیم که ارزش ایجاد میکنه.
پ.ن:
تیمی که این کار رو کرد (چون خودم کد نمیزنم) فقط ۳ نفر بود، من فقط لید بودم! برای بررسی و استاندارد سازی و ....
👍58❤21🤣6
Forwarded from RandRng
اگر خواستید prompt engineering یاد بگیرید؛ گوگل یک pdf برای این موضوع داره که توسط مهندسهای خودش نوشته شده.
الکی پول و عمر و .... خودتون رو صرف این دورههای شر و ور نکنید!
طرف ۵۰ خط پرامپت نوشته (یکی از بچهها از دورهای که خریده بود بهم داد)؛ میگم میدونی چقدر پول توکن بابت این پرامپت ساده داری میدی ؟
براش توی ۲ خط بازنویسی کردم کل پرامپت رو ...
مثلاً یکی از نکاتش که ۲۰ خط رو کم کرد؛ رفرنس دادن بهش بود.
بجای اینکه بگم ی سیستم میخوام با این فیچرها و ....
گفتم برای دسته بندی؛ مشابه
الکی پول و عمر و .... خودتون رو صرف این دورههای شر و ور نکنید!
طرف ۵۰ خط پرامپت نوشته (یکی از بچهها از دورهای که خریده بود بهم داد)؛ میگم میدونی چقدر پول توکن بابت این پرامپت ساده داری میدی ؟
براش توی ۲ خط بازنویسی کردم کل پرامپت رو ...
مثلاً یکی از نکاتش که ۲۰ خط رو کم کرد؛ رفرنس دادن بهش بود.
بجای اینکه بگم ی سیستم میخوام با این فیچرها و ....
گفتم برای دسته بندی؛ مشابه
reddit
عمل کن و چون مدلهای گوگل روی دیتاستهایی مثل reddit هم آموزش دیده با همین نیم خط پرامپت کل سیستم تگ زدن و دستهبندی رو فهمید.👍30❤10
RandRng
اگر خواستید prompt engineering یاد بگیرید؛ گوگل یک pdf برای این موضوع داره که توسط مهندسهای خودش نوشته شده. الکی پول و عمر و .... خودتون رو صرف این دورههای شر و ور نکنید! طرف ۵۰ خط پرامپت نوشته (یکی از بچهها از دورهای که خریده بود بهم داد)؛ میگم میدونی…
#موقت
این شرکتهایی که برای تبلیغ مدلهای frontend خودشون که کدهای
html, css, react, ...
میزنه میان از clone یک سایت استفاده میکنند هم همین داستان رو میدونند؛ ۹۹٪ مدلهای LLM امروزی توی clone کردن فوقالعاده هستند.
گول مدلهای این شرکتها رو هم نخورید؛ خودتون تستش کنید روی ایدههای خودتون بگید سایت طراحی کنه یا ...
این شرکتهایی که برای تبلیغ مدلهای frontend خودشون که کدهای
html, css, react, ...
میزنه میان از clone یک سایت استفاده میکنند هم همین داستان رو میدونند؛ ۹۹٪ مدلهای LLM امروزی توی clone کردن فوقالعاده هستند.
گول مدلهای این شرکتها رو هم نخورید؛ خودتون تستش کنید روی ایدههای خودتون بگید سایت طراحی کنه یا ...
👍19❤8
یک تصمیم خوبی گرفته شد توی تیم یک سری سرویس کوچیک داشتیم که فکر میکردیم اگر پروژه بزرگ بشه؛ قطعاً خفت مارو خواهد گرفت چون
توی همین وادی که داشتیم کدهاشون رو میزدیم یک تصمیم مغرورانه گرفتم؛ به بچههای سنیور تیم گفتم اینها رو با
بچههای سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و
الان که ۱-۲ ماه گذشته؛ نتایج رو میبینم و لذت میبرم.
حتماً یک مقدار که سرم خلوت بشه زیر
bottleneck
میشه ولی هر کدوم به تنهایی سرویس کوچیکی محسوب میشد! توی همین وادی که داشتیم کدهاشون رو میزدیم یک تصمیم مغرورانه گرفتم؛ به بچههای سنیور تیم گفتم اینها رو با
Rust
کد بزنیم چون مطمئنم این پروژه قراره بترکونه (هیچ اطمینانی نبود، فقط خواستم انرژی تیم بالا بره، دلمم نمیخواست این سرویسهای کوچولو باعث شکست پروژههای اصلی باشه) بچههای سنیور باهام موافقت کردن و از دنیای هوش مصنوعی و
deploy
های مربوط به tensorflow
یاد گرفتم که gRPC
واسه ارتباطات بین سرویسها خیلی بهتر هست؛ همین کارو هم کردیم.الان که ۱-۲ ماه گذشته؛ نتایج رو میبینم و لذت میبرم.
حتماً یک مقدار که سرم خلوت بشه زیر
load test
نتایجش رو میذارم؛ شاید بخش کد نویسی با Rust
بدرد تیم شما یا ۹۰٪ کارهای شما نخوره اما استفاده از gRPC
برای ارتباط بین سرویسهای خودتون رو جدی بگیرید.👍42🤣22❤3
دستاوردهای یادگیری عمیق(InTec)
عجب چیز جذابی؛ مدل TTS زیر ۲۵ مگ حجم؛ و البته نتایج واقعاً خوب. جذابتر اینکه به راحتی روی هر CPU ایی اجرا میشه. GitHub
Whisper farsi
منتشر شده (شخصاً هنوز تستش نکردم)
ولی این یعنی؛ راه برای خیلی کارها باز میشه اگر نتایجش خوب باشه!
حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
رو برای فارسی بزنه!
منتشر شده (شخصاً هنوز تستش نکردم)
ولی این یعنی؛ راه برای خیلی کارها باز میشه اگر نتایجش خوب باشه!
حالا فقط یک محقق یا کسی که نیاز به تمرین داره لازم داریم که تکنیک مدل
KittenTTS
رو برای فارسی بزنه!
👍15❤4
۱-۲ سال پیش یک پرامپتی نوشتم برای مواقعی که دارم یک مفهوم جدید رو یاد میگیرم!
بخصوص موقع خوندن کتاب یا داکیومنت درموردش.
بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفادهاش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترنها) و جزئیات عملکرد.
این پرامپت رو روی
اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!
دیگه حتی برای کارهای کوچیک هم نمیشه از chatGpt استفاده کرد،
اما این آپدیت
پینوشت؛
اگر دوست داشتید بر اساس توضیحات میتونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر
فقط بخش مثال زدنش رو یادتون نره
بخصوص موقع خوندن کتاب یا داکیومنت درموردش.
بک بخشی از اون پارامپت این هست که توی ۳ سطح توضیح بده و مثال بزنه؛
۱- سطح جونیور؛ فقط باید بدونه کجا استفادهاش کنه.
۲- سطح مید؛ باید بدونه کجا استفاده کنه و کجاها استفاده نکنه و چرا نباید استفاده کنه.
۳- سطح سنیور؛ نحوه استفاده درست (مطابق با دیزاین پترنها) و جزئیات عملکرد.
این پرامپت رو روی
chatGpt
داشتم؛ مدتی هست که دارم با actix-web
سرویس مینویسم و چندروزی هست که برای یادگیری دقیقتر رفتم سراغ لایههای مختلف tokio
؛ توی همین مسیر و استفاده از پرامپت بالا؛ به معنای واقعی به این درک رسیدم که chatGpt5
روزانه داره احمقتر میشه! اتفاقاً دیروز، بدون اینکه من چیزی بگم یکی از دوستانم هم به این موضوع اشاره کرد و از من پرسید که دیدم این موضوع رو یا خیر!
دیگه حتی برای کارهای کوچیک هم نمیشه از chatGpt استفاده کرد،
Duck.ai
فعلا همچنان 4o-mini رو ارائه میده.اما این آپدیت
chatGpt
دقیقاً مثل لحظهی Llama4
برای Meta
بود.اصطلاح خوبی شد، ازین به بعد آپدیت مدل ضعیف منتشر شد بجای توضیحات تست و ... ازش استفاده میکنم
Meta Llama4 Moment
پینوشت؛
اگر دوست داشتید بر اساس توضیحات میتونید پرامپت خودتون رو بصورت مشابه بنویسید، یادگیری مفاهیم براتون ۳-۴ برابر سریعتر خواهد بود و یادگیری تا ۱۰ برابر موثر
فقط بخش مثال زدنش رو یادتون نره
❤36👍18
اگر
دیگه خیلیها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه.
تنها جایی که میتونید مدل رو تست کنید؛
https://lmarena.ai/
فقط همینجا هست؛ و حتما هم باید روی
شخصا احتمال میدم مدل از
nano-banana
تبدیل به عنوان یک مدل open-source
معرفی بشه (که ۹۹.۹٪ نمیشه)دیگه خیلیها سراغ فوتوشاپ نخواهند رفت.
این ژانر ادیت عکس (مسخره بازیهاش) هم از توییتر میتونه حذف بشه.
تنها جایی که میتونید مدل رو تست کنید؛
https://lmarena.ai/
فقط همینجا هست؛ و حتما هم باید روی
Battle mode
باشید؛ قابلیت تصویر رو انتخاب کنید و اگر شانس بزنه مدل nano banana
به شما هم میوفته.شخصا احتمال میدم مدل از
DeepMind
باشه!LMArena
An open platform for evaluating AI through human preference
👍16❤7