tech-afternoon
1.25K subscribers
174 photos
6 videos
6 files
169 links
تِک‌افترنون، رویدادی گاه‌به‌گاه است با موضوعات حول معماری و توسعه نرم‌افزار، این کانال هم برای اشتراک اخبار، آموزش، نکاتی حول مهندسی نرم‌افزار، دیتابیس‌، تکنولوژی و مدیریت تولید محصولات نر‌م‌افزاری خواهد بود.
youtube.com/@AminTechTalks/videos
امین مصباحی
Download Telegram
💡 یک قدم به سمت کاربرد عینی مدل زبانی با RAG, CAG, KAG یا Fine Tuning

سال ۱۴۰۳ هم تموم شد و مثل ۲ سال قبل‌ترش، روز و ساعتی نبود که هوش‌مصنوعی خصوصا از نوع مولدش از متن و تیتر اخبار بیوفته 😉 حالا اگر تا به امروز فقط باهاش چت کردین، یا همون چت رو با API انجام دادین، دیگه ۱۴۰۴ سالیه که خوبه از حاشیه به متن بیاریدش و «اگر و اگر ارزش افزوده‌ای به محصولتون اضافه می‌کنه»، به شکل جدی‌تری ازش استفاده کنین. حالا این یعنی چی؟ مگه چت کردن چشه؟


در حالت عادی، یه مدل زبانی از چند میلیارد تا چندصد میلیارد پارامتر آموزش می‌بینه، بلده به زبون‌های مختلف حرف بزنه و جملاتی عاقلانه تا ابلهانه سرهم کنه. بلده دستور پخت سوشی تا قرمه‌سبزی بده و برای دل‌دردتون چایی‌نبات تجویز کنه، ولی اینکه بالانس حساب آقای جمالی چقدره یا آیین‌نامه‌های داخلی شرکتی که ما توش کار می‌کنیم یعنی کامپیوتراندیشان عصر نوین پاسارگاد با مدیریت آقای موکت‌پور رو که بلد نیست!‍ پس باید راهی یاد بگیریم که مزخرفاتی که بلده رو با مزخرفات خودمون بیامیزیم و مزخرفات ترکیبی تولید کنیم. پس یه نگاه کلی به RAG، CAG, KAG و Fine Tuning بندازیم تا اگر مشتری داشت ادامه‌اش بدیم…


مفهوم و کاربرد RAG یا Retrieval-Augmented Generation چیه؟

کار RAG اینه که داده‌های مدل رو با دیتای ما تکمیل کنه؛ یعنی موقع جواب دادن به سؤال، میره از یه دیتابیس یا منبع خارجی (که عموما به صورت Vector database ذخیره می‌کنیم) اطلاعات جدید رو می‌گیره و بعد جواب می‌ده. اینجوری دیگه همیشه اطلاعات سیستم خودمون رو در کنار قابلیت‌های مدل اصلی داریم. این اطلاعات رو می‌تونیم نهایتا به شکل ساختارمند و مشخص (مثلا یه آبجکت یا یه ساختار JSON مشخص) برگردونیم، یا باهاش جمله بسازیم و مثل یه محاوره انسانی برگردونیمش.

چرا لازمه ازش استفاده کنیم؟
- اطلاعات به‌روز و دقیق‌تر
- کاهش خطا و توهم در جواب‌های مدل
- جواب‌های دقیق و مبتنی بر داده واقعی


مفهوم و کاربرد KAG یا Knowledge-Augmented Generation چیه؟

کاربرد و مفهموم KAG یه مرحله پیشرفته‌تر از RAG هست که از گراف‌های دانش ساختاریافته استفاده می‌کنه. یعنی علاوه بر داده‌های معمولی، داده‌ها رو به‌صورت ساختاریافته (مثل گراف دانش) به مدل می‌ده و مدل می‌تونه از طریق این ساختارها منطق و استدلال چندمرحله‌ای انجام بده. (توی RAG کوئری داریم ولی اینجا گراف دانش)

چرا لازمه ازش استفاده کنیم؟
- افزایش دقت در حوزه‌های تخصصی
- استدلال چندمرحله‌ای و منطقی
- رعایت قوانین و مقررات مشخص (مثل حوزه‌های پزشکی و حقوقی)


مفهوم و کاربرد CAG یا Cache-Augmented Generation چیه؟

مفهوم CAG یه جورایی نسخه سریع‌تر و ساده‌تر از RAG هست. توی CAG، دانش ثابت (مثل دفترچه‌های راهنما) از قبل تو حافظه (Cache) بارگذاری می‌شه و موقع جواب دادن لازم نیست هر بار اطلاعات رو از بیرون بگیره.

چرا لازمه ازش استفاده کنیم؟
- جواب‌های سریع‌تر
- ساختار ساده‌تر و هزینه کمتر
- ثبات و یکپارچگی جواب‌ها


مفهوم و کاربر Fine Tuning (تنظیم دقیق) دیگه؟

یه سری داده‌های محدود و مشخص رو به یه مدل زبانی که خیلی چیزا بلده، ولی دقیقاً کاری که میخوای رو درست انجام نمی‌ده. اینجا میای از Fine Tuning استفاده می‌کنی؛ یعنی یه سری داده خاص خودمون رو میدیم بهش که یاد بگیره دقیقاً طبق اون چیزی که می‌خوایم جواب بده. از RAG خیلی ساده‌تر و ابتدایی‌تره.

چرا لازمه ازش استفاده کنیم؟
- بهبود دقت مدل توی یه وظیفه خاص
- سفارشی کردن مدل برای کسب‌وکار یا حوزه خاص خودمون
- کاهش هزینه‌ها (چون نیازی به آموزش یه مدل عظیم از صفر نداریم)


📎 طی ماه‌های پیش رو، SQL Server 2025 قابلیت‌هایی ارائه خواهد کرد که کارهای RAG و CAG و KAG رو بتونیم انجام بدیم. یعنی به جای استفاده از Vector Databaseها که الان ازشون برای RAG کمک می‌گیریم، می‌تونیم مستقیم از خود SQL Server کمک بگیریم. البته چون هنوز قابلیت vector اش رونمایی عمومی نشده، نمی‌شه قضاوت کرد که در مقایسه با نمونه‌های پرشمار VectorDBها چه جایگاهی داره.

مثل همیشه: 💬⚙️😉
Please open Telegram to view this post
VIEW IN TELEGRAM
193🔥2👍1
🚀 🤑 مثال عملی پیاده‌سازی RAG (قسمت ۱)
پاسخ به پرسش‌های ارزی! با دیتای لحظه‌ای... 😎🤑

گفتیم برای اینکه مدل‌های زبانی دیتای به‌روز یا دلخواه ما رو داشته باشن، باید با استفاده از روش‌هایی مثل RAG داده‌های دلخواهمون رو بهشون ارائه کنیم. برای ارائه دیتا از وکتور دیتابیس یا ساختارهای دیگه‌ی حافظه‌ای استفاده می‌کنیم. حالا برای اینکه دست‌به‌کد شیم، تصمیم گرفتم قبل از توضیح دقیق‌تر وکتور دیتابیس، یه مثال بنویسیم تا با ساختارهای ساده و فرایند کلی آشنا شیم. البته توی این مثال اول از memory store استفاده می‌کنم، و در ادامه می‌ریم سراغ وکتور دیتابیس.

سناریو:
هر مدل هوش‌مصنوعی هر چقدر کامل یا باهوش باشه، ۲ چیز در جهان رو نمی‌تونه پیش‌بینی کنه: اولیش قیمت ارز در ایرانه. دومیش هم فعلا بماند 😉؛ حالا می‌خواهیم توی این مثال بریم از یکی از سایت‌های اعلام نرخ ارز، قیمت ارزها رو بگیریم ولی با RAG به مدلمون دیتا بدیم. بعدش که از مدل سوال بپرسیم دیگه می‌دونه مثلا دلار چنده. دقت کنید که اینجا منظورم چپوندن «متن» در قالب پرامپت نیست. بلکه استفاده از ساختار RAG است.

روی کامپیوتر خودمون ollama نصب می‌کنیم و از مدل Phi استفاده می‌کنیم که کوچیک باشه و سخت‌افزار خاصی نیاز نداشته باشه.

موافقید با این مثال پیش بریم؟
اگر موافقید
اول: ollama رو نصب کنید
دوم: بعد از نصب، دستور زیر رو برای دریافت مدل phi3 mini که حدود ۲.۲ گیگابایت است توی ترمینالتون اجرا کنید

ollama pull phi3:mini


بعدش برگردید به همین پست یک عدد ⚙️ بکارید اینجا تا بریم سراغ قسمت بعدی یعنی کد #C که با استفاده از semantic kernel دیتا رو RAG می‌کنیم. البته قبلش هم با HtmlAgilityPack دیتا رو از bonbast.org کرال می‌کنیم.

* دلیل انتخاب سی‌شارپ این بود که حس کردم اعضا کانال عموما به سمت سی‌شارپ گرایش دارن (اگر هر کدوم از پایتون یا گو به حدنصاب برسه، با اون هم می‌نویسم)

* ادامه مثال، و اینکه تا چه حدی عمیق شیم بسته به بازخوردها داره.

💬 نظر؟ سوال؟
Please open Telegram to view this post
VIEW IN TELEGRAM
31🔥2
🚀 🤑 مثال عملی پیاده‌سازی RAG (قسمت ۲)
پاسخ به پرسش‌های ارزی! با دیتای لحظه‌ای... 😎🤑

توجه!
قرار بود از مدل Phi-3 mini استفاده کنیم که ۲ گیگ باشه و روی لپ‌تاپ راحت اجرا شه، اینقدر احمق بود که رفتم سراغ llama3.2 که اونم ۲ گیگ است، ولی بسی باشعورتر!

نکته: مدل‌ها نیاز به سنجش و انتخاب دارن (چه در مثال ساده چه در کارهای بزرگ که خودش بخشی از فرایند AIOps است. Phi3 برای این کار مناسب نبود. گرچه صرفا بر اساس سایز کوچک برای مثال انتخاب کرده بودم ولی خیلی بی‌شعور بود!


کد آماده است و قابل دسترس رو گیت‌هاب، ولی باید توضیحات رو به فایل read me اضافه کنم و «شاید، اگر فرصت شه» ویدیو ضبط کنم براش.
🤓 می‌بینید که برعکس چیزی که انتظار می‌رفت، RAG اصلا خوب نیست!!! چرا؟ چون بدون RAG، یورو ۶۹۰۰ تومنه، ولی بعد از RAG می‌شه ۱۰۶هزار تومن. نتیجه می‌گیریم عامل گرونی ارز RAG است، و شایسته است که سریع‌تر به دار آویخته شود ☠️☠️



*️⃣اپلیکیشن یک console app است که کل کد در program.cs قرار دارد.

*️⃣کتابخونه‌های مورد استفاده:

HtmlAgilityPack
برای استخراج نرخ ارز از دل html دریافت شده از سایت اعلام نرخ.
(توی یک تگ table قرار دارد). تمام فرایند دریافت صفحه و استخراج مقادیر، در متد GetExchangeRatesAsync است.


Microsoft.SemanticKernel
Microsoft.SemanticKernel.Connectors.Ollama
برای استفاده از قابلیت‌های Semantic Kernel و همچنین اتصال به ollama برای استفاده از مدل‌هایی که روی ollama داریم. کرنل در حقیقت قلب و رابط بین کد ما و مدل‌های هوش مصنوعی است، کانکتورهای مختلف داره که به مدل‌های لوکال یا ابری متصل شه و کار متن (مثل چت) یا کارهای تولید عکس، صدا، و... رو با مدل‌ها انجام بده. استفاده ازش هم ساده است و اول کرنل رو تعریف، بعد هم پلاگین‌های مورد نیازمون رو بهش متصل و شروع به کار می‌کنیم. مثلا اینجا با دو خط کد به راحتی به ollama متصل می‌شه و از مدل llama3.2 با ۳ میلیارد پارامتر استفاده می‌شه کرد (مثلا چت کرد باهاش).
هم‌زمان با سی‌شارپ، semantic kernel برای پایتون و جاوا هم به‌صورت رسمی توسعه و منتشر می‌شه.
var builder = Kernel.CreateBuilder();
builder.AddOllamaChatCompletion(
modelId: "llama3.2:3b",
endpoint: new Uri("http://127.0.0.1:11434"));



Microsoft.KernelMemory
Microsoft.SemanticKernel.Plugins.Memory
برای افزودن قابلیت «حافظه» به semantic kernel یعنی دیتای خودمون رو داخل حافظه قرار بدیم و کرنل از اون دیتا در کنار دیتای مدل استفاده کنه. اینجا memory رو استفاده کردیم. ولی می‌تونیم از وکتور دیتابیس هم استفاده کنیم. البته این ساختارها (مموری یا وکتور دیتابیس) اینقدر عادی شدند که نیازی ندارید تا جزئیات فنی داخلی‌شون رو الزاما یاد بگیرید و مهم نحوه استفاده ازشون است. به بیان خیلی ساده شده، دیتا توی یک ماتریس قرار می‌گیره که مشابهت/قرابت سطر و ستون که هر کدوم یک کلمه می‌تونیم در نظر بگیریم با یک عدد مشخص می‌شه.

ایجاد مموری:
var embeddingGenerator = kernel.Services.GetRequiredService<ITextEmbeddingGenerationService>();

var memory = new SemanticTextMemory(new VolatileMemoryStore(), embeddingGenerator);


حالا ذخیره داده‌ها داخل مموری:
const string MemoryCollectionName = "exchangeRates";

string url = "https://bonbast.org";
var exchangeRates = await GetExchangeRatesAsync(url);

foreach (var rate in exchangeRates)
{
string memoryKey = $"{rate.Key} to Iranian Rial";
await memory.SaveInformationAsync(MemoryCollectionName, id: memoryKey, text: $"1 {rate.Key} equals {rate.Value.AverageRate} Iranian Tomans...");
}

TextMemoryPlugin memoryPlugin = new(memory);

kernel.ImportPluginFromObject(memoryPlugin);


فایل راهنما و توضیحات بیشتر در پست بعدی... لطفا اجرا کنید و یه مقدار باهاش سر و کله بزنید که پست‌های بعدی مفید باشن 😉 اگر مفید بود و کاربردی، بگید تا بریم سراغ وکتور یا دریافت ورودی خروجی ساختار یافته به جای متن...

💬 سوال؟ پیشنهاد؟
البته Memory Store قابلیت‌های کمتری نسبت به Vector Store داره و خیلی ابتدایی‌تره. توی اولین مثال از مموری استفاده کردم فقط تا حداکثر سادگی رو داشته باشه.
Please open Telegram to view this post
VIEW IN TELEGRAM
16🔥4👍1
tech-afternoon
🧐⭐️ در مورد کاربرد و یادگیری AI در روتین روزانه (چند گزینه‌ای)
😂 دم همگی گرم...
دیشب وقتی دیدم مطالب و مثال‌هایی که برای AI نوشتم از پکیج موفقیت و رازهایی زیبایی هم کم‌طرفدارتر بودن، اولین چیزی که یادم افتاد این نظرسنجی تاریخی سیامک انصاری بود 😅

تصمیم داده‌محور همیشه خوبه 😊 لذا باید در فرم و محتوای مطالب و انتخاب موضوعات تجدید نظر کرد 😉
👍41
🤡 داستان Vibe Coding، اصطلاحی جدید در توسعه نرم‌افزار!

سال ۲۰۲۳، Andrej Karpathy مدیر سابق هوش‌مصنوعی تسلا و جزو تیم بنیان‌گذار OpenAI و فارغ‌التحصیل دکتری علوم کامپیوتر استنفورد یه توییت زد که:

داغ ترین زبان برنامه نویسی جدید «انگلیسی» است!


خُب معنی این توییت مشخص بود، اینکه ملت پرامپت می‌نویسن به جای کُد! چند هفته پیش توییت دیگه‌ای زد که توضیح داد نوع جدیدی از کد نویسی به وجود اومده که اسمش رو «vibe coding» گذاشته، یعنی نوعی از برنامه‌نویسی که فرد کلاً کد و درک روال برنامه رو بیخیال شده و فقط خواسته‌اش رو با LLM طرح می‌کنه، حتی کد تولید شده رو هم نمی‌خونه و مستقیم اجراش می‌کنه، اگر نتیجه دلخواه نبود یا خطا داد، فقط متن خطا یا رفتار دلخواهش رو دوباره به LLM می‌ده تا نهایتا به نتیجه دلخواهش برسه (مثل این جواگره‌ای که افتادن روی Cursor)

بعضاً حتی تایپ هم نمی‌کنن و با SuperWhisper صحبت می کنن! این کدها شاید برای افراد غیربرنامه‌نویس، محصولات تفننی و آخرهفته‌ای خوب باشه، ولی با «محصول» فاصله داره.

حتی از تیکه کدهایی که قبلا بعضی برنامه‌نویس‌ها از stackoverflow کپی‌/پیست می‌کردن و درکی ازش نداشتن و صرفاً کار می‌کرد هم بارها بدتره...

اینا ته تهش به درد اساتید و نوابغ اینستاگرام می‌خوره که پکیج برنامه‌نویس شدن در ۱ ساعت و درآمد میلیان دلاری در روز بفروشن!

این vibe coding می‌تونه نیمه تاریک هوش مصنوعی برای برنامه‌نویس‌ها باشه! دقت کنید: برای مثلا کسی که کدنویسی برای تحلیل داده بلد نیست و با استفاده از این سرویس‌ها توانمندتر می‌شه تا کارهای خودش رو «آگاهانه نسبت به نتایج» ولی «ناآگاه نسبت به فرایند» به نتیجه برسونه (مثل یک حسابدار) اتفاقا می‌تونه خوب باشه. ولی برای برنامه‌نویس، نه!

برای یادگیری یک زبان برنامه‌نویسی جدید، یا تکنیک‌هی جدید، مشروط به فرض کردن LLM به عنوان یک معلم صبور که از سوالاتمون خسته نمی‌شه، خیلی خوبه؛ ولی به عنوان مرجعی برای کپی کردن و بعدتر پیست کردن، نه!

این vibe coding می‌تونه مثل یک مخدر توهم‌زا، فرد رو دچار توهم توانمندی کنه، و ناخواسته توی مسیری بیوفته که بعدتر بی‌آبرویی براش بسازه.

💬 نظرتون چیه؟ موافقید که vibe coding برای تفنن خوبه ولی برای کار، بسیار بد؟
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27👏21
🧐 ورودی GenAI چجوری پردازش می‌شه؟ توی وکتور دیتابیس چی قرار می‌گیره؟

هر ورودی‌ ای که ما به مدل زبانی یا هوش مصنوعی مولد بدیم، از دل یک embedded model عبور می‌کنه، با یک semantic search پردازش می‌شه. پرداختن به محاسبات ریاضی‌اش از حوصله این مطلب فراتره و توی لایه‌ی کاربری هم کاربردی نداره ولی مباحث جالبی هستن که اگر کسی دوست داشت بگه تا مقاله یا کتاب‌های خوبی که می‌تونه کمک کنه معرفی کنم. برای همین توی این پست، به جای رفتن سراغ «مار» بیایم بریم سراغ 🐍
موافقین؟

فرض کنین به یه مدل زبانی، یک عبارت خیلی ساده رو بدیم؛ چی میشه؟ اول باید تبدیل به یه سری عدد اعشاری بشه بعد دیگه هر چی هست تا قبل از مرحله خروجی، عمدتا جبر خطیه! علت اینکه می‌گیم این مدل‌ها واقعا هوشمند نیستن، اینه که فقط یَک‌عالمه مشابهت رو بررسی می‌کنن و شبیه‌ها رو کنار هم می‌چینن. اعجازشون اینه که این یَک‌عالمه یعنی مثلا توی چت‌جی‌پی‌تی ۷۰۰ میلیارد! یعنی نمی‌فهمه سیب احتمال اینکه سرخ یا زرد با سبز باشه کمتر از اینه که بنفش باشه، و اینکه بنفش باشه کمتر از اینه که پشمالو باشه!

یه کد کوچولو نوشتم برای توضیح این داستان:
۲ تا کلمه + یه کاما + علامت تعجب میشه ۱۰۲۴ تا عدد:
Embedding for 'Hello, world!':
Embedding Length: '1024'!


0.017290225, 0.04488248, 0.00056118704, -0.009004725, -0.045384012, 0.008568012, 0.07241785, 0.04243991, 0.047746666, 0.0021948903, 0.007101463,...


از خوبی‌های semantic kernel به جز اینکه نسخه‌های سی‌شارپ، پایتون و جاوا داره اینه که خیلی کنترل خوبی روی فرایند داخلی بهمون می‌ده و فقط یه rest client برای صدا زدن سرویس‌ها نیست. به سادگی می‌شه امبدینگ‌مدل رو دید... این یه مقدمه ساده بود از اینکه درک کنیم چرا باید از وکتور دیتابیس استفاده کرد. توی وکتور دیتابیس ما کلی عدد داریم، این اعداد از کجا میان؟ بله، از همین امبدینگ‌مدل. پس دلیل اینکه ما برای RAG نیاز به وکتوردیتابیس به جای دیتابیس کلاسیک (مثل RDBMS) داریم.

این کد خیلی کوچیک که نوشتم رو نگاه کنید یا اگر دوست داشتید اجرا کنید. از ollama + یک مدل کوچیک با ۳۳۵ میلیون پارامتر + semantic kernel استفاده کردم، برای دیدن اینکه با یه مدل کوچیک، عبارت Hello World تبدیل به چی می‌شه!

💬 سوال؟ نظر؟
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍2👏2
🤖 مثال RAG با استفاده از Qdrant

وکتور دیتابیس Qdrant یک پایگاه داده برداری (Vector Database) و موتور جستجوی برداری کدبازه که برای ذخیره و جستجوی بردارهای High-dimensional Embeddings طراحی شده. یک ابزار با قابلیت مدیریت حجم بالای داده‌های برداری و با ارائه API ساده ولی در عین حال قدرتمند (مثل gRPC و REST)، ما رو توی پیاده‌سازی سرویس‌های هوشمند و مبتنی بر جستجوی برداری کمک می‌کنن. کارهایی مثل RAG که توی پست‌های قبلی توضیح دادم... البته یه محیط گرافیکی تحت وب خوب هم همراه خودش داره.

حالا برگردیم به مثالی که چند پست قبل توضیح دادم و نمونه ساده‌اش رو توی مموری موقت دیدیم. یعنی RAG قیمت ارز (بهترین مثال برای ما ایرانی‌ها چون به‌روزترین مدل‌های هوش مصنوعی هم داده‌هاشون از نرخ ارز ما خاطرات دوردسته و پیش‌بینی‌اش هم محال؛ پس یقینا فقط RAG باید داشته باشیم براش 😁 )

همون مثال رو با Qdrant نوشتم. البته با PostgreSQL و pgvector هم نوشتم که هنوز فایل راهنماش کامل نشده... (به زودی ایشالا)

📱 📔 کد روی گیت‌هاب

خروجی اینطوریه که اول با داده‌های خام llama 3.2 (نسخه ۳ میلیارد پارامتر) مزخرف می‌نویسه، بعد میریم از bonbast.org نرخ ارز رو آنلاین می‌گیریم، توی وکتور دیتابیس ذخیره می‌کنیم و بعد دوباره همون سوال رو می‌پرسیم، ولی دیگه مزخرف نمی‌نویسه...)

به راحتی Qdrant رو با داکر می‌تونید روی ماشین خودتون اجرا کنید، ollama و مدل llama 3.2 (3b) هم همینطور.

💬 سوال؟ نظر؟ بحث؟
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍3
این روزها که خبر تغییر لایسنس AutoMapper و MediatR و MassTransit به جمع قبلی‌ها یعنی ImageSharp, IdentityServer, Fluent Assertions پیوست که تازه اینا اکوسیستم دات‌نت بودن، و اگر فارغ از اکوسیستم نگاه کنیم Redis و Elastic و... هم اضافه می‌شن؛ خوبه تا فرایند انتخاب تکنولوژی، مدیریت فنی محصول، بودجه‌بندی و... رو مرور کنیم.

چقدر تیم‌ها بابت جوگیری و چپوندن انبوه کتابخونه‌ها به پروژه با هدف عقب نیوفتادن از موج وبلاگ‌ها و ویدیوهای بلاگر‌های تکنولوژی، خودشون و اعصابشون و محصول و زمان رو دچار چالش کردن...

لذا خوبه تا مسیر اصولی رو یاد بگیریم، کاری که توی تیم‌های بزرگ عموما توسط technology manager هدایت می‌شه. با یه مثال انترپرایز بزنم تا بعدن نسبت به سایز کوچک‌تر بریم جلو:
شما می‌خواهید از کتابخونه A استفاده کنید، اول چک می‌کنید ببینید آیا توی green book سازمان لیست شده یا نه. اگر نشده باشه، جک می‌کنید ببینید کاری که اون کتابخونه قراره انجام بده، در دنیای محصولات تجاری، چقدر هزینه داره؟! و اگر کدباز است، نوع لایسنسش چیه؟ چند نفر توسعه‌دهنده فعال داره؟ کامیونیتی‌اش چقدر بزرگه؟ بنیه مالی این پروژه چجوریه؟ آیا جایگزین کدباز یا تجاری با امکانات مشابه یا حداقل نیاز ما وجود داره؟ و سوالات دیگه‌ای که بهمون کمک کنه تا چیزی رو انتخاب کنیم که آینده محصول تحت تاثیر عمیق قرار نگیره. بعد، موضوع پیاده‌سازی پیش میاد که کد ما چقدر قابلیت تعویض قطعات پازلش رو داره؟ (وابستگی‌ها با چقدر تغییر قابل تغییر هستن؟)

خلاصه اینکه توسعه محصول فقط استفاده از کتابخونه‌ها نیست، انتخاب ابزار هم بخشی از مسیر و نیازمندی‌های دانش و تجربه است. توسعه خیلی از محصولات «غلط اضافی» شرکت‌ها هستند!! (با توجه به استعداد مالی و بنیه فنی و...) کما اینکه تاسیس شرکت و استقلال هم «غلط اضافی» برخی علاقه‌مندانِ پوزیشن مدیرعاملیه....
👍1542
اگر حضرت سعدی در زمانه‌ی ما زیست می‌کرد، احتمالا علاوه بر «دم فرو بستن به وقت گفتن، و گفتن به وقت خاموشی» دو چیز دیگه رو هم طَیرهٔ عقل اعلام می‌فرمود:

۱: ست کردن جلسه بدون ذکر رئوس مطالب توی ایمیل دعوت
۲: ساختن تیکتی که توضیح و acceptance criteria دقیق نداره

* طَیرهٔ عقل: سبک‌ مغزی
** این لیست مستعد کامل شدن تا ده‌ها مورد طَیرهٔ عقل است، توی کامنت بنویسید، حضرت سعدی حتمن مطالعه خواهند کرد و در نسخ جدید گلستان اعمال خواهند کرد 🤓
😁14👍3👏2
🚀 تبدیل ریپازیتوری GitHub به MCP!

یه پروژه جذاب و کاربردی برای اتصال AI Assistentها...

هم‌زمان با دسترسی عمومی Agent mode و پشتیبانی از MCP روی VSCode
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥2
🎂 تولد ۲۰ سالگی git مبارک!

پروژه شخصی (بخوانید دلی) لینوس توروالدز که تبدیل به ابزار روزمره ما شد...

اگر دوست دارید بدونید نبوغ و پشتکار این مرد چقدره، همین بس که اولین نسخه‌ی کار بکن git طی ۵ روز نوشته شد!

پیشنهاد می‌کنم خوب یاد بگیرید، در مورد معماری و فایل‌سیستم git و VFSForGit بخونید که بسی جذابه!

توی یکی از جلسات تک‌افترنون سال‌ها پیش در موردش مفصل گفتم، اگر و اگر فایل صوتی جلسه رو پیدا کنم می‌گذارم توی کانال.

💬 شما گیت رو خام خام استفاده می‌کنید یا با کلاینت‌های GUI؟؟
Please open Telegram to view this post
VIEW IN TELEGRAM
👍127
🔄 معرفی Agent2Agent Protocol (A2A) از گوگل!

امروز گوگل توی کنفرانس Cloud Next پروتکل جدید Agent2Agent (A2A) رو معرفی کرد. این پروتکل باعث می‌شه تا AI‌ها بدون توجه به این‌که با چه فریم‌ورکی ساخته شدن، بتونن با هم ارتباط برقرار کنن. یعنی دیگه مثل این نیست که هر مدل باید به مدل خودش حرف بزنه؛ حالا همه می‌تونن با هم گپ بزنن! A2A تکمیل‌کننده مسیر Model Context Protocol (MCP) از آنتروپیک است (شرکت خالق Claude.ai)

تو این سیستم، یه تقسیم‌بندی ساده داریم: یه جوری AI‌ها به دو دسته تقسیم می‌شن؛ یه دسته که "کلاینت" هستن و درخواست‌ها رو می‌دن و دسته‌ی دیگه که "ریموت"، یعنی درخواست‌ها رو انجام می‌دن. این یه جور «قرارداد ارتباطی» به وسیله استانداردهای HTTP, SSE, و JSON-RPC فراهم می‌کنه و حتی از احراز هویت و سطح دسترسی هم پشتیبانی می‌کنه. پروتکل از قابلیت‌های مورد نیاز برای کارهای طولانی مدت هم پشتیبانی می‌کنه، یعنی می‌تونه بازخوردها، اعلان‌ها و وضعیت روز رو به صورت لحظه‌ای به شما گزارش بده.

همچنین لازم بدونید که گوگل تاکید می‌کنه این پروتکل، Agent2Agent، قرار نیست جایگزین Model Context Protocol (MCP) بشه؛ بلکه یک مکمل برای اون محسوب می‌شه. در واقع MCP برای دسترسی به داده‌ها به صورت استاندارد استفاده می‌شه و Agent2Agent هم برای ارتباط مستقیم بین مدل‌ها به کار میره. در کنار همکاری بیش از ۵۰ شریک فناوری معروف مثل Atlassian, Box, MongoDB, Salesforce و ...، این نوآوری گام مهمی توی تقویت همکاری هوش مصنوعی‌ها بین خودشونه.
👍10🔥211
مسعود دانش‌پور عزیز، برای تیمش توی دیجیکالا دنبال چند مهندس نرم‌افزار خبره می گرده که از پس تراکنش های بسیار بالا مثل بلک فرایدی بر بیان، طبیعتا افرادی که خودشون رو واجد شرایط بدونن اپلای می‌کنن و براشون آرزوی موفقیت دارم.

به نظرم اومد شاید دوستانی باشن که دوست داشته باشن بدونن نقشه‌راه و توصیف دقیق‌تر چالش‌های این تیپی چیه، و برای اینکه در آینده بتونن برای موقعیت‌های مشابه اپلای کنن، چه چیزهایی رو باید دقیق‌تر یاد بگیرن و تمرین کنن، و مسیر پیشنهادی چی می‌تونه باشه.

اگر جلسه آنلاین با محوریت بررسی این شرح شغلی و موارد مشابه براتون جالبه لطفا با ایموجی بگید تا اگر حدنصابی مناسبی داشت، برای روز یکشنبه یه دورهمی آنلاین داشته باشیم 😊

اگر حتمن شرکت می‌کنید: ⚙️
اگر شاید شرکت می‌کنید: 🤓
Please open Telegram to view this post
VIEW IN TELEGRAM
40🤓18
📔 قابلیت Extension members در سی‌شارپ ۱۴

بالاخره بعد از کش‌وقوس‌های فراوون (شروع جدی‌اش از سال ۲۰۲۱ بود) بالاخره امکان Extension members به سی‌شارپ ۱۴ (نسخه پیش‌نمایش ۳) اومد.

از سی‌شارپ ۳ می‌تونیم اکستنشن‌متد برای تایپ‌ها بنویسیم. ولی حالا دیگه محدود به متد نیستیم و property و static method هم پشتیبانی می‌شه.

توی سی‌شارپ ۱۴ یه بلاک جدید به نام extension داریم:

public static class Extensions
{
extension(IEnumerable<int> source)
{
public IEnumerable<int> WhereGreaterThan(int threshold)
=> source.Where(x => x > threshold);

public bool IsEmpty
=> !source.Any();
}
}

توی مثال بالا، عملا دیگه از this استفاده نشده، قبلا همین رو باید اینجوری می‌نوشتیم:
WhereGreaterThan(this IEnumerable<int> source, int threshold)

در حالیکه:

*️⃣بخش extension(IEnumerable<int> source): اینجا نشون می‌ده که بلاک اکستنشن با یک receiver از نوع IEnumerable<int> شروع شده.

*️⃣متد WhereGreaterThan: بدون نیاز به استفاده از this، چون receiver به صورت ضمنی تو بلاک extenstion در دسترسه.

*️⃣پراپرتی IsEmpty: هم به راحتی بر اساس receiver تعریف شده که چک می‌کنه آیا لیست خالی هست یا نه.

حتی اینو می‌تونید به صورت جنریک هم بنویسید:
extension<T>(IEnumerable<T> source)
where T : INumber<T>
{
public IEnumerable<T> WhereGreaterThan(T threshold)
=> source.Where(x => x > threshold);

public bool IsEmpty
=> !source.Any();
}

🔗 رفرنس
🔗 مباحثات اولیه

💬 به نظرتون چقدر کاربردیه؟
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍6👏1
ارزش «باور به توانایی»، اعتبار فردی...

احتمالا با خانم یعنی میرا موراتی، CTO سابق OpenAI که از ابتدای طراحی ChatGPT نقش داشت و چند وقت پیش استعفا داد تا دنبال رویای خودش بره آشنایی دارین.

استارتاپ ایشون که الان تعداد انگشت‌شمار! کارمند داره و هنوز محصولی بیرون نداده، یعنی Thinking Machines Lab الان ۲ میلیارد دلار جذب سرمایه (خطرپذیر) داشته.

این نمونه واقعی اینه که اعتبار و باوری که آدم‌ها از خودشون می‌سازن، چقدر می‌تونه ارزشمند باشه.

حالا میرا موراتی یک نمونه رایج و نرمال نیست. ولی اینکه ما بتونیم توی تیم یا شرکت، ایده‌ی جدید، تغییر بزرگ، یا یک نوآوری پرریسک رو پیشنهاد بدیم و سازمان یا مدیر «عاقل»، با تکیه بر باور توانایی و اراده ما، فضا و امکان کار روی اون طرح رو بده، بخشی از «پرسنال برندینگ» است که ذره ذره و با ممارست و تلاش فقط به دست میاد.

صحبتم در مورد اعتبار متخلخل و پوشالی نیست، در مورد مدیر احمق و نفهم هم نیست... چون با جفت اینا هم می‌شه امکان و فضای کار روی محصول یا ایده اشتباه و محکوم به شکست رو پیدا کرد.

از این دست نمونه‌ها زیادن، چه نمونه‌های خارجی چه ایرانی، توی همه نمونه‌هایی که حداقل من دیدم، تلاش و ممارست فردی، صبر، و اعتباری که پله به پله ساخته شده، وجه مشترک آدم‌هایی بوده که بهشون اعتماد شده، و کارهای بزرگ کردن...

فقط هم محدود به نرم‌افزار نیست، «گاها» حتی اون آدم‌ها وارد حوزه جدیدی شدن که هم‌پوشانی کاملی با تجربیات قبلی‌شون نداشته.

یه سری مهارت‌های نَرم (soft skills) وجود داره که می‌تونه کمک کنه تا hard skills ما طوری پرورش پیدا کنه که صاحب «اعتبار و اعتماد» اجرایی بشیم، و شاید این یکی از مهم‌ترین دستاوردهای کاری یک فرد بتونه باشه، یعنی دیگرانی باشن که باور و اعتماد داشته باشن به توانایی به انجام رسوندن کارهای دشوار یا جدید...

💬 تجربه‌ای داشتید؟ نظری دارین؟
Please open Telegram to view this post
VIEW IN TELEGRAM
💯7👍5👏4
tech-afternoon
مسعود دانش‌پور عزیز، برای تیمش توی دیجیکالا دنبال چند مهندس نرم‌افزار خبره می گرده که از پس تراکنش های بسیار بالا مثل بلک فرایدی بر بیان، طبیعتا افرادی که خودشون رو واجد شرایط بدونن اپلای می‌کنن و براشون آرزوی موفقیت دارم. به نظرم اومد شاید دوستانی باشن که…
🔔 جلسه مرور مهارت‌ها و مسیر رسیدن به موقعیت‌های شغلی که بتونه از پس چالش‌های پلتفرم‌های با تعداد درخواست بالای هم‌زمان و پیچیدگی‌های سیستمی بر بیاد...

(⚠️ زمان جلسه تغییر کرده است!️) یکشنبه ۳۱ فروردین (۲۰ اپریل)؛ ساعت ۱۹:۰۰ تا ۲۰:۰۰ ۱۷:۳۰ - ۱۸:۳۰ (به وقت تهران)
لینک ثبت‌نام

* «اگر و اگر» تعداد افراد زیاد باشه «و» تنوع بین «جونیور به مدیور» و «مدیور به سنیور» به حد خوبی برسه، شاید همون یکشنبه ولی دو جلسه متناسب با سطوح مختلف برگزار شه.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🙏4🔥2
📱 ویدیو جلسه مرور مهارت‌های مورد نیاز و مسیر رسیدن به مهندس ارشد نرم‌افزار - بخش ۱

🔄 فایل اسلایدها رو هم در بخش کامنت قرار دادم

ممنون از همه دوستانی که تشریف آوردن، امیدوارم هر چه زودتر توی جلسه دوم ببینمتون 😊🌱

لینک یوتیوب
Please open Telegram to view this post
VIEW IN TELEGRAM
24🔥4
📝 روش‌هایی برای اولویت‌بندی نیازمندی‌ها


جلسه «مرور مهارت‌های مورد نیاز و مسیر رسیدن به مهندس ارشد نرم‌افزار» رو بر اساس چرخه توسعه نرم‌افزار (SDLC) طرح کردم، و بخش اولش «نیازمندی‌ها و تحلیل (Requirements & Analysis)» بود. چون از روش‌های MoSCoW و Kano Model برای اولویت‌بندی نیازمندی‌ها (Prioritization Techniques) اسم بردم، گفتم شاید بد نباشه برای دوستانی که آشنایی ندارن، کمی توضیح بدم.



وقتی یه تیم محصول یا توسعه تصمیم می‌گیره یه چیزی بسازه یا بهبود بده، معمولاً با کلی پیشنهاد و نیازمندی (requirement) مواجه میشه: از باگ‌های کوچیک گرفته تا فیچرهای کوچیک و بزرگ.
ولی واقعیت اینه که زمان، نیرو و بودجه محدوده (منابع محدود، در مقایسه با نیازهای نامحدود!). پس مهمه بدونیم چی رو باید اول انجام بدیم، چی رو می‌تونیم بذاریم برای بعد، و چی رو فعلاً انجام ندیم.

اینجاست که تکنیک‌های اولویت‌بندی میان وسط. اینا ابزارهایی هستن که کمک می‌کنن:

*️⃣خواسته‌های کاربر، کسب‌وکار و تیم توسعه رو دسته‌بندی کنیم.
*️⃣تصمیم‌های درست‌تری بگیریم.
*️⃣روی چیزهایی تمرکز کنیم که بیشترین تأثیر رو دارن.

دو تا روش محبوب رو اینجا معرفی می‌کنم که می‌تونن کمک کنن. Kano Model و MoSCoW

🔍 مدل اول: Kano – وقتی رضایت کاربر مهمه
مدل Kano از اسم یه پروفسور ژاپنی به اسم «نوری‌آکی کانو» الهام گرفته شده. ایده اصلی اینه که همه فیچرها تأثیر یکسانی روی رضایت کاربر ندارن. بعضیاشون اگه نباشن، کاربر عصبانی میشه. بعضیا اگه باشن، خیلی خوشحال میشه. بعضیا هم بودن یا نبودنش براش فرقی نداره! (کاربر رو ذینفع (stakeholder) هم تعبیر می‌کنیم)

دسته‌بندی ویژگی‌ها توی Kano:
*️⃣گروه Basic Needs (Must-be): چیزایی که انتظار می‌ره حتماً باشن. نبودش فاجعه‌ست ولی بودنش کسی رو شگفت‌زده نمی‌کنه.

*️⃣گروه Performance Needs: هرچی بهترش کنی، رضایت بیشتر میشه (مثلاً سرعت سایت یا دقت جستجو).

*️⃣گروه Excitement Needs (Delighters): قابلیت‌هایی که کاربر انتظار نداره، ولی وقتی می‌بینه خوشحال میشه. (مثل auto-save هوشمند یا تم تیره پیش‌فرض)

*️⃣گروه Indifferent: بودن یا نبودنش خیلی فرقی نمی‌کنه.

*️⃣گروه Reverse: بعضیا ممکنه یه فیچر رو نخوان!

🔧 کاربرد: این مدل خیلی برای مصاحبه با کاربر و طراحی تجربه کاربری خوبه. کمک می‌کنه روی فیچرهایی تمرکز کنی که "دل کاربر رو می‌بره"، نه فقط اونایی که لازمه.
——————————————————-

📦 مدل دوم: MoSCoW – برای اولویت‌بندی سریع و پروژه‌محور
اشتباه نشه؛ MoSCoW یه مخففه و ربطی به شهر مسکو نداره! 😄:

*️⃣گروه Must have: اگه اینا نباشن، محصول کار نمی‌کنه.

*️⃣گروه Should have: مهمن، ولی می‌تونن تاخیر بخورن.

*️⃣گروه Could have: اگه وقت شد اضافه‌شون می‌کنیم.

*️⃣گروه Won’t have (this time): الان انجامش نمی‌دیم، شاید بعداً.

🔧 کاربرد: MoSCoW بیشتر توی مدیریت پروژه و جلسه‌های برنامه‌ریزی اسپرینت استفاده میشه. وقتی می‌خوای با تیم تصمیم بگیری که توی این بازه زمانی رو چی تمرکز کنید.

🧠 اگه خواستی بیشتر بدونی...
اولا هر کاری رو اگر «روشمند» یعنی بر اساس یک مدل بریم جلو، ولو کارهایی که بدیهی به نظر میان، عموما شانس موفقیت بالاتری داریم.

دوما، فقط این دو تا نیست؛ اگه دوست داری مدل‌های بیشتری رو بررسی کنی یا روش‌های دیگه‌ای برای تصمیم‌گیری داشته باشی، اینا هم ارزش وقت گذاشتن دارن:

روش RICE Scoring – برای اولویت‌بندی عددی و داده‌محور
روش WSJF – مخصوص تیم‌های اجایل و SAFe
روش Opportunity Scoring – مبتنی بر نیازهای پنهان کاربر
روش Feature Buckets – دسته‌بندی فیچرها براساس تأثیر و استراتژی
روش Eisenhower Matrix – ساده ولی کاربردی برای تصمیم‌گیری‌های روزمره



💬 شما از چه روشی برای اولویت دادن به نیازها و کارها استفاده می‌کنی؟
Please open Telegram to view this post
VIEW IN TELEGRAM
12
tech-afternoon
🔔 جلسه مرور مهارت‌ها و مسیر رسیدن به موقعیت‌های شغلی که بتونه از پس چالش‌های پلتفرم‌های با تعداد درخواست بالای هم‌زمان و پیچیدگی‌های سیستمی بر بیاد... (⚠️ زمان جلسه تغییر کرده است!️) یکشنبه ۳۱ فروردین (۲۰ اپریل)؛ ساعت ۱۹:۰۰ تا ۲۰:۰۰ ۱۷:۳۰ - ۱۸:۳۰ (به وقت…
2️⃣ جلسه دوم مرور مهارت‌های مورد نیاز و مسیر رسیدن به مهندس ارشد نرم‌افزا

اگر نظر مثبتی نسبت به جلسه اول «مرور مهارت‌های مورد نیاز و مسیر رسیدن به مهندس ارشد نرم‌افزار» داشتید و فکر می‌کنید ادامه بحث می‌تونه براتون جالب باشه، لطفا از طریق فرم زیر بگید 😊

🗓 برای روز یکشنبه ۷ اردیبهشت (۲۷ اپریل) ساعت ۱۸:۳۰ به وقت تهران

https://forms.gle/ayy2Q3MESKnhrNt3A
Please open Telegram to view this post
VIEW IN TELEGRAM
25