سینوسِ آلفا
975 subscribers
204 photos
2 videos
31 files
273 links
Sina Moradi | MD-MBA candidate, ML Developer, & Former Math Teacher

Building at Zumud.com

Website:
- https://sinusealpha.github.io/

Contact:
- Sina80mor@gmail.com
- Sina@zumud.com
Download Telegram
🔹اگر شیء a، همان شیء b است. آیا b نیز همان a است؟ جواب ما مثبت (و صحیح) است؛ اما جواب هوش‌مصنوعی چیز دیگری‌ست!

در این مقاله که به تازگی (۵ روز پیش) منتشر شده و اتفاقا هم سر و صدای زیادی داشته، به این موضوع پرداخته شده. عنوان مقاله هم دقیقا به همین موضوع اشاره می‌کنه:

The Reversal Curse:
LLMs trained on “A is B” fail to learn “B is A”

پی‌نوشت: علاوه بر این موضوع، احتمالا اون پرامپ معروف که «از مدل می‌پرسند آیا ۴۵۰، ۹۰٪ پانصد هستش و مدل، اولش می‌گه نه و بعدش در همون پیام، خودش رو اصلاح می‌کنه و می‌گه بله» رو دیده باشید. کلا این روزها سوتی‌های زیادی از مدل‌ها پیدا و معروف شدند و اتفاقا، جالب و بعضا خنده‌دار هم هستند. :)

#هوش_مصنوعی
@sinusealpha_channel
🤯7👍2😁2🔥1
🔹در متن بالا چند حرف F (یا f) می‌بینید؟

شاید سوال خنده‌داری به نظر بیاد و البته تا حدی هم این‌طور است. :) اما حقیقت اینه که اغلب افراد، در تلاش اول‌شون، پاسخ اشتباه می‌دهند! (درمورد علتش، احتمالا در آینده صحبت کنم).

پی‌نوشت اول: علت گذاشتن تصویر هم این بود که این روزها درمورد موضوعی در حال مطالعه هستم و این چالش، در ابتدای تقریبا تمام لکچرها و سخنرانی‌ها مرتبط به موضوع وجود داشت. :)

پی‌نوشت دوم: پاسخ صحیح، شش عدد است!

@sinusealpha_channel
😁6👍51
🔹فصل چهارمِ آدم‌ها و ریاضیات

این پلی‌لیست که اتفاقا به تازگی هم شروع شده و داره ادامه پیدا می‌کنه، فوق‌العاده است. بنظرم حداقل دو قسمت زیر رو از دست ندید:

👈🏻محمد اکبرپور (استاد اقتصاد، استنفورد):
https://youtu.be/kODT2dEsqJs?si=NWsKzDglDMPOk3Tp

👈🏻تینا ترکمان (دکتری ریاضی، هاروارد):
https://youtu.be/jft2Fizl3m0?si=x_PFyG-NU0pkXQag

پی‌نوشت: این مجموعه، سه فصل دیگر هم داره که بنظرم به جذابیت فصل چهارمش نیستند. اما اگر علاقه‌مند باشید، به شدت ارزش دیدن دارند.

#ریاضی
@sinusealpha_channel
👍4🔥4
🔹تبلیغات، چگونه خرد متعارف را شکل می‌دهند؟

خرد متعارف یا حکمت رایج [که ترجمه‌ی عبارت conventional wisdom هستند]، به جملات پذیرفته‌شده‌ای اطلاق می‌شود که اکثریت جامعه، درست‌بودن آن‌ها را پذیرفته‌اند و به صحت آن‌ها فکر هم نمی‌کنند.

مشهورشدن این عبارت (conventional wisdom) هم به کارهای آقای john Kenneth Galbreath (اقتصاددان آمریکایی) و کتاب مشهور او، یعنی the affluent society مربوط می‌شود. کسی که استاد دانشگاه هاروارد بود و مدتی را نیز بعنوان سفیر در کشور هند سپری کرد.

داستان زیر، از کتاب Freakonomics (دقیق‌تر: صفحه‌ی 101 و 102 آن) آورده شده است و به خوبی، به تاثیر تبلیغات در شکل‌گیری چنین خردهای متعارفی شرح می‌دهد:

«لیسترین در قرن نوزدهم به عنوان یک ضدعفونی کننده‌ای قوی [برای] بعد از جراحی‌ها ساخته شد. اما به مرور به صورت تقطیرشده و به عنوان پاک‌کننده و عامل درمان سوزاک فروخته می‌شد. [گذشت و گذشت تا اینکه] در دهه‌ی 1920 به عنوان راه حلی برای "هالیتوز مزمن" (یک اصطلاح پزشکی برای بوی بد دهان) مطرح شد.

در آغاز، موفقیت چشمگیری نداشت اما آگهی‌های جدید لیسترین، زنان و مردان جوانی را نشان می‌داد که مشتاق ازدواج بودند، اما هنگام مواجه‌شدن با بوی بد دهان همسرشان، سکوت می‌کردند و به این فکر می‌کردند که آیا می توانم با این وجود، در کنار او زندگی خوبی را داشته باشم؟! تا آن زمان، بوی بد دهان به طور متعارف چنین فاجعه‌ای در نظر گرفته نمی‌شد؛ اما لیسترین این موضوع را به طور کامل تغییر داد!

البته همانطور که یک محقق (جیمز بی توئیچل) می‌نویسد، "[شرکت سازنده‌ی] لیسترین، آنقدر که باعث ایجاد هالیتوزیس می‌شد دهان‌شویه نمی‌ساخت." [و این به معنای بی‌فایده بودن آن است]. اما تنها در هفت سال، سود این شرکت از حدود صدهزار دلار در سال، به بیش از هشت میلیون دلار افزایش یافت.»

طراحی و ایجاد یک خرد متعارف جدید، برای محصولاتی که فروش نرفته‌اند، روشی قدیمی اما متاسفانه موثر برای خلاص‌شدن از آن‌هاست. حواسمان به این موضوعات اطرافمان باشد. چرا که به قول Richard Marcinko:

conventional wisdom is no wisdom at all.

علت معرفی آقای Kenneth Galbreath در ابتدای متن هم بیان جمله‌ی مشهور او در همین زمینه است:

the conventional view serves to protect us from the painful job of thinking.

ترجمه: دیدگاه متعارف، در خدمت محافظت از ما در برابر کار دردناک اندیشیدن است.

پی‌نوشت: درمورد کارها و کتاب‌های این فرد در حال مطالعه هستم و احتمالا به زودی، درموردش متن دیگری بنویسم.

@sinusealpha_channel
👍5🤯31
#اندکی_تجربه

“بیانِ کمتر، لذتِ بیشتر!”

بعنوان کسی که در بیشتر موقعیت‌ها در حال سعی و خطا بوده‌ام و سعی کرده‌ام که چیزهای پیش‌فرض رو کمتر قبول کنم، یک موضوع جالبی رو متوجه شدم.

میزان خوشحالی به‌وجود اومده در مغز من، با تغییر فقط یک مرحله از انجام کارها، بسیار متفاوت شد. توضیح می‌دم. بعنوان نمونه، می‌شه «چیزی که من رو خوشحال می‌کرد» رو به صورت کلی زیر در نظر گرفت:

مدل A: [انجام یک کار -> نتیجه‌ی مثبت -> پاداش مغزی + بیان نتیجه به عموم -> پاداش مغزی بیشتر و…]

بیایید اگر این اتفاق رو چرخه‌ی A در نظر بگیریم و براش، پاداش تام n رو در نظر بگیریم. حالا چرخه‌ی B رو به صورت زیر تعریف می‌کنم:

مدل B: [انجام یک کار -> نتیجه‌ی مثبت -> پاداش مغزی و…]

در مدل جدید، «بیان نتیجه به عموم» رو پاک کردم و این روش رو هم امتحان کردم. چندین بار. و خب چیزی که متوجه شدم این بود که پاداش مغزی تام در این حالت، به صورت معناداری بیشتر از n (در مدل A) هستش!

پی‌نوشت اول: مشخصا نمی‌شه در هر کاری اون بخش رو پاک کرد و احتمالا حتی ممکن هم نباشه. اما چیزی که به تجربه بهش رسیدم، این بود که در چیزهایی که امکان حذف وجود داره، حذف کنم و اجازه بدم که اون میزان پاداش مغزی، از n بیشتر بشه. چون حداقل برای من که این اتفاق افتاد و داره می‌افته.

‌پی‌نوشت دوم: می‌دونم که خیلی خوب و ساده توضیحش ندادم :) شاید بخاطر این باشه که اون‌طور که باید متوجه‌اش نشدم و صرفاً چیزی بود که تجربه کردم. هیچ مستندی هم براش ندارم. اما اگر نظر با تجربه‌ای دارید، حتما بگید تا درموردش صحبت کنیم.

@sinusealpha_channel
8👍4🤯1
داشتم ارائه‌ای رو آماده می‌کردم و برای بار نمی‌دونم چندم، از این جمله‌ی جورج باکس استفاده کردم. حقیقتا بجز «به نام خدا» هیچ جمله‌ای این‌قدر در ارائه‌هام (با صرفا کمی تغییر و توضیح) پرتکرار نبوده و حیفم اومد که این‌جا «هم» نگذارمش :)

“All models are wrong, but some are useful.”

ترجمه: همه‌ی مدل‌ها غلط هستند، اما برخی [از آن‌ها] مفیدند.

@sinusealpha_channel
12👍3🔥1🤩1
دوستانم در کمیته‌ی تحقیقات دانشگاه علوم پزشکی البرز جلساتی را ترتیب داده‌اند تا درباره‌ی دو موضوع مهم (بحث عدم قطعیت و بحث مدل‌های زبانی) در زمینه‌ی «هوش مصنوعی - پزشکی» صحبت کنیم. اگر به این موضوع علاقه‌مند هستید، لینک زیر ممکن است برایتان جالب باشد.

👈🏻لینک:
https://t.me/MSRC_ABZUMS/2011

#هوش_مصنوعی
#پزشکی
@sinusealpha_channel
6👍3🔥1🤩1
من میانه‌ی خوبی با اسطوره سازی ندارم؛ اما کارهای این مرد، واقعا جای تحسین داره!

جاناتان آیوْ.

از سال ۱۹۹۲ وارد بخش طراحی صنعتی اپل شد و تا سال ۲۰۱۹ در آن‌جا ماند. آن‌قدر حضورش مهم بود که رفتنش، باعث کاهش لحظه‌ای در ارزش سهام اپل شد! و داستان‌های جالبش در «الهام گرفتن از صنایع بسیار دور» در طراحی محصولات اپل بسیار جذاب و شنیدنی هستند!

او که برای طراحی مجدد آیپد ۲ به ژاپن سفر کرد تا با یکی از اساتید شمشیر سازی سامورائی ملاقات کند، با کاهش ضخامت دستگاه تا حدود یک سوم، وزن آن را نیز به مقدار خوبی کاهش داد!

همچنین زمانی که استیو جابز از او خواست که کامپیوتری با رنگ‌های شاد بسازد [و بعدها به آی‌مک معروف شد] او ساعت‌ها در یک کارخانه‌ی شیرینی سازی وقت صرف کرد تا از رنگ‌ها الهام بگیرد و با کارش به دنیا بگوید: این دستگاه فقط برای کار نیست، برای لذت بردن و سرگرمی هم هست!

زندگی‌نامه‌ی او در کتابی تحت عنوان:
Jony Ive: The Genius Behind Apple's Greatest Products (Link)
به چاپ رسیده است.

پی‌نوشت: در حال خواندن کتاب هستم و احتمالا بخش‌های جالب آن‌را share کنم (کامنت‌ها).

#دیزاین
@sinusealpha_channel
15🔥2🤯2👍1
هر رشد سریع، لزوما blitzscaling نیست!

رید هافمن در کتاب blitzscaling چندین بار تاکید می‌کند که استراتژی‌های scale متفاوتی وجود دارند و هر رشد سریعی را لزوما نمی‌توانیم blitz بنامیم. برای تحقق این استراتژی، لازم و واجب است که شرایط دیگری (عدم قطعیت) نیز فراهم باشند. در ادامه، تعریف او از blitzcaling را می‌آورم:

“Blitzscaling means that you’re willing to sacrifice efficiency for speed, but without waiting to achieve certainty on whether the sacrifice will pay off.”

در ادامه‌ی همین بحث هم به تفاوت blitz و fastscaling می‌پردازد و می‌گوید:

“because fastscaling takes place in an environment of certainty, the costs are well understood and predictable.”

پی‌نوشت ۱: همین امروز درمورد این اشتباه با یکی از دوستان صحبت می‌کردم و بهش قول دادم که این پست رو بذارم :)

پی‌نوشت ۲: در کامنت‌ها تصاویر کامل کتاب [برای مطالعه‌ی بیشتر و دقیق‌تر] رو گذاشتم.

#کارآفرینی
@sinusealpha_channel
7👍4
uq presentation - sina moradi - oct 2023.pdf
20.3 MB
اسلایدهای جلسه‌ی امروز (از این مجموعه) با موضوع:

A brief introduction to uncertainty quantification

ویدئوی این جلسه:
https://www.youtube.com/watch?v=h7exzh57kPM

#هوش_مصنوعی
#پزشکی
@sinusealpha_channel
8👍2
transformers.pdf
3.4 MB
اسلایدهای جلسه‌ی امروز (از این مجموعه) با موضوع:

A brief and simplified introduction to transformers (and thier applications in healthcare)

ویدئوی این جلسه:
https://www.youtube.com/watch?v=qkzDr-O1f70

#هوش_مصنوعی
#پزشکی
@sinusealpha_channel
6🔥4
یکی از مهم‌ترین اتفاقات هفته‌ی اخیر، بدون شک، رویداد OpenAI Dev Day بود و امروز بالاخره فرصت شد تا ویدئوی این رویداد [که انصافا بی‌نظیر هم بود] رو ببینم.

از اون‌جایی که خیلی دیر به این موضوع پرداختم، احتمالا درمورد این رویداد شنیده باشید. البته اگر نشنیده‌اید، پیشنهاد می‌کنم که این مطلب بسیار جالب و مهم رو مطالعه کنید تا از چند و چون ماجرا خبردار باشید. به همین دلیل، من قصد ندارم درمورد اتفاقات مثبت این روزها [که البته بسیار زیاد و هیجان‌انکیز هستند] صحبت کنم. :)

چیزی که من می‌خوام بهش اشاره کنم این هستش که GPTs و GPT-4 Turbo [و هر چیزی که در این رویداد معرفی شده است] یک تجربه‌ی کاربری بسیار بهتر است و تکنولوژی پشت این قضیه همان generative pre-trained transformers یا GPT است! به قول آقای Ethan Mollick:

"it's not really a capability change, but a user experience change. there is an old lesson there!"

پی‌نوشت ۱: خلاصه‌ی حرفم این هستش که این نگرانی و احتمال وجود داره که ما در روزهای آینده، همان توانایی‌های سابق GPT رو overstimate کنیم و فراموش کنیم که یک مدل زبانی واقعا چطوری کار می‌کنه!

پی‌نوشت ۲: برای دسترسی به gpt builder باید نسخه‌ی chatGPT plus رو داشته باشید و خب من نداشتم :( و بالطبع، امتحانش هم نکردم. اگر شما تجربه‌ای دارید، بفرمایید حتما.

#هوش_مصنوعی
@sinusealpha_channel
👍61🔥1
خب بالاخره نوشتن این مطلب به پایان رسید! :)

مدت زیادی هستش با MBA مشغول‌ام و سعی دارم که تجربه‌ام رو در قالب چند مطلب فارسی در صفحه‌ی ویرگول‌ام منتشر کنم.

در اولین مطلب هم به آغاز، تغییر و پایان دوره‌ی MBAام پرداختم و در مطلب بعدی، به سراغ «مسیر خودیادگیری MBA» خواهم رفت. امیدوارم که براتون مفید باشه.

👈🏻لینک:
https://vrgl.ir/f9bZy

پی‌نوشت: می‌دانید که مثل همیشه، مشتاق شنیدن نظرات و دیدگاه‌های شما هستم و خوشحال می‌شوم که اینجا، در کامنت‌های صفحه‌ی ویرگول و یا از طریق ایمیل به من اطلاع بدهید.

#کارآفرینی
@sinusealpha_channel
15👍3🤩2
🔹یادآوری، نه یادگیری!

همه می‌گویند که بسیاری از آموخته‌هایمان را باید کنار بگذاریم و چیزهای جدیدی را یاد بگیریم. اما نمی‌دانم چرا کسی به این موضوع اشاره نمی‌کند که بسیاری از همین چیزهای به اصطلاح جدید، از ابتدا در ما وجود داشته است و به نظر می‌رسد که کار ما، در واقع «یادآوری (recall)» است و نه «یادگیری (learn)»!

به عنوان مثال، پاول گراهام در مقاله‌ی how to think for yourself به این موضوع اشاره می‌کند که کنجکاوی (curiosity) یکی از اصلی‌ترین نشانه‌های فرد دارای تفکر مستقل (independent-minded) است. او ارتباط کنجکاوی و تفکر مستقل را بسیار بسیار نزدیک می‌داند و می‌گوید:

"In my experience, independent-mindedness and curiosity predict one another perfectly. Everyone I know who's independent-minded is deeply curious, and everyone I know who's conventional-minded isn't."

ترجمه: طبق تجربه‌ی من، داشتن تفکر مستقل و کنجکاوی یکدیگر را خیلی خوب پیش‌بینی می‌کنند. هر فردی را که می‌شناسم و تفکر مستقل دارد، به صورت عمیقی کنجکاو است و هر فردی که می‌شناسم و تفکر متعارف دارد [کنجکاو]، نیست.

اما در ادامه یک استثنای مهم را بیان می‌کند و می‌گوید:

"Except, curiously, children. All small children are curious."

ترجمه: بجز کودکان، که به صورت عجیبی، همه‌ی آن‌ها کنجکاو هستند.

در ادامه هم به دلیل این موضوع می‌پردازد و می‌گوید:

“Perhaps the reason is that even the conventional-minded have to be curious in the beginning, in order to learn what the conventions are.”

ترجمه: شاید دلیل آن این باشد که حتی افراد دارای تفکر متعارف هم باید در ابتدا کنجکاو باشند تا یاد بگیرند که قراردادها چه چیزهایی هستند [و دیگر کنجکاوی نکنند]!

نتیجه آن‌که علت conventional-minded بودن‌مان، راهی است که خودمان [با اجبار یا اختیار] آمده‌ایم و نه چیزی که از ابتدا در ما وجود داشته است. ما موجوداتی کنجکاو بودیم. دنیایمان را زیر و رو می‌کردیم و چیزهای زیادی یاد می‌گرفتیم. می‌ساختیم و خراب می‌کردیم و تجربه کسب می‌کردیم. از دل همین تجربه‌ها، درس می‌گرفتیم، کارهای جدید می‌کردیم و...

چه شد که به این روز دچار شدیم!؟ شاید سیستم آموزشی [و کلا ساختاری که در آن بزرگ شدیم] یکی از مهم‌ترین علت‌ها باشد. دلایل دیگری نیز وجود دارد اما هر چه که باشد، به نظر می‌رسد که یکی از رسالت‌های ما در این دوران، بازگشت به همان کودک کنجکاوی است که بودیم! البته باید امیدوار باشیم که این بازگشت، هزینه‌ی خیلی زیادی برایمان نداشته باشد!

پی‌نوشت اول: پیشنهاد می‌کنم که این مقاله‌ی بسیار جالب را حتماً مطالعه کنید.

پی‌نوشت دوم: پاول گراهام برای افراد دارای تفکر مستقل دو ویژگی دیگر را نیز بیان می‌کند که شامل fastidiousness about truth و resistance to being told what to think می‌شود. احتمالاً در آینده در این زمینه هم مطلبی بنویسم.

@sinusealpha_channel
👍116
بخش دوم این مطلب هم [بعد از کلی ویرایش] بالاخره منتشر شد. :)

در این مطلب، به بحث خودیادگیری و تاثیرش در مسیر MBA پرداختم. کمی از اشتباهاتم در این مسیر گفتم و با بررسی راه‌هایی برای تشخیص درست‌تر در این مسیر، بحث رو به پایان رسوندم. مثل همیشه، امیدوارم که برای یک نفر هم که شده مفید باشد.

👈🏻لینک:
https://vrgl.ir/TICj4

پی‌نوشت: بخش اول این سری از نوشته‌ها هم هفته‌ی گرشته منتشر شده بود و از این‌جا می‌توانید آن را بخوانید.

#کارآفرینی
@sinusealpha_channel
6🔥2🤩1
داشتم این مطلب (being a noob) رو مطالعه می‌کردم که دو تا جمله‌اش خیلی قابل تامل به نظرم اومدند و ترجیح دادم این‌جا هم بنویسم‌شون:

1) the more of a noob you are LOCALLY, the less of a noob you are GLOBALLY.

ترجمه [تحت‌اللفظی]: هر چه در سطح محلی بیشتر نوب باشید، در سطح جهانی کمتر نوب هستید!

2) the feeling of being noob is INVERSELY correlated with actual ignorance.

ترجمه: احساس نوب بودن با جهل واقعی همبستگی معکوس دارد!

پی‌نوشت: اگر نظری در این زمینه دارید، لطفا کامنت کنید. :)

@sinusealpha_channel
4👍4🤯2
چون چندین بار پرسیده شد، تصمیم گرفتم که این‌جا هم اعلام کنم.

دوستان، من وبلاگ شخصی ندارم. فقط یک خبرنامه‌ی انگلیسی (لینک)، یک صفحه‌ی ویرگول (لینک) و این کانال را دارم. در هیچ جای دیگری به صورت رسمی نمی‌نویسم و فعلا قصدی هم در این زمینه ندارم.

مشخصاً شما به من لطف دارید که این را می‌پرسید، اما مطمئن باشید که به محض راه‌اندازی وبلاگ و یا هرچیز جدید، از این کانال به اطلاع‌تون می‌رسونم. :) ممنونم♥️
19👍1
درصد خطای GPT-4 بر روی تسک‌های متنی رادیولوژی به «زیر یک درصد» رسیده است. همچنین این مدل زبانی عمومی، بهتر از مدل‌های پیشرفته و ویژه‌ی رادیولوژی (SOTA rad. models) در برخی تسک‌ها عمل می‌کند.

این مقاله با اینکه خیلی جدید نیست و مال حدوداً یک ماه پیش هستش، اما حرف‌اش برای من جدید بود و نخونده بودمش. اومدند یه بررسی کلی روی وضعیت عملکرد GPT-4 در تسک‌های متنی رادیولوژی انجام دادند و یافته‌هاشون واقعا جالبه.

درصد خطای (mistake rate) این مدل، در این تسک‌ها تقریبا صفر شده. البته دقیقاً صفر نشده و عدد دقیق‌اش رو توی جدول بالا می‌تونید مشاهده کنید. همچنین عملکرد GPT-4 از مدل‌های اختصاصی رادیولوژی در بعضی از تسک‌ها (مثل temporal sentence similarity و natural language inference) حدود ۱۰٪ بهتر بوده! این عدد، واقعا زیاده.

#هوش_مصنوعی
@sinusealpha_channel
7🔥3
سینوسِ آلفا
درصد خطای GPT-4 بر روی تسک‌های متنی رادیولوژی به «زیر یک درصد» رسیده است. همچنین این مدل زبانی عمومی، بهتر از مدل‌های پیشرفته و ویژه‌ی رادیولوژی (SOTA rad. models) در برخی تسک‌ها عمل می‌کند. این مقاله با اینکه خیلی جدید نیست و مال حدوداً یک ماه پیش هستش،…
توی این گزارش مایکروسافت [که دیروز منتشر شده] هم می‌تونید توضیحات بیشتر و بهتری رو راجع به این مقاله و کلا این موضوع بخونید.

مثلا این حرف واقعا باحال و مهمه:
"Our extensive error analysis with a board-certified radiologist shows GPT-4 has a sufficient level of radiology knowledge with only occasional errors in the complex contexts that require nuanced domain knowledge."

ترجمه: ما خطاهای GPT-4 را با یک رادیولوژیست board-certified به صورت گسترده بررسی کردیم و مشخص شد که این مدل دانش کافی‌ای در رادیولوژی دارد، اما گاهی اشتباهات وابسته به موقعیت انجام می‌دهد و نیازمند دانش زمینه‌ای و بسته به شرایط است.

پی‌نوشت: متوجه هستید که یه رادیولوژیست این حرف‌ها رو زده!؟ :)))

#هوش_مصنوعی
#پزشکی
@sinusealpha_channel
🔥3🤯2👍1