سینوسِ آلفا
975 subscribers
204 photos
2 videos
31 files
273 links
Sina Moradi | MD-MBA candidate, ML Developer, & Former Math Teacher

Building at Zumud.com

Website:
- https://sinusealpha.github.io/

Contact:
- Sina80mor@gmail.com
- Sina@zumud.com
Download Telegram
🔹درمورد مختصرنویسی

قبلا کمی درمورد نوشتن و خواندن وبلاگ صحبت کردیم. واضحا کافی نیستند و در آینده، تصمیم دارم که بیشتر بنویسم. اما بیایید همین الان به یک چیز ساده و کوتاه بپردازیم. یک چیز مختصری درمورد مختصرنویسی.

قبل از ورود به بحث، به این فکر کنید که تا به‌حال چند بار پاسخ‌های خیلی طولانی ChatGPT به سوال‌های کوتاه خودتان را کامل نخواندید؟ یا چند بار در promptتان تاکید کردید که حتما به صورت مختصر پاسخ بدهد؟ این اتفاق، هر روز برای من می‌افتد. اما چرا ما توضیحات طولانی را دوست نداریم؟ مشخصا بحث زمان مطرح است.

این حق ما و هر انسان دیگری است که از زمانش بهترین استفاده را بکند و توضیحات طولانی‌ای که «می‌توانند» به صورت خلاصه‌تر مطرح شوند را بهتر است حتی از عوامل اتلاف وقت در نظر بگیریم!

در سال‌های اخیر [که نوشتن ساده‌تر از همیشه شده است]، تعداد کلماتی که می‌نویسیم به شدت افزایش یافته و همه دارند می‌نویسند و می‌نویسند! چرا که [به مانند من] فکر می‌کنند چون آن‌ها زمان زیادی را برای مطالعه‌ی یک متن طولانی و ارزشمند قرار داده‌اند، پس مخاطب هم باید همچین زمانی را برای خواندن متن آن‌ها قرار دهد. نوعی توهم.

اما مخاطب زمان ندارد. زمان مخاطب، در آینده کمتر هم می‌شود و این، هنر نویسنده است که با کمترین کلمات ممکن، حرفش را «به صورت کامل» برساند. من این هنر را ندارم. بعضی از افرادی که دنبال‌شان می‌کنم هم متاسفانه در این زمینه خوب نیستند. اما تصمیم دارم که در این زمینه بهتر بشوم و مثل همیشه، درمورد آموخته‌هایم خواهم نوشت.

کاری هم که در حال حاضر تلاش می‌کنم انجام بدهم، محدودکردن «تعداد» کلماتی است که می‌توانم استفاده کنم. محدودیتی اجباری برای مختصرشدن. برای بیشتر فکرکردن به ترتیب درست کلمات و استفاده از کلماتی بهتر.

همچنین این محدودیت را گذاشته‌ام که اگر چیزی را نوشتم، در بیشتر اوقات، اجازه‌ای برای پاک‌کردنش ندارم و این باعث می‌شود که قبل از نوشتن، بیشتر فکر کنم. بیشتر فکر کنم تا کلمات بهتری را استفاده کنم. درست مانند دستگاه‌های تایپ قدیمی که پاک‌کردنی در کارشان نبود و میانگین ارزش نوشته‌های حاصل از آن‌ها، از میانگین ارزش نوشته‌های حاصل از لپتاپ‌های امروزی [حتی برای ما] بسیار بیشتر است.

این مطلب هم از اولین تلاش‌هایم در این زمینه است و چیزی که حدود ۱۰۰۰ کلمه بود را می‌توانید «به صورت کامل» در این پست تلگرامی [و در حدود ۴۰۰ کلمه] بخوانید! البته امیدوار بودم که به یک توییت تقلیل پیدا کند، اما توانایی‌ام فعلا در همین حد است و باید ببخشید! :)

@sinusealpha_channel
👍63🔥1
کمتر از یک هفته است که از فوت daniel kahneman می‌گذره. من دو تا کتاب «تفکر کند و سریع (۲۰۱۲)» و «نویز (۲۰۲۱)» رو از ایشون خونده بودم و بسیار کتاب‌های خوبی بودند. هر کسی هم که این کتاب‌ها رو خونده باشه، می‌تونه تایید کنه که چقدر ارزشمند هستند.

اما یکی از ارزشمندترین چیزهایی که من از مجموع نوشته‌های ایشون یادگرفتم و دیروز داشتم برای یکی از دوستان توضیحش می‌دادم، بحث «عدم قطعیت در تصمیم گیری‌های ما» هستش. چیزی که بنظرم «ندونستن‌اش» می‌تونه خیلی برای خودمون و اطرافیان‌مون گرون تموم بشه. به حدی که من وقتی درمورد تصمیم گیری‌هام [قبل از آشنایی با این موضوع] فکر می‌کنم، می‌ترسم و میگم که چقدر شانس آوردم که [بدون دونستن این‌که چقدر می‌تونم noisy باشم] کار خطرناکی نکردم! :)

امروز هم خوشبختانه فرصت کردم که یه کمی بیشتر راجع به این قضیه مطالعه کنم و ویدئوی زیر (ارائه‌ی دکتر آرین اکبری درمورد بحث عدم قطعیت با نگاه بیزین) رو دیدم. در ادامه هم درمورد این ویدئو [و یه سری منابع دیگه که می‌تونه توی یادگیری این موضوع کمک‌تون کنه] می‌نویسم.

لینک ویدئو:
https://www.youtube.com/watch?v=iIXFnBXf7sE

@sinusealpha_channel
4👍4🔥1
سینوسِ آلفا
کمتر از یک هفته است که از فوت daniel kahneman می‌گذره. من دو تا کتاب «تفکر کند و سریع (۲۰۱۲)» و «نویز (۲۰۲۱)» رو از ایشون خونده بودم و بسیار کتاب‌های خوبی بودند. هر کسی هم که این کتاب‌ها رو خونده باشه، می‌تونه تایید کنه که چقدر ارزشمند هستند. اما یکی از ارزشمندترین…
این رو همه‌مون قبول داریم که عوامل خیلی زیادی روی وقوع یک چیز موثر هستند. اما آیا ما می‌تونیم اثر همه‌ی این عوامل رو در نظر بگیریم؟ جواب منفیه. آیا کامپیوتر می‌تونه؟ انتظار داریم که جواب مثبت باشه. اما کامپیوتر هم تا حدی می‌تونه افزایش تعداد متغیرهای موثر بر روی یک موضوع رو تحمل کنه و از یک جایی به بعد، دیگه اون هم نمی‌تونه. آیا متغیرهای موجود در جهان ما به حدی هستند که کامپیوتر بتونه همه‌شون رو در لحظه در نظر بگیره؟ خیر.

تعداد متغیرها به شدت بالاست. اما چیزی که باعث می‌شه کامپیوتر هم نتونه همه‌ی اون‌ها رو تحمل کنه، تعدادشون نیست! بلکه تعداد causation هایی هستش که بین هر دو تا از اون‌ها «می‌تونه» وجود داشته باشه. چیزی که از مرتبه‌ی «دو به توان تعداد متغیرها» هستش! این عدد، با افزایش تعداد متغیرهای یک احتمال، به صورت نمایی افزایش پیدا می‌کنه و بخاطر همین هستش که کامپیوتر هم از یک جایی به بعد، «قطعا» نمی‌تونه!

حالا ما برای این‌که بتونیم احتمال یک موضوع رو [با کمک کامپیوتر] حدس بزنیم باید چیکار کنیم؟ باید به اثر پروانه‌ای فکر کنیم و بگیم که بال‌زدن یک پروانه در یک جایی از دنیا می‌تونه روی فلان موضوع روزمره‌ی من تاثیر بذاره؟ بله! اگر می‌خواهیم که دقت ۱۰۰٪ داشته باشیم، مجبوریم که به این صورت فکر کنیم. اما آیا ما به دقت ۱۰۰٪ «نیاز» داریم؟ پاسخ منفیه.

ما به دقت ۱۰۰٪ نیاز نداریم و چون به این دقت نیاز نداریم، می‌تونیم با محدودکردن تعداد کل عوامل موثر بر یک موضوع، محاسبه‌ی احتمالش رو «ساده‌تر» کنیم. ما محاسبه رو ساده‌تر می‌کنیم، اما موضوع مهم‌تری از این کار هم وجود داره! موضوع مهم‌تر، «دونستن» این هستش که ما داریم ساده‌سازی می‌کنیم!

ما جدول «دو به توان n» رو به یک چیز تقریبا خطی تبدیل می‌کنیم، تا انرژی کمتری مصرف کنیم. البته این کار فایده‌های خیلی زیادی هم داره. اما نباید «هرگز» ‌فراموش کنیم که ما [هر چقدر هم عوامل زیادی رو در تصمیمات‌مون در نظر بگیریم] نویز داریم.

البته برای تبدیل اون جدول بزرگ از عوامل موثر بر یک موضوع، به یک چیز کوچک‌تر، کارهای دیگری هم می‌تونیم انجام بدیم. کارهایی مثل «فرص بر مستقل بودن» که می‌گه چون احتمال موثر بودن بال زدن یک یک پروانه در یک کشور دیگر بر کار من بسیار کمه، من احتمال اون [و هر چیزی که احتمالش از اون مرتبه باشه] رو صفر در نظر می‌گیرم. این طوری یه تعداد خیلی زیادی از متغیرها حذف می‌شن. راه‌های دیگه‌ای هم وجود داره، اما همین دو تا قضیه‌ی causation و independence assumption رو اگر اعمال کنیم، بسیار کارمون راحت‌تر می‌کنه و فعلا کافیه. :)

راستی اگه با متغیرهای تصادفی و توزیع مشترک و کلا مبانی احتمال آشنا هستید، پیشنهاد می‌کنم که ویدئو زیر رو مشاهده کنید تا ببینید که این bayesian network و عدم قطعیت چطور تعریف می‌شه و از کجا اومده.

لینک ویدئو:
https://www.youtube.com/watch?v=q9lk8l8P-E4&list=PLoROMvodv4rOpr_A7B9SriE_iZmkanvUg&index=14

@sinusealpha_channel
3👍2🤩1
سینوسِ آلفا
این رو همه‌مون قبول داریم که عوامل خیلی زیادی روی وقوع یک چیز موثر هستند. اما آیا ما می‌تونیم اثر همه‌ی این عوامل رو در نظر بگیریم؟ جواب منفیه. آیا کامپیوتر می‌تونه؟ انتظار داریم که جواب مثبت باشه. اما کامپیوتر هم تا حدی می‌تونه افزایش تعداد متغیرهای موثر…
حالا که بحث عدم قطعیت شد، اگه به عددی کردن و کاربرد در نظر گرفتن عدم قطعیت مدل‌های هوش مصنوعی توی رادیولوژی هم علاقه دارید، پیشنهاد می‌کنم که ویدئوی این جلسه رو ببینید.

ما اون‌جا همین بحث رو [به صورت خیلی مقدماتی] داشتیم و یکی از ترندهای ریسرچ radiology ai این روزها هم محسوب می‌شه. یکی از موضوعات مورد علاقه‌ی خودم هم محسوب می‌شه و در آینده هم بیشتر راجع بهش خواهم نوشت. :)

در کل هم اگر قرار هستش که یک جمله از این موضوع به یادمون بمونه، پیشنهاد می‌کنم که این جمله باشه:

«در حقیقت نسخه‌های bayesian پردازش یک پیش‌بینی به ما می‌گویند که باید منابع مختلف اطلاعات - باورهای قبلی و داده‌هایی که از طریف حواس ما به دست می‌آیند - را در نسبت “معکوس” با میزان نامطمئن بودن ما درمورد آن‌ها ترکیب کنیم.» (منبع: ویدئوی اول)

@sinusealpha_channel
2👍2🔥1
🔹پروژه‌ی پلورال افیوژن!

قضیه از این قراره که ما امروز یک کلاس درمورد بیماری‌ای به نام pleural effusion (آب آوردن ریه) داشتیم. توی این بیماری، میزان مایع اطراف ریه‌های ما زیاد می‌شه و در گام اول برای درمان، ما از این مایع نمونه‌برداری می‌کنیم. به این نمونه‌برداری، Thoracentesis (توراسنتز) میگن.

نتیجه‌ی توراسنتز می‌تونه خیلی چیزها رو برای ما مشخص کنه و یکی از ساده‌ترین چیزها، نوع مایع (اگزودا یا ترنسودا) جمع‌شده و چیز یه‌کمی پیچیده‌تر، تشخیص‌هایی هستند که ما بر اساس نتیجه‌ی آزمایش برای بیمار در نطر می‌گیریم [تا با اطلاعات بعدی تکمیل‌اش کنیم].

من داشتم اعداد مربوط به این آزمایش رو حفظ می‌کردم که فهمیدم همچین هم کار آسونی نیست. :) بخاطر همین، تصمیم گرفتم که کل اپروچ‌مون به این بیماری رو با کد پیاده‌سازی کنم تا هم اعدادش رو حفظ بشم و هم شاید روزی ازش استفاده کردم! (البته اولش فقط به حفظ‌کردن فکر می‌کردم).

این‌طوری شد که همین بعد از ظهر امروز، این پروژه‌ی فان رو شروع کردم تا این الگوریتم (تشخیص نوع مایع و چیزهایی که باید در نظر بگیریم) رو پیاده کنم. تصویری هم که می‌بینید شد نتیجه‌اش! :)

@sinusealpha_channel
6🔥4🤯3👍1
سینوسِ آلفا
🔹پروژه‌ی پلورال افیوژن! قضیه از این قراره که ما امروز یک کلاس درمورد بیماری‌ای به نام pleural effusion (آب آوردن ریه) داشتیم. توی این بیماری، میزان مایع اطراف ریه‌های ما زیاد می‌شه و در گام اول برای درمان، ما از این مایع نمونه‌برداری می‌کنیم. به این نمونه‌برداری،…
لازم به ذکره که اعداد استفاده شده در تصویر بالا واقعی نیستند. اما شما می‌تونید با نتیجه‌ی آزمایش یک بیمار واقعی هم این برنامه رو امتحان کنید. من این کار رو چند بار انجام دادم و ایرادی نداشت. اما اگر شما هم امتحانش کردید و ایرادی داشت، خیلی خوشحال میشم که بهم خبر بدید.

این‌جا هم می‌تونید کد و جدول استفاده شده به عنوان رفرنس و بقیه‌ی توضیحات این پروژه رو ببینید:

https://github.com/Sinusealpha/PleuralEffusionProject

پی‌نوشت: اگر کسی از دوستان علاقه داشت که روی این موضوع کار کنه، بهم خبر بده تا با هم پیش ببریم‌اش.❤️

@sinusealpha_channel
🔥83👍2
خب من جدیدا به «تاریخچه‌ی تکنولوژی و اینترنت و این‌چیزها» خیلی علاقه‌مند شدم و بعد از جستجوهای فراوان، این مینی‌کورس بامزه و خفن رو پیدا کردم و دارم می‌بینم.

اون‌قدری هیجان انگیز بود که نتونستم صبر کنم تا تموم بشه و بعدش معرفی‌اش کنم. :) پس خدمت شما.

🔹لینک:
https://www.youtube.com/watch?v=47NRaBVxgVM

@sinusealpha_channel
6👍2
در دو هفته‌ی گذشته، با بعضی از دانشجوهایی که تازه به دانشگاه‌مون وارد شده‌اند صحبت کردم و فارغ از بخش هیجان‌انگیز و نوستالژی این صحبت‌ها، من رو به یاد خود اون موقع‌ام انداخت و وادار کرد که این مطلب رو بنویسم.

چیزی که ای کاش زودتر می‌شنیدم. اگر شما هم دانشجوی تازه وارد به دانشگاه هستید و دانشگاه با چیزی که فکر می‌کردید یه کمی (یا حتی خیلی) فرق می‌کنه، احتمالا این مطلب براتون جالب باشه. اگر هم این‌طور نیست، بهتره که کلا این بلاگ رو نادیده بگیرید. :)

🔹لینک:
sinamoradi.substack.com/p/the-best-advice-i-heard-about-university

@sinusealpha_channel
👍65🔥1🤯1
سینوسِ آلفا
اگر یادتون باشه، من قبلا توی این پست بیشتر کانال‌های جالبی که دنبال می‌کنم رو لیست کردم. اما الان تصمیم دارم که وبلاگ‌های جالبی که اغلب چک‌شون می‌کنم و ممکنه برای شما هم جالب باشند رو معرفی کنم. :) بیشترشون انگلیسی هستند و متاسفانه، وبلاگ فارسی خوب خیلی کم…
یکی از وبلاگ‌نویس های مورد علاقه‌ام [که تازه هم باهاشون آشنا شده‌ام و به این لیست هم اضافه‌شون کردم] آقای james somers هستند.

ایشون «برنامه نویس»اند، ولی من مطالبی که درمورد غیر برنامه نویسی نوشته‌اند رو بیشتر دوست دارم و پیشنهاد می‌کنم که برای شروع، این مطلب که با عنوان i should have loved biology منتشر شده رو بخونید. اما اگر فرصتش رو ندارید، ترجمه‌ی دو پاراگراف از اون [که نقل قول هستند] رو در ادامه میارم و حتما به اون‌ها نگاهی بیاندازید:

— “اگر می‌خواهید واقعا شگفت‌زده شوید، به این موضوع فکر کنید که شما به عنوان یک سلول واحد [که از اتصال اسپرم و تخمک به وجود آمده است] شروع به زندگی می‌کنید. این سلول به دو قسمت، سپس چهار قسمت، سپس هشت قسمت و به همین ترتیب تقسیم می شود و «در یک مرحله خاص، یک سلول منفرد ظاهر می شود که تمام فرزندان آن، مغز انسان را تشکیل می‌دهند». صرف وجود چنین سلولی باید یکی از شگفتی‌های بزرگ زمین باشد. مردم باید تمام روز، در تمام ساعات بیداری‌شان با حیرتی بی‌پایان همدیگر را صدا بزنند و فقط در مورد آن سلول صحبت کنند!”

— “تصور کنید که یک سفینه فضایی در حیاط خانه‌ی شما فرود می‌آید. در باز می‌شود و از شما دعوت می‌شود تا هر چیزی که می‌خواهید را بررسی و کشف کنید. فناوری این سفینه، به وضوح میلیون‌ها سال از آن چیزی که شما می‌دانید و می‌توانید بسازید جلوتر است. این همان زیست شناسی است.”

لینک این مطلب:
https://jsomers.net/i-should-have-loved-biology/

پی‌نوشت: اخیرا خیلی از افراد فعال در حوزه‌ی تکنولوژی به این سمت گرایش پیدا کرده‌اند و این موضوع، بسیار خوش‌حال کننده است. بسیار زیاد!

@sinusealpha_channel
👍43🤯2🔥1
قطعا یکی از جذاب‌ترین اتفاقات چند روز اخیر دنیا، معرفی OpenCRISPER بود! ابزاری مبتنی بر هوش مصنوعی، برای ویرایش ژن‌ها!

هنوز مقاله‌اش رو کامل نخوندم و جزئیاتش رو نمی‌دونم. اما با سر و صدایی که توی توییتر به پا کرده، می‌شه حدس زد که احتمالا چقدر چیز جذابی هستش و چقدر پتانسیل داره!

پیپر:
https://www.biorxiv.org/content/10.1101/2024.04.22.590591v1.full.pdf
توییت:
https://x.com/thisismadani/status/1782510590839406904
گیت‌هاب:
https://github.com/Profluent-AI/OpenCRISPR/tree/main

@sinusealpha_channel
👍5🔥2🤯2
تمام ویدئوهای کنفرانس icml سال ۲۰۲۳ [که از مهم‌ترین کنفرانس‌های بین‌المللی هوش مصنوعی محسوب می‌شه] رو ار طریق لینک زیر می‌تونید به صورت رایگان مشاهده کنید:
https://slideslive.com/icml-2023?locale=en&tab=presentations

تعداد ارائه‌ها بسیار زیاد هستش. اما با جستجو، می‌تونید ارائه‌های مربوط به موضوع مد نظرتون رو پیدا کنید. درسته که یه مقدار از زمان انتشار مقالات‌شون گذشته، اما همچنان بسیار مهم هستند و می‌تونن خیلی مفید باشند.

#هوش_مصنوعی
@sinusealpha_channel
🔥54👍3
🔹"ایده پیدا نمی‌کنم!"

امروز با یکی از دوستان درمورد «پیداکردن ایده» صحبت می‌کردیم. گفتم این‌جا هم کمی درموردش بنویسم.

راه‌های نسبتا زیادی برای پیداکردن ایده‌ی جدید درمورد یک چیز وجود داره. من درمورد اون‌ها نمی‌خوام صحبت کنم. من درمورد یک سوال ساده می‌خوام صحبت کنم که هم در پژوهش به درد می‌خوره و هم در چیزهای دیگه.

اون سوال، این هستش که به‌جای پرسیدن «من چه مسئله‌ای رو می‌تونم حل کنم»، از سوال «من دوست دارم که فرد دیگری چه مسئله‌ای رو برای من حل کنه؟» یا «اگر کسی [یا چیزی مثل غول چراغ جادو!] پیش من می‌اومد و می‌گفت که می‌خواد مشکلی از من رو حل کنه، بهش چی می‌گفتم؟» استفاده کنیم. در همین حد ساده!

در واقع پرسیدن این سوال‌ها از اون‌جایی نشئت می‌گیره که ما می‌دونیم که مغزمون به صورت ناخودآگاه مشکلات‌مون رو می‌پوشونه و چون همیشه در نصیحت‌کردن بهتر از عمل‌کردن هستیم، پس از همین برعکس‌بودن استفاده می‌کنیم و به یک ایده می‌رسیم.

مثلا من در حین نوشتن همین متن به این فکر می‌کنم که ای‌کاش کسی مشکل نگه‌داشتن لپتاپ (بدون میز) رو برای من حل می‌کرد تا کمتر اذیت بشم. همین می‌شه مسئله. همین رو من «می‌تونم» برم دقیق‌ترش کنم و روش بیشتر کار کنم و نهایتا هم حل‌اش کنم و از اون‌جایی که این مسئله‌ی من احتمالا مسئله‌ی تعداد زیادی از آدم‌های دیگه هم باشه، پس می‌شه به یه پروژه‌ی بزرگ‌تر هم تبدیل‌اش کرد و ادامه‌ی ماجرا [ولی این‌که من این کار رو می‌کنم یا نه بحث دیگری هستش].

یا مثلا من همین امروز داشتم درمورد داروهایی که باید به بیمار مبتلا به فشار خون بالا بدهیم مطالعه می‌کردم و از اون‌جایی که از حفظ‌کردن خوشم نمیاد، دوست داشتم که کسی برنامه‌ای رو می‌ساخت که اطلاعات بیمار رو واردش کنم و مراحل درمان (چه دارویی و چه غیردارویی) مناسب اون فرد رو [به ترتیب اولویت] برای من لیست کنه. این می‌شه مسئله و من، یا میرم می‌گردم و چیزی رو پیدا می‌کنم که این مشکل رو برای من حل کنه. یا خودم همچین چیزی رو می‌سازم و از اون‌جایی که احتمالا تعداد افراد زیادی شبیه به من هستند، پس می‌تونه پروژه‌ی بزرگ‌تری بشه و ادامه‌ی داستان!

اگر این موضوع دغدغه‌تون هستش پیشنهاد می‌کنم که این فایل رو هم مشاهده کنید. اون‌جا تعدادی سوال extreme برای رسیدن به ایده درمورد چیزهایی که همین حالا دارند کار می‌کنند مطرح شده و می‌تونه خیلی کمک‌کننده باشه.

پی‌نوشت: این و این و این و... هم برای من به همین صورت شروع و انجام شدند.

مطلب مرتبط: «ایده را چقدر جدی بگیریم؟»

@sinusealpha_channel
5👍5🤩3🔥2
سینوسِ آلفا
On an early paper of Maryam Mirzakhani.pdf
امروز، ۲۲ اردیبهشت، روز جهانی «زن در ریاضیات» است و خوب است که به همین واسطه، این دانستی بامزه و جالب تقریبا نامرتبط را یادآوری کنیم که چین با ۱.۴ میلیارد نفر جمعیت، تنها یک برنده‌ی مدال فیلدز (نوبل ریاضیات) دارد و ایران با ۹۰ میلیون جمعیت، ۲ برنده! :)

دکتر «مریم میرزاخانی» (که امروز، روز تولدشان است و به همین واسطه هم نام‌گذاری شده است) در سال ۲۰۱۴ و دکتر «کوچر بیرکار» در سال ۲۰۱۸.

دانشگاه MIT هم برنامه‌ای را به واسطه‌ی همین روز تدارک دیده است که اطلاعات‌اش را داخل تصویر و در این لینک می‌توانند مشاهده کنید و درصورت داشتن علاقه، شرکت کنید. اگر هم دوست داشتید روی این مسائل فکر کنید! :)

#ریاضی
@sinusealpha_channel
9🔥3👍2🤯2
🔹درمورد PTSD یا Post Traumatic Stress Disorder احتمالا چیزهایی شنیده باشید. ولی آیا با PTG یا Post Traumatic Growth هم آشنا هستید؟

یکی از کلیشه‌های رایج، اینه که میگن «اون چیزی که نکشتت، قوی‌ترت می‌کنه». همه‌مون شنیدیم‌اش. اما بیشترمون قبولش نداریم. چرا؟ چون کلیشه‌ست. چون قبلا زیاد شنیدیم. چون...

ولی چرا تازگی‌ها خیلی کمتر این حرف رو می‌شنویم؟ چون حرف مخالف و contrarianاش که دقیقا میگه این درست نیست و اون چیزی که نکشتت، ضعیف‌ترت می‌کنه [برخلاف تصور]، طرفدارهای خیلی زیادی پیدا کرده. به همین خاطر، ما معمولا درمورد مفهومی به نام post traumatic growth چیزی نمی‌دونیم.

خارج از بحثه، ولی کلیشه‌ها اصولا چیز‌هایی هستند که بیشتر وقت‌ها اتفاقا درست‌اند! این حرف [که اون چیزی که نکشتت، قوی‌ترت می‌کنه] هم بیشتر وقت‌ها واقعا درسته! ولی ما تمایل داریم که نپذیریم‌اش. به هزاران دلیل. اما پیشنهاد می‌کنم برای این‌که با دیدگاه جدیدی هم آشنا بشید، این مطلب [که درمورد PTG هستش] رو مطالعه کنید.

@sinusealpha_channel
👍7🔥21
من به تازگی با چند وبلاگ‌نویس آشنا شدم که وبلاگ‌هاشون، به شدت برام جالب بوده. این چند نفر که اغلب زیر ۲۵ سال (و کلا undergrad) هستند، وبلاگ‌های خیلی کوتاهی رو درمورد موضوعات مختلف و غیرمرتبط می‌نویسند و تفکرات‌شون [برخلاف بیشتر هم‌نسل‌هاشون]، جالب به نظر می‌رسه. :))))

به‌خاطر همین، توی این پست چندتایی‌شون رو معرفی می‌کنم تا شما هم اگر دوست داشتید، یه سری بهشون بزنید.

- وبلاگ tyler bruno:
https://tylerbruno.bearblog.dev/
- وبلاگ parakhesar:
https://prakhesar.bearblog.dev/
- وبلاگ sankalp:
https://sankalp.bearblog.dev/
- وبلاگ kartikay:
https://kartikay.bearblog.dev/

@sinusealpha_channel
9👍4🤯1
یک تجربه‌ی نسبتا بامزه از مصاحبه‌های استارتاپی.

من حدودا یک ماه پیش با یکی از دوستان هندی (ساکن sf) صحبتی داشتم که در ظاهر مصاحبه‌ی کاری بود، اما در باطن یک جلسه‌ی [واقعا] دوستانه. پوزیشنی که قرار بود استخدام بشم، product design بود. اما چون استارتاپ‌شون توی مرحله‌ی go to market بود، در آخر جلسه نظر من رو درمورد این موضوع هم پرسیدند.

من هم با این‌که اصلا به این فکر نمی‌کردم که لازم باشه راجع به این موضوع صحبت کنیم، از این‌که سوال نسبتا غیرمنتظره پرسید تشکر کردم :)) و نظرم [که تاکید روی plg بود] رو گفتم. ایشون [با این‌که حس کردم با نظر من خیلی موافق نبود] از پاسخم خوشش اومد و به شوخی گفت که «بهتره کلا توی پوزیشن‌های مرتبط با استراتژی دنبال کار بگردی!»

بعد از اون جلسه هم رابطه‌مون خیلی خوب شد. دو بار هم میت‌های غیرکاری خیلی کوتاهی داشتیم و درمورد ai و اپ‌شون و این چیزها صحبت می‌کردیم و با این‌که من همون روز بهشون خبر دادم که متاسفانه نمی‌تونیم همکاری کنیم، من رو در جریان کارهاشون قرار می‌دادند. توی میت امروز [که همین الان تموم شد] هم گفتند که با سرمایه‌گذارشون و خیلی‌ها مشورت کرده‌اند و به این نتیجه رسیده‌اند که چیز دیگه‌ای براشون جواب نمی‌ده و تصمیم گرفته‌اند که برگردند و plg پیشه کنند :))

چرا این قضیه برام جالب بود؟ چون‌که من چند دفعه‌ی دیگه هم توی چند تا از استارتاپ‌های داخلی [که الان ممکنه حتی بشناسیدشون] مصاحبه رفتم و تقریبا هر سری اتفاقات به شدت عجیبی می‌افتاد! مثلا سال گذشته یک استارتاپی [که اتفاقا آشنا بودیم و فاندرش توی این کانال هم هستند] با من زمان ست کرده بودند که مصاحبه‌ی آنلاین داشته باشیم. اما کلا به جلسه نیومدند و بعد از اون، پاسخ من رو هم ندادند!

یک استارتاپی هم تقریبا دو سال پیش قرار بود مصاحبه کنم و یک روز قبل خبر دادند که «ما استخدام کردیم و فردا لطفا تشریف نیار!». درمورد رزومه فرستادن و جواب «نشنیدن» هم بهتره چیزی نگم که بین یه تعداد زیادی از استارتاپ‌ها به یه چیز عادی تبدیل شده! [و احتمالا خیلی‌ها می‌تونن این موضوع رو تایید کنن.]

اما این دوست هندی من [که ایشون هم اتفاقا توی کانال هست و این پیام رو هم می‌بینه] با اینکه فرصت نشد که با هم همکاری کنیم، اون‌قدر حس ارزشمندی به من داد که من الان دارم به این فکر می‌کنم که هر طوری که می‌تونم بهشون کمک کنم و یه‌طوری این رفتارشون رو جبران کنم.

چیزی هم که می‌خوام بگم اینه که مهربان بودن، اخلاقی رفتارکردن و آن‌تایم بودن نه ملیت می‌شناسه و نه به زمان بستگی داره. این کار خیلی ساده، می‌تونه چنان خاطره‌ای از شما به جا بذاره که تا مدت‌ها آدم‌ها بخوان که واقعا واقعا بهتون کمک کنن. تازه برای سلامت روان خودتون هم بهتره! :))

پی‌نوشت: بحث من، خارجی یا داخلی بودن نیست. بحث من تاثیر مدل رفتار آدم‌ها روی شبکه سازی‌شون هستش و چه بسا تجربه‌ی برعکس هم وجود داشته و دیدیم و شنیدیم.

@sinusealpha_channel
👍183🔥1🤯1