سینوسِ آلفا
975 subscribers
204 photos
2 videos
31 files
273 links
Sina Moradi | MD-MBA candidate, ML Developer, & Former Math Teacher

Building at Zumud.com

Website:
- https://sinusealpha.github.io/

Contact:
- Sina80mor@gmail.com
- Sina@zumud.com
Download Telegram
all models are wrong and yours are useless! :))

این مقاله‌ی کوتاه، چند روز پیش توی nature چاپ شده. آقای florian markowetz اون رو نوشته و درس‌های و مشاهداتش از به کارگیری کلینیکی مدل‌های هوش مصنوعی رو در چند عنوان ذکر کرده و راه‌هایی رو پیشنهاد داده که بشه بواسطه‌ی اون‌ها، مدل‌هایی با کاربرد بالینی بیشتری رو ساخت و پیاده کرد.

البته حرف خیلی جدیدی در این مقاله وجود نداره و صرفا از نظر دسته‌بندی مشکلاتی که با اون مواجه هستیم می‌شه بهش نگاه کرد. همون مشکل‌های همیشگی generalizability و trust.

پی‌نوشت: کلا این مقالاتی که comment محسوب می‌شن، چون با زبان روان‌تری نوشته می‌شن، برای من جالب‌ترن و اگر علاقه‌مند هستید، پیشنهاد می‌کنم که حتما بخونیدش.

#هوش_مصنوعی
#پزشکی
@sinusealpha_channel
👍32🔥1🤯1🤩1
سلام :) من دیروز ۲۲ ساله شدم و تصمیم گرفتم مهم‌ترین درس‌هایی که توی این یک سال گرفتم رو share کنم. توی این مطلب، می‌تونید ببینید‌شون و خیلی خوشحال می‌شم اگه نظرات‌تون درمورد این مطلب رو برام بنویسید.

Link: https://sinamoradi.substack.com/p/20-lessons-i-learned-in-my-22
18🤩5👍3🔥2
مدتی می‌شد که توی این کانال، درمورد مقاله‌ها و کلا اتفاقات جدیدی که هر روزه داره توی فیلدهای هوش مصنوعی و پزشکی می‌افته کمتر می‌نوشتم. علتش صرفا نبودن فرصت و مجالی برای نوشتن بود.

اما حالا فرصتش پیش اومده که توی این جلسه، درمورد اتفاقات مهم و تازه‌ی مرتبط با این موضوع صحبت کنیم و اگر علاقه‌مند هستید، این جلسه‌ی رایگان احتمالا براتون جالب باشه:
Link: https://t.me/ABZUMS_SRC/312

#هوش_مصنوعی
#پزشکی
@sinusealpha_channel
8🤩4👍1🔥1
امروز روز آخر جلسات آنلاین برنامه‌ی NIIC (توضیحات ترم بهار ۲۰۲۴) بود و فارغ از همه‌ی یادگیری‌ها و آشنایی‌ها و دوستی‌ها، من همچنان از شدت کیفیت این برنامه در عجب‌ام!

چون بشخصه در جریان برگزاری برنامه‌های این مدلی زیادی بوده‌ام و علی‌رغم این که هر سری دوست داریم که بهترین برنامه‌ی ممکن رو برگزار کنیم، کلی مشکل کوچیک و بزرگ مختلف به وجود میاد که کیفیت برنامه رو به شدت کم می‌کنه.

درصورتی که توی تمام پنج روز آنلاین و سه ماه آفلاین این برنامه، من اصلا متوجه هیچ گونه مشکل جزئی‌ای هم تا حالا نشدم و شدت کیفیت برنامه از نظر تجربه‌ی من، بی‌نظیر بود. به همین دلیل، واقعا باید به برگزار کننده‌هاش تبریک گفت!

پی‌نوشت اول: ممکنه چند نفر از افراد حاضر در تصویر [که ایرانی هستند] رو بشناسید.

پی‌نوشت دوم: با چیزهای جالب زیادی توی این برنامه آشنا شدم و به زودی، از یه طریقی این‌ها رو share خواهم کرد.

#هوش_مصنوعی
#رادیولوژی
@sinusealpha_channel
👍4🔥43🤩2
به دعوت دفتر منتورینگ دانشکده‌ی داروسازی البرز، قرار هستش که فردا ساعت ۱۹ جلسه‌ای رو داشته باشیم و درمورد بحث شبکه‌سازی و لینکدین صحبت کنیم. این جلسه، رایگان هستش و حضور برای عموم هم آزاده و اگر دوست داشتید، تشریف بیارید.

Link: https://t.me/Abzums_PMO/271

@sinusealpha_channel
6👍2🔥2
اگر فرصت نکردید که مطلب جدید پاول گراهام با عنوان the best essay رو کامل بخونید، من به تعدادی از جملاتش که به نظرم مهم‌تر بودند رو در ادامه آوردم و پیشنهاد می‌کنم که یه نگاهی بهشون بندازید.

1) Essays are for taking risks.

2) Writing essays, at its best, is a way of discovering ideas.

3) you shouldn't attack a topic unless you have a way in — some new insight about it or way of approaching it.

4) Writing converts your ideas from vague to bad. But that's a step forward, because once you can see the brokenness, you can fix it.

5) doing things right means making discoveries, and by definition you can't predict those.

6) I like to start an essay with a gleam in my eye. This could be just a taste of mine, but there's one aspect of it that probably isn't: to write a really good essay on some topic, you have to be interested in it. A good writer can write well about anything, but to stretch for the novel insights that are the raison d'etre of the essay, you have to care.

7) you're more likely to write great essays if you care about a lot of different things. The more curious you are, the greater the probable overlap between the set of things you're curious about and the set of topics that yield great essays.

8) I rarely choose what to write about; I just start thinking about something, and sometimes it turns into an essay.

9) The quality of the ideas that come out of your head depend on what goes in.

10) You can't learn everything, so getting breadth implies learning about topics that are very different from one another.

11) While breadth comes from reading and talking and seeing, depth comes from doing. The way to really learn about some domain is to have to solve problems in it.

12) Another recipe for timelessness is to write about things readers already know, but in much more detail than can be transmitted culturally.

منبع: https://www.paulgraham.com/best.html

@sinusealpha_channel
5👍3🤩2
Forwarded from سینوسِ آلفا (Sina Moradi)
سعی می‌کنم هر سال از این شعر یاد کنم و فکر می‌کنم که یکی از بهترین شعرهایی باشه که بتونیم سال جدید رو با خوندنش آغاز کنیم.

آیــــد بهـــــار و پیرهــن بیشــــه نو شــــود
نـــوتر برآورد گــــل، اگر ریشــــه نو شــــود

زیباســـت روی کاکــل سبـــزت کــلاه تــو
زیبـــاتر آن‌که در ســـرت اندیشـه نو شود


ما را غـــمِ کهنــه به مـیِ کهنـــه بســـــپرید
به حــال ما چه ســود، اگر شیشـه نو شود؟

شبدیــز، رام خســــرو و شیــــرین به کـام او
بر فــــرق ما چه فـرق، اگر تیشــــه نو شـود

جان می‌دهیــــم و ناز تــو را باز می‌خـــــریم
ســــودا همان کنیـــم، اگر تیشــه نو شـود…

#شعر
#منوچهر_آتشی

عیدتون مبارک!♥️
@sinusealpha_channel
16👍4🔥1
🔹پیشنهاد می‌کنم که در سال جدید بیشتر پادکست گوش کنید!

جمله‌ی بالا رو احتمالا زیاد شنیده باشین. مخصوصا از کسانی که پادکست می‌سازن، یا کسانی که زیاد پادکست گوش می‌کنن. اما تا حالا شده از خودتون بپرسین که «چرا این پیشنهاد، این‌قدر پرتکرار شده؟» یا اصلا بیایین برعکس فکر کنیم و بپرسیم که «چرا هیچ کسی نیست که بگه پادکست گوش نکنین!؟»

به نظر من، این‌ها سوالات مهمی هستند. یا به قولی می‌شه گفت که در این سوالات، نشانه‌هایی است برای آنانی که می‌اندیشند! :)

پادکست، از معدود رسانه‌هایی هستش که توی اون، بحث اسکرین تایم (screen time) خیلی مطرح نیست. به این معنی که سازندگان پادکست، بر روی توجه مخاطب رقابت منفی نمی‌کنند [تا هر طور شده شما رو به درون پادکست بکشند و نگه دارند]. چرا که مخاطبین پادکست، معمولا محتوا رو «خودشون» انتخاب می‌کنن و زمانی رو براش تعیین می‌کنن و علاوه بر توجه، دقت و ارتباط خیلی نزدیکی رو با گوینده‌ی پادکست برقرار می‌کنن.

بخاطر همین، تقریبا هیچ چیز این رسانه، شانسی نیست و اتفاقا همین هم قشنگ‌ترش می‌کنه. برای کسی مثل من که پادکست می‌سازم [و هر کسی که این کار رو می‌کنه] هم این قضیه به شدت ملموسه. چرا که ما اون ارتباط نزدیک و صمیمی‌ای که با مخاطب شکل می‌گیره رو می‌بینیم و این از هر چیزی برامون ارزشمندتره.

در کل هم این رابطه واقعا «دو سر سود» محسوب می‌شه و شنونده و تولیدکننده، هر کدوم به نحوی فایده می‌برند. به همین خاطر، همون‌طور که ممکنه بقیه هم گفته باشن، من هم پیشنهاد می‌کنم که در سال جدید بیشتر پادکست گوش کنیم و معرفی کنیم و حتی بسازیم! چرا که یک رسانه‌ی شخصی هستش و ما سازندگان [که من از کوچیک‌ترین هاشون هستم] هم واقعا از ظهور و شروع پادکست‌های جدید خوشحال میشیم و امیدواریم که روز به روز محتوای ارزشمند، ارزش خودش رو بهتر پیدا کنه!

@sinusealpha_channel
17👍8
principles_excerpt.pdf
594.8 KB
این فایل، خلاصه‌ای از کتاب principles (اصول)، نوشته‌ی ray dalio (ویکی‌پدیا) هستش. چند روزی می‌شه که دارم می‌خونم و بهش فکر می‌کنم. نکات جالبی درمورد life و work داره و پیشنهاد می‌کنم که شما هم یک نگاهی بهش بندازید.

@sinusealpha_channel
👍63🔥1
🔹فکر می‌کنید که [بعضی‌ها] دارند مقاله‌هاشون رو با ChatGPT می‌نویسند؟ درست فکر می‌کنید! :)

همون‌طور که احتمالا شما هم موقع کار با این مدل‌ها احساس کردید، این مدل‌ها بیش از حد از بعضی از کلمات و عبارت‌ها استفاده می‌کنن و یکی از این کلمه‌ها delve [که به معنی کاوش کردن و ورود کردن به چیزی و... است] هستش!

حالا یک نفر اومده میزان استفاده‌ی این کلمه رو توی مقالات منتشر شده توی pubmed توی سال‌های مختلف مقایسه کرده و همون‌طور که توی تصویر می‌بینید، میزان استفاده از این کلمه توی سال ۲۰۲۳ چهار برابر شده و همین‌طوری هم داره بیشتر می‌شه! و این، با میزان استفاده از مدل‌های زبانی رابطه‌ی مستقیم داره!

پی‌نوشت: جزئیات این نمودار مشخص نیست و منبع، این توییت هستش.

@sinusealpha_channel
😁5🤯31👍1
🔹درمورد مختصرنویسی

قبلا کمی درمورد نوشتن و خواندن وبلاگ صحبت کردیم. واضحا کافی نیستند و در آینده، تصمیم دارم که بیشتر بنویسم. اما بیایید همین الان به یک چیز ساده و کوتاه بپردازیم. یک چیز مختصری درمورد مختصرنویسی.

قبل از ورود به بحث، به این فکر کنید که تا به‌حال چند بار پاسخ‌های خیلی طولانی ChatGPT به سوال‌های کوتاه خودتان را کامل نخواندید؟ یا چند بار در promptتان تاکید کردید که حتما به صورت مختصر پاسخ بدهد؟ این اتفاق، هر روز برای من می‌افتد. اما چرا ما توضیحات طولانی را دوست نداریم؟ مشخصا بحث زمان مطرح است.

این حق ما و هر انسان دیگری است که از زمانش بهترین استفاده را بکند و توضیحات طولانی‌ای که «می‌توانند» به صورت خلاصه‌تر مطرح شوند را بهتر است حتی از عوامل اتلاف وقت در نظر بگیریم!

در سال‌های اخیر [که نوشتن ساده‌تر از همیشه شده است]، تعداد کلماتی که می‌نویسیم به شدت افزایش یافته و همه دارند می‌نویسند و می‌نویسند! چرا که [به مانند من] فکر می‌کنند چون آن‌ها زمان زیادی را برای مطالعه‌ی یک متن طولانی و ارزشمند قرار داده‌اند، پس مخاطب هم باید همچین زمانی را برای خواندن متن آن‌ها قرار دهد. نوعی توهم.

اما مخاطب زمان ندارد. زمان مخاطب، در آینده کمتر هم می‌شود و این، هنر نویسنده است که با کمترین کلمات ممکن، حرفش را «به صورت کامل» برساند. من این هنر را ندارم. بعضی از افرادی که دنبال‌شان می‌کنم هم متاسفانه در این زمینه خوب نیستند. اما تصمیم دارم که در این زمینه بهتر بشوم و مثل همیشه، درمورد آموخته‌هایم خواهم نوشت.

کاری هم که در حال حاضر تلاش می‌کنم انجام بدهم، محدودکردن «تعداد» کلماتی است که می‌توانم استفاده کنم. محدودیتی اجباری برای مختصرشدن. برای بیشتر فکرکردن به ترتیب درست کلمات و استفاده از کلماتی بهتر.

همچنین این محدودیت را گذاشته‌ام که اگر چیزی را نوشتم، در بیشتر اوقات، اجازه‌ای برای پاک‌کردنش ندارم و این باعث می‌شود که قبل از نوشتن، بیشتر فکر کنم. بیشتر فکر کنم تا کلمات بهتری را استفاده کنم. درست مانند دستگاه‌های تایپ قدیمی که پاک‌کردنی در کارشان نبود و میانگین ارزش نوشته‌های حاصل از آن‌ها، از میانگین ارزش نوشته‌های حاصل از لپتاپ‌های امروزی [حتی برای ما] بسیار بیشتر است.

این مطلب هم از اولین تلاش‌هایم در این زمینه است و چیزی که حدود ۱۰۰۰ کلمه بود را می‌توانید «به صورت کامل» در این پست تلگرامی [و در حدود ۴۰۰ کلمه] بخوانید! البته امیدوار بودم که به یک توییت تقلیل پیدا کند، اما توانایی‌ام فعلا در همین حد است و باید ببخشید! :)

@sinusealpha_channel
👍63🔥1
کمتر از یک هفته است که از فوت daniel kahneman می‌گذره. من دو تا کتاب «تفکر کند و سریع (۲۰۱۲)» و «نویز (۲۰۲۱)» رو از ایشون خونده بودم و بسیار کتاب‌های خوبی بودند. هر کسی هم که این کتاب‌ها رو خونده باشه، می‌تونه تایید کنه که چقدر ارزشمند هستند.

اما یکی از ارزشمندترین چیزهایی که من از مجموع نوشته‌های ایشون یادگرفتم و دیروز داشتم برای یکی از دوستان توضیحش می‌دادم، بحث «عدم قطعیت در تصمیم گیری‌های ما» هستش. چیزی که بنظرم «ندونستن‌اش» می‌تونه خیلی برای خودمون و اطرافیان‌مون گرون تموم بشه. به حدی که من وقتی درمورد تصمیم گیری‌هام [قبل از آشنایی با این موضوع] فکر می‌کنم، می‌ترسم و میگم که چقدر شانس آوردم که [بدون دونستن این‌که چقدر می‌تونم noisy باشم] کار خطرناکی نکردم! :)

امروز هم خوشبختانه فرصت کردم که یه کمی بیشتر راجع به این قضیه مطالعه کنم و ویدئوی زیر (ارائه‌ی دکتر آرین اکبری درمورد بحث عدم قطعیت با نگاه بیزین) رو دیدم. در ادامه هم درمورد این ویدئو [و یه سری منابع دیگه که می‌تونه توی یادگیری این موضوع کمک‌تون کنه] می‌نویسم.

لینک ویدئو:
https://www.youtube.com/watch?v=iIXFnBXf7sE

@sinusealpha_channel
4👍4🔥1
سینوسِ آلفا
کمتر از یک هفته است که از فوت daniel kahneman می‌گذره. من دو تا کتاب «تفکر کند و سریع (۲۰۱۲)» و «نویز (۲۰۲۱)» رو از ایشون خونده بودم و بسیار کتاب‌های خوبی بودند. هر کسی هم که این کتاب‌ها رو خونده باشه، می‌تونه تایید کنه که چقدر ارزشمند هستند. اما یکی از ارزشمندترین…
این رو همه‌مون قبول داریم که عوامل خیلی زیادی روی وقوع یک چیز موثر هستند. اما آیا ما می‌تونیم اثر همه‌ی این عوامل رو در نظر بگیریم؟ جواب منفیه. آیا کامپیوتر می‌تونه؟ انتظار داریم که جواب مثبت باشه. اما کامپیوتر هم تا حدی می‌تونه افزایش تعداد متغیرهای موثر بر روی یک موضوع رو تحمل کنه و از یک جایی به بعد، دیگه اون هم نمی‌تونه. آیا متغیرهای موجود در جهان ما به حدی هستند که کامپیوتر بتونه همه‌شون رو در لحظه در نظر بگیره؟ خیر.

تعداد متغیرها به شدت بالاست. اما چیزی که باعث می‌شه کامپیوتر هم نتونه همه‌ی اون‌ها رو تحمل کنه، تعدادشون نیست! بلکه تعداد causation هایی هستش که بین هر دو تا از اون‌ها «می‌تونه» وجود داشته باشه. چیزی که از مرتبه‌ی «دو به توان تعداد متغیرها» هستش! این عدد، با افزایش تعداد متغیرهای یک احتمال، به صورت نمایی افزایش پیدا می‌کنه و بخاطر همین هستش که کامپیوتر هم از یک جایی به بعد، «قطعا» نمی‌تونه!

حالا ما برای این‌که بتونیم احتمال یک موضوع رو [با کمک کامپیوتر] حدس بزنیم باید چیکار کنیم؟ باید به اثر پروانه‌ای فکر کنیم و بگیم که بال‌زدن یک پروانه در یک جایی از دنیا می‌تونه روی فلان موضوع روزمره‌ی من تاثیر بذاره؟ بله! اگر می‌خواهیم که دقت ۱۰۰٪ داشته باشیم، مجبوریم که به این صورت فکر کنیم. اما آیا ما به دقت ۱۰۰٪ «نیاز» داریم؟ پاسخ منفیه.

ما به دقت ۱۰۰٪ نیاز نداریم و چون به این دقت نیاز نداریم، می‌تونیم با محدودکردن تعداد کل عوامل موثر بر یک موضوع، محاسبه‌ی احتمالش رو «ساده‌تر» کنیم. ما محاسبه رو ساده‌تر می‌کنیم، اما موضوع مهم‌تری از این کار هم وجود داره! موضوع مهم‌تر، «دونستن» این هستش که ما داریم ساده‌سازی می‌کنیم!

ما جدول «دو به توان n» رو به یک چیز تقریبا خطی تبدیل می‌کنیم، تا انرژی کمتری مصرف کنیم. البته این کار فایده‌های خیلی زیادی هم داره. اما نباید «هرگز» ‌فراموش کنیم که ما [هر چقدر هم عوامل زیادی رو در تصمیمات‌مون در نظر بگیریم] نویز داریم.

البته برای تبدیل اون جدول بزرگ از عوامل موثر بر یک موضوع، به یک چیز کوچک‌تر، کارهای دیگری هم می‌تونیم انجام بدیم. کارهایی مثل «فرص بر مستقل بودن» که می‌گه چون احتمال موثر بودن بال زدن یک یک پروانه در یک کشور دیگر بر کار من بسیار کمه، من احتمال اون [و هر چیزی که احتمالش از اون مرتبه باشه] رو صفر در نظر می‌گیرم. این طوری یه تعداد خیلی زیادی از متغیرها حذف می‌شن. راه‌های دیگه‌ای هم وجود داره، اما همین دو تا قضیه‌ی causation و independence assumption رو اگر اعمال کنیم، بسیار کارمون راحت‌تر می‌کنه و فعلا کافیه. :)

راستی اگه با متغیرهای تصادفی و توزیع مشترک و کلا مبانی احتمال آشنا هستید، پیشنهاد می‌کنم که ویدئو زیر رو مشاهده کنید تا ببینید که این bayesian network و عدم قطعیت چطور تعریف می‌شه و از کجا اومده.

لینک ویدئو:
https://www.youtube.com/watch?v=q9lk8l8P-E4&list=PLoROMvodv4rOpr_A7B9SriE_iZmkanvUg&index=14

@sinusealpha_channel
3👍2🤩1
سینوسِ آلفا
این رو همه‌مون قبول داریم که عوامل خیلی زیادی روی وقوع یک چیز موثر هستند. اما آیا ما می‌تونیم اثر همه‌ی این عوامل رو در نظر بگیریم؟ جواب منفیه. آیا کامپیوتر می‌تونه؟ انتظار داریم که جواب مثبت باشه. اما کامپیوتر هم تا حدی می‌تونه افزایش تعداد متغیرهای موثر…
حالا که بحث عدم قطعیت شد، اگه به عددی کردن و کاربرد در نظر گرفتن عدم قطعیت مدل‌های هوش مصنوعی توی رادیولوژی هم علاقه دارید، پیشنهاد می‌کنم که ویدئوی این جلسه رو ببینید.

ما اون‌جا همین بحث رو [به صورت خیلی مقدماتی] داشتیم و یکی از ترندهای ریسرچ radiology ai این روزها هم محسوب می‌شه. یکی از موضوعات مورد علاقه‌ی خودم هم محسوب می‌شه و در آینده هم بیشتر راجع بهش خواهم نوشت. :)

در کل هم اگر قرار هستش که یک جمله از این موضوع به یادمون بمونه، پیشنهاد می‌کنم که این جمله باشه:

«در حقیقت نسخه‌های bayesian پردازش یک پیش‌بینی به ما می‌گویند که باید منابع مختلف اطلاعات - باورهای قبلی و داده‌هایی که از طریف حواس ما به دست می‌آیند - را در نسبت “معکوس” با میزان نامطمئن بودن ما درمورد آن‌ها ترکیب کنیم.» (منبع: ویدئوی اول)

@sinusealpha_channel
2👍2🔥1
🔹پروژه‌ی پلورال افیوژن!

قضیه از این قراره که ما امروز یک کلاس درمورد بیماری‌ای به نام pleural effusion (آب آوردن ریه) داشتیم. توی این بیماری، میزان مایع اطراف ریه‌های ما زیاد می‌شه و در گام اول برای درمان، ما از این مایع نمونه‌برداری می‌کنیم. به این نمونه‌برداری، Thoracentesis (توراسنتز) میگن.

نتیجه‌ی توراسنتز می‌تونه خیلی چیزها رو برای ما مشخص کنه و یکی از ساده‌ترین چیزها، نوع مایع (اگزودا یا ترنسودا) جمع‌شده و چیز یه‌کمی پیچیده‌تر، تشخیص‌هایی هستند که ما بر اساس نتیجه‌ی آزمایش برای بیمار در نطر می‌گیریم [تا با اطلاعات بعدی تکمیل‌اش کنیم].

من داشتم اعداد مربوط به این آزمایش رو حفظ می‌کردم که فهمیدم همچین هم کار آسونی نیست. :) بخاطر همین، تصمیم گرفتم که کل اپروچ‌مون به این بیماری رو با کد پیاده‌سازی کنم تا هم اعدادش رو حفظ بشم و هم شاید روزی ازش استفاده کردم! (البته اولش فقط به حفظ‌کردن فکر می‌کردم).

این‌طوری شد که همین بعد از ظهر امروز، این پروژه‌ی فان رو شروع کردم تا این الگوریتم (تشخیص نوع مایع و چیزهایی که باید در نظر بگیریم) رو پیاده کنم. تصویری هم که می‌بینید شد نتیجه‌اش! :)

@sinusealpha_channel
6🔥4🤯3👍1
سینوسِ آلفا
🔹پروژه‌ی پلورال افیوژن! قضیه از این قراره که ما امروز یک کلاس درمورد بیماری‌ای به نام pleural effusion (آب آوردن ریه) داشتیم. توی این بیماری، میزان مایع اطراف ریه‌های ما زیاد می‌شه و در گام اول برای درمان، ما از این مایع نمونه‌برداری می‌کنیم. به این نمونه‌برداری،…
لازم به ذکره که اعداد استفاده شده در تصویر بالا واقعی نیستند. اما شما می‌تونید با نتیجه‌ی آزمایش یک بیمار واقعی هم این برنامه رو امتحان کنید. من این کار رو چند بار انجام دادم و ایرادی نداشت. اما اگر شما هم امتحانش کردید و ایرادی داشت، خیلی خوشحال میشم که بهم خبر بدید.

این‌جا هم می‌تونید کد و جدول استفاده شده به عنوان رفرنس و بقیه‌ی توضیحات این پروژه رو ببینید:

https://github.com/Sinusealpha/PleuralEffusionProject

پی‌نوشت: اگر کسی از دوستان علاقه داشت که روی این موضوع کار کنه، بهم خبر بده تا با هم پیش ببریم‌اش.❤️

@sinusealpha_channel
🔥83👍2
خب من جدیدا به «تاریخچه‌ی تکنولوژی و اینترنت و این‌چیزها» خیلی علاقه‌مند شدم و بعد از جستجوهای فراوان، این مینی‌کورس بامزه و خفن رو پیدا کردم و دارم می‌بینم.

اون‌قدری هیجان انگیز بود که نتونستم صبر کنم تا تموم بشه و بعدش معرفی‌اش کنم. :) پس خدمت شما.

🔹لینک:
https://www.youtube.com/watch?v=47NRaBVxgVM

@sinusealpha_channel
6👍2
در دو هفته‌ی گذشته، با بعضی از دانشجوهایی که تازه به دانشگاه‌مون وارد شده‌اند صحبت کردم و فارغ از بخش هیجان‌انگیز و نوستالژی این صحبت‌ها، من رو به یاد خود اون موقع‌ام انداخت و وادار کرد که این مطلب رو بنویسم.

چیزی که ای کاش زودتر می‌شنیدم. اگر شما هم دانشجوی تازه وارد به دانشگاه هستید و دانشگاه با چیزی که فکر می‌کردید یه کمی (یا حتی خیلی) فرق می‌کنه، احتمالا این مطلب براتون جالب باشه. اگر هم این‌طور نیست، بهتره که کلا این بلاگ رو نادیده بگیرید. :)

🔹لینک:
sinamoradi.substack.com/p/the-best-advice-i-heard-about-university

@sinusealpha_channel
👍65🔥1🤯1