سینوسِ آلفا
975 subscribers
204 photos
2 videos
31 files
273 links
Sina Moradi | MD-MBA candidate, ML Developer, & Former Math Teacher

Building at Zumud.com

Website:
- https://sinusealpha.github.io/

Contact:
- Sina80mor@gmail.com
- Sina@zumud.com
Download Telegram
🔹تشخیص کتاب واقعی از غیرواقعی!

ترجمه: برای این‌که ببینید یک کتاب واقعی [و اصیل] است، از ده نفر با زمینه‌ها و حرفه‌های متفاوت بخواهید که آن را خلاصه کنند. اگر خلاصه‌ها شبیه به هم‌دیگر باشند، آن کتاب می‌تواند به یک مقاله کوتاه تبدیل شود و باقی نخواهد ماند. و هر چه خلاصه‌ها از هم دورتر باشند، ابعاد آن کتاب بیشتر است [و واقعی‌تر است و باقی خواهد ماند].

این حرف رو بذارید کنار این‌که نسیم طالب کلا با خلاصه‌کردن یک کتاب و مخصوصا کتاب‌های خودش به شدت (!) مخالفه و رفتار جالبی هم با خلاصه ‌کننده‌هاش نداره. :)))

از این توییت هم می‌شه نتیجه گرفت که «هر چه یک کتاب غیرقابل خلاصه‌شدن‌تر باشد، واقعی‌تر و ماندگارتر است!» حالا چه کتابی به ذهن‌تون رسید؟

@sinusealpha_channel
👍85
این بخش از مطلب how to do what you love (لینک) بنظرم خیلی مهمه.

ترجمه‌ی بخش مشخص‌شده:

“خطرناک‌ترین دروغگوها [به کودکان]، می‌توانند والدین آن‌ها باشند!

اگر آن‌ها شغلی کسل‌کننده را انتخاب کنند تا به خانواده‌شان استاندارد زندگی بالایی را ارائه دهند (همانند بسیاری از افراد)، در خطر ابتلای فرزندان به این ایده که «کار خسته کننده است» خواهند بود.

شاید برای کودکان در این مورد بهتر بود که والدین آن‌ها این‌قدر غیرخودخواه نبودند [و این‌قدر از خود گذشتگی نمی‌کردند].

پدر و مادری که نمونه‌ای از عشق به کارشان باشد، ممکن است بیشتر از یک خانه گران قیمت به فرزندانشان کمک کنند!”

پی‌نوشت: اگر با این موضوع موافق نیستید، لطفا نظرتون رو در کامنت‌ها بنویسید.

@sinusealpha_channel
👍43
🔹اگر تازه عضو این کانال شدید...

[احساس می‌کنم نیاز هستش که یک سری توضیحات رو برای کسانی که تازه به کانال عضو می‌شن قرار بدم. این پیام هم پین می‌مونه، تا اگر بعدا کسی...]

سلام. من سینا مرادی هستم و این کانال رو حدودا یک سال پیش ساختم تا درمورد چیزهای جالب و ارزشمندی که می‌خونم یا می‌شنوم، بنویسم. این کار رو قبلا در قالب‌های دیگری می‌کردم و یک‌جورهایی ادامه‌ی یک عادت قدیمی محسوب می‌شه. البته بعضی از پست‌ها صرفا نظر شخصی و خب مشخص‌اند. این کار رو می‌کنم، چون بنظرم درسته و همه‌ی ما، باید محتوایی که ارزش گسترش داره رو گسترش بدیم و یه contribute هرچند کوچک به جهان اطراف‌مون داشته باشیم. به شما هم پیشنهاد می‌کنم که بیشتر از من، از این مدل کارها بکنید. :)

بنظرم یکی از ساده‌ترین کارهایی که می‌تونیم بکنیم اینه که چیزهایی که یاد می‌گیریم رو تا جای ممکن share کنیم تا بقیه هم یاد بگیرند. این کارهایی که کوچیک بنظر می‌رسن، در بلندمدت به نفع همه‌مونه و قطعا موثر هم خواهند بود [و دیگه بیشتر از این توضیح نمی‌دم]. توی یک‌سال اخیر هم تعداد آدم‌هایی که دیدم همچین کارهایی رو شروع کردند، خیلی بیشتر شده و این، واقعا [برای من]خوشحال‌کننده است. اگر همچین کانالی دارید، لطفا برای من هم لینکش رو بفرستید! :)

درمورد خود «نوشتن» هم بگم که من نوشتن رو دوست دارم. یک‌جورهایی از تفریحاتمه. خیلی وقت می‌شه که چند ده برابر حجم مطالبی که این‌جا می‌نویسم رو به صورت شخصی می‌نویسم و این کار، کمک زیادی به فکرکردن‌ام کرده. این رو به شما هم پیشنهاد می‌کنم. این‌جا هم بعضا نظرات شخصی‌ام رو می‌نویسم و اگر با اون‌ها موافق نیستید، همواره می‌تونید نظرتون رو توی کامنت‌ها بنویسید. من هم از بحث استقبال می‌کنم، همه‌ی کامنت‌ها رو می‌خونم و در حد توان پاسخ می‌دم.

مورد بعدی این‌که من این‌جا تبلیغ نمی‌گذارم. اگر از چیزی خوشم بیاد، share می‌کنم و نیازی به گفتن نداره. درضمن، مشخصاً اگر محتوای شما رو share نکردم، به این معنی نیست که ارزشمند نیست. این رو گفتم چون چندین بار پیش اومده و متاسفانه بعضی از دوستان هم از من دلخور شدند. تعداد اعضای کانال هم اون‌قدری نیست [و قرار هم نیست بشه] که من بخوام استفاده‌ی تبلیغاتی ازش بکنم. صرفا یک جور کانال شخصیه.

بیشتر مطالب هم به #پزشکی، #هوش_مصنوعی و #کارآفرینی مربوط می‌شه. علتش هم صرفاً اینه که این روزها بیشتر توی این زمینه‌ها مطالعه می‌کنم و ممکنه به مرور زمان، موضوع مطالب هم به شدت تغییر کنند! این گستردگی ممکنه برای شما جالب نباشه، اما مدل کنجکاوی من این‌طوریه و نمی‌تونم تغییرش بدم. :) البته توی هیچ‌کدوم متخصص نیستم و پیشنهاد می‌کنم که همه‌ی مطالب من در این کانال رو با تصور این‌که یه تازه‌کار اون‌ها رو نوشته، بخونید. :)

برای share کردن مطالب کانال هم نیازی به اجازه نیست. چه مطالبی که من نوشتم، چه مطالبی که از دیگران نقل می‌کنم. فوروارد، کپی یا انتشار مطالب «به هر صورتی» آزاده. قبلا هم توضیح دادم که این اتفاق، برای من خوش‌حال کننده‌ست و هیچ مشکلی ندارم. (می‌دونم نیاز به مطرح‌کردن نداره ولی دیده‌ام که بعضی جاها می‌گن انتشار ندید و... و منم گفتم که حتما ذکر کنم)

برای ارتباط با من هم می‌تونید از این پست کمک بگیرید (اینجا هم توضیح دادم که می‌تونیم میتینگ‌های کوتاهی رو داشته باشیم). این‌جا هم قبلا یک توضیحی درمورد معرفی‌کردن خودم داده‌ام و هنوز هم نظرم همونه. :) دیگه هم حرفی نیست :) اگر موردی بود، توی کامنت‌ها بفرمایید تا توضیح بدم :)

@sinusealpha_channel
20👍4🔥2
سینوسِ آلفا
این رویداد شدیداً پیشنهاد میشه! بحث توضیح‌پذیری و تفسیر پذیری، تقریباً مهم‌ترین بحث هوش مصنوعی در پزشکی (که جدیداً بهش dilemma هم میگن) هستش. این موضوع به قدری مهمه که حل اون، می‌تونه انفجاری رو در میزان استفاده‌ی بیمارستان‌ها از مدل‌های هوش مصنوعی به وجود…
خب دیشب این رویداد برگزار شد و ویدئوش رو می‌تونید این‌جا ببینید. در ادامه، من یک سری نکته که بنظرم مهم‌تر رسیدند رو [به پیشنهاد یکی از دوستان] می‌نویسم، اما دیدن ویدئوش هم زمان زیادی نمی‌بره و اگه وقت داشتید، ببینید.

اولش مجری از eric topol پرسید که این روزها همه از کلمه‌ی explainability استفاده می‌کنند، اما معنی واقعی این کلمه چیه؟ eric هم در جواب گفت که ما توی پزشکی معنی خیلی از چیزهایی که استفاده می‌کنیم و کارهایی که می‌کنیم رو نمی‌دونیم و هم مشکلی باهاش نداریم :) منظورش این بود که خودش و معنیش و... خیلی مهم نیست.

در ادامه، yann حرف eric رو تایید کرد و گفت که این explainability اون‌قدرها هم مهم نیست! چیزی که مهم‌تره، accuracy عه و اگر قرار بشه روی explainability دست بذاریم، اول از همه باید به پزشک‌ها گیر بدیم! البته این رو هم گفت که کلا تصمیم‌های انسان‌ها تا حد کمی قابل توضیح هستش و بهتره کلا روی accuracy کار کنیم. [و به ما چه که چطوری تصمیم گرفته؟] :)

بعدش yann به این هم اشاره کرد که شما نمی‌تونید با خوندن کلی کتاب دکتر بشید و باید تجربه کسب کنید. تجربه هم دقیقا همون چیزی هستش که باعث از بین رفتن explainability تصمیم‌های پزشکان (همون بحث skillful neglect) و هر شخص دیگری می‌شه! پس بهتره به explainable بودن یا نبودن خیلی کاری نداشته باشیم.

حرف از مطالعه‌هایی شد که عملکرد پزشکان رو با هوش مصنوعی مقایسه کرده و eric هم درموردشون گفت که خیلی خوب design نشده‌اند و بجای مقایسه‌ی AI و پزشک، باید AI رو با «AI بعلاوه‌ی پزشک» مقایسه کنند که خب این حرف خیلی جدید نیست و این‌جا دیدیم که لزوما نتیجه‌ی بهتری هم نمی‌ده! همچنین گفت که جذاب‌ترین کاربرد هوش مصنوعی در پزشکی از دیدگاه اون به بهبود رابطه‌ی پزشک و بیمار مربوط می‌شه که خب واقعا درسته.

آخرش هم yann در پاسخ به سوال مجری که پرسید اگر AGI داشته باشیم، ممکنه که کلا AI doctor هم داشته باشیم و نیازی به انسان‌ها نباشه گفت که LLM چیزی نیست که ما رو به AGI برسونه (این رو قبلا چند بار هم گفته بود) و این‌ها اصلا به AGI نزدیک هم نیستند و باید روی چیزهای دیگری کار کنیم. خلاصه این‌که سوال رو جواب نداد ولی به صورت ضمنی گفت که بذارید AGI بیاد بعد ببینیم می‌تونیم جایگزین کنیم یا نه :)

در کل اون‌قدری که فکر می‌کردم حرف‌های جدید نداشت و تقریبا همه‌ی حرف‌هاشون رو قبلا هم گفته بودند و شنیده بودیم. اما من از تسلط yann روی موضوعات پزشکی واقعا شوکه شدم و اصلا انتظار این حجم از پراکندگی مثال‌ها و دیدگاه عمیقش رو نداشتم. کلا هم آدم independent minded ای محسوب می‌شه و مخالف هم زیاد داره :)

#هوش_مصنوعی
#پزشکی
@sinusealpha_channel
5👍5
احتمالا خبر لغو قرارداد 20 میلیارد دلاری خرید فیگما توسط ادوبی رو شنیده باشید [که خداروشکر حقیقت داره]، اما آیا این رو هم می‌دونید که کل venture funding (سرمایه‌ی خطرپذیری که روش گذاشتند) فقط حدود 333 میلیون دلار بوده؟! درضمن این رو هم می‌دونید که فیگما بخاطر لغو همین قرارداد، قراره 1 میلیارد دلار از ادوبی خسارت بگیره؟ :)

بعد از همه‌ي این اخبار رفتم لینکدین مدیر عامل و یکی از بنیانگذاران فیگما (Dylan field) رو دیدم و باید خدمت‌تون عرض کنم که ایشون قبل از راه‌اندازی این کمپانی 10-20 میلیارد دلاری، کارآموز بوده :) اون هم نه فقط در حوزه‌ی دیزاین، بلکه در چند حوزه‌ی دیگه هم کارآموز بوده و بخشی از سابقه‌اش رو توی تصویر می‌بینید!

#دیزاین
@sinusealpha_channel
🔥6👍43🤯2
کتاب build یا ساختن (نوشته‌ی Tony Fadell)، یکی از کتاب‌هایی است که هر از گاهی به آن سر می‌زنم و امروز هم بواسطه‌ی یک موضوعی، بخشی از آن‌را ورق زدم. داشتم کتاب را می‌بستم که یکی از فصول دیگر آن به چشمم خورد و تصمیم گرفتم که به آن هم نگاهی بیاندازم و این‌جا درموردش می‌نویسم.

🔹عنوان آن فصل٬ عوضی‌ها (assholes) بود!

تونی فادل تاکید می‌کند که شما در سراسر مسیر شغلی‌تان با آدم‌هایی روبه‌رو می‌شوید که خصوصیات اخلاقی متفاوتی از جمله خودخواهی٬ دغل‌کاری و یا بی‌رحمی دارند. اما وجه مشترک همه‌ی آن‌ها «غیرقابل ‌اعتماد بودن» است. بارها و بارها به شما و تیم‌تان نارو می‌زنند و تمام تلاش‌شان این است که خودشان «قهرمان» به نظر برسند.

همچنین با افرادی برخورد می‌کنید که همکاری با آن‌ها بسیار دشوار است. بداخلاق٬ پرسروصدا٬ پرادعا و یا اعصاب‌خردکن هستند. بیشترین تراکم این افراد هم متاسفانه در نزدیکی راس سازمان است!

نویسنده تاکید می‌کند که باید ابتدا شخصیت این افراد را بشناسید تا بهترین شیوه‌ی همکاری و یا در صورت لزوم٬ دورزدن او را انتخاب کنید.

👈در ادامه هم انواع این افراد را توضیح می‌دهد و به شما پیشنهاد می‌کنم که این چند صفحه را [که تصاویرش را در کامنت‌ها قرار داده‌ام] حتما مطالعه کنید.

@sinusealpha_channel
👍151🔥1
به پیشنهاد یکی از دوستان تصمیم گرفتم کانال‌هایی که به صورت جدی دنبال‌شان می‌کنم را معرفی کنم.

پیشاپیش لازم به ذکر هستش که این پست تبلیغ نیست و من هیچ صحبتی هم با نویسندگان این کانال‌ها انجام نداده‌ام. ضمنا همه‌ی مطالب آن‌ها هم مورد تایید من نیستند و پیشنهاد می‌کنم که به چشم «صدایی در میان نویزها» آن‌ها را ببینید.

کانال آقای مسعود زمانی:
@MasoudSharings
کانال آقای وحید فخر:
@investingfund
کانال فرهنگ معین:
@farhangemoein
کانال آقای فرید فرجی:
@gashtzaniha
کانال تنیدگی:
@tanidegi
کانال Dev Tweet:
@tweetdev
کانال آقای پیمان فخاریان:
@peymanfakharian
کانال NLP stuff:
@nlp_stuff
کانال فلسفه‌ی دیزاین:
@Dexign
کانال مفیدات:
@Mofidot
کانال وب‌آموز:
@webamoozir
کانال دکتر مکری:
@DrAzarakhshMokri
کانال PsychoTaha:
@PsychoTaha
کانال آزادی‌جات:
@azadijat
کانال تک‌توب:
@TechTube
کانال آقای محمدرضا شعبانعلی:
@bamotamem
کانال آقای علیرضا اسکندری:
@prof_eskandari

پی‌نوشت اول: این لیست به مرور زمان تکمیل خواهد شد و هیچ ترتیبی هم بین کانال‌های ذکرشده وجود ندارد.

پی‌نوشت دوم: همه‌ی این کانال‌ها ساختار یکسانی ندارند و لزوما هم بهترین‌ها نیستند. صرفا آن‌هایی هستند که من بیشتر دنبال‌شان می‌کنم و بنظرم محتوای ارزشمندی دارند.

👈پی‌نوشت سوم [و مهم]: اگر کانال خوبی را می‌شناسید که می‌تواند در این لیست قرار بگیرد، لطفا در کامنت‌ها یا به اکانت @sinusealpha اعلام کنید تا [اگر از نظر من هم مناسب بود😁] اضافه‌شان کنم.

@sinusealpha_channel
9👍3🤩2
خیلی از این خوشم اومد.

من چند روز پیش از یک ابزاری فقط برای یک بار استفاده کردم و بعدش از اکانتم خارج شدم. امروز (که اتفاقا کریسمس و روز تعطیل هم هست) فاندر همون اپ ایمیل زده و پرسیده که آیا با مشکلی مواجه شدی که فقط یک بار استفاده کردی؟ بعدش هم از من خواست که نگرانی‌هام و فیدبک‌هام رو براش بفرستم (توی تصویر، ایمیلش رو می‌بینید).

بنظرم این کار به شدت قشنگه و خیلی خوب می‌شه اگر همه‌ی آدم‌ها، این‌قدر ارتباطات‌شون (که این‌جا صرفا ارتباط بین اپ و کاربر هستش) رو جدی بگیرند. برای حفظ ارتباطات خوب تلاش کنند و… ولی متاسفانه چیزی که در عمل می‌بینیم اینه که این چیزها، صرفا در حد «حرف و شعار» باقی می‌مونه.

بخاطر همین این پست رو گذاشتم که بگم این اپلیکیشن [که خیلی هم چیز بااهمیتی نیست]، این‌قدر برای کاربرانش ارزش قائل می‌شه.

ما کجای کار ایم!؟

#customer_obsession
@sinusealpha_channel
👍103
در چند ماه گذشته تعدادی ژورنال‌کلاب برگزار کردیم و چند نفر از دوستان درخواست ویدئوی این جلسات رو داشتند.

امروز، پس از مدت‌ها :) فرصت شد که این ویدئوها را در جایی آپلود کنم که برای همه و به صورت ساده قابل دسترس باشد و به همین دلیل، یک پلی‌لیست در یوتیوب ساختم. ژورنال‌کلاب‌های بعدی هم [اگر برگزار شود] در ادامه‌ی همین لیست آپلود خواهند شد.

👈لینک:
https://youtube.com/playlist?list=PL_ncJzi2Tlh64y8k02555dxx_jq6Ij4UE&si=heD6F8D7GDgto_st

@sinusealpha_channel
4👍2🔥1
🔹آیا یک شارژر می‌تواند ما را به ماه بفرستد!؟

جدول بالا به مقایسه‌ی چند شارژر امروزی و کامپیوتر راهنمای فرود فضاپیمای آپولو ۱۱ (Apollo 11 Moon Landing Guidance Computer (AGC)) بر روی ماه می‌پردازد!

همان‌طور که می‌بینید تقربیا تمام ویژگی‌های یک شارژر امروزی از کامپیوتر موجود در سیستم راهنمای آپولو ۱۱ قوی‌تر است! :))))

این مطلب که چند روز پیش بالاترین رنک رو در بین مطالب سایت hackernews داشت رو قبلا شنیده بودم، اما مقایسه‌ی دقیقش رو ندیده بودم و خیلی برام جالب بود. نظرتون راجبش چیه؟ :))

@sinusealpha_channel
🤯6👍42
سینوسِ آلفا
🔹داستان e/acc و e/a چیه؟ هرگز فکر نمی‌کردم قضیه این‌قدر جدی باشه! تقریبا کل دنیا به دو دسته‌ی e/acc و e/a تقسیم شده‌اند و یک‌جورهایی می‌شه فرقه‌های جدید بین‌المللی نام‌گذاری‌شون کرد. من خیلی دقیق نمی‌شناختم‌شون، اما وقتی این مطلب رو خوندم فهمیدم که قضیه…
اگر این پست را دیدید و علاقه‌مند شدید، فکر می‌کنم که چیزهایی که در ادامه می‌نویسم هم برای‌تان جالب باشند.

دیشب، اپیزود جدیدی از lex fridman podcast منتشر شد که guillaume Verdon یا همان beff jezos و بنیانگذار e/acc مهمانش بود! (لینک)

این فرد که پژوهشگر بسیار برجسته و بنیانگذار شرکت Extropic هم هستش (+) دوتا اکانت در توییتر داره. یکی اکانت رسمی خودش و یکی هم اکانت ناشناس beff jezos و درمورد این‌که چرا شروع به صحبت کردن راجع‌به این موضوعات کرد و چی‌شد که این اکانت رو ساخت می‌گه:
"restricting your speech back propagates to restricting your thoughts."

ترجمه: محدودکردن آزادی بیان‌تان باعث محدود‌شدن آزادی فکرتان می‌شود.

و بزرگ‌ترین نگرانی‌اش رو [که چندین بار در طول پادکست تکرار می‌کنه] هم centralization می‌دونه و می‌گه:
"if you have a topdown hierarchy where very few poeple control many nodes of many systems in our civilization, that is not a fall tolerance system. just like we saw at OpenAI!"

ترجمه: اگر سلسله‌مراتب بالا به پایینی داشته باشیم که در آن افراد کمی کنترل بسیاری از چیزها را داشته باشند، این سیستم در برابر سقوط و نابودشدن تحملی نخواهد داشت. دقیقا همان‌طور که در OpenAI دیدیم [که با تصمیم ناگهانی چند نفر ممکن است تا چه حد سیستم تغییر کند]!

درمورد این‌که e/acc خطرات احتمالی AI را به چه صورت در نظر می‌گیرد هم پاسخ داد که:
«افراد و سازمان‌هایی که از یک ai استفاده می‌کنند، مسئول نتایج آن هستند و چون آن‌ها باید برای استفاده‌شان پاسخ‌گو باشند، پس ai هایی که unreliable باشند را نخواهند خرید و بازار اگر به این صورت طراحی شود، ai های unreliable کلاً نخواهیم داشت.»


اما این پاسخ خیلی [برای من حداقل] قانع‌کننده نبود و بنظرم، هم می‌شد پاسخ بهتری داد و هم می‌شد که قبول کرد که این دیدگاه، توجه زیادی به چیزی که [به‌نظرش] احتمالش کمتر از 0.001% است ندارد! بهرحال بنظرم پاسخ خوبی نبود.

در این‌که چطور به آینده فکر کنیم هم حرف بسیار جالبی زد [که من شبیه‌اش را قبلا از ایلان ماسک شنیده بودم].
"we can't actually predict the future and all we know, the only prior we have is the laws of physics. so the laws of physics says the system will want to grow."

ترجمه: ما در واقع نمی‌توانیم آینده را پیش‌بینی کنیم و همه‌ی چیزی که می‌دانیم قوانین فیزیک است و قوانین فیزیک می‌گویند که یک سیستم می‌خواهد که رشد کند.

درضمن، یک‌سری بلاگ و توییت جالب هم در این پادکست معرفی شد که بعضی از اون‌ها رو خوندم و در ادامه درموردشون می‌نویسم.

#هوش_مصنوعی
@sinusealpha_channel
3👍1🔥1
سینوسِ آلفا
اگر این پست را دیدید و علاقه‌مند شدید، فکر می‌کنم که چیزهایی که در ادامه می‌نویسم هم برای‌تان جالب باشند. دیشب، اپیزود جدیدی از lex fridman podcast منتشر شد که guillaume Verdon یا همان beff jezos و بنیانگذار e/acc مهمانش بود! (لینک) این فرد که پژوهشگر بسیار…
درضمن بهتره که این رو هم اضافه کنم.

وقتی lex ازش پرسید که نظرت راجع‌به e/a چیه، پاسخش خیلی خیلی خوب بود. همچین پاسخی داد:
"we're both trying to do good but we're arguing which loss function we should use. their loss function is hedonism (how good do you feel for how much time) and suffering is the negative of hedonism, so they want to minimize that. but our loss function is very objective. something to measure the progress in the longterm."


چرا می‌گم خوب بود؟ چون بنظرم خیلی مهمه که به دور از توهین و افترا و... گفتگو کنیم و این، دقیقا چیزی هستش که اغلب طرفداران e/a در مقابل e/acc رعایت نمی‌کنند!

حالا من بعضی از e/accها رو هم دیده‌ام که بسیار بد برخورد می‌کنند، اما این مدل صحبت‌کردن، یعنی قصد جنگ نداریم و همه‌مون داریم برای دنیای بهتری تلاش می‌کنیم [و اگر درست صحبت نمی‌کنید، یعنی همچین هدفی ندارید].

پی‌نوشت: بعد از این پادکست به شدت علاقه‌مند شدم که درمورد complex systems بخونم. کسی پیشنهادی داره؟ :)

#هوش_مصنوعی
@sinusealpha_channel
3👍3
سینوسِ آلفا
اگر این پست را دیدید و علاقه‌مند شدید، فکر می‌کنم که چیزهایی که در ادامه می‌نویسم هم برای‌تان جالب باشند. دیشب، اپیزود جدیدی از lex fridman podcast منتشر شد که guillaume Verdon یا همان beff jezos و بنیانگذار e/acc مهمانش بود! (لینک) این فرد که پژوهشگر بسیار…
خب شاید شما هم دوست داشته باشید که درمورد effective accelerationism یا همون e/acc بیشتر بدونید :) و برای این منظور، پیشنهاد می‌کنم که این مطلب رو یک نگاهی بیاندازید:
https://effectiveaccelerationism.substack.com/p/what-the-f-is-eacc

این مطلب، توسط خود GV و در حدود یک و نیم سال پیش نوشته شده و به صورت خیلی خلاصه و جالب توضیح می‌ده که قضیه دقیقا از چه قراره.

قشنگ‌ترین جمله‌اش هم [که بنظرم کل بحث حول اون می‌چرخه و توی پادکست هم هر سری به مدل‌های مختلفی تکرار شد] این هستش:
"Degrowth is a wolf in sheep’s clothing."


اگر از این مطلب هم خوشتون اومد، پیشنهاد می‌کنم که بلاگ دیگری که به اصول این موضوع می‌پردازه [و خود beff jezos اون رو نوشته] رو هم ببینید:
https://beff.substack.com/p/notes-on-eacc-principles-and-tenets

#هوش_مصنوعی
@sinusealpha_channel
🤯3👍2🤩2
سینوسِ آلفا
اگر این پست را دیدید و علاقه‌مند شدید، فکر می‌کنم که چیزهایی که در ادامه می‌نویسم هم برای‌تان جالب باشند. دیشب، اپیزود جدیدی از lex fridman podcast منتشر شد که guillaume Verdon یا همان beff jezos و بنیانگذار e/acc مهمانش بود! (لینک) این فرد که پژوهشگر بسیار…
آقای ویتالیک بوترین رو هم احتمالا می‌شناسید. هم‌بنیانگذار اتریوم. ایشون اومده یک دیدگاه جدیدی (d/acc) رو در این زمینه مطرح کرده که خب با e/acc یه کمی فرق می‌کنه، اما قابل توجه [و ارزشمند] هستش. توی این اپیزود هم یه کمی درموردش حرف زدند.

درمورد این موضوع دیگه توضیح نمی‌دم و برای مطالعه پیشنهاد می‌کنم که اول رشته‌توییت خود بوترین رو ببینید:
https://twitter.com/vitalikbuterin/status/1729251808936362327?s=61&t=TRHf63oGzIu05YDoqXXrtQ

بعدش هم این مطلب رو ببینید که بر پایه‌ی همون رشته‌توییت معروف نوشته شده:
https://digifinex.medium.com/vitalik-buterins-d-acc-a-revolutionary-approach-to-technological-development-and-decentralization-37c565d88899

در کل هم اگر بخوام بگم، این دیدگاه‌های physic-first [که واقعا هم جالب‌اند] بسیار طرفدار پیدا کرده‌اند و سعی می‌کنم که اگر در ادامه هم چیزی مرتبط با این موضوع را مطالعه کردم، این‌جا shareای کنم.

#هوش_مصنوعی
@sinusealpha_channel
5👍1
آقای Alexandr Wang رو می‌شناسید؟

ایشون الان ۲۶ سالشه و در ۱۷ تا ۱۹ سالگی Tech lead در quora بوده. یه مدتی MIT درس خونده [و انصراف داده] و الان هم ۷ سالی میشه که شرکت scaleAI رو راه انداخته و market cap این شرکت، در حال حاضر 7.3B$ هستش! paul graham هم بهش لقب سم آلتمن بعدی رو داده و کلا هم فرد مشهوریه. (linkedin)

ایشون امروز مطلبی رو منتشر کرده و در اون درس‌هایی که از سال ۲۰۲۳ گرفته رو نوشته. پیشنهاد می‌کنم این مطلب رو نگاه کنید:

👉Link to blog

بهترین جملاتش هم به نظر من این‌ها بودند:

- Advice tends to be 90% wrong and 10% right.

- Fight for exceptional people. Every exceptional person is the product of unique circumstance, and they deserve to be fought for.

- When the future is being built, small decisions have monumental impact.

- The conceit of an expert is a trap. Strive for a beginner’s mind and the energy of a novice.

پی‌نوشت: وقتی می‌گم خیلی خوبه که درس‌هایی که از یه چیز یا یه سال گرفتیم رو share کنیم منظورم همچین چیزیه و کاش یه نفر هم اینو ترجمه کنه😄

@sinusealpha_channel
4👍3🤯3🔥2🤩1
🔹چه کسی این کتاب را به من پیشنهاد داد؟

این روزها بواسطه‌ی «پادکست ۳۰دی»، خیلی به خود موضوع «خواندن کتاب و پیشنهاد دادن آن» فکر می‌کنم و در حال نوشتن مطلبی در همین زمینه هم هستم. متنی که در ادامه می‌آید، بخشی از این مطلب است.


"من همیشه درمورد این‌که «از کجا می‌توان کتاب‌هایی که ارزش خواندن دارند را یافت» کنجکاو بوده‌ام. هرگز پاسخ ثابتی نداشته‌ام و در دانشگاه و اغلب خارج از دانشگاه، سرگردان به دنبال کتاب‌های خوب بوده‌ام. راه‌های یافتن کتاب خوب برای من بسیار متفاوت بوده‌اند، اما این را می‌دانم که همه‌ی کتاب‌های خوب را کسی «پیشنهاد» داده است. البته نه لزوما به من.

به‌طور کلی هم رسم «پیشنهاد ‌دادن کتاب» را بسیار دوست دارم. بهترین پیشنهاد هایم هم [به زعم خودم] همواره از نوع مطالعه‌ی یک کتاب بوده‌اند. همچنین معتقدم که در پیشنهاد ‌دادن کتاب، یک عنصر [و فقط یک عنصر] به شدت اهمیت دارد. فرد پیشنهاد دهنده.

«فرد پیشنهاد دهنده» مهم‌ترین بخش است. خیلی تعیین کننده است. اهمیتش حتی از عنوان و ژانر و نویسنده‌ی کتاب هم بالاتر است. به همین علت، معرفی کتاب، بدون ذکر فرد پیشنهاد دهنده‌اش بی‌معنی است. همان‌طور که برای هیچ کدام از ما مهم نیست که در توضیحات یک کتاب در دیجی‌کالا، چه تعاریفی از آن آمده است. پس در اهمیتش هم‌نظریم. اما چه تفاوتی بین افراد پیشنهاد دهنده وجود دارد؟

«اغلب» افرادی که ممکن است کتاب خوبی را به ما معرفی کنند، انسان‌های موفقی هستند. در حرفه‌شان. در سطح جهانی. پس خوب است اگر برویم و کتاب‌هایی که این افراد پیشنهاد می‌کنند را بخوانیم. اما این کار خیلی هم بهینه نیست. زیرا در این صورت، اولا لیست کتاب‌هایی که باید بخوانیم بسیار طولانی می‌شود و تعداد زیاد، عملا فرقی با «معرفی نکردن» ندارد. چرا که معرفی کردن همان «فرق گذاشتن بین خوب و بد» است و داشتن یک لیست پانصدتایی از کتاب‌هایی که قرار است بخوانیم، به معنی این است که هیچ تفاوتی قائل نشده‌ایم.

دوما، این افراد اغلب کتاب‌هایی که خودشان در «گذشته» مطالعه کرده‌اند [و برای‌شان مفید بوده است] را معرفی می‌کنند. اما آینده هیچ‌وقت با گذشته یکسان نبوده است. پس کتاب‌های مفید قدیمی [بجز موارد معدودی] در رده‌ی «تکنیک»، لزوما پاسخی برای آینده نخواهند داشت. حالا ممکن است به این نتیجه برسیم که بهتر است کتاب‌هایی که آن افراد [با فرض این‌که در آینده هم موفق هستند و هر کسی که احتمال موفقیت‌اش در آینده را می‌دهیم] «همین امروز» در حال مطالعه‌اش هستند را بخوانیم. اما چگونه؟ ممکن است روش‌هایی وجود داشته باشد."


ادامه دارد...

@sinusealpha_channel
12👍3
🔹اگر توانایی تشخیص درستی یا نادرستی پاسخ‌های هوش مصنوعی را ندارید، احتمالا جواب‌های نادرست‌تری هم دریافت خواهید کرد!

این مقاله که توسط anthropic منتشر شده رو امروز دیدم، اما تقریبا ۲۰ روزی از انتشارش می‌گذره. به طور کلی، اومده‌اند وضعیت پاسخ‌دهی و رفتار مدل‌های زبانی (مثل ChatGPT) رو با یه سری آزمون‌ها بررسی کرده‌اند و یکی از بررسی‌ها «sandbagging» نام داره و نتایجش رو می‌تونید توی تصویر مشاهده کنید.

این عبارت sandbagging هم جالبه. به معنای این هستش که مدل، پاسخ درست رو می‌دونه اما به دلایلی، اون پاسخ رو به ما نمی‌گه [یا به صورت کلی‌تر، توانایی‌اش رو پنهان می‌کنه]! یکی از این دلایل، فهمیدن این هستش که «ما نمی‌تونیم درستی اون پاسخ رو ارزیابی کنیم»! عجب!

پی‌نوشت:‌ البته این موضوع درمورد مدل‌های Pre-GPT4 بررسی شده و الان ممکنه اوضاع تغییر کرده باشه.

#هوش_مصنوعی
@sinusealpha_channel
👍5🤯31😁1