MatlabTips
890 subscribers
462 photos
72 videos
54 files
304 links
آموزش MATLAB با "استفاده از ویدئو و متن" در سطوح مبتدی تا پیشرفته
پاسخ به سوالات تخصصی:
@roholazandie
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
ویدیویی که میبینید ساخته ی گرافیک کامپیوتری (CGI) نیست!‌ این یکی از کارهای یک هنرمند است که فقط با استفاده از مواد شیمیایی مختلف بخصوص ferrofluid یا فروسیال که خاصیت مغناطیسی دارند چنین الگوهای عجیب و «زنده» life like میسازد.

جالبترین نکته ی این ویدیوها نظم و پیچیدگی عجیب ساختارهایی است که از قوانین فیزیکی ساده ای پیروی می کنند. برخی از این سیستم ها مانند Ising model در فیزیک بررسی شده اند و شباهت های بسیار بنیادی آنها با حیات و ساختارهای پیچیده تر زیست شناسی مطالعه شده اند. بطور مثال چنین سیستم هایی از اساس خود سازمانده ‌self organized هستند یعنی برای ایجاد و نگه داری خود نیاز به خالق یا یک کنترل مرکزی ندارند. اطلاعات را با کارایی بسیار بالا پردازش میکنند و برخلاف سیستم های مهندسی مقاومت زیادی در برابر تغییر دارند و تابع قوانین فرگشت (evolution) هستند. بسیاری معتقدند فیزیک پیچیدگی و سیستم های دینامیکی غیر خطی در نهایت پاسخی برای حیات و پیچیدگی های بی انتهای جهان زیست شناسی را برای ما فراهم میکند. در مورد چنین سیستم هایی بیشتر صحبت خواهیم کرد.

منبع
MatlabTips
مشتق کسری قسمت دوم بر روی ویرگول بخوانید https://vrgl.ir/0PQio
در طول چند دهه ی اخیر فیزیکدانان حالت های جدیدی از ماده را بررسی می کنند که قوانین فرآیندهای تصادفی مخصوص به خودشان را دارند. این حالت های جدید در واقع همان حرکتهایی است که در «مقیاس» های مختلف موجودات زنده مشاهده شده است. به صورت کلاسیک فرآیند های تصادفی مانند حرکت مولکول ها در هوا یا مایع از قانون حرکت براونی (Brownian motion) پیروی می کند. یک مثال معروف آن حرکت قطرات جوهر است وقتی در آب ریخته می شوند. این نوع از حرکت بسیار مطالعه شده و ویژگی ها آن استخراج شده است. به طور مثال در حرکت براونی حالت سیستم در هر لحظه تنها به لحظه ی قبل تر آن وابسته است. این حقیقت از ویژگی خطی بودن پخش (diffusion) می آید. چنین ویژگی ای منجر به معادلات درجه ی اول در زمان برای پخش می شود. اما مطالعه ی حرکت ذرات تشکیل دهنده ی حیات به طور مثال پروتئین ها در سلول یا سلول های در بدن، حیوانات در زیست بوم نشان می دهند حرکت آنها تابع قوانین تصادفی پیچیده تری است. یکی از مهمترین ویژگی این نوع دینامیک این است که لزوما فقط به یک لحظه ی قبل وابسته نیست بلکه به لحظات قبل تر هم وابسته است. به نوعی در این گونه دینامیک نوعی از حافظه وجود دارد که باعث می شود سیستم در تعامل با خودش باشد. لازم نیست به چیزهای پیچیده فکر کنیم وقتی توپ های روی یک میز بیلیارد را هم حرکت دهیم می توان دید که حرکات سیستم به حرکات آن از زمان های بسیار قبل تر هم وابسته است. به طور مثال یک توپ ممکن است جهتی دیگر برود و به توپ دیگری که از زمان قبل کنار هم بوده اند برخورد کند. چنین چیزی بسیار ساده بنظر می رسد اما ویژگی مهمی است که امکان ایجاد خوشه و شکل های پیچیده تری را به وجود می اورد که پیش زمینه های وجود حیات است.
ریاضیات به پیشگامی سزاوار تر است
(خیام)
🌕 ریاضی زدگی فیزیک: بن بست و مسیر های نوین 🌕

خوانش های معمول برای فیزیک مدرن پر است از داستان های عجیب و غریبی که هر غیر ممکنی را با کوانتوم توجیه و «علمی» جلوه میدهد! چنین تصویری صد البته سطور کتاب های فهم عامه در مورد فیزیک را پر کرده است و صد البته چنین روشی بسیار جذاب و تعداد زیادی از ذهن های جوان را به خودش جذب میکند. من هم یکی از چنین نوجوانانی بودم! جاذبه ی فیزیک نه از فیزیک کلاسیک که فیزیک کوانتوم و نسبیت است که نوجوان به دنبال چیزهای عجیب و غریب، باحال (کول) و البته دنباله ی سوالات معنی دار تر مانند هستی و آفرینش میبرد. چنین روشی البته در مجموع شاید بهترین دریچه به چنین دنیایی باشد اما آنچه چنین موضوعاتی مانند مفاهیم فیزیک جدید را جالب می کند شاهکار ریاضی ساختار آن هاست. برخلاف فیزیک کلاسیک که به مجموعه ای از قوانین جدا و تجربی و دور افتاده به هم می ماند فیزیک جدید یک تلاش بسیار بنیادی برای سازمان دهی کردن هر آن چه در مورد جهان میدانیم است. همه چیز از زمان و فضا و ماده و نیرو در یک چارچوب یکپارچه!
در این تلاش بخش های جدا شده ی فیزیک مانند الکترومغناطیس، نسبیت یا کوانتوم و ترمودینامیک دیگر از هم دور افتاده نیستند بلکه یک ساختار واحد دارند. مهم ترین دستآورد مکانیک کوانتوم فقط پیش بینی های دقیق آن نبود بلکه شکستن ساختار های گذشته در مورد اینکه طبیعت چگونه کار می کند است. برای این منظور فیزیک جدید دست به دامان ریاضیات شده است. با اینکه چنین وضعیتی به ظاهر فیزیک را غیر شهودی تر می کند اما در عمل دریچه های عجیبی به ساختار های داخلی «واقعیت» (reality) باز می کند. فیزیک کلاسیک دیگر مقادیر سرعت و مکان را با متغیر ها بازنمایی نمیکند بلکه از اپراتور ها بهره می برد. به عبارت دیگر «مشاهده ی مکان» یک عمل بر روی جهان خارج است و بنابراین باید مانند یک اپراتور با آن برخورد کرد. این اپراتور جهان خارج را تغییر داده و یک مقدار بر میگرداند که «اندازه ی مکان» در یکای متر است! این اندازه در مشاهدات گوناگون مقدار واحدی را بر نمیگرداند اما این مقادیر دارای توزیع مشخصی هستند که با مقدار ویژه (eigenvalue) آن اپراتور مشخص می شود. این تغییر دیدگاه اساسی به زیبایی تمام در ریاضیات کوانتوم قرار گرفته است. چنین دیدی به نتایج جالبی منجر می شود به طور مثال ترتیب «اندازه گیری مکان» و «اندازه گیری تکانه» قابل جابجایی نیست! یعنی اینکه کدام اول انجام شود نتایج را تغییر می دهد!

با اینکه چنین چیزی شهودی به نظر نمی رسد اما میتواند خاصیت گروهی از عملگر ها باشد به طور مثال پختن غذا و خوردن آن قابل جابجا کردن نیستند. چنین عملگرهایی از «جبر» خاصی پیروی می کنند. وقتی صحبت از جبر می شود مشخصا در مورد پایه ای ترین ویژگی ها صحبت می کنیم. به عبارتی فیزیک جدید ریاضیات کمتر شهودی را کاربردی کرد. اما این تازه اول ماجراست چرا که چنین جبر هایی به گروه (group) های مشخصی وصل می شوند که تفاوت آن ها در پایه ای ترین ویژگی های ممکن یعنی «تقارن» است. از لحاظ ریاضی دیگر نمی توان ازین ساده تر به جهان نگاه کرد. نگاه به جهان نه از دید نیرو یا جرم یا میدان ها بلکه از دید تقارن ها.

فیزیکدان ها بعد از مدت کوتاهی متوجه شدند که تقارن ها نقش بسیار کلیدی در ستون فقرات فیزیک و واقعیت قرار دارد. ما تقارن های بسیار پایه ای در مورد جهانمان داریم که معمولا به آن توجه نمی کنیم. به طور مثال ما انتظار داریم اگر در یک نقطه در جهان آزمایش کردیم و به نتایجی رسیدیم اگر در آن به نقطه ی دیگری جابجا شویم باید نتایج مشابهی بگیریم. یا اینکه آزمایشات باید در زمان های مختلف یکی باشد. قانون نیوتون باید هم الان هم ده سال پیش و هم ده هزار سال دیگر یکسان باشد. تقارن دیگر تقارن در جهت چرخشی در فضاست. اگر ما بچرخیم باز هم جهان نباید تغییر کند.
شاید یکی از معروف ترین چنین نتایجی مربوط به ارتباط تقارن با قوانین مرموز پایستگی باشد. در واقع نشان داده شد که تقارن در زمان به قانون پایستگی انرژی، تقارن در فضا به پایستگی تکانه، تقارن در جهت به پایستگی تکانه ی زاویه ای منجر می شود! اما این سوال جدیدی ایجاد می کرد. پایستگی بار الکتریکی از کجا می آید؟ این سوال فیزیکدان ها را بر آن داشت که ویژگی جدید و اسرار آمیزی برای الکترون ایجاد کنند به نام اسپین! اسپین دارای یک مقدار مختلط هست و اعداد مختلط دارای یک تقارن چرخشی هستند طوری که مقدار (absolute value) آن ها که متناظر با بار الکتریکی است، تغییر نمیکنند (یک دایره در فضای مختلط). به این ترتیب پایستگی الکتریکی ناشی از چنین تقارنی است. به این ترتیب راه برای کشف نیروهای جدید هم باز شد چون وقتی تقارن جدیدی پیدا شود باید یک میدان نیرو هم همراه آن باشد. به این ترتیب فیزیکدان ها وارد جهات بسیار عجیبی شدند. آن ها شروع به رسم شکل خود تقارن ها با هم کردند تا تقارن بین تقارن ها را پیدا کنند! چنین مسیری باعث شد نیرو هسته ای قوی و ضعیف کشف شوند.

این مسیر همچنین در را بر روی گشت بیشتر در فضای جبر هندسی و توپولوژی به فیزیک باز کرد. به این ترتیب فیزیکدان ها ابزارهای ریاضی جدید تری به فیزیک وارد کردند. به طور سنتی فیزیکدان ها از معادلات دیفرانسیل و حساب برداری برای بیان کردن قوانینشان استفاده می کردند. اما با وارد شدن به جبر هندسی دیگر امکان استفاده از چنین ابزارهای قدیمی ای وجود ندارد. فیزیکدان ها به دنبال حالت های بسیار انتزاعی تر از عملگر هایی مانند مشتق رفتند که به صورت کلی مشتق، گرادیان، ژاکوبی و کرل را در یک زبان واحد و مشترک بیان کند. چنین خواستی نظریه ریاضی فرم های دیفرانسیل (differential forms) را به فیزیک وارد کرد که زبان مشترک تمام فیزیکدان های امروز شده است. فرم های دیفرانسیل یک چارچوب ریاضی بسیار قدرتمند است که به طور مثال قادر است تمامی معادلات ماکسول را در یک معادله خلاصه کند. قدرت بیان فرم های دیفرانسیل آنقدر زیاد است که براحتی ابزارهای جدید به فیزیکدان ها می دهد که می توانند با بعد های بالاتر کار کنند. به این ترتیب فضاهای توپولوژی جدید با ابعاد بالاتر وارد فیزیک شد. امروزه فیزیکدان ها معتقدند که جهان ما در واقع از ۱۱ بعد تشکیل شده است.

برخی چنین ابزارهایی را هم یک شاهکار و هم یک مشکل بزرگ خطاب می کنند. شاهکار به خاطر اینکه چنین ابزار هایی دیدن عمیق تر واقعیت را ساده تر می کنند اما مشکل ازین جهت که برخی فیزیکدان ها را متهم به جدا شدن از واقعیت و فانتزی پرداز های ریاضی می کنند. گویی فیزیک در زمانه ی ما به چنین مشکل عظیمی دچار شده است. ریاضی زدگی بیش از حد بخصوص در مورد افرادی مانند ادوارد ویتن (Edward Witten) که به سختی (حتی با استاندارد های امروزه) می توان او را فیزیکدان نام گذاشت (بیشتر یک ریاضیدان است) یکی از آفت های علوم بنیادی شده است.
با این حال باید اذعان کرد که حتی نظری ترین فیزیکدان نباید از دیدن واقعیت اطراف و سر زدن به موضوعاتی که شاید آن ها را دون شان بررسی علمی بداند، صرف نظر کند. در دهه های اخیر فیزیکدان های بیشتری وارد علوم زیست شناسی، کامپیوتر و جامعه شناسی هم شده اند. واقعیت این است که ما سوال های عمیق تر دیگری هم داریم که راه بررسی آن ها بسیار ساده تر و پیش بینی ها با معنی تر هستند. مهم ترین مثال آن سیستم های پیچیده بخصوص در حوزه ی زیست شناسی است. چنین مسائلی نه تنها کاربرد روزمره خواهد داشت بلکه ویژگی عمیق ترین سطح سوالات بنیادی بشر را دارد. این که حیات و سیستم پیچیده چگونه به وجود آمد و چرا جهان به صورتی است که هر روز جلوی چشممان میبینیم؟ این مسیر اگرچه به نظر غیر قابل بررسی بنظر می آید اما فیزیک امروز سنگ بناهای خوبی برای چنین بررسی هایی در اختیار ما می گذارد. تنها نیاز به یک تغییر دیدگاه یا شاید انقلاب علمی جدید باشیم.
آیا به ناظم نیاز داریم؟ (قسمت ۱)

«گل پرنده سبز» (green flowerbird) گیاهی ست که در قسمت های غربی استرالیا می روید و شکل عجیب و غریبی دارد. وقتی به آن نگاه میکنید شبیه به یک پرنده است. زیست شناسانی که بر روی این گل تحقیق کرده اند متوجه شده اند که گیاه از چنین ترفندی استفاده می کند تا خود را شبیه به پرنده کرده و به این ترتیب مانع جمع شدن حشرات موذی به خود شود! این وفق یافتن طبیعی می تواند براحتی دست مایه ی تصوراتی در مورد این موضوع شود که چنین کاری بدون «خلق» و «طراحی» امکان پذیر نیست. قطعا چنین سطحی از پیچیدگی نتیجه ی قوانین تصادفی و کور نیست. اولین سوالی که به ذهن خطور می کند این است که گیاه حتی از کجا می داند که یک پرنده چه شکلی است که خود را شبیه به آن کند؟ تنها حالتی که می توان آن را توضیح داد این است که گیاه طبق یک «طراحی» از پیش مشخص شده رشد کرده و به شکل کنونی خود رسیده باشد.

«گل پرنده» البته تنها مورد در طبیعت نیست که چشم ناظر انسانی را به خود خیره و ما را در عمق پیچیدگی خود مقهور می کند. طبیعت برای چشم های تیزبین یک دانشمند پر است از چنین ظرافت هایی! از طرفی توضیح مساله به عنوان یک «طراحی» از پیش تعیین شده بیشتر از آنکه یک توضیح باشد یک میانبر ذهنی، تنبلی تفکر و وارد کردن عناصر غیر قابل توضیح بیشتر است. اما فراتر از آن چنین تصوری پیچیدگی و خلاقیت بی نظیر طبیعت در موقعیت های مختلف را با شباهت دادن آن به فرآیند خلق انسانی مبتذل و سطحی می کند. حالا سوال این است که چطور می توان چنین چیزی را فهم کرد؟ (ادامه در لینک زیر)

https://vrgl.ir/VqV9z
گل پرنده
States of Matter
By David L. Goodstein 😅
This media is not supported in your browser
VIEW IN TELEGRAM
معادله ی موج (سمت راست) و معادله ی گرما (سمت چپ). نحوه ی پخش کاملا متفاوت این دو پدیده در حضور شرایط مرزی (مثل یک اتاق) ناشی از تفاوت بنیادین در نحوه ی تغییر است.
در معادله ی موج مشتق دوم تابع نسبت به زمان معادل با مشتق دوم نسبت به مکان (لاپلاسین) است. اما در معادله ی گرما مشتق اول تابع نسبت به زمان است که با مشتق دوم نسبت به مکان رابطه دارد.
MatlabTips
معادله ی موج (سمت راست) و معادله ی گرما (سمت چپ). نحوه ی پخش کاملا متفاوت این دو پدیده در حضور شرایط مرزی (مثل یک اتاق) ناشی از تفاوت بنیادین در نحوه ی تغییر است. در معادله ی موج مشتق دوم تابع نسبت به زمان معادل با مشتق دوم نسبت به مکان (لاپلاسین) است. اما…
بیاید سعی کنیم کمی شهودی تر این معادلات را درک کنیم. لاپلاسین در هر نقطه نشان دهنده ی تغییرات درجه ی دوم است (اصلا میتوانید لاپلاسین را بامشتق دوم یکی بدانید) یعنی اگر نقطه ای دارای لاپلاسین مثبت باشد یعنی آن نقطه از اطرافش کمتر است (در یک دره). و اگر لاپلاسین منفی باشد یعنی آن نقطه از اطرافش بیشتر است (در یک قله). مثلا اگر به معادله ی گرما نگاه کنیم لاپلاسین مثبت به این معنی است که این نقطه از اطرافش سرد تر است. اگر لاپلاسین منفی باشد یعنی این نقطه از اطرافش گرمتر است. به این ترتیب معادله ی گرما می گوید اگر یک نقطه از اطرافش سرد تر باشد (لاپلاسین مثبت) مقدارش در آن نقطه به تدریج زیاد میشود. از طرفی اگر یک نقطه از اطرافش گرمتر باشد (لاپلاسین منفی) آن نقطه به تدریج سرد تر می شود چون مشتق تغییراتش منفی است! در مجموع این بدان معنی است که نقاط گرم و سرد به تعادل می رسند.

حالا به معادله ی موج نگاه کنیم. اینجا با گرما و سرما سر و کار نداریم بلکه با بالا و پایین بودن موج سر و کار داریم. اگر یک نقطه از موج پایین تر از اطرافش باشد (یعنی لاپلاسین مثبت باشد) شتاب تغییراتش برای برگشتن مثبت است. تصور کنید یک کش را به پایین کشیده اید. در پایین ترین حالت کش تمایل دارد با شتاب بالا برگردد. دقت کنید این با حالت قبلی که برای گرما داشتیم فرق دارد. در حالت گرما سرعت مثبت است و وقتی به سطح صاف رسید متوقف می شود. اما برای معادله ی موج این شتاب زیاد باعث برگشت کامل موج به حالت بالا می شود. وقتی هم موج بالاست (لاپلاسین منفی) به همان ترتیب با شتاب منفی زیاد میخواهد به پایین برگردد! کاری که موج انجام می دهد. نتیجه آنکه معادله ی موج به تعادل نمیرسید بلکه تا ابد بالا پایین میپرد.
ساز و کار GraphCast
پیش بینی هوای جهان با graphcast

پیش بینی هوا همیشه یکی از پر چالش ترین مسائل بوده است. پیش بینی هوا از طرفی یکی از حساس ترین پیش بینی ها در دنیای امروز است از کشاورزی و مسافربری هوایی تا برگزاری رویدادهای ورزشی پر هزینه به چنین پیش بینی هایی وابسته است. روش های کنونی بر پایه ی شبیه سازی های بسیار پیچیده بر اساس قوانین فیزیک است هستند. این روش ها توسط ابر کامپیوتر هایی محاسبه می شود که معادلات دیفرانسیل پیچیده را حل میکنند. قدرتمند ترین راه حل HRES یا (high resolution forecast) بود که یک سیستم پیچیده و بسیار پرهزینه است که توسط اتحادیه اروپا تامین می شود تا این که deepmind از راه حل جدید خود یعنی graphcast رونمایی کرد.

این مدل بر اساس graph neural network کار میکند و می تواند تا ۱۰ روز را با دقت بیشتری از HRES در کمتر از یک دقیقه پیش بینی کند این در حالی است که چنین پیش بینی برای HRES حداقل چهار روز طول می کشد!!

نحوه ی کار این مدل بسیار ساده است. ابتدا اطلاعات تمام کره ی زمین به یک مشبک های کوچک ۲۸ در ۲۸ کیلومتر تقسیم می شود. این اطلاعات شامل دما،‌وزش باد و غیره است. در مرحله ی بعدی اطلاعات یک همسایگی از هر مشبک گرفته می شود و در یک مشبک جدید دیگر که دارای شبکه های بزرگ تری است ذخیره می شود. این کار برای سایز های مختلف انجام می شود (چیزی که در شکل می بینید). این کار مانند این است که اطلاعات یک شهر را گرفته و بعد اطلاعات یک بخش بعد یک شهرستان بعد یک استان و یک کشور و در هر مرحله اطلاعات مرحله ی قبل تجمیع می شود(encoder). البته اینجا منظور از تجمیع لزوما جمع کردن یا میانگین گرفتن ساده نیست بلکه یک میانگین وزن دار با وزن هایی است که شبکه یاد می گیرد. مرحله بعد این است که اطلاعات گرفته شده در رزلوشن های مختلف با هم ترکیب شده و دوباره از آن ها برای پیش بینی همان کوچکترین مشبک ها منتها برای ۶ ساعت بعد استفاده می کنند(decoder).

بعد از آنکه مدل آموزش دیده شد ورودی یک ساعت را به آن می دهند و مدل ۶ ساعت بعد را پیش بینی می کند و بعد آن خروجی دوباره به خورد مدل داده می شود (autoregressive) به این ترتیب مدل ۶ ساعت بعد تر را هم پیش بینی می کند. این کار را می توان برای آینده ی دلخواه انجام داد. صد البته به خاطر غیر خطی بودن سیستم آب هوایی هر چه پنجره ی زمانی به آینده بزرگ تر باشد دقت پایین تر می آید ولی با این حال دقت graphcast تا ۱۰ روز آینده بالاتر از ۹۰ درصد است که در ۹۹.۷ درصد مواقع از سیستم پر هزینه (و حالا هندلی) HRES بهتر کار می کند.

اما بهترین قسمت این کار این است که تمام کدهای این پروژه متن باز و در دسترس همگان است.

ویدیوی جذاب دیپ مایند برای این پروژه
This media is not supported in your browser
VIEW IN TELEGRAM
اکنون ChatGPT یک بدن هم دارد، ربات Figure 01 که هوشمندانه با دیگران ارتباط برقرار میکند
https://www.figure.ai/
Audio
یاد بعضی نفرات
روشنم می دارد.


قوتم می بخشد،
ره می اندازد،
و اجاق ِکهن ِسردِ سرایم
گرم می آید از گرمی ِعالی دم شان.


نام بعضی نفرات
رزق روحم شده است.
وقت هر دل تنگی
سوی شان دارم دست
جراتم می بخشد
روشنم می دارد.


نیما یوشیج
Forwarded from زانکو (Rohola Zandie)
🔵هوش عمومی مصنوعی: دریچه ای برای فلسفه های آینده🔵

در چند مدت اخیر بحث های زیادی در مورد آینده ی AGI (Artificial General Intelligence( و نه AI می شود. چه تفاوتی بین این دو وجود دارد؟ هوش عمومی مصنوعی چه چیز جدیدی به هوش مصنوعی اضافه می کند و آیا این یک پارادیم جدید است؟
یکی از بزرگترین دست آورد های چندین سال اخیر در هوش مصنوعی، علاوه بر محصولات خیره کننده بخصوص از طرف شرکت های بزرگ فناوری یک جهش بزرگ در مدل هایی شده است که انواع مختلف داده یا مدالیتی (modality) مانند متن، تصویر صوت و حتی ویدیو را به صورت همزمان مدل سازی می کنند. این پیشرفت اما فراتر از کاربردهای متنوعی است که از آن استخراج می شود بلکه یک قدم اساسی در ایجاد هوش بهتر است! استفاده از مودالیتی های گوناگون به طرز عجیبی باعث افزایش چشمگیر دقت مدل سازی هر کدام از مدالیتی ها به صورت جداگانه هم شده است. به این معنا که داشتن داده در مورد تصویر یک سیب در کنار متن آن و حتی یک ویدیو از آن به هر کدام ازین مدالیتی به صورت جداگانه کمک بسیار می کند به طور مثال جمله ی بهتری و بدون خطا تری در مورد سیب تولید می شود یا تصویر بهتری از آن تولید می شود. به چنین مدل هایی اصطلاحا generalist یا «همه فن حریف» گفته می شود. هوش عمومی مصنوعی هم اشاره ای به «همه فن حریف» بودن چنین مدل هایی دارد.
به صورت سنتی هوش مصنوعی مساله ی هوش را به وظیفه ها (task) جداگانه ای تقسیم می کرد و هدف حل کردن آن ها به صورت جداگانه بود. این البته یک روش مهندسی معمول است. به طور مثال اگر شما یک خانه بخواهید بسازید کسی که سیم کش است لزومی ندارد اطلاعات فندانسیون خانه را داشته باشد یا کسی که سیستم تهویه را طراحی می کند نیازی به ارتباط مستقیم با بنا ندارد. بیشتر سازه های مهندسی حتی پیچیده ترین آن ها اساسا ازین جهت ساختنشان ممکن هستند که ما به عنوان نوع بشر توانسته ایم یک تقسیم کار دقیق و کارا از فرآیند ساخت آن ها انجام دهیم و به این ترتیب بتوانیم یک جت یا زیردریایی یا پل بسیار عظیم مانند پل گلدن گیت (‌Golden gate) را بسازیم. با این حال چنین روشی که در هوش مصنوعی به صورت سنتی ادامه داشت به آخر خط رسیده است و دیگر نمیتوان انتظار داشت که هوش را با تقسیم کردن آن مدل سازی کرد برعکس هوش یک پدیده ی چند وجهی و بسیار در هم تنیده است که جدا کردن آن به بخش های گوناگون به کارایی آن آسیب جدی وارد می کند.

اما چرا هوش یه پدیده ی «عمومی» است؟ چرا هیچ مدلی تنها با دسترسی به متن نمی تواند تمام آنچه در مورد جهان وجود دارد را بداند؟ مقاله ی اخیری به نام The Platonic Representation Hypothesis یا «فرضیه بازنمایی افلاطونی» یک نگاه دقیق و کمی (quantitative) به پدیده ای است که در چند سال اخیر مشاهده شده است: با گذر زمان مدل ها به یک بازنمایی یگانه از جهان از رهگذر مدالیتی های مختلف (متن تصویر صوت و ویدیو و غیره) رسیده اند. این بازنمایی عمومی هر روز به بازنمایی ای که ما از جهان داریم نزدیک و نزدیک تر می شود و فاصله ی بین آنچه ما از واقعیت می دانیم و این مدل ها کمتر و کمتر می شود. به عبارتی دیگر به سختی می توان اشتباهاتی از نوع «درک نکردن جهان به صورت کلی»‌ در این مدل ها دیده می شود. به طور مثال یک مدل زبانی ممکن است تصور درستی ازینکه چه اتفاقی در پی رها کردن یک لیوان بر روی یک سطح بتنی یا یک پتو نداشته باشد چون چنین دانشی بیشتر نیازمند تصویر از جهان است و نه متن. اما چگونه این سیستم ها به چنین قابلیتی رسیده اند؟
بیایید فرض کنیم که ما می خواهیم چیزی مثل یک «صندلی» را بازنمایی کنیم. مفهوم صندلی با اینکه بسیار ساده بنظر می آید اما در عین حال تقریبا غیر قابل وصف است. آیا صندلی چیزی است که چهار پایه دارد؟ نه صندلی های سه پایه هم هستند. حتی صندلی های بدون پایه هم هستند! آیا صندلی چیزی برای نشستن است؟ صندلی های داخل موزه برای نشستن نیستند! وقتی به آن فکر کنید متوجه می شوید عملا چیز مشترکی در مورد مفهوم «صندلی» وجود ندارد که شما بتوانید همه ی اعضای مجموعه ی صندلی ها را با آن شناسایی کنید. این یک مساله ی قدیمی در فلسفه هم هست. ویتگنشتاین به آن «شباهت خانوادگی» (family resemblance) می گوید. شباهت خانوادگی به این معناست که تمام آنچه می توان از صندلی های مختلف درک کرد یک شباهت عمومی خانوادگی است مانند اینکه شما بسختی می توانید بین اعضای یک خانواده یک ویژگی مشترک پیدا کنید ولی در عین حال به طور شهودی می دانید همه ی آنها به نحوی شبیه به هم هستند! اما چنین چیزی چگونه در شبکه های عصبی رخ می دهد؟
Forwarded from زانکو (Rohola Zandie)
کار بسیاری دشواری نیست که شما یک شبکه ی عصبی را آموزش دهید تا با دقت خیره کننده ای تمام انواع و اقسام صندلی های مختلف را تشخیص دهد اما این شبکه چه ویژگی های مشترکی از «صندلی بودن» را استخراج می کند؟ این سوالی است که ذهن بسیاری را به خود مشغول کرد. با این حال بررسی وزن های درون شبکه با اینکه کمک کننده است راه به جایی نمی برد: شما در لابلای وزن های شبکه ی عصبی تصویر یک «صندلی افلاطونی» نخواهید دید! آنچه دیده می شود از قضا بسیار عجیب و غریب و شوکه کننده است. تصاویری که شباهت های تقریبی به چیزهایی دارند که بافت، شکل های هندسی نامنظم یا منظم و بعضا بخش هایی از یک صندلی است اما آنچه در نهایت رخ می دهد این است که چنین «ویژگی» هایی به صورتی «غیرخطی» با هم ترکیب می شوند تا آنچه در نهایت «بازنمایی» صندلی است را بسازند. در اینجا باید صبر کرد و قدری نسبت به ترکیب «غیر خطی» ویژگی ها دقت کرد. بسیاری از مفهوم سازی های ما ویژگی های خطی بسیار ساده ای دارند به طور مثال شما شاید به این فکر میکردید که جایی در شبکه ی عصبی پایه های صندلی را تشخیص بدهد و بخشی پشتی آن و بعد زیر آن و این قسمت ها روی هم قرار میگیرند! اما در عمل چنین «مفهوم سازی» نمی تواند تمام پیچیدگی های جهان را توضیح دهد. چیزی که به صورت ناخودآگاه در مغز ما هم رخ می دهند فرآیند مشابهی است. در مغز سیگنال های مختلف به صورت غیر خطی با هم ترکیب شده تا مفهموم سازی های پیچیده تر و پیچیده تری ایجاد کنند. به این ترتیب ما به توصیفاتی از جهان می رسیم که حتی به صورت دقیق نمی توانیم آن ها را به صورت خطی به اجزای سازنده اش بشکنیم!

اگر طبیعت «غیر خطی بودن» بازنمایی ها و مفهوم سازی را بپذیریم میتوانیم با استفاده از ابزار های پیچیده ی ریاضی نشان دهیم که حتی با وجود اینکه چیزی در زبان عادی در مورد «صندلی» بودن ثابت نیست یک تابع ریاضی نه چندان ساده «صندلی» بودن را توصیف کرده و به ازای تمام ورودی های مختلف شی «صندلی» ثابت و لایتغیر است.

f(x)=C if x is chair

«صندلی» بودن یک ترکیب غیر خطی از ویژگی های زیادی است که شبکه ی عصبی از داده های ورودی خود جمع آوری می کند. از دید ریاضی فضای تمام صندلی های ممکن یک رویه (یا منیفلد)‌در فضای با ابعاد بسیار بالاست. برای تصویر بهتر می تواند تصور کنید که چنین رویه ای به صورت زیر است
Forwarded from زانکو (Rohola Zandie)
رویه های مختلف توصیف کننده ی «گلدان» (vase( و «خانه ی پرنده»
Forwarded from زانکو (Rohola Zandie)
هر مفهومی در فضای ابعاد بالا یک رویه را مشخص می کند و رویه های عملا فضاهایی با ابعاد کمتر در فضای با بعد بالاتر هستند: شما اگر از روی رویه خارج شوید دیگر از فضای صندلی ها خارج شده اید. چیزی بر روی این رویه ثابت است و آن قاعده ی غیر خطی ای است که رویه را شکل می دهد. به اصطلاح به چنین تابعی که یک قاعده را مشخص می کند نامتغیر یا invariant گفته می شود.

(ادامه دارد)
جهان جبر خطی!
MatrixWorld.png
287 KB
نسخه ی اصلی