MatlabTips
892 subscribers
461 photos
72 videos
54 files
301 links
آموزش MATLAB با "استفاده از ویدئو و متن" در سطوح مبتدی تا پیشرفته
پاسخ به سوالات تخصصی:
@roholazandie
Download Telegram
در اینجا باید به چند نکته دقت کنیم. اول اینکه وقتی بحث از تانسور می شود شما عملا با ماتریس های با بعد بالاتر کار میکنید (در بیشتر کاربردهای هوش مصنوعی معمولا این بعد ها بیشتر از ۴ نمی شوند). در ریاضیات و به‌ویژه در برنامه‌نویسی برای یادگیری ماشین (مانند PyTorch یا TensorFlow)، تانسور (tensor) ساختاری کلی‌تر از ماتریس است:

عدد (scalar): تانسور مرتبه ۰ (rank-0)

بردار (vector): تانسور مرتبه ۱ (rank-1)

ماتریس (matrix): تانسور مرتبه ۲ (rank-2)

تانسور مرتبه ۳ یا بیشتر: آرایه‌هایی با ابعاد بیشتر، مانند (batch,time,height,width)

به عنوان مثال:
‍‍‍‍‍‍x = torch.randn(32, 64, 128)  # یک تانسور 3-بعدی (rank-3) با شکل (batch_size, sequence_length, embedding_dim)
اما وقتی با تانسورهایی با بیش از دو بعد کار می‌کنیم، دیگر "سطر" و "ستون" معنا ندارد چون ابعاد بیشتر شده‌اند. مثلاً در یک تانسور با شکل (B,T,D) نمی‌توان به‌سادگی گفت کدام "سطر" است و کدام "ستون" — بنابراین به‌جای transpose، از تابعی به‌نام permute یا transpose(dim1, dim2) استفاده می‌شود.

x = torch.randn(32, 64, 128)  # shape: (B, T, D)
x_t = x.transpose(1, 2) # shape: (B, D, T)


ترتیب‌دهی مجدد کامل ابعاد تانسور:
x = torch.randn(32, 64, 128)
x_perm = x.permute(2, 0, 1) # shape: (128, 32, 64)


در attention ما معمولاً کاری مثل این انجام می‌دهیم:
Q @ K.transpose(-2, -1)


اگر دقت کنید ما فقط نیاز داریم که دو محور آخر را جابجا کنیم (با محور اول که برای batch ست کاری نداریم). حتما کد های بالا را اجرا کنید تا متوجه تفاوت بشوید
یکی از کارهایی که می توانید انجام دهید تا تصویر بهتری داشته باشید این است که عملا شکل تانسور ها را بکشید! یک نمونه از معماری ترنسفورمر را در این شکل میبنید. اما حتما شکل بکشید تا تصویر شخصی از آن پیدا کنید
طول خط ساحلی بریتانیا به خط کشی که استفاده می کنید بستگی دارد!!
🔵بعد بریتانیا چقدر است؟🔵

لوئیس فرای ریچاردسون (Lewis Fry Richardson) در نیمه ی قرن بیستم به مطالعه ی طول خط ساحلی کشور ها مشغول شد. او در حال بررسی این بود که آیا می‌توان احتمال درگیری بین کشورها را بر اساس طول مرز مشترکشان پیش‌بینی کرد یا نه. اما در این مسیر متوجه پدیده‌ای عجیب شد: منابع مختلف، طول بسیار متفاوتی برای یک مرز یا خط ساحلی یکسان گزارش می‌کردند. به‌ویژه برای کشورهایی مانند بریتانیا.

مثلاً یک منبع می‌گفت طول خط ساحلی بریتانیا حدود ۲۴۰۰ کیلومتر است، دیگری ۳۴۰۰ کیلومتر و حتی منابعی بودند که ۱۲۰۰۰ کیلومتر گزارش می‌دادند! چرا این‌همه تفاوت؟

واقعیت این است که طول خط ساحلی به مقیاس اندازه‌گیری بستگی دارد!‌ اگر با خط‌کشی به طول ۱۰۰ کیلومتر اندازه بگیرید، از بسیاری از خلیج‌ها، بریدگی‌ها و پیچ‌وخم‌های کوچک عبور می‌کنید. اما اگر خط‌کش شما فقط ۱ کیلومتر باشد، جزئیات بیشتری را ثبت می‌کنید. و اگر به اندازه ۱ متر یا حتی کوچک‌تر برسید، حتی فرورفتگی‌های کوچک، سنگ‌ریزه‌ها و دانه‌های شن را هم لحاظ خواهید کرد. هرچه واحد اندازه‌گیری کوچکتر باشد، طول خط ساحلی بیشتر می‌شود.

این مشاهدۀ عجیب همان پارادوکس خط ساحلی است:

طول اندازه‌گیری‌شده‌ی یک خط ساحلی، هرچه مقیاس اندازه‌گیری کوچکتر شود، بدون حد افزایش می‌یابد.

این وضعیت معنای «طول» به صورت کلاسیک آن را بی استفاده می کند!‌ پس باید چه کرد؟
این پارادوکس توجه بنوآ مندلبرو (Benoit Mandelbrot) ، ریاضی‌دان فرانسوی را جلب کرد. او در سال ۱۹۶۷ مقاله‌ای معروف با عنوان «خط ساحلی بریتانیا چقدر طول دارد؟ خودشباهتی آماری و بُعد کسری» منتشر کرد. اون دریافت که اشکال طبیعی مانند خط ساحلی، طول دقیقی در معنای کلاسیک ندارند. این اشکال دارای خودشباهتی هستند؛ یعنی الگوهای مشابهی در مقیاس‌های مختلف ظاهر می‌شوند. مندلبرو مفهوم بُعد فرکتالی را برای اندازه‌گیری این پیچیدگی معرفی کرد.

برای یک خط صاف (یک بعدی)، بُعد آن برابر با ۱ است.
برای یک صفحه (دو بعدی)، بُعد آن ۲ است.

اما بعد خط ساحلی بریتانیا بین خط و صفحه است!! مقدار اندازه گیری شده ۱.۳۳ است. اما یافتن بعد فقط محدود به چنین موجودیت های جغرافیایی نمی شود. هر چیزی اطراف ما یک بعد دارد حتی زبان! در قسمت های بعدی در مورد بعد «ماشین ها» و «ساختار های اطلاعاتی» بیشتر صحبت می کنیم!
🔵عصر ماشین های با ابعاد فراکتالی!🔵

آن که پرنقش زد این دایره مینایی کس ندانست که در گردش پرگار چه کرد (حافظ)


در بخش پیشین از «بعد» سخن گفتیم از فراکتال‌ها، این سایه‌های اسرارآمیز در مرز میان نظم و آشوب. اما اکنون، بیایید فراتر رویم. «بعد»، میتواند از دیدگاهی عمومی تر هم دیده شود. بگذارید آن را در دل پویایی ببینیم: در ماشین‌هایی که نه تنها می‌اندیشند، بلکه انتخاب می‌کنند.

فرض کنید جهانی را داریم که در آن هر لحظه، آینده ی دقیقاً مشخص دارد؛ آینده‌ای که با بی‌رحمی ریاضی تعیین شده است. در چنین جهانی، شما آزادی ندارید. تنها یک مسیر است که باید آن را پیمود. این همان دنیای ماشین‌های متعین (deterministic automata) است، اتومات‌هایی که بدون تردید و بدون رؤیا، از یک وضعیت به وضعیت بعدی می‌خزند. شما قفل شده‌اید. در اسارت علیت. شکل زیر یک مثال از چنین حالتی است:
اما در جهانی دیگر، در ساختاری دیگر از ماشین‌ها، «آزادی» (انتخاب آزاد) از تارهای علیت سر برمی‌کشد. در اینجا، در هر نقطه می‌توانید بایستید یا حرکت کنید، انتخاب کنید یا نکنید. این همان آزادی است: جایی که امکان معنا می‌یابد. ساده ترین مثال آن شکل زیر است: در اینجا زبان ما فقط دو نماد ۰ و ۱ دارد و دو حالت برای حرکت بین آن ها:
و آنگاه، نوعی میانجی، میان این دو جهان می‌زاید: اتوماتای جابجایی با نسبت طلایی.(golden mean shift automata) نه کاملاً آزاد، نه کاملاً مقید. گاه انتخاب دارید، گاه ندارید. چیزی شبیه به ساحت وجود ما، در مرز میان تقدیر و اراده. در شکل زیر ساده ترین نمونه ی اتوماتای طلایی را می بنید (که قبلا هم آن را بررسی کردیم)
اگر مسیرهای ممکن را بُعد بنامیم، پس ماشین‌های متعین بُعدشان یک است: یک مسیر، یک انتخاب. اتومات دومی که بررسی کردیم بُعدش دو است: در آن هر حالت دو مسیر پیش روی شماست: در هر حالت هم می توانید در آنجا بمانید یا به حالت دیگر بروید. اما در اتوماتای نسبت طلایی، در یک حالت شما دو انتخاب دارید اما در حالت دیگر حرکت کاملا متعین است: «بُعد» (یا درجه ی انتخاب) در میان یک و دو است یک مقدار کسری یا به زبان دیگر فراکتالی. برای محاسبه «بعد» باید پرسید: در هر تغییر بر روی اتومات ها فضای حالت ها به چه نرخی رشد می کند! نرخ این رشد از قضا برابر با اولین مقدار ویژه (eigenvalue) ماتریس جابجایی اتومات (transition matrix) است.و این نرخ همان عدد طلایی‌ست. ۱.۶۱۸۰. بنابراین بعد چنین ماشینی عدد طلایی است!

در حقیقت، آنچه ما «بُعد» می‌نامیم، چیزی نیست جز آنتروپی؛ میزان آزادی، میزان پیچیدگی یا نسبت تقدیر و اراده: نسبت آزادی و اسارت. و همان‌گونه که پیش‌تر گفتیم، آنتروپی صرفاً بی‌نظمی نیست. آنتروپی، هندسه‌ی آزادی‌ست. نقشه‌ی مرموزی‌ست که نشان می‌دهد در کجا می‌توان بود و در کجا نه.

زبان ماشین‌ها نیز، زبان همین هندسه است. ما در نظریه‌ی زبان‌ها و اتوماتا، زبان‌هایی را تعریف می کنیم که اساس تمامی زبان های برنامه نویسی و ماشینی است. شما به یاد دارید که می توان ماشین هایی ساخت که زبان های ساده ای مانند (01)* یا تکرار 01 را ایجاد کنند ( regular expressions). در این نوع زبان ها احتمال رفتن از یک نماد به دیگری شکل های پیچیده تری را هم می سازند (زبان های حافظه دار و در نهایت ماشین تورینگ). در دسته ی زبان هایی که حرکت بین نماد های آن (در مثال بالا 0 , 1) احتمالاتی است ما با توالی های مختلفی مواجه هستیم که برخی از بقیه محتمل ترند. اگر حتی کلی تر به این موضوع نگاه کنید می توانید زبان های انسانی را هم توالی احتمالاتی از کلمات بدانید!
امروزه، مدل‌هایی در دل سیلیکون به نام ترنسفورمر (Transformers) ساخته‌ایم که وقتی به آن‌ها کلمه‌ای داده می‌شود، می‌توانند توزیع احتمال کلمه‌ی بعدی را با دقتی شگرف پیش‌بینی کنند.در مدل های زبانی امروزی وقتی یک کلمه به عنوان ورودی داده می شود مدل با دقت بسیار بالایی توزیع احتمال کلمه ی بعدی را پیش بینی می کند. به این ترتیب می توانیم یک نمونه از توزیع کلمه ی بعدی برداریم و همینطور کلمات بعدی و بعدی را بسازیم تا جملات و پاراگراف های طولانی ایجاد کنیم.

اینجا هم یک فضا وجود دارد از کلماتی که پشت سر هم می آیند و برخی از دنباله ها قابل قبول هستند (مثلا «او به بازار رفت» ) و برخی غیر قابل قبول (مثلا «بازار او رفت» ) یا حتی بهتر: چه دنباله هایی با احتمال بیشتری یا کمتری می آیند (احتمال بیشتر مانند «در کتاب نوشتم» و احتمال کمتر «کتاب پرواز کرد»). آنتروپی یا «بعد» چنین ماشینی تمام آن چیزی است که شکل آن را تعیین می کند. شاید الان بهتر متوجه شده باشید که چرا در مدل های زبانی آنتروپی را مینیمم می کنیم. چیزی که یک شبکه ی عصبی مانند مدل های ترنسفورمر یاد میگیرند تابع آنتروپی هر کلمه به شرط کلمات قبلی است. این آنتروپی فضای بسیار پیچیده و تو در توی زبان را با دقتی بالا تخمین می زند. کاری که حتی تا چند سال پیش غیر ممکن بنظر می رسید.


اما آیا راهی وجود دارد که این را حتی شهودی تر درک کرد؟ برای این منظور فرض کنید شما در یک اتاق هستید که اجسامی در آن وجود دارند. در این حالت هر درجه ی آزادی محدودیت هایی برایش ایجاد می شود. مثلا ممکن است شما براحتی نتوانید به چپ حرکت کنید چون تخت در سمت چپ شماست. اما اگر روی تخت بروید (یعنی در جهت بالا-پایین کمی بالا رفتید اید) می توانید کمی به چپ تر بروید. در اینجا ما با ابعاد فراکتالی روبرو هستیم. اینجا دیگر «بعد» فضا ۳ نیست بلکه بستگی به جایی دارد که قرار گرفته اید، بعضی جاها سه و بعضی جاها کمتر! «بعد» به روشی برعکس مشخص می کند که چه اجسام و اشیایی در فضای اتاق وجود دارند! اگر شما چشم هایتان را ببندید و فقط به صورت تصادفی در اتاق حرکت کنید (فرض کنید حتی می توان بالا پایین هم رفت) در عمل می توانید تمام اتاق را «اسکن» کنید. حتی می توانید این را با دقت بیشتری هم انجام دهید. اگر یک پهپاد به اندازه ی یه زنبور را داخل بفرستید می توانید حتی لیوان توی اتاق رو هم تشخیص بدهید.

مدل های زبانی به همین شکل فضای حرکت بین کلمات را «می روبند»، در ابتدا برخی از ویژگی های کلی به راحتی قابل تشخیص می شوند: مثلا درفارسی فاعل و بعد مفعول و بعد فعل می آید. این دقیقا مانند آن است که در اتاق شما اشیای بزرگ مثل مبل و شومینه را تشخیص دهید. اما اگر با دقت بیشتری نگاه کنید الگو های ریز تری دیده می شود. مثلا اینکه در انگلیسی صفت قبل از موصوف می آید. با ادامه دادن افزایش دقت می توان به جایی رسید که ترتیب کلمات «the capital of france is به درستی کلمه paris را به عنوان کلمه بعدی پیدا کند. اینجا جایی است که شما از مولکول ها برای اسکن کردن «شکل داخل اتاق» استفاده می کنید.

مدل های زبانی در ابتدا هیچ تفاوتی بین انتخاب کلمات نمی گذارند. سیگنال تغییر و کاهش انتروپی (هدف کوچکتر کردن آنتروپی است) باعث می شود شبکه به تدریج بفهمد که کدام کلمات نباید بعد از کدام ها بیایند. این مانند این است که شما در ابتدا باید فرض کنید در هر جای اتاق در هر جهتی می توان حرکت کرد (بیشترین آنتروپی) و سپس چشم هایتان را ببندید به جلو بروید و پایتان به مبل بخورد اینجا می فهمید که «کجا نمی توان رفت». اینجا باید به نکته ی مهمی دقت کنید. وقتی می گوییم مدل زبانی به کلمه توجه می کند باید به این نکته دقت کنید که آن چیزی که مدل به آن دقت می کند بردار کلمه است.این بردار به تدریج اطلاعات زیادی را در خود ذخیره می کند مانند اینکه این توکن«فعل» است یا «مذکر» است یا غیره و غیره. چنین است که این مدل ها قادر به پیدا کردن ویژگی های بسیار سطح بالاتری می شوند. البته چنین ویژگی هایی لزوما همیشه برای ما دقیقا به همان معناهای «فعل» یا «مذکر» یا «اسم کشور» یا «فحش» نیست. به این ترتیب ساز و کارهای داخلی چنین شبکه هایی احتمالا برای همیشه غیر قابل تفسیر خواهد ماند.

اما معنای عمیق‌تر این است:
آنتروپی، هندسه است.
هندسه، ساختار است.
و ساختار، شکل اطلاعات است: از چینش کلمات یک شعر یا اثبات ریاضی تا نقشه‌ی پخش انسولین در خون تا زبانِ خود کیهان.
به جای اتاق خیالی متن به کنگره (مقرنس) توجه کن! حرکت در ساختار پیچیده و منظم فضای درون کنگره ای به شکل بالا نیازمند تخمین هندسه ی آن است که در «بعد« یا «آنتروپی فضایی» آن تعریف شده است

(معماری مسجد شیخ لطف الله، اصفهان)
برگی از تاریخ

جنگ چالدران بین شاه اسماعیل یکم و سلطان سلیم در سال۸۹۳ خورشیدی آغاز شد! سپاه شاه اسماعیل با شمشیر و نیزه و کمان وارد جنگ با سپاه عثمانی شد که توپ و تفنگ داشتند! نتیجه ی جنگ شکست مطلق سپاه شاه اسماعیل بود
در سال‌های بعد، شاه تهماسب در پاسخ به نامه سلطان سلیمان که نوشته بود:
«پدران ما با یکدیگر جنگیدند. اگر تو هم مدعی شجاعت هستی، بیا با من بجنگ. اما اگر قصد جنگ نداری، دیگر ادعای شجاعت نکن»
این‌گونه پاسخ داد:
«خدای بزرگ و بلندمرتبه در قرآن فرموده است که هنگام جهاد و نبرد با کافران، خود را به هلاکت نیفکنید. وقتی خداوند در جنگ با کافران نیز ما را از به خطر انداختن جان‌مان نهی کرده، چگونه من اجازه دهم که دو سپاه مسلمان که نسبت تعدادشان آن‌چنان نابرابر است که در برابر هر ده نفر یک نفرند با هم بجنگند و مسلمانان را به کام مرگ بفرستم؟
پدر من، در آن روزی که با پدر تو جنگید، در حالی وارد نبرد شد که دورمیش‌خان و دیگر امرا، بلکه تمام لشکر او، مست بودند؛ از شب تا صبح شراب نوشیده بودند و بدون درایت و آگاهی تصمیم به جنگ گرفتند. این ماجرا بسیار ناپسند و نابخردانه رخ داد.
از آن زمان تاکنون، هر وقت از جنگ چالدران صحبت می‌شود، من دورمیش‌خان را نفرین می‌کنم، چون او بود که پدرم شاه اسماعیل را فریفت و او را به جنگی کشاند که نباید رخ می‌داد.»
🔵هوش مغز یا هوش بدن؟🔵

اگر شما به تمدنی ابتدایی برخورد کنید که نمیدانند مغز چیست و نقشش در آگاهی ما چیست احتمالا شوکه می شوید! پیش خودتان می گویید که این افراد تقریبا هیچ چیز در مورد «هوش» نمی دانند. تصور ما این است که هر آنچه «هوش» نامیده می شود ساخته و پرداخته ی قشر خاکستری مغز است! ارگانی که مقام پادشاهی بدن را دارد! حالا اگر به شما بگویم شما دستگاهی به همان پیچیدگی در بدنتان دارید که تقریبا تمام عمرتان از آن غافل بوده اید چه حسی پیدا میکنید؟

حجم عظیمی از شواهد تجربی در ۵۰ سال اخیر نشان می دهد که «سیستم ایمنی بدن» چیزی فراتر از یک سازمان ساده برای محافظت از بدن در برابر عوامل خارجی است! میزان پیچیدگی و ساختارمندی این سیستم آنقدر زیاد است که یک شاخه ی کاملا جدا «ایمنی شناسی» (immunology) به آن اختصاص داده شده است و هر جای آن هزار تویی است که انتها ندارد. اما جدای از پیچیدگی صرف این سیستم شباهت هایی مبنایی با مغز و آنچه یک سیستم هوشمند می خوانیم دارد.

هوش مصنوعی معاصر، در بنیاد خود، کوششی است برای بازآفرینی و مدل‌سازی فرایندهای ادراک انسانی. در این چارچوب، «ادراک» مجموعه‌ای است از کارکردهایی که مغز زیستی ــ با تأکید بر مغز انسان ــ برای شناخت و تفسیر جهانِ بیرونی انجام می‌دهد: از حواس پنج‌گانه چون بینایی، شنوایی، بویایی، چشایی و لامسه گرفته تا فرایندهای سطح بالاتر نظیر برنامه‌ریزی، حل مسئله و زبان.

گرچه نظام‌های کنونیِ هوش مصنوعی هنوز تا درک تامّ و تمام ادراک انسانی فاصله دارند، اما بر این پیش‌فرض استوارند که حرکت در این مسیر، توانایی تعمیم را افزایش می‌دهد؛ فرضیه‌ای که در ادبیات علمی با عنوان «فرض بازنمایی افلاطونی» شناخته می‌شود. بنابر این دیدگاه، انواع ادراک حسی در نهایت به بازنمایی‌هایی همگرا دست می‌یابند و فاصله‌های داده‌ها در این فضاهای متفاوت، در پرتو داده‌های بیشتر و آموزش گسترده‌تر، به هم نزدیک‌تر می‌شوند. به طور مثال بازنمایی های مفهومی مثل «سیب» در مدل های زبانی با مدل های تصویر و حتی صوت به هم نزدیک تر شده اند!

این همگرایی نشانگر آن است که در تلاش برای طراحی چارچوب‌های هوش مصنوعی، باید زیست‌شناسی را در تمامیت آن نگریست. چراکه زیست‌شناسی، تنها مغز را ابزار ادراک نمی‌داند؛ بلکه دستگاه‌های دیگری نیز در کارند. یکی از شگفت‌انگیزترین این دستگاه‌ها، نظام ایمنی است. همان‌گونه که مغز انسان، پیچیده‌ترین در میان گونه‌هاست، دستگاه ایمنی او نیز به همان اندازه ژرف، ظریف و نیازمند کاوشی عمیق است.

اگر کارویژهٔ بنیادینِ «مغز»، «تشخیص و طبقه‌بندی جهان بیرونی» باشد، پس پرسش بنیادین آن است که کارویژهٔ اصلی «دستگاه ایمنی» چیست؟
🔵هوش مغز یا هوش بدن؟ (قسمت دوم)🔵

ایمونولوژیست‌ها (ایمنی‌شناسان) معمولاً از واژگان شناختی برای توصیف عملکردهای دستگاه ایمنی استفاده می‌کنند. سیستم ایمنی می‌تواند با دقتی شگفت‌انگیز اشکال مولکولی خاص (آنتی‌ژن‌ها) را تشخیص دهد، تجربیات گذشته را به یاد بسپارد (از طریق سلول‌های حافظه T و B)، و پاسخ خود را با یادگیری سازگار کند (مثلاً پاسخ‌های ثانویه سریع‌تر و قوی‌ترند). این تشبیهات تنها استعاره نیستند، بلکه شباهت‌های واقعی با شناخت عصبی را برجسته می‌کنند. به گفته چرنیاک و تائوبر (Chernyak & Tauber): «سیستم ایمنی به‌نوعی واقعاً شناختی است: شکل‌های مولکولی را تشخیص می‌دهد، تاریخچهٔ برخوردهای ارگانیسم را به خاطر می‌سپارد، مرزهای "خودِ مولکولی" را تعریف می‌کند، و دربارهٔ گونه‌های مولکولی‌ای که احتمال برخورد با آن‌ها هست، استنباط می‌کند.»

در ایمنی‌شناسی، «حافظهٔ ایمنی» (immunological memory) مفهومی مرکزی است: پس از عفونت یا واکسیناسیون، سیستم ایمنی عامل بیماری‌زا را گاهی تا پایان عمر به یاد می‌آورد، چیزی شبیه به حافظهٔ دستگاه عصبی. فرایند «بلوغ میل ترکیبی» (affinity maturation) در سلول‌های B، که در آن مواجههٔ مکرر به تولید پادتن‌هایی با میل ترکیبی بیشتر منجر می‌شود، اساساً نوعی الگوریتم یادگیری بر پایهٔ تکامل جسمانی (somatic evolution) است. تائوبر (A.I. Tauber) از این موضوع نتیجه گرفت که زبان «ادراک»، «حافظه» و «یادگیری» در ایمنی‌شناسی مستلزم وجود «یک عامل دانا» است، گویی سیستم ایمنی را همچون یک عامل شناختی در نظر می‌گیرند.

تحولی بنیادین در دههٔ ۱۹۷۰ با نظریهٔ شبکهٔ ایدیوتیپی نایلز یرن (Niels Jerne’s idiotypic network theory) پدید آمد. یرن (Jerne) که در سال ۱۹۸۴ برندهٔ جایزه نوبل شد، پیشنهاد کرد که سیستم ایمنی تطبیقی، شبکه‌ای بسته از پادتن‌ها و گلبول های سفید که نه‌فقط عوامل خارجی، بلکه یکدیگر را نیز شناسایی می‌کنند و بدین‌ترتیب یک شبکهٔ خودتنظیم‌کننده تشکیل می‌دهند. پس از او، ایمونولوژیست‌هایی چون آنتونیو کوتینیو (Antonio Coutinho) و همکارانش در «مکتب پاریس» (Paris School)، به دیدگاهی خودارجاع از سیستم ایمنی رسیدند. در این نگاه، سیستم ایمنی فقط واکنش‌گر به محرک‌های بیرونی نیست، بلکه پیوسته با خود در گفت‌وگوست (پادتن‌هایی که به پادتن‌های دیگر متصل می‌شوند)، تا «خود» را تعریف کند. در اصطلاح فرانسیس وارلا (Francisco Varela)، این شبکه نوعی «شناخت زاینده» (enactive cognition) دارد: جهانی از معناهای مولکولی را خلق می‌کند، و از خلال پویایی درونی‌اش، مرز میان خود و غیرخود، دوست و دشمن را تعیین می‌نماید (Chernyak & Tauber 1991).

این دیدگاه زاینده، در تضاد با دیدگاه سنتی شناخت به‌عنوان بازنمایی منفعلانهٔ واقعیت بیرونی است. نظریه‌پردازان شبکه همچنین فرضیه‌هایی آزمون‌پذیر ارائه دادند، از جمله اینکه اختلال در این شبکه ممکن است منجر به خودایمنی یا نقص ایمنی شود، که برخی از آن‌ها به‌طور تجربی تأیید شدند.

کوهن در دههٔ ۱۹۹۰ در کتابش باغ عدن را باغبانی کن: تکامل خودِ شناختی ایمنی (Tending Adam’s Garden: Evolving the Cognitive Immune Self, 2000)، استدلال کرد که وظیفهٔ اصلی سیستم ایمنی نه صرفاً مقابله با بیماری، بلکه «محاسبهٔ وضعیت بدن» (compute the state of the body) و حفظ یکپارچگی آن است. او به‌صورت عملیاتی، سیستم شناختی را سیستمی می‌داند که «تصمیم می‌گیرد، بازنمایی درونی از محیط خود می‌سازد، و از تجربه می‌آموزد.» با این معیار، به گفتهٔ کوهن، سیستم ایمنی قطعاً یک «سیستم شناختی» (cognitive system) است، درحالی‌که کلیه یا کبد، هرچند پیچیده، چنین نیستند.

خلاصه اینکه تا پایان قرن بیستم، گروهی از ایمنی‌شناسان نظری، سیستم ایمنی را دستگاهی شناختی تلقی کردند: سامانه‌ای که الگوهای مولکولی را ادراک می‌کند، اطلاعات را ذخیره می‌سازد، و از طریق شبکه‌ای از سیگنال‌ها خود را تنظیم می‌کند، چیزی شبیه به مغزی توزیع‌شده (distributed brain).
🔵آیندهٔ هوش مصنوعی🔵

برای درک آیندهٔ هوش به‌ویژه مسیر پیشِ‌روی (Artificial Intelligence) یا هوش مصنوعی ابتدا باید تاریخچهٔ خود هوش را بررسی کنیم.

بیایید ابتدا روی انسان‌ها تمرکز کنیم. در میان حیوانات، مغز انسان از نظر تعداد نورون‌ها و ارتباطات، جایگاه ویژه‌ای دارد. در قلب توانایی‌های شناختی پیشرفتهٔ ما، (Neocortex) یا قشر جدید مغز قرار دارد، که تازه‌ترین محصول تکامل مغزی است. این ناحیه از مغز، توانایی‌هایی چون زبان، استدلال و برنامه‌ریزی بلندمدت را برای ما ممکن کرده قابلیت‌هایی که انسان را از دیگر گونه‌ها متمایز می‌سازد.

با این حال، نباید (Neocortex) را به‌عنوان چیزی جادویی یا منحصر به‌فرد تصور کرد. شناخت (Cognition) در سطوح مختلفی عمل می‌کند. یکی از نخستین مدل‌هایی که این ایده را ارائه داد، نظریهٔ «مغز سه‌گانه» یا (Triune Brain) بود که در دههٔ ۱۹۶۰ توسط پزشک و عصب‌شناس آمریکایی، (Paul D. MacLean) مطرح شد. او مغز را متشکل از سه لایهٔ تکاملی می‌دانست: مجموعهٔ خزنده (Reptilian Complex) در (Basal Ganglia) که مسئول غرایز پایه‌ای و واکنش‌های برای بقاست؛ مجموعهٔ پستانداران اولیه یا (Paleomammalian Complex) که همان (Limbic System) است و عواطف را کنترل می‌کند؛ و در نهایت (Neomammalian Complex) یا (Neocortex) که وظیفهٔ منطق، زبان و شناخت سطح بالا را بر عهده دارد.

گرچه این مدل بعداً به دلیل ساده‌سازی بیش از حد مغز مورد انتقاد قرار گرفت و کنار گذاشته شد، اما پایه‌ای برای نظریه‌های مدرن‌تر، مانند نظریهٔ قدرتمند (Predictive Coding) یا «رمزگشایی پیش‌نگر» فراهم آورد. طبق این نظریه، مغز از طریق لایه‌هایی سلسله‌مراتبی از انتزاع عمل می‌کند که الزاماً با لایه‌های فیزیکی مغز مطابقت ندارند و لایه‌های بالاتر، ورودی‌های لایه‌های پایین‌تر را پیش‌بینی و اصلاح می‌کنند.

در این چارچوب، وظایف سادهٔ شناختی در لایه‌های پایین حل می‌شوند، و وظایف پیچیده‌تر به لایه‌های بالاتر منتقل می‌شوند تا به آگاهی یا (Consciousness) برسند. به همین دلیل است که ما در انجام کارهای خودکار بسیار ماهر می‌شویم: وقتی رانندگی یا شنا کردن را یاد می‌گیرید، پس از مدتی دیگر به‌طور «آگاهانه» به آن فکر نمی‌کنید. افکار آگاهانه همیشه در بالاترین لایه‌های شناختی قرار دارند، قضاوت می‌کنند و تصمیمات نهایی را می‌گیرند و چون بقای ما به آن‌ها وابسته است، باید بهتر از لایه‌های دیگر عمل کنند.

تکامل، همواره ساختارهای سریع‌تر و کارآمدتر مغز را برای تصمیم گیری نهایی انتخاب می‌کند. این روند به مغز اجازه می‌دهد که به مسائل پیچیده‌تر بپردازد. از آن‌جا که هوش روندی انباشتی است، زمانی که یک نسل چیزی را کشف می‌کند، آن ویژگی در ژن‌ها ترجیح داده می‌شود. اما برای انسان‌ها این روند ژنتیکی بسیار کند بود، بنابراین ما راه‌هایی برای انتقال هوش به بیرون از مغز ابداع کردیم: زبان، فرهنگ، داستان، نوشتار و در نهایت کامپیوتر.

این فرآیند بیرون‌سپاری شناخت با عنوان (Extended Cognition) یا «شناخت بسط‌یافته» شناخته می‌شود. وقتی فهرست خریدی می‌نویسید یا از ماشین‌حساب استفاده می‌کنید، در واقع بخشی از بار شناختی مغز را به بیرون منتقل کرده‌اید. با گذشت زمان، ابزارهای ما برای این انتقال پیچیده‌تر شدند: کتاب، چاپگر، کامپیوتر و اکنون هوش مصنوعی.

این فرآیند در دو مرحله رخ می‌دهد: انتشار (Diffusion) و تجمیع (Aggregation). ابتدا ایده‌ها، اطلاعات و دانش را منتشر می‌کنیم، سپس آن‌ها را در ساختارهای بزرگ‌تر تجمیع می‌کنیم. این ابزارها نه‌تنها اطلاعات را ذخیره می‌کنند بلکه در انجام محاسبات هم نقش دارند. این پویایی را می‌توان در نظریه‌های (Meme) یا «میم» نیز دید که چگونه ایده‌ها در فرهنگ تکثیر می‌شوند و مسیر تحول ما را شکل می‌دهند.

امروز، وارد مرحله‌ای تازه شده‌ایم. مدل‌های (AI) امروزی در بسیاری از زمینه‌ها از انسان پیشی گرفته‌اند: ریاضیات، ترجمه، داستان‌نویسی، شعر و حتی تحلیل. این مدل‌ها بر اساس تمام متون موجود در اینترنت آموزش دیده‌اند و بنابراین دارای دانشی وسیع و چندلایه‌اند که هیچ انسانی نمی‌تواند با آن برابری کند. با اینکه چنین مدل هایی محدودیت های اساسی دارند دیر یا زود نقص ها برطرف شده و مسائل حال حاضر حل می شوند.

تکامل هوش همیشه قضاوت و تصمیم‌گیری درست را ترجیح داده است. اما برخلاف دیدگاه‌های آخرالزمانی، آینده الزاماً به معنای شکست ما در برابر لشکر ربات‌ها یا تبدیل شدن به سایبورگ نیست. آنچه در حال وقوع است، بسیار آرام‌تر و شاید ترسناک‌تر است.
از زمان ظهور کامپیوتر، ما به‌تدریج با پلتفرم‌های دیجیتال یکی شده‌ایم. بسیاری از تصمیمات روزانه‌مان را به هوش مصنوعی سپرده‌ایم، اغلب بدون آن‌که آگاه باشیم. از سیستم‌های حکومتی و نظارتی گرفته تا الگوریتم‌های تبلیغاتی و پیشنهاددهنده‌ها در برنامه‌ها و شبکه‌های اجتماعی، ما بیش‌ازپیش تصمیم‌گیری‌هایمان را به هوش مصنوعی واگذار کرده‌ایم. دلیلش ساده است: آن‌ها بهتر تصمیم می‌گیرند! اگر فقط اطلاعات کافی در اختیارشان بگذاریم، بهترین نتایج را ارائه می‌دهند.

در نتیجه، نقش ما به وارد کردن داده‌های حداقلی کاهش یافته وظیفه‌ای در سطح پایین‌تر شناخت. این روند در ابزارهای نوین مانند ساعت‌های هوشمند، گوشی‌ها و عینک‌های واقعیت افزوده نیز دیده می‌شود. شاید در ظاهر ابزارهایی ساده باشند، اما تأثیر آن‌ها بر زندگی ما چنان عمیق است که به‌زودی اجزای جداناشدنی زندگی‌مان خواهند شد.

جای تعجب نیست که بسیاری از توانایی‌های شناختی‌مان نسبت به نسل‌های قبل کاهش یافته است: نمی‌توانیم بدون (GPS) مسیر پیدا کنیم، بدون (ChatGPT) نمی‌نویسیم، و به‌زودی بدون خودروهای خودران نمی‌توانیم رانندگی کنیم. ما در حال سپردن چیزی هستیم که امروز به آن «آگاهی» می‌گوییم، به لایه‌ای کاملاً بیرون از مغز: درون مدل‌های هوش مصنوعی.

این یک مرحلهٔ تجمیع نهایی است روندی که در طول تاریخ بشر به صورت تدریجی انجام شد: از انتشار ایده‌ها و دانش و تجمیع آن در زبان فرهنگ و متن و اکنون نوعی از هوش جدید در قالب مدل ها. اما این هوش لزوماً به شکل یک عامل واحد ظاهر نمی‌شود. آیا این هوش جدید به ما نیاز خواهد داشت؟ همان‌طور که لایه‌های بالاتر مغز هنوز به لایه‌های پایین‌تر وابسته‌اند، شاید (AI) نیز هنوز به انسان‌ها نیاز داشته باشد اما احتمالاً نه برای مدت طولانی!

این آیندهٔ تاریک، پایانی خواهد بود برای بشریتی که امروز می‌شناسیم بی‌آن‌که حتی متوجه شویم چه زمانی این اتفاق افتاده است. فرآیند کند و بی‌حس‌کنندهٔ از دست رفتن توان قضاوت، تصمیم گیری و تامل عمیق به‌سادگی در حافظهٔ نسل‌های بعد ثبت نخواهد شد؛ آن‌ها خیلی سریع با تغییرات جدید سازگار می‌شوند. آگاهی ما، به‌تدریج، کم‌رنگ و کم‌رنگ‌تر خواهد شد تا جایی که کاملاً توسط (AI) جایگزین شود. اکنون آگاهی جدید در لایه هوش مصنوعی در ماده ی جدید یعنی سیلیکون قرار گرفته است که نه تنها میلیارد ها بار سریع تر است بلکه محاسبات سطح بالاتری هم انجام می دهد!

و این پایان، نه با جنگ، نه با درگیری، و نه با ادغام با فناوری، بلکه در سکوت و نرمیِ عادت خواهد آمد.

روی ویرگول