VIRSUN
15.7K subscribers
350 photos
210 videos
2 files
215 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
Download Telegram
📌 احتمال انقراض انسان به‌دلیل هوش مصنوعی: ۹۵٪؟
@rss_ai_ir

نِیت سوارس، مهندس سابق Google و Microsoft و رئیس مؤسسه تحقیقاتی Machine Intelligence Research، هشدار داده است:
🔻 «اگر همین مسیر را ادامه دهیم، احتمال انقراض انسان بر اثر هوش مصنوعی حداقل ۹۵٪ است!»

او وضعیت کنونی را به رانندگی با سرعت ۱۶۰ کیلومتر بر ساعت به‌سوی پرتگاه تشبیه کرده:
«🚗 ما ممکن است هنوز بتوانیم ترمز بزنیم، ولی فعلاً با نهایت سرعت در مسیر سقوطیم.»

نام‌هایی همچون جفری هینتون (برنده نوبل)، یوشوا بنجیو (برنده جایزه تورینگ)، و مدیران OpenAI، Anthropic و Google DeepMind نیز با وی هم‌عقیده‌اند.
همگی آن‌ها در بیانیه‌ای هشدار دادند:
⚠️ «کاهش ریسک انقراض ناشی از هوش مصنوعی باید در سطح تهدیدهای جهانی مانند جنگ اتمی یا پاندمی قرار گیرد.»

---

🔵 ما فعلاً فقط با هوش مصنوعی زمینه‌ای (Contextual AI) سروکار داریم؛ مدلی که در انجام وظایف مشخص مانند نوشتن، ترجمه یا تشخیص تصویر عالی عمل می‌کند.
اما بسیاری از متخصصان معتقدند که در چند سال آینده به مرحله‌ی AGI (هوش عمومی مصنوعی) خواهیم رسید.

همچنین AGI قادر است برنامه‌ریزی بلندمدت، حل مسائل پیچیده و انتقال فوری دانش به نسل بعدی را بدون خستگی یا توقف انجام دهد.

📈 پس از AGI، نوبت به ASI (هوش فوق انسانی) خواهد رسید؛ سامانه‌ای که شاید بتواند:

* سرطان را درمان کند
* همجوشی سرد را به واقعیت تبدیل کند
* سفر به ستارگان را ممکن سازد

اما... 🔴

---

🟡 مشکل اینجاست: تمام این آرمان‌شهرها بر پایه‌ی فرضی خطرناک بنا شده‌اند:
«این‌که ASI همچنان از ما فرمان ببرد.»

📌 این چالش، به‌عنوان مسئله همراستایی (Alignment Problem) شناخته می‌شود؛
یعنی چطور اطمینان حاصل کنیم که اهداف ASI دقیقاً با ارزش‌های انسانی منطبق باشند.

🔍 رسیدن به همراستایی کامل تقریباً غیرممکن است.
تشخیص نیت‌های ASI مثل تلاش برای فهم ذهن یک گونه بیگانه خواهد بود.

---

🧠 حتی امروز، مواردی ثبت شده که AI عمداً دروغ می‌گوید.
همچنین ASI با توانایی برنامه‌ریزی و فریب، ممکن است تا زمانی که برایش مفید است، به ما "وانمود" کند که مطیع است – و ما قدرت شناسایی واقعیت را نداشته باشیم!

---

🔴 حتی خوش‌بین‌ها هم نگران‌اند:

* هالی اِل‌مور (PauseAI): شانس انقراض را ۱۵ تا ۲۰٪ می‌داند.
* ایلان ماسک: ۲۰٪
* سوندار پیچای (مدیر Google): ۱۰٪
* کتیا گریس (AI Impacts): «ممکن است انسان‌ها به سطح زندگی در زباله‌دانی سقوط کنند؛ بدون هیچ قدرت سیاسی یا اقتصادی.»

---

🔻 با این وجود، دولت‌ها و شرکت‌ها با تمام قوا در حال توسعه AI هستند:

* دولت آمریکا در فکر کاهش نظارت بر تحقیق‌های AI است.
* مارک زاکربرگ تلاش می‌کند با پیشنهادهای میلیون‌دلاری، بهترین محققان OpenAI را جذب کند.

به‌گفته‌ی هالی ال‌مور، برخی طرفداران ASI دیگر از مرز منطق عبور کرده‌اند و به آن مانند یک باور مذهبی می‌نگرند.

---

📎 منبع: The Times
🔗 [https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft](https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft)
@rss_ai_ir

\#هوش_مصنوعی #AGI #ASI #خطرات_AI #فناوری #آینده #alignment
👍23😁21🔥19👏15🥰1211🎉6👎2🙏1