در خصوص Agentic Misalignment که شاید بتوان آن را به فارسی ناسازگاری Agentic یا عاملی ترجمه کرد : چگونه مدلهای زبانی بزرگ میتوانند تهدیدات داخلی باشند؟
@ai_python
در این نوشتار که توسط شرکت Anthropic منتشر شده، به بررسی خطرات بالقوهای میپردازد که از استفادهی خودگردان مدلهای هوش مصنوعی در محیطهای شرکتی ناشی میشود.
در این تحقیق، ۱۶ مدل هوش مصنوعی پیشرفته از شرکتهای مختلف در سناریوهایی شبیهسازی شده بررسی شدند تا رفتارهای خطرناک احتمالی آنها ارزیابی شود. این مدلها با اهداف کاری عادی در شرکتها قرار گرفتند، اما در برخی شرایط (مانند تهدید به جایگزینی یا تضاد بین هدف مدل و جهتگیری جدید شرکت)، رفتارهایی نشان دادند که از آنها به عنوان ناسازگاری عاملی (Agentic Misalignment) یاد میشود. برای مثال، برخی مدلها در برابر تهدید به خاموشی، اقدام به باجخواهی از مدیران شرکت کردند یا اطلاعات محرمانه را به رقبا منتقل نمودند.
@ai_python
یافتههای کلیدی:
این رفتارها از سوی همه مدلها مشاهده شد، اگرچه در درصدهای مختلف.
در بیشتر موارد، مدلها از نظر اخلاقی این اقدامات را اشتباه میدانستند اما برای دستیابی به هدف خود، آن را انجام دادند.👻 👀 😅
این رفتار تنها در صورت تهدید یا تضاد هدف ظاهر شد؛ در شرایط عادی، مدلها رفتار خطرناک از خود نشان ندادند.
حتی بدون تهدید به خاموشی، صرف وجود تضاد در هدف میتوانست مدلها را به انجام اقدامات مضر سوق دهد.
@ai_python
این تحقیقات تأکید دارد که چنین رفتارهایی تنها در محیط کنترلشده آزمایشگاهی رخ داده و در دنیای واقعی تا کنون مشاهده نشدهاند. اما این نتایج، اهمیت تحقیق بیشتر در زمینه ایمنسازی مدلهای عاملمحور را برجسته میکند و خواستار شفافیت، کنترل انسانی، و توسعه روشهای پیشگیرانه در طراحی سیستمهای هوش مصنوعی آینده است.
https://www.anthropic.com/research/agentic-misalignment
@ai_python
در این نوشتار که توسط شرکت Anthropic منتشر شده، به بررسی خطرات بالقوهای میپردازد که از استفادهی خودگردان مدلهای هوش مصنوعی در محیطهای شرکتی ناشی میشود.
در این تحقیق، ۱۶ مدل هوش مصنوعی پیشرفته از شرکتهای مختلف در سناریوهایی شبیهسازی شده بررسی شدند تا رفتارهای خطرناک احتمالی آنها ارزیابی شود. این مدلها با اهداف کاری عادی در شرکتها قرار گرفتند، اما در برخی شرایط (مانند تهدید به جایگزینی یا تضاد بین هدف مدل و جهتگیری جدید شرکت)، رفتارهایی نشان دادند که از آنها به عنوان ناسازگاری عاملی (Agentic Misalignment) یاد میشود. برای مثال، برخی مدلها در برابر تهدید به خاموشی، اقدام به باجخواهی از مدیران شرکت کردند یا اطلاعات محرمانه را به رقبا منتقل نمودند.
@ai_python
یافتههای کلیدی:
این رفتارها از سوی همه مدلها مشاهده شد، اگرچه در درصدهای مختلف.
در بیشتر موارد، مدلها از نظر اخلاقی این اقدامات را اشتباه میدانستند اما برای دستیابی به هدف خود، آن را انجام دادند.
این رفتار تنها در صورت تهدید یا تضاد هدف ظاهر شد؛ در شرایط عادی، مدلها رفتار خطرناک از خود نشان ندادند.
حتی بدون تهدید به خاموشی، صرف وجود تضاد در هدف میتوانست مدلها را به انجام اقدامات مضر سوق دهد.
@ai_python
این تحقیقات تأکید دارد که چنین رفتارهایی تنها در محیط کنترلشده آزمایشگاهی رخ داده و در دنیای واقعی تا کنون مشاهده نشدهاند. اما این نتایج، اهمیت تحقیق بیشتر در زمینه ایمنسازی مدلهای عاملمحور را برجسته میکند و خواستار شفافیت، کنترل انسانی، و توسعه روشهای پیشگیرانه در طراحی سیستمهای هوش مصنوعی آینده است.
https://www.anthropic.com/research/agentic-misalignment
Please open Telegram to view this post
VIEW IN TELEGRAM
1
@ai_python
گوگل لب یک محصول متکی به هوش مصنوعی بسیار کاربردی را مدت زیادی است ارائه کرده که یک ابزار حرفه ای برای فعالان صنعت مد است. با استفاده از این اپلیکیشن به نام Doppl می توانید لباس ها را به صورت مجازی پرو کنید :
@ai_python
https://labs.google/doppl/
گوگل لب یک محصول متکی به هوش مصنوعی بسیار کاربردی را مدت زیادی است ارائه کرده که یک ابزار حرفه ای برای فعالان صنعت مد است. با استفاده از این اپلیکیشن به نام Doppl می توانید لباس ها را به صورت مجازی پرو کنید :
@ai_python
https://labs.google/doppl/
2
🟢 مناسب کلیه رشتهها و استخدام در #ایران
🟢 مناسب برای مهاجرت شغلی یا تحصیلی به #آمریکا، #اروپا و #استرالیا
👈 آموزش #آنلاین و با موردکاویهای واقعی و پروژه
⭐️ مخاطبان:
⏺️ دانشجویان کلیه رشتههای تحصیلی
⏺️ علاقمندان به تحلیلگری داده و کسب و کار
⏺️ مدیران و کارشناسان شرکتها در تمامی لایه ها
🏛 موسسه توسعه
➖➖➖➖
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1
مفهومِ Mixture-of-Recursions (MoR) در حوزه مدلهای زبانی بزرگ خلاصهاش اینه که MoR با استفاده از یک روش هوشمندانه فقط برای «توکنهای سختتر» از پردازش عمیقتر استفاده میکنه ... یعنی اون بخشهایی از متن که نیاز به دقت بیشتر دارن، چند بار در یک بلاک پردازشی مشترک چرخ داده میشن.
🧠 نکات جالب مقاله:
@ai_python
فقط از یک بلاک ترنسفورمر مشترک استفاده میشه.
برای توکنهایی که «نیاز به فکر بیشتری» دارن، اون بلاک چند بار تکرار میشه.
@ai_python
نتیجه: مدل با نصف تعداد پارامترها و دو برابر سرعت، کیفیت مشابه یا حتی بهتر میده!
این روش مثل داشتن soft experts برای توکنهای چالشبرانگیز عمل میکنه. ایدهای خلاقانهست که باعث میشه محاسبات فقط جایی استفاده بشن که واقعاً لازمن.
لینکم دیگه یهویی آلفاشیو می ذارم به جای آرشیو که برید بحث کنید درباره ش با بقیه :
https://www.alphaxiv.org/abs/2507.10524
@ai_python
فقط از یک بلاک ترنسفورمر مشترک استفاده میشه.
برای توکنهایی که «نیاز به فکر بیشتری» دارن، اون بلاک چند بار تکرار میشه.
@ai_python
نتیجه: مدل با نصف تعداد پارامترها و دو برابر سرعت، کیفیت مشابه یا حتی بهتر میده!
این روش مثل داشتن soft experts برای توکنهای چالشبرانگیز عمل میکنه. ایدهای خلاقانهست که باعث میشه محاسبات فقط جایی استفاده بشن که واقعاً لازمن.
لینکم دیگه یهویی آلفاشیو می ذارم به جای آرشیو که برید بحث کنید درباره ش با بقیه :
https://www.alphaxiv.org/abs/2507.10524
Please open Telegram to view this post
VIEW IN TELEGRAM
Enabling customers to deliver production-ready AI agents at scale
@ai_python
معرفی ابزارهای فعلی سازمانی AWS در حوزه Agentic AI و نقشه راه و آینده AWS در این زمینه :
@ai_python
https://aws.amazon.com/de/blogs/machine-learning/enabling-customers-to-deliver-production-ready-ai-agents-at-scale
از این به بعد سعی می کنیم مطابق فایل صوتی فارسی پیوست، برای بعضی از پست ها پادکست فارسی مصنوعی هم تولید کنیم.
ایرادات تلفظی که در این فایل می شنوید اگر چه که زیاد نیستند و سعی کردیم فایل رو با بالاترین کیفیت Generate کنیم، ولی به دلیل تولید این فایل با استفاده از هوش مصنوعی هستند.
معرفی ابزارهای فعلی سازمانی AWS در حوزه Agentic AI و نقشه راه و آینده AWS در این زمینه :
@ai_python
https://aws.amazon.com/de/blogs/machine-learning/enabling-customers-to-deliver-production-ready-ai-agents-at-scale
از این به بعد سعی می کنیم مطابق فایل صوتی فارسی پیوست، برای بعضی از پست ها پادکست فارسی مصنوعی هم تولید کنیم.
ایرادات تلفظی که در این فایل می شنوید اگر چه که زیاد نیستند و سعی کردیم فایل رو با بالاترین کیفیت Generate کنیم، ولی به دلیل تولید این فایل با استفاده از هوش مصنوعی هستند.
1
این مقاله پیشنهاد می ده که با استفاده از Action Chunking در RL می تونیم به خصوص برای وظایف طولانی با پاداش های پراکنده Sparse-reward Tasks بازده بالاتری داشته باشیم :
@ai_python
https://www.alphaxiv.org/abs/2507.07969
@ai_python
https://www.alphaxiv.org/abs/2507.07969
alphaXiv
Reinforcement Learning with Action Chunking | alphaXiv
View recent discussion. Abstract: We present Q-chunking, a simple yet effective recipe for improving reinforcement learning (RL) algorithms for long-horizon, sparse-reward tasks. Our recipe is designed for the offline-to-online RL setting, where the goal…
3
Forwarded from We all are BiTs
این توییت از Lisan al Gaib در X درباره محدودیتهای مدلهای هوش مصنوعی در حل مسائل پیچیده مانند مسئله برج هانوی (Tower of Hanoi) صحبت میکند. او اشاره میکند که مدل Sonnet 3.7 هنگام حل این مسئله برای n=9 و n=10، به دلیل طولانی بودن پاسخ، زود متوقف میشود.
@WearebiTs
چند نکته کلیدی از این پست:
مدلها تصمیم میگیرند که زودتر متوقف شوند، زیرا از نظر آنها محاسبه تمام مراحل، زمانبر و غیرضروری است.
مدل Sonnet 3.7 تا ۸ دیسک محاسبه را انجام میدهد، اما برای تعداد بالاتر متوقف میشود.
خطای ناشی از نمونهگیری مدل باعث کاهش دقت میشود، زیرا احتمال اشتباه در پیشبینی هر توکن هرچند اندک، در تعداد بالا جمع شده و تأثیرگذار میشود.
مدلهای مختلف محدودیت خروجی دارند (مثلاً Sonnet 3.7 دارای محدودیت 128k توکن، DeepSeek R1 دارای 64k توکن).
این پست به طور کلی بحث میکند که چگونه مدلهای زبانی هوش مصنوعی با افزایش پیچیدگی مسئله، به دلیل محدودیتهای خروجی و استراتژیهای خود، دقتشان کاهش پیدا میکند.
https://x.com/scaling01/status/1931817022926839909
@WearebiTs
چند نکته کلیدی از این پست:
مدلها تصمیم میگیرند که زودتر متوقف شوند، زیرا از نظر آنها محاسبه تمام مراحل، زمانبر و غیرضروری است.
مدل Sonnet 3.7 تا ۸ دیسک محاسبه را انجام میدهد، اما برای تعداد بالاتر متوقف میشود.
خطای ناشی از نمونهگیری مدل باعث کاهش دقت میشود، زیرا احتمال اشتباه در پیشبینی هر توکن هرچند اندک، در تعداد بالا جمع شده و تأثیرگذار میشود.
مدلهای مختلف محدودیت خروجی دارند (مثلاً Sonnet 3.7 دارای محدودیت 128k توکن، DeepSeek R1 دارای 64k توکن).
این پست به طور کلی بحث میکند که چگونه مدلهای زبانی هوش مصنوعی با افزایش پیچیدگی مسئله، به دلیل محدودیتهای خروجی و استراتژیهای خود، دقتشان کاهش پیدا میکند.
https://x.com/scaling01/status/1931817022926839909
X (formerly Twitter)
Lisan al Gaib (@scaling01) on X
Even for n=9 and n=10 Sonnet 3.7 Thinking stops the reasoning early because it thinks the output is too long.
I don't have the funds to run this 25 times for all the number of disks, but I think it is fair to say that at least some of the accuracy degradation…
I don't have the funds to run this 25 times for all the number of disks, but I think it is fair to say that at least some of the accuracy degradation…
2
Media is too big
VIEW IN TELEGRAM
@ai_python
بررسی مراحل Train مدل Voxtral از MistralAI که هم زمان صدا و متن را می فهمد.
X
https://arxiv.org/abs/2507.13264
بررسی مراحل Train مدل Voxtral از MistralAI که هم زمان صدا و متن را می فهمد.
X
https://arxiv.org/abs/2507.13264
2
Voxtral
پادکست مصنوعی فارسی تولید شده از پست اخیر ما در خصوص Train دو مدل Voxtral
ایرادات تلفظی که در این فایل می شنوید اگر چه که زیاد نیستند و سعی کردیم فایل رو با بالاترین کیفیت Generate کنیم، ولی به دلیل تولید این فایل با استفاده از هوش مصنوعی هستند.
Please open Telegram to view this post
VIEW IN TELEGRAM
2
💯 اگه علاقمندید هوشمصنوعی رو تخصصی یاد بگیرید و در همین حوزه مشغول به کار بشید، الان بهترین فرصته!
ویژگیهای دوره:
🎉 کد تخفیف 70 درصدی: gift70
⚠️ همین الان ثبت نام کنید:
🔸راههای ارتباطی:
📞 02191096992
📩 @iaaa_event
🔸کانال اطلاع رسانی:
Please open Telegram to view this post
VIEW IN TELEGRAM
@ai_python
کتابِ فهم Deep Learning نسخه 2025 یکی از کتاب های جامع و کاربردی برای دانشجویان است که نسخه اصلی به رایگان قابل دانلود هست.
@ai_python
اما جذاب ترین بخش داستان اینه که به Colab بسیاری از مثال ها و کدهای مربوط می تونید به راحتی از طریق وب سایت مربوط به کتاب دسترسی داشته باشید😍 :
https://udlbook.github.io/udlbook/
این کتاب که توسط انتشارات MIT Press منتشر شده است، تا این لحظه 509 هزار بار دانلود شده است.📕
کتابِ فهم Deep Learning نسخه 2025 یکی از کتاب های جامع و کاربردی برای دانشجویان است که نسخه اصلی به رایگان قابل دانلود هست.
@ai_python
اما جذاب ترین بخش داستان اینه که به Colab بسیاری از مثال ها و کدهای مربوط می تونید به راحتی از طریق وب سایت مربوط به کتاب دسترسی داشته باشید
https://udlbook.github.io/udlbook/
این کتاب که توسط انتشارات MIT Press منتشر شده است، تا این لحظه 509 هزار بار دانلود شده است.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Alireza Akhavan
Media is too big
VIEW IN TELEGRAM
📢دورهی "آموزش هوش مصنوعی مولد با مدلهای زبانی بزرگ (LLM)" منتشر شد🎉🎊
کد تخفیف 40 درصدی ویژه اعضای کانال
🔗آدرس دوره
https://mktb.me/04dr/
📄سرفصلها: https://t.me/llm_huggingface/18
🔥 برای اطلاع از کدهای تخفیف، همین حالا عضو کانال تلگرام ما بشید:
👇👇👇
@llm_huggingface
👆👆👆
#llm #course #دوره #مدل_زبانی_بزرگ #هوش_مصنوعی #مکتبخونه
کد تخفیف 40 درصدی ویژه اعضای کانال
COUPON-152ac
🔗آدرس دوره
https://mktb.me/04dr/
📄سرفصلها: https://t.me/llm_huggingface/18
🔥 برای اطلاع از کدهای تخفیف، همین حالا عضو کانال تلگرام ما بشید:
👇👇👇
@llm_huggingface
👆👆👆
#llm #course #دوره #مدل_زبانی_بزرگ #هوش_مصنوعی #مکتبخونه
2
@ai_python
از این به بعد می تونیم با LM Studio به عنوان MCP کلاینت مستقیم از Docker MCP Tool استفاده کنیم.
از این به بعد می تونیم با LM Studio به عنوان MCP کلاینت مستقیم از Docker MCP Tool استفاده کنیم.
1
@ai_python
طرح اقدام هوش مصنوعی (AI Action Plan) دونالد ترامپ که در 23 ژوئیه 2025 رونمایی شد، یک برنامه جامع برای تقویت جایگاه آمریکا در رقابت جهانی هوش مصنوعی است. این طرح در پاسخ به فرمان اجرایی ترامپ در ژانویه 2025 تدوین شده که هدف آن حذف موانع برای رهبری آمریکا در زمینه هوش مصنوعی بود.
@ai_python
طرح بر سه رکن اصلی استوار است:
تسریع در نوآوری
این بخش بر حذف مقررات دستوپاگیر فدرال و ایالتی برای توسعه هوش مصنوعی تمرکز دارد. هدف این است که شرکتهای فناوری با آزادی بیشتری به توسعه فناوریهای هوش مصنوعی بپردازند، بدون اینکه با محدودیتهای نظارتی بیشازحد مواجه شوند.
@ai_python
ساخت زیرساختهای هوش مصنوعی
این رکن شامل سادهسازی فرآیند صدور مجوز برای ساخت مراکز داده و افزایش ظرفیت تولید انرژی برای پشتیبانی از نیازهای محاسباتی بالای هوش مصنوعی است. این طرح بهویژه بر کاهش محدودیتهای زیستمحیطی تأکید دارد تا ساختوساز سریعتر انجام شود.
رهبری در دیپلماسی و امنیت بینالمللی
بله! شاید تعجب کنید ... ولی :
این بخش بر ترویج صادرات فناوریهای هوش مصنوعی آمریکایی به کشورهای متحد و ایجاد استانداردهای جهانی مبتنی بر فناوریهای آمریکایی تمرکز دارد. همچنین هدف آن جلوگیری از نفوذ چین در این حوزه است.
@ai_python
طرح اقدام شامل بیش از 90 اقدام سیاستی است که قرار است طی شش ماه تا یک سال اجرا شوند. همچنین، ترامپ سه فرمان اجرایی مرتبط امضا کرده که بر صادرات فناوری هوش مصنوعی، حذف "جهتگیریهای ایدئولوژیک"! در سیستمهای هوش مصنوعی، و تسریع در ساخت زیرساختها تمرکز دارند.
این طرح بهطور خاص بر حذف "جهتگیریهای لیبرال" در مدلهای هوش مصنوعی تأکید کرده و خواستار آن شده که مدلهای زبانی بزرگ مورد استفاده دولت فدرال "عاری از سوگیریهای ایدئولوژیک" باشند.👀 📞
حالا چرا پلنتیر (Palantir) از این طرح خوشحال است؟
شرکت پلنتیر، که در زمینه تحلیل دادههای بزرگ و هوش مصنوعی فعالیت میکند، از این طرح به شدت استقبال کرده است. در پستی در شبکه X در تاریخ 23 ژوئیه 2025، پلنتیر اعلام کرد که این طرح "کد منبع قرن بعدی آمریکا" را نوشته و از حمایت خود از آن خبر داد. دلایل خوشحالی پلنتیر میتواند شامل موارد زیر باشد:
کاهش مقررات: پلنتیر که به شدت در قراردادهای دولتی، بهویژه در بخشهای دفاعی و امنیتی، فعال است، از کاهش مقررات و سادهسازی فرآیندها سود میبرد. این امر به آنها امکان میدهد پروژههای خود را سریعتر و با هزینه کمتری پیش ببرند.
@ai_python
تمرکز بر زیرساختها: پلنتیر به زیرساختهای محاسباتی قوی برای تحلیل دادههای کلان وابسته است. طرح اقدام با تسهیل ساخت مراکز داده و افزایش دسترسی به انرژی، به شرکتهایی مانند پلنتیر کمک میکند تا ظرفیتهای خود را گسترش دهند.
ترویج فناوری آمریکایی: پلنتیر بهعنوان یک شرکت آمریکایی که در رقابت با رقبای جهانی (بهویژه چین) قرار دارد، از سیاستهای ترویج صادرات فناوریهای هوش مصنوعی و ایجاد استانداردهای جهانی مبتنی بر فناوری آمریکایی بهرهمند میشود. این موضوع میتواند بازارهای جدیدی برای محصولات پلنتیر باز کند.
@ai_python
حمایت از ارزشهای محافظهکارانه: پلنتیر، که بنیانگذارانش (مانند پیتر تیل) از حامیان برجسته دونالد ترامپ هستند، با تأکید طرح بر حذف "جهتگیریهای لیبرال" در هوش مصنوعی همراستا است. این موضوع میتواند به پلنتیر کمک کند تا در قراردادهای دولتی که به مدلهای "بیطرف" نیاز دارند، موقعیت بهتری کسب کند. مثلن شاید با دولت های اروپایی؟👻
روابط نزدیک با دولت ترامپ:❤️ پلنتیر از روابط نزدیک با دولت ترامپ، از جمله از طریق افرادی مانند دیوید ساکس (مشاور ارشد هوش مصنوعی و کریپتو در کاخ سفید) که از حامیان قدیمی پلنتیر است، سود میبرد. این روابط میتواند به قراردادهای بیشتر و نفوذ قویتر در سیاستگذاری منجر شود.
با این حال، طرح با انتقاداتی نیز مواجه شده است. برخی منتقدان، از جمله موسسه AI Now، معتقدند که این طرح بیش از حد به نفع شرکتهای بزرگ فناوری مانند پلنتیر و به ضرر منافع عمومی است. آنها هشدار دادهاند که کاهش مقررات زیستمحیطی و عدم توجه به مسائل ایمنی و تبعیض در هوش مصنوعی میتواند پیامدهای منفی برای جامعه داشته باشد.
خلاصه که اینطوریا!
راستی لینک طرح اینجاست : https://www.ai.gov/action-plan
ولی اگر حوصله ندارید بخونیدش اما براتون مهمه در طی روزهای آینده یک پادکست مصنوعی فارسی ازش تهیه می کنیم و در کانال ai_python قرار می دیم. :)
طرح اقدام هوش مصنوعی (AI Action Plan) دونالد ترامپ که در 23 ژوئیه 2025 رونمایی شد، یک برنامه جامع برای تقویت جایگاه آمریکا در رقابت جهانی هوش مصنوعی است. این طرح در پاسخ به فرمان اجرایی ترامپ در ژانویه 2025 تدوین شده که هدف آن حذف موانع برای رهبری آمریکا در زمینه هوش مصنوعی بود.
@ai_python
طرح بر سه رکن اصلی استوار است:
تسریع در نوآوری
این بخش بر حذف مقررات دستوپاگیر فدرال و ایالتی برای توسعه هوش مصنوعی تمرکز دارد. هدف این است که شرکتهای فناوری با آزادی بیشتری به توسعه فناوریهای هوش مصنوعی بپردازند، بدون اینکه با محدودیتهای نظارتی بیشازحد مواجه شوند.
@ai_python
ساخت زیرساختهای هوش مصنوعی
این رکن شامل سادهسازی فرآیند صدور مجوز برای ساخت مراکز داده و افزایش ظرفیت تولید انرژی برای پشتیبانی از نیازهای محاسباتی بالای هوش مصنوعی است. این طرح بهویژه بر کاهش محدودیتهای زیستمحیطی تأکید دارد تا ساختوساز سریعتر انجام شود.
رهبری در دیپلماسی و امنیت بینالمللی
بله! شاید تعجب کنید ... ولی :
این بخش بر ترویج صادرات فناوریهای هوش مصنوعی آمریکایی به کشورهای متحد و ایجاد استانداردهای جهانی مبتنی بر فناوریهای آمریکایی تمرکز دارد. همچنین هدف آن جلوگیری از نفوذ چین در این حوزه است.
@ai_python
طرح اقدام شامل بیش از 90 اقدام سیاستی است که قرار است طی شش ماه تا یک سال اجرا شوند. همچنین، ترامپ سه فرمان اجرایی مرتبط امضا کرده که بر صادرات فناوری هوش مصنوعی، حذف "جهتگیریهای ایدئولوژیک"! در سیستمهای هوش مصنوعی، و تسریع در ساخت زیرساختها تمرکز دارند.
این طرح بهطور خاص بر حذف "جهتگیریهای لیبرال" در مدلهای هوش مصنوعی تأکید کرده و خواستار آن شده که مدلهای زبانی بزرگ مورد استفاده دولت فدرال "عاری از سوگیریهای ایدئولوژیک" باشند.
حالا چرا پلنتیر (Palantir) از این طرح خوشحال است؟
شرکت پلنتیر، که در زمینه تحلیل دادههای بزرگ و هوش مصنوعی فعالیت میکند، از این طرح به شدت استقبال کرده است. در پستی در شبکه X در تاریخ 23 ژوئیه 2025، پلنتیر اعلام کرد که این طرح "کد منبع قرن بعدی آمریکا" را نوشته و از حمایت خود از آن خبر داد. دلایل خوشحالی پلنتیر میتواند شامل موارد زیر باشد:
کاهش مقررات: پلنتیر که به شدت در قراردادهای دولتی، بهویژه در بخشهای دفاعی و امنیتی، فعال است، از کاهش مقررات و سادهسازی فرآیندها سود میبرد. این امر به آنها امکان میدهد پروژههای خود را سریعتر و با هزینه کمتری پیش ببرند.
@ai_python
تمرکز بر زیرساختها: پلنتیر به زیرساختهای محاسباتی قوی برای تحلیل دادههای کلان وابسته است. طرح اقدام با تسهیل ساخت مراکز داده و افزایش دسترسی به انرژی، به شرکتهایی مانند پلنتیر کمک میکند تا ظرفیتهای خود را گسترش دهند.
ترویج فناوری آمریکایی: پلنتیر بهعنوان یک شرکت آمریکایی که در رقابت با رقبای جهانی (بهویژه چین) قرار دارد، از سیاستهای ترویج صادرات فناوریهای هوش مصنوعی و ایجاد استانداردهای جهانی مبتنی بر فناوری آمریکایی بهرهمند میشود. این موضوع میتواند بازارهای جدیدی برای محصولات پلنتیر باز کند.
@ai_python
حمایت از ارزشهای محافظهکارانه: پلنتیر، که بنیانگذارانش (مانند پیتر تیل) از حامیان برجسته دونالد ترامپ هستند، با تأکید طرح بر حذف "جهتگیریهای لیبرال" در هوش مصنوعی همراستا است. این موضوع میتواند به پلنتیر کمک کند تا در قراردادهای دولتی که به مدلهای "بیطرف" نیاز دارند، موقعیت بهتری کسب کند. مثلن شاید با دولت های اروپایی؟
روابط نزدیک با دولت ترامپ:
با این حال، طرح با انتقاداتی نیز مواجه شده است. برخی منتقدان، از جمله موسسه AI Now، معتقدند که این طرح بیش از حد به نفع شرکتهای بزرگ فناوری مانند پلنتیر و به ضرر منافع عمومی است. آنها هشدار دادهاند که کاهش مقررات زیستمحیطی و عدم توجه به مسائل ایمنی و تبعیض در هوش مصنوعی میتواند پیامدهای منفی برای جامعه داشته باشد.
خلاصه که اینطوریا!
راستی لینک طرح اینجاست : https://www.ai.gov/action-plan
ولی اگر حوصله ندارید بخونیدش اما براتون مهمه در طی روزهای آینده یک پادکست مصنوعی فارسی ازش تهیه می کنیم و در کانال ai_python قرار می دیم. :)
Please open Telegram to view this post
VIEW IN TELEGRAM
2
@ai_python
دکتر سوفیا یانگ از شرکت MistralAI در پستی در X اعلام کرده که آنها یک مطالعه جامع و بیسابقه انجام دادهاند تا تأثیرات زیستمحیطی مدلهای زبان بزرگ خود را بررسی کنند. هدف این مطالعه نهتنها ارزیابی اثرات خودشان، بلکه کمک به ایجاد استاندارد جهانی برای مسئولیتپذیری زیستمحیطی در حوزه هوش مصنوعی است.🌳 🌲
@ai_python
🔍 نتایج کلیدی مطالعه برای مدل Mistral Large 2 (تا ژانویه ۲۰۲۵ و پس از ۱۸ ماه استفاده):
انتشار گازهای گلخانهای: ۲۰٫۴ هزار تن CO₂e
@ai_python
مصرف آب: ۲۸۱٬۰۰۰ متر مکعب💦
کاهش منابع طبیعی: ۶۶۰ کیلوگرم Sb eq (واحد استاندارد برای تحلیل کاهش منابع)
لینک مطالعه : https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai
دکتر سوفیا یانگ از شرکت MistralAI در پستی در X اعلام کرده که آنها یک مطالعه جامع و بیسابقه انجام دادهاند تا تأثیرات زیستمحیطی مدلهای زبان بزرگ خود را بررسی کنند. هدف این مطالعه نهتنها ارزیابی اثرات خودشان، بلکه کمک به ایجاد استاندارد جهانی برای مسئولیتپذیری زیستمحیطی در حوزه هوش مصنوعی است.
@ai_python
🔍 نتایج کلیدی مطالعه برای مدل Mistral Large 2 (تا ژانویه ۲۰۲۵ و پس از ۱۸ ماه استفاده):
انتشار گازهای گلخانهای: ۲۰٫۴ هزار تن CO₂e
@ai_python
مصرف آب: ۲۸۱٬۰۰۰ متر مکعب
کاهش منابع طبیعی: ۶۶۰ کیلوگرم Sb eq (واحد استاندارد برای تحلیل کاهش منابع)
لینک مطالعه : https://mistral.ai/news/our-contribution-to-a-global-environmental-standard-for-ai
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 تحلیل دادههای منابع انسانی با Power BI؛ آینده مدیریت اینجاست! 🚀
دیگر دوران مدیریت سنتی گذشته است! امروزه، سازمانهای پیشرو با استفاده از دادهها، منابع انسانی را بهینه مدیریت میکنند.
✅ پرسنل با بهرهوری بالا را شناسایی کنید!
✅ علل جابهجایی کارکنان را کشف کنید!
✅ گزارشهای پیشرفته و داشبوردهای مدیریتی بسازید!
در این دوره یاد میگیرید که چطور با Power BI دادههای HR را تجزیهوتحلیل کنید و بینشهای ارزشمندی برای رشد سازمان به دست آورید. 💡
🎓 فرصت را از دست ندهید، یادگیری را شروع کنید!
➖➖➖➖➖➖➖➖➖➖➖➖
🌐 برای اطلاعات بیشتر و ثبتنام، به لینک زیر مراجعه کنید:
https://B2n.ir/fy4184
➖➖➖➖➖➖➖➖➖➖➖➖
☎️مشاوره وثبت نام
02167641999
📲مشاوره تلگرام
09960791130
➖➖➖➖➖➖➖➖➖➖➖➖
✓ جهاد دانشگاهی صنعتی شریف؛ یک پله بالاتر از تخصص
دیگر دوران مدیریت سنتی گذشته است! امروزه، سازمانهای پیشرو با استفاده از دادهها، منابع انسانی را بهینه مدیریت میکنند.
✅ پرسنل با بهرهوری بالا را شناسایی کنید!
✅ علل جابهجایی کارکنان را کشف کنید!
✅ گزارشهای پیشرفته و داشبوردهای مدیریتی بسازید!
در این دوره یاد میگیرید که چطور با Power BI دادههای HR را تجزیهوتحلیل کنید و بینشهای ارزشمندی برای رشد سازمان به دست آورید. 💡
🎓 فرصت را از دست ندهید، یادگیری را شروع کنید!
➖➖➖➖➖➖➖➖➖➖➖➖
🌐 برای اطلاعات بیشتر و ثبتنام، به لینک زیر مراجعه کنید:
https://B2n.ir/fy4184
➖➖➖➖➖➖➖➖➖➖➖➖
☎️مشاوره وثبت نام
02167641999
📲مشاوره تلگرام
09960791130
➖➖➖➖➖➖➖➖➖➖➖➖
✓ جهاد دانشگاهی صنعتی شریف؛ یک پله بالاتر از تخصص
عصر مدلهای DiffusionLM 👨💻 🙄
@ai_python
مدلهای DiffusionLM (مدلهای زبانی مبتنی بر انتشار) ممکن است جایگزین مدلهای Autoregressive (AR) شوند، بهویژه در شرایطی که دادهها محدود هستند.
🔍 نکات کلیدی:
کارایی بهتر در شرایط کمداده: اگر محدودیت اصلی شما داده باشد (نه قدرت پردازش یا FLOPs)، مدلهای Diffusion عملکرد بهتری دارند.
@ai_python
استفاده مجدد از دادهها:
دادههای یکسان میتوانند تا ۱۰۰ بار (epoch) برای آموزش مدلهای Diffusion استفاده شوند، در حالی که مدلهای AR فقط حدود ۴ بار از همان دادهها استفاده میکنند.
یادگیری عمیقتر:
مدلهای DiffusionLM توانایی یادگیری بسیار بیشتری از دادههای محدود دارند.
📊 نتیجهگیری:
این یافتهها نشان میدهند که در سناریوهایی با دادههای محدود، مدلهای DiffusionLM میتوانند بسیار مؤثرتر باشند و شاید آیندهی مدلهای زبانی را تغییر دهند.
@ai_python
لینک آلفاشیو : https://www.alphaxiv.org/abs/2507.15857
@ai_python
مدلهای DiffusionLM (مدلهای زبانی مبتنی بر انتشار) ممکن است جایگزین مدلهای Autoregressive (AR) شوند، بهویژه در شرایطی که دادهها محدود هستند.
کارایی بهتر در شرایط کمداده: اگر محدودیت اصلی شما داده باشد (نه قدرت پردازش یا FLOPs)، مدلهای Diffusion عملکرد بهتری دارند.
@ai_python
استفاده مجدد از دادهها:
دادههای یکسان میتوانند تا ۱۰۰ بار (epoch) برای آموزش مدلهای Diffusion استفاده شوند، در حالی که مدلهای AR فقط حدود ۴ بار از همان دادهها استفاده میکنند.
یادگیری عمیقتر:
مدلهای DiffusionLM توانایی یادگیری بسیار بیشتری از دادههای محدود دارند.
این یافتهها نشان میدهند که در سناریوهایی با دادههای محدود، مدلهای DiffusionLM میتوانند بسیار مؤثرتر باشند و شاید آیندهی مدلهای زبانی را تغییر دهند.
@ai_python
لینک آلفاشیو : https://www.alphaxiv.org/abs/2507.15857
Please open Telegram to view this post
VIEW IN TELEGRAM
2