سخنرانی های ارائه شده در پیش همایش علوم اسلام و انسانی دیجیتال که امروز با مشارکت مرکز کامپیوتری علوم اسلامی نور با کتابخانه مرکزی دانشگاه تهران در محل این کتابخانه، تالار ایرج افشار برگزار شد.
در جلسه از پژوهیار نسخه سوم که با مدیریت سرکار خانم سلطانی در مرکز نور تهیه شده، و سخنرانی آخر متعلق به ایشان در باره این نسخه است، رونمایی شد.
آقای مرادی سبزوار معاونت پژوهشی دانشگاه تهران، آقای محمد حسین بهرامی رئیس مرکز کامپیوتری علوم اسلامی و آقای ربیعی زاده معاونت فناوري مرکز نور هستند که به تفصیل در باره دستاورهای این مرکز در حوزه هوش مصنوعی و علوم اسلامی انسانی سخن گفتند.
https://t.me/UT_Central_Library
در جلسه از پژوهیار نسخه سوم که با مدیریت سرکار خانم سلطانی در مرکز نور تهیه شده، و سخنرانی آخر متعلق به ایشان در باره این نسخه است، رونمایی شد.
آقای مرادی سبزوار معاونت پژوهشی دانشگاه تهران، آقای محمد حسین بهرامی رئیس مرکز کامپیوتری علوم اسلامی و آقای ربیعی زاده معاونت فناوري مرکز نور هستند که به تفصیل در باره دستاورهای این مرکز در حوزه هوش مصنوعی و علوم اسلامی انسانی سخن گفتند.
https://t.me/UT_Central_Library
Telegram
کتابخانه مرکزی دانشگاه تهران
وب سايت کتابخانه مرکزی:
Library.ut.ac.ir
آدرس:
خیابان انقلاب، خیابان ۱۶ آذر، داخل پردیس مرکزی دانشگاه تهران، کتابخانه مرکزی، مرکز اسناد و تامین منابع علمی.
Library.ut.ac.ir
آدرس:
خیابان انقلاب، خیابان ۱۶ آذر، داخل پردیس مرکزی دانشگاه تهران، کتابخانه مرکزی، مرکز اسناد و تامین منابع علمی.
روزنامچه دارالعباده یزد به تاریخ شهر ربیع الاول سنه 1286
ولایت دارالعباده یزد از یمن توجه و اقبال بی زوال سرکار اقدس اعلیحضرت شاهنشاه عالم پناه ـ روح العالمین فداه ـ و از حسن سعی و اهتمام مقرب الخاقان محمد خان جنرال آجودان خاصه حضور همایون حاکم دارالعباده یزد، در نهایت امنیت و فراوانی نعمت و انتظام است، و عموم رعایا از خواص و عوام با کمال آسودگی و رفاهیت، به دعای دوام دولت قویشوکت جاوید مدت قاهره باهره و رعیت خود اشتغال دارند
مدل گزارش نویسی برای شاه از سال 1286ق
از اسناد کتابخانه مرکزی دانشگاه تهران
ولایت دارالعباده یزد از یمن توجه و اقبال بی زوال سرکار اقدس اعلیحضرت شاهنشاه عالم پناه ـ روح العالمین فداه ـ و از حسن سعی و اهتمام مقرب الخاقان محمد خان جنرال آجودان خاصه حضور همایون حاکم دارالعباده یزد، در نهایت امنیت و فراوانی نعمت و انتظام است، و عموم رعایا از خواص و عوام با کمال آسودگی و رفاهیت، به دعای دوام دولت قویشوکت جاوید مدت قاهره باهره و رعیت خود اشتغال دارند
مدل گزارش نویسی برای شاه از سال 1286ق
از اسناد کتابخانه مرکزی دانشگاه تهران
قطعه #ثلث_جلی اثر فاتح اوزکافا 🇹🇷
◼️ بخشی از آیه ۵۴ سوره مائده:
... يُحِبُّهُمْ وَيُحِبُّونَهُ... 🔶
... خدا آنان را دوست دارد، و آنان هم خدا را دوست دارند...
@MehdiQorbani
◼️ بخشی از آیه ۵۴ سوره مائده:
... يُحِبُّهُمْ وَيُحِبُّونَهُ... 🔶
... خدا آنان را دوست دارد، و آنان هم خدا را دوست دارند...
@MehdiQorbani
عکسهای خاندان صفی از خاندان های شیعی قرن هشتم ونهم هجری در قم را در کانال زیر نگاه کنید.
https://t.me/jafarian1964
https://t.me/jafarian1964
https://tn.ai/3327695
https://tn.ai/3327686
https://tn.ai/3327684
گزارش سخنرانی های ارائه شده در چهارمین پیش همایش علوم اسلامی و انسانی دیجیتال و رو نمایی از نسخه سوم پژوهیار در کتابخانه مرکزی
https://tn.ai/3327686
https://tn.ai/3327684
گزارش سخنرانی های ارائه شده در چهارمین پیش همایش علوم اسلامی و انسانی دیجیتال و رو نمایی از نسخه سوم پژوهیار در کتابخانه مرکزی
خبرگزاری تسنیم | Tasnim
هوش مصنوعی، آینده پژوهش در علوم اسلامی را متحول میکند
به گزارش خبرگزاری تسنیم از قم، احمد ربیعی زاده، معاون فنی مرکز نور طی سخنانی در چهارمین پیش همایش ملی علوم انسانی اسلامی دیجیتال و آئین رونمایی از نرم افزار پژوهیار 3 با اشاره به پیشینه تولید نرمافزارهای تخصصی در مرکز نور اظهار کرد: مرکز تحقیقات کامپیوتری…
آینه_پژوهش،_شماره_211_فروردین_و_اردیبهشت_سال_1404.pdf
30.3 MB
فایل کامل مقالات در 710 صفحه
Forwarded from Science Persian (𝐬𝐚𝐡𝐚𝐫.ᷟ.)
🔷 رباتهای هوش مصنوعی سرورهای وبسایتهای علمی را با مشکل مواجه میکنند
با توسعه هوش مصنوعی (AI)، رباتهای اینترنتی وظایف جدیدی دریافت کردهاند. اکنون آنها محتوا را از سایتهای علمی به صورت انبوه دانلود میکنند تا هوش مصنوعی را آموزش دهند و مدلهای تولیدی جدید بسازند. این امر سرورها را بیش از حد بارگذاری میکند و در عملکرد پایدار سایتهای مجلات، پایگاههای داده و سایر منابع اختلال ایجاد میکند و هیچ کاربر واقعی فرصتی برای دسترسی به سایت باقی نمیگذارد. به گزارش Nature، دانشمندان همچنان به دنبال راهحلی هستند که به محافظت از منابع آنها کمک کند.
رباتهای اینترنتی دهههاست که وجود دارند و عملکردهای مفیدی را ارائه میدهند - برای مثال، در گوگل و سایر موتورهای جستجو، آنها میلیونها صفحه وب را برای استخراج محتوای مرتبط میجویند. ظهور هوش مصنوعی مولد (AI) منجر به افزایش تعداد رباتها شده است و بسیاری از آنها در واقع وبسایتها را کند میکنند.
برای مثال، در فوریه امسال، سایت ذخیرهسازی آنلاین تصاویر DiscoverLife که حاوی نزدیک به سه میلیون عکس است، روزانه میلیونها بازدید از سایت خود دریافت کرد - بسیار بیشتر از حد معمول. گاهی اوقات، افزایش ترافیک آنقدر زیاد بود که سایت را کند میکرد و مانع از بازدید کاربران از آن میشد.دلیل آن رباتهای اینترنتی بودند که بیشتر ترافیک آنها از آدرسهای IP ناشناس میآید.
افزایش ناگهانی آنها باعث شد صاحبان سایت گمان کنند که این وباسکریپرها در حال جمعآوری دادههابرای آموزش ابزارهای هوش مصنوعی مولد (AI) مانندچتباتها و مولدهای تصویر هستند. آنها سرورها را بیش از حد بارگذاری میکردند و برای کاربران واقعی مشکل ایجاد میشود.
وب سایتهای علمیبه دلیل سطح بالای
محتوای تازه یا مرتبط که برای توسعه دهندگان هوش مصنوعی بسیارارزشمند است، به هدف اصلی رباتهای هوش مصنوعی تبدیل شدهاند. این حجم از محتوا برای سایتها مشکلساز است: برای مثال، ناشر مجله پزشکی BMJ شاهد افزایش ترافیک رباتها به سایتهای خود نسبت به افراد واقعی بوده است که منجر به اضافه بار سرور و وقفه در خدمات برای مشتریان قانونی شده است همانطور که DiscoverLife نیز چنین وضعیتی دارد.
طبق گزارش کنفدراسیون مخازن دسترسی آزاد (COAR)، بیش از ۹۰٪ از ۶۶ مدیر مخزن دانشگاهی که مورد بررسی قرار گرفتند، با رباتهایی مواجه شدهاند که دادهها را به صورت انبوه دانلود میکنند. حدود دو سوم از پاسخدهندگان گفتند که این امر باعث اختلال در عملکرد سایتهایشان شده است. سازمانهای کوچکتر به ویژه تحت تأثیر قرار میگیرند، زیرا اغلب فاقد منابع لازم برای مسدود کردن رباتها و کاهش تعداد خرابیها هستند.
یکی از عواملی که باعث افزایش رباتهای هوش مصنوعی شد، افشاگریای بود که با انتشار DeepSeek ، یک مدل زبان بزرگ (LLM) ساخت چین، رخ داد.
توسعهدهندگان آن نشان دادند که ایجاد یک برنامه به سرورها و پول زیادی نیاز ندارد و آموزش یک هوش مصنوعی قدرتمند میتواند ارزانتر انجام شود - در صورت وجود دادههای مناسب. این همان چیزی است که موج جدیدی از رباتها را به راه انداخت.
اکنون، صاحبان وبسایتهای علمی در تلاش برای مقابله با این مشکل هستند. به عنوان مثال، وایلی از توسعهدهندگان هوش مصنوعی میخواهد که قبل از دانلود محتوا، اجازه بگیرند. برخی از برنامهها میتوانند فایلی را در کد وبسایت جاسازی کنند که به رباتها میگوید کدام بخشهای سایت را میتوان مشاهده کرد و کدامها را نمیتوان، اما رباتها میتوانند این دستورالعملها را نادیده بگیرند. Cloudflare و PSI قادر به تهیه لیستهایی از رباتهای «خوب» و «بد» هستند تا آنها را به موقع در سایتها مسدود کنند، اما بسیاری از برنامههای جدید هوش مصنوعی به وضوح مشخص نشدهاند.
ابزارهای زیادی برای مبارزه با این رباتها وجود دارد، رباتهای هوش مصنوعی یک مشکل همیشه در حال تکامل هستند - و اقدامات فعلی هنوز قادر به جلوگیری از تمام فعالیتهای ناخواسته وباسکرپینگ نیستند. مایکل اور، جانورشناس موزه تاریخ ملی ایالتی در اشتوتگارت آلمان، گفت: «آنچه ما واقعاً به آن نیاز داریم، توافقنامههای بینالمللی در مورد استفاده منصفانه از هوش مصنوعی و احترام به این نوع منابع است. در غیر این صورت، در آینده، چنین منبعی برای آموزش این ابزارها وجود نخواهد داشت.»
https://www.nature.com/articles/d41586-025-01661-4
➡️ Science Persian
با توسعه هوش مصنوعی (AI)، رباتهای اینترنتی وظایف جدیدی دریافت کردهاند. اکنون آنها محتوا را از سایتهای علمی به صورت انبوه دانلود میکنند تا هوش مصنوعی را آموزش دهند و مدلهای تولیدی جدید بسازند. این امر سرورها را بیش از حد بارگذاری میکند و در عملکرد پایدار سایتهای مجلات، پایگاههای داده و سایر منابع اختلال ایجاد میکند و هیچ کاربر واقعی فرصتی برای دسترسی به سایت باقی نمیگذارد. به گزارش Nature، دانشمندان همچنان به دنبال راهحلی هستند که به محافظت از منابع آنها کمک کند.
رباتهای اینترنتی دهههاست که وجود دارند و عملکردهای مفیدی را ارائه میدهند - برای مثال، در گوگل و سایر موتورهای جستجو، آنها میلیونها صفحه وب را برای استخراج محتوای مرتبط میجویند. ظهور هوش مصنوعی مولد (AI) منجر به افزایش تعداد رباتها شده است و بسیاری از آنها در واقع وبسایتها را کند میکنند.
برای مثال، در فوریه امسال، سایت ذخیرهسازی آنلاین تصاویر DiscoverLife که حاوی نزدیک به سه میلیون عکس است، روزانه میلیونها بازدید از سایت خود دریافت کرد - بسیار بیشتر از حد معمول. گاهی اوقات، افزایش ترافیک آنقدر زیاد بود که سایت را کند میکرد و مانع از بازدید کاربران از آن میشد.دلیل آن رباتهای اینترنتی بودند که بیشتر ترافیک آنها از آدرسهای IP ناشناس میآید.
افزایش ناگهانی آنها باعث شد صاحبان سایت گمان کنند که این وباسکریپرها در حال جمعآوری دادههابرای آموزش ابزارهای هوش مصنوعی مولد (AI) مانندچتباتها و مولدهای تصویر هستند. آنها سرورها را بیش از حد بارگذاری میکردند و برای کاربران واقعی مشکل ایجاد میشود.
وب سایتهای علمیبه دلیل سطح بالای
محتوای تازه یا مرتبط که برای توسعه دهندگان هوش مصنوعی بسیارارزشمند است، به هدف اصلی رباتهای هوش مصنوعی تبدیل شدهاند. این حجم از محتوا برای سایتها مشکلساز است: برای مثال، ناشر مجله پزشکی BMJ شاهد افزایش ترافیک رباتها به سایتهای خود نسبت به افراد واقعی بوده است که منجر به اضافه بار سرور و وقفه در خدمات برای مشتریان قانونی شده است همانطور که DiscoverLife نیز چنین وضعیتی دارد.
طبق گزارش کنفدراسیون مخازن دسترسی آزاد (COAR)، بیش از ۹۰٪ از ۶۶ مدیر مخزن دانشگاهی که مورد بررسی قرار گرفتند، با رباتهایی مواجه شدهاند که دادهها را به صورت انبوه دانلود میکنند. حدود دو سوم از پاسخدهندگان گفتند که این امر باعث اختلال در عملکرد سایتهایشان شده است. سازمانهای کوچکتر به ویژه تحت تأثیر قرار میگیرند، زیرا اغلب فاقد منابع لازم برای مسدود کردن رباتها و کاهش تعداد خرابیها هستند.
یکی از عواملی که باعث افزایش رباتهای هوش مصنوعی شد، افشاگریای بود که با انتشار DeepSeek ، یک مدل زبان بزرگ (LLM) ساخت چین، رخ داد.
توسعهدهندگان آن نشان دادند که ایجاد یک برنامه به سرورها و پول زیادی نیاز ندارد و آموزش یک هوش مصنوعی قدرتمند میتواند ارزانتر انجام شود - در صورت وجود دادههای مناسب. این همان چیزی است که موج جدیدی از رباتها را به راه انداخت.
اکنون، صاحبان وبسایتهای علمی در تلاش برای مقابله با این مشکل هستند. به عنوان مثال، وایلی از توسعهدهندگان هوش مصنوعی میخواهد که قبل از دانلود محتوا، اجازه بگیرند. برخی از برنامهها میتوانند فایلی را در کد وبسایت جاسازی کنند که به رباتها میگوید کدام بخشهای سایت را میتوان مشاهده کرد و کدامها را نمیتوان، اما رباتها میتوانند این دستورالعملها را نادیده بگیرند. Cloudflare و PSI قادر به تهیه لیستهایی از رباتهای «خوب» و «بد» هستند تا آنها را به موقع در سایتها مسدود کنند، اما بسیاری از برنامههای جدید هوش مصنوعی به وضوح مشخص نشدهاند.
ابزارهای زیادی برای مبارزه با این رباتها وجود دارد، رباتهای هوش مصنوعی یک مشکل همیشه در حال تکامل هستند - و اقدامات فعلی هنوز قادر به جلوگیری از تمام فعالیتهای ناخواسته وباسکرپینگ نیستند. مایکل اور، جانورشناس موزه تاریخ ملی ایالتی در اشتوتگارت آلمان، گفت: «آنچه ما واقعاً به آن نیاز داریم، توافقنامههای بینالمللی در مورد استفاده منصفانه از هوش مصنوعی و احترام به این نوع منابع است. در غیر این صورت، در آینده، چنین منبعی برای آموزش این ابزارها وجود نخواهد داشت.»
https://www.nature.com/articles/d41586-025-01661-4
➡️ Science Persian