کامپیوتری ها
3.42K subscribers
4.41K photos
496 videos
476 files
467 links
Download Telegram
Forwarded from Prince of AI
Forwarded from Prince of AI
یکی از بهترین کتاب های کلاسیک یادگیری ماشین و شناسایی الگو
Forwarded from Prince of AI
Forwarded from Prince of AI
This media is not supported in your browser
VIEW IN TELEGRAM
📽 اظهارت فردی در جلسه «دانشمندان» با رئیسی سوژه فضای مجازی شد

‼️با «شبکه جهانی پایتون»، ۴ سال آینده را می توانید پیش بینی کنید!

👆 بخشی از واکنش‌های فضای مجازی به سخنان دُمیری گنجی در حضور رئیسی

👈 اما جالب است بدانید که پایتون صرفا یک زبان برنامه نویسی است
هوش مصنوعی در بدن ما نیست بلکه خارج از آن است و ربطی به پیش بینی سرطان ندارد!

❗️این آدم را بعنوان دانشمند یک درصد برتر جهان برده‌اند در جلسه رئیس جمهور هم گوش میدهد و یادداشت برمیدارد
سایر نخبه گان حاضر در جلسه هم اصلا تعجب نمی‌کنند!

❗️فاجعه مطلق؛ نه تنها در جمع یک درصدی‌ها کسی نبود که به آقای دانشمند بگوید: عمو جان! اشتباه داری می‌زنی؛ بلکه در کل آن ساختار بی‌کفایت که فیلم را بیرون داده هم کسی نگفت: پایتون زبان برنامه‌نویسی است و طرف اشتباه گفته و نباید فیلمش پخش شود؟
Forwarded from Prince of AI
Forwarded from Prince of AI
8 تکنیک مهم برای جلوگیری از بیش‌برازش (overfitting)



1. Hold-out (data)
به جای استفاده از تمام داده‌هایمان برای آموزش، می‌توانیم به سادگی مجموعه داده‌های خود را به دو مجموعه تقسیم کنیم: آموزش و تست. یک نسبت تقسیم معمول 80 درصد برای آموزش و 20 درصد برای تست است. ما مدل خود را تا زمانی آموزش می دهیم که نه تنها در مجموعه آموزشی بلکه برای مجموعه تست نیز عملکرد خوبی داشته باشد. این نشان دهنده قابلیت تعمیم خوب است زیرا مجموعه آزمایشی داده های دیده نشده را نشان می دهد که برای آموزش استفاده نشده اند. با این حال، این رویکرد به یک مجموعه داده به اندازه کافی بزرگ برای آموزش حتی پس از تقسیم نیاز دارد.

2. Cross-validation (data)
ما می‌توانیم مجموعه داده‌های خود را به k گروه تقسیم کنیم (k-fold cross-validation) . در این روش اجازه می دهیم یکی از گروه ها مجموعه تست باشد و بقیه به عنوان مجموعه آموزشی، و این روند را تا زمانی که هر گروه جداگانه به عنوان مجموعه تست استفاده شود (به عنوان مثال، k تکرار) تکرار شود. برخلاف Hold-out ، این روش اجازه می‌دهد تا در نهایت از تمام داده‌ها برای آموزش استفاده شود، اما همچنین از نظر محاسباتی گران‌تر از Hold-out است.


3. Data augmentation (data)
یک مجموعه داده بزرگتر باعث کاهش بیش از حد بیش‌برازش می شود. اگر نمی‌توانیم داده‌های بیشتری جمع‌آوری کنیم و محدود به داده‌هایی هستیم که در مجموعه داده فعلی خود داریم، می‌توانیم افزایش داده‌ها (data augmentation ) را برای افزایش مصنوعی اندازه مجموعه داده‌مان اعمال کنیم. به عنوان مثال، اگر در حال آموزش برای یک کار طبقه بندی تصویر هستیم، می توانیم تغییر شکل های تصویری مختلفی را در مجموعه داده های تصویر خود انجام دهیم (به عنوان مثال، چرخش، تغییر مقیاس، شیفت).

4. Feature selection (data)
اگر فقط تعداد محدودی از نمونه‌های آموزشی داریم که هر کدام دارای تعداد زیادی ویژگی هستند، باید فقط مهم‌ترین ویژگی‌ها را برای آموزش انتخاب کنیم تا مدل ما نیازی به یادگیری برای این همه ویژگی نداشته باشد. ما می‌توانیم به سادگی ویژگی‌های مختلف را آزمایش کنیم، مدل‌های فردی را برای این ویژگی‌ها آموزش دهیم، و قابلیت‌های تعمیم را ارزیابی کنیم، یا از یکی از روش‌های مختلف انتخاب ویژگی استفاده کنیم.

5. L1 / L2 regularization (learning algorithm)
رگولاریزیشن تکنیکی برای محدود کردن شبکه ما از مدلی است که بسیار پیچیده است. در رگولاریزیشن L1 یا L2، می‌توانیم یک عبارت جریمه را بر روی تابع هزینه اضافه کنیم تا ضرایب تخمینی را به سمت صفر برسانیم (و شدیدتر را نگیریم). رگولاریزیشن L2 به وزن‌ها اجازه می‌دهد تا به صفر کاهش یابند، اما نه به صفر، در حالی که L1 به وزن‌ها اجازه می‌دهد تا به صفر برسند.


6. Remove layers / number of units per layer (model)
همانطور که در رگولاریزیشن L1 یا L2 ذکر شد، یک مدل بیش از حد پیچیده ممکن است دچار بیش‌برازش شود. بنابراین، ما می توانیم به طور مستقیم پیچیدگی مدل را با حذف لایه ها کاهش دهیم و اندازه مدل خود را کاهش دهیم. ما ممکن است پیچیدگی را با کاهش تعداد نورون ها در لایه های کاملاً متصل کاهش دهیم.

7. Dropout (model)
با اعمال dropout، که نوعی منظم‌سازی است، در لایه‌های خود، زیر مجموعه‌ای از واحدهای شبکه خود را با احتمال مجموعه نادیده می‌گیریم. با استفاده از dropout، می‌توانیم یادگیری وابسته به هم را در بین واحدها کاهش دهیم، که ممکن است به بیش‌برازش منجر شده باشد. با این حال، با dropout، ما به آموزش بیشتری برای همگرایی مدل خود نیاز خواهیم داشت.

8. Early stopping (model)
توقف زودهنگام یک تکنیک منظم‌سازی (رگولاریزیشن) برای شبکه‌های عصبی عمیق است که هنگامی که به‌روزرسانی‌های پارامتر در مجموعه اعتبارسنجی دیگر شروع به بهبود نمی‌کنند، آموزش را متوقف می‌کند. در اصل، ما بهترین پارامترهای فعلی را در طول آموزش ذخیره و به روز می کنیم، و زمانی که به روز رسانی پارامترها دیگر بهبودی حاصل نمی شود (پس از یک تعداد تکرار مشخص)، آموزش را متوقف می کنیم و از آخرین بهترین پارامترها استفاده می کنیم. این روش با محدود کردن روند بهینه‌سازی به حجم کمتری از فضای پارامتر، به عنوان یک تنظیم‌کننده عمل می‌کند.

@Princeofaii
Forwarded from LianPing | لیان پینگ
🚀 پینگت رو کاهش بده و سرعت اینترنتت رو دوبرابر کن

با این سرویس میتوانید به راحتی از برنامه هایی مانند : تلگرام,اینستاگرام,یوتیوب و ... استفاده کنید😉

📜 ویژگی این سرویس های ما :

🔐 شبکه امن و سریع 🚀
کاهش پینگ و رفع تحریم ها 💯
💥 اتصال به سریع ترین سرور ها در سراسر دنیا
📊 نیم بها شدن مصرف اینترنت
📱 مناسب برای تماشا فیلم ، وبگردی ، بازی های انلاین و....
🔗 ایپی ثابت برای تریدر ها
📞 پشتیبانی سریع و 24/7
🌐 دارای سرور های مختلف از سراسر جهان

💎 همین الان ربات رو استارت کن و اشتراک رو به صورت رایگان دریافت کن👇
🆔 https://t.me/LianPingBot?start=86405179
Forwarded from Prince of AI
بازسازی چهره شاعران ایرانی توسط هوش مصنوعی
Forwarded from Prince of AI
Forwarded from IT posts
📢 روز تولد مریم میرزاخانی به عنوان روز زن در ریاضیات نامگذاری شد

◀️ سالروز تولد مریم میرزا خانی۲۲ اردیبهشت مصادف با ۱۲ مه از سوی اتحادیه بین‌المللی انجمن‌های ریاضی جهان با پیشنهاد کمیته بانوان انجمن ریاضی به عنوان روز جهانی زن در ریاضیات نام گذاری شد.

◀️ میرزاخانی در سال ۲۰۱۴ برنده مدال فیلدز شد که بالاترین جایزه در ریاضیات است.
Forwarded from Prince of AI
Forwarded from Prince of AI
This media is not supported in your browser
VIEW IN TELEGRAM
The Octo-Bouncer: Advanced Bouncing Patterns

Arduino project with 120 FPS custom image processing and smooth stepper motor moves. The machine calculates the ball's 3D position from the image processing data and uses this information to control the orange ping pong ball.
Forwarded from Prince of AI
رشد دیپ‌فیک‌های هوش مصنوعی در جعل تأیید KYC (احراز هویت)

25 May 2023

مدیر ارشد امنیتی Binance معتقده این فناوری به قدری پیشرفته می شود که ممکن است به زودی یک تأیید کننده جعلی غیرقابل تشخیص باشد و تعداد آنان در حال حاضر بسیار افزایش یافته.

مدیر ارشد امنیت بایننس هشدار داده است که فناوری Deepfake که توسط کلاهبرداران کریپتو برای دور زدن تأیید مشتری و احرازهویت (KYC) در صرافی‌هایی مانند Binance استفاده می‌شود، پیشرفت بیشتری می‌کند، دیپ‌فیک‌ها با استفاده از ابزارهای هوش مصنوعی ساخته می‌شوند که برای ایجاد صدا، تصاویر یا ویدیوهای متقاعدکننده‌ای با شباهت افراد استفاده می‌کنند.

«برخی از تأیید ها کاملا به کاربر نیاز دارد، برای مثال، چشم چپ خود را پلک بزند یا به چپ یا راست نگاه کند، به بالا یا پایین نگاه کند. دیپ‌فیک‌ها امروزه به اندازه‌ای پیشرفته هستند که می‌توانند آن دستورات را اجرا کنند.»

با این حال وی، معتقد است که ویدیوهای جعلی و دیپ فیک هنوز در سطحی نیستند که بتوانند یک اپراتور انسانی را فریب دهند اما ریسک آنان در آینده وجود خواهد داشت.

Source : cointelegraph
Forwarded from Prince of AI
This media is not supported in your browser
VIEW IN TELEGRAM
🤯 اگر از هوش مصنوعی جدید فتوشاپ بخواهید نقاشی مشهور مونا لیزا را گسترش دهد و در سطح بزرگ‌تری ارائه دهد، با چنین تصویری روبه‌رو می‌شوید!