Forwarded from Prince of AI
Pattern Recognition and Machine Learning.pdf
17.3 MB
Forwarded from IT (تکنولوژی اطلاعات)
This media is not supported in your browser
VIEW IN TELEGRAM
📽 اظهارت فردی در جلسه «دانشمندان» با رئیسی سوژه فضای مجازی شد
‼️با «شبکه جهانی پایتون»، ۴ سال آینده را می توانید پیش بینی کنید!
👆 بخشی از واکنشهای فضای مجازی به سخنان دُمیری گنجی در حضور رئیسی
👈 اما جالب است بدانید که پایتون صرفا یک زبان برنامه نویسی است
هوش مصنوعی در بدن ما نیست بلکه خارج از آن است و ربطی به پیش بینی سرطان ندارد!
❗️این آدم را بعنوان دانشمند یک درصد برتر جهان بردهاند در جلسه رئیس جمهور هم گوش میدهد و یادداشت برمیدارد
سایر نخبه گان حاضر در جلسه هم اصلا تعجب نمیکنند!
❗️فاجعه مطلق؛ نه تنها در جمع یک درصدیها کسی نبود که به آقای دانشمند بگوید: عمو جان! اشتباه داری میزنی؛ بلکه در کل آن ساختار بیکفایت که فیلم را بیرون داده هم کسی نگفت: پایتون زبان برنامهنویسی است و طرف اشتباه گفته و نباید فیلمش پخش شود؟
‼️با «شبکه جهانی پایتون»، ۴ سال آینده را می توانید پیش بینی کنید!
👆 بخشی از واکنشهای فضای مجازی به سخنان دُمیری گنجی در حضور رئیسی
👈 اما جالب است بدانید که پایتون صرفا یک زبان برنامه نویسی است
هوش مصنوعی در بدن ما نیست بلکه خارج از آن است و ربطی به پیش بینی سرطان ندارد!
❗️این آدم را بعنوان دانشمند یک درصد برتر جهان بردهاند در جلسه رئیس جمهور هم گوش میدهد و یادداشت برمیدارد
سایر نخبه گان حاضر در جلسه هم اصلا تعجب نمیکنند!
❗️فاجعه مطلق؛ نه تنها در جمع یک درصدیها کسی نبود که به آقای دانشمند بگوید: عمو جان! اشتباه داری میزنی؛ بلکه در کل آن ساختار بیکفایت که فیلم را بیرون داده هم کسی نگفت: پایتون زبان برنامهنویسی است و طرف اشتباه گفته و نباید فیلمش پخش شود؟
Forwarded from Prince of AI
8 تکنیک مهم برای جلوگیری از بیشبرازش (overfitting)
1. Hold-out (data)
به جای استفاده از تمام دادههایمان برای آموزش، میتوانیم به سادگی مجموعه دادههای خود را به دو مجموعه تقسیم کنیم: آموزش و تست. یک نسبت تقسیم معمول 80 درصد برای آموزش و 20 درصد برای تست است. ما مدل خود را تا زمانی آموزش می دهیم که نه تنها در مجموعه آموزشی بلکه برای مجموعه تست نیز عملکرد خوبی داشته باشد. این نشان دهنده قابلیت تعمیم خوب است زیرا مجموعه آزمایشی داده های دیده نشده را نشان می دهد که برای آموزش استفاده نشده اند. با این حال، این رویکرد به یک مجموعه داده به اندازه کافی بزرگ برای آموزش حتی پس از تقسیم نیاز دارد.
2. Cross-validation (data)
ما میتوانیم مجموعه دادههای خود را به k گروه تقسیم کنیم (k-fold cross-validation) . در این روش اجازه می دهیم یکی از گروه ها مجموعه تست باشد و بقیه به عنوان مجموعه آموزشی، و این روند را تا زمانی که هر گروه جداگانه به عنوان مجموعه تست استفاده شود (به عنوان مثال، k تکرار) تکرار شود. برخلاف Hold-out ، این روش اجازه میدهد تا در نهایت از تمام دادهها برای آموزش استفاده شود، اما همچنین از نظر محاسباتی گرانتر از Hold-out است.
3. Data augmentation (data)
یک مجموعه داده بزرگتر باعث کاهش بیش از حد بیشبرازش می شود. اگر نمیتوانیم دادههای بیشتری جمعآوری کنیم و محدود به دادههایی هستیم که در مجموعه داده فعلی خود داریم، میتوانیم افزایش دادهها (data augmentation ) را برای افزایش مصنوعی اندازه مجموعه دادهمان اعمال کنیم. به عنوان مثال، اگر در حال آموزش برای یک کار طبقه بندی تصویر هستیم، می توانیم تغییر شکل های تصویری مختلفی را در مجموعه داده های تصویر خود انجام دهیم (به عنوان مثال، چرخش، تغییر مقیاس، شیفت).
4. Feature selection (data)
اگر فقط تعداد محدودی از نمونههای آموزشی داریم که هر کدام دارای تعداد زیادی ویژگی هستند، باید فقط مهمترین ویژگیها را برای آموزش انتخاب کنیم تا مدل ما نیازی به یادگیری برای این همه ویژگی نداشته باشد. ما میتوانیم به سادگی ویژگیهای مختلف را آزمایش کنیم، مدلهای فردی را برای این ویژگیها آموزش دهیم، و قابلیتهای تعمیم را ارزیابی کنیم، یا از یکی از روشهای مختلف انتخاب ویژگی استفاده کنیم.
5. L1 / L2 regularization (learning algorithm)
رگولاریزیشن تکنیکی برای محدود کردن شبکه ما از مدلی است که بسیار پیچیده است. در رگولاریزیشن L1 یا L2، میتوانیم یک عبارت جریمه را بر روی تابع هزینه اضافه کنیم تا ضرایب تخمینی را به سمت صفر برسانیم (و شدیدتر را نگیریم). رگولاریزیشن L2 به وزنها اجازه میدهد تا به صفر کاهش یابند، اما نه به صفر، در حالی که L1 به وزنها اجازه میدهد تا به صفر برسند.
6. Remove layers / number of units per layer (model)
همانطور که در رگولاریزیشن L1 یا L2 ذکر شد، یک مدل بیش از حد پیچیده ممکن است دچار بیشبرازش شود. بنابراین، ما می توانیم به طور مستقیم پیچیدگی مدل را با حذف لایه ها کاهش دهیم و اندازه مدل خود را کاهش دهیم. ما ممکن است پیچیدگی را با کاهش تعداد نورون ها در لایه های کاملاً متصل کاهش دهیم.
7. Dropout (model)
با اعمال dropout، که نوعی منظمسازی است، در لایههای خود، زیر مجموعهای از واحدهای شبکه خود را با احتمال مجموعه نادیده میگیریم. با استفاده از dropout، میتوانیم یادگیری وابسته به هم را در بین واحدها کاهش دهیم، که ممکن است به بیشبرازش منجر شده باشد. با این حال، با dropout، ما به آموزش بیشتری برای همگرایی مدل خود نیاز خواهیم داشت.
8. Early stopping (model)
توقف زودهنگام یک تکنیک منظمسازی (رگولاریزیشن) برای شبکههای عصبی عمیق است که هنگامی که بهروزرسانیهای پارامتر در مجموعه اعتبارسنجی دیگر شروع به بهبود نمیکنند، آموزش را متوقف میکند. در اصل، ما بهترین پارامترهای فعلی را در طول آموزش ذخیره و به روز می کنیم، و زمانی که به روز رسانی پارامترها دیگر بهبودی حاصل نمی شود (پس از یک تعداد تکرار مشخص)، آموزش را متوقف می کنیم و از آخرین بهترین پارامترها استفاده می کنیم. این روش با محدود کردن روند بهینهسازی به حجم کمتری از فضای پارامتر، به عنوان یک تنظیمکننده عمل میکند.
@Princeofaii
1. Hold-out (data)
به جای استفاده از تمام دادههایمان برای آموزش، میتوانیم به سادگی مجموعه دادههای خود را به دو مجموعه تقسیم کنیم: آموزش و تست. یک نسبت تقسیم معمول 80 درصد برای آموزش و 20 درصد برای تست است. ما مدل خود را تا زمانی آموزش می دهیم که نه تنها در مجموعه آموزشی بلکه برای مجموعه تست نیز عملکرد خوبی داشته باشد. این نشان دهنده قابلیت تعمیم خوب است زیرا مجموعه آزمایشی داده های دیده نشده را نشان می دهد که برای آموزش استفاده نشده اند. با این حال، این رویکرد به یک مجموعه داده به اندازه کافی بزرگ برای آموزش حتی پس از تقسیم نیاز دارد.
2. Cross-validation (data)
ما میتوانیم مجموعه دادههای خود را به k گروه تقسیم کنیم (k-fold cross-validation) . در این روش اجازه می دهیم یکی از گروه ها مجموعه تست باشد و بقیه به عنوان مجموعه آموزشی، و این روند را تا زمانی که هر گروه جداگانه به عنوان مجموعه تست استفاده شود (به عنوان مثال، k تکرار) تکرار شود. برخلاف Hold-out ، این روش اجازه میدهد تا در نهایت از تمام دادهها برای آموزش استفاده شود، اما همچنین از نظر محاسباتی گرانتر از Hold-out است.
3. Data augmentation (data)
یک مجموعه داده بزرگتر باعث کاهش بیش از حد بیشبرازش می شود. اگر نمیتوانیم دادههای بیشتری جمعآوری کنیم و محدود به دادههایی هستیم که در مجموعه داده فعلی خود داریم، میتوانیم افزایش دادهها (data augmentation ) را برای افزایش مصنوعی اندازه مجموعه دادهمان اعمال کنیم. به عنوان مثال، اگر در حال آموزش برای یک کار طبقه بندی تصویر هستیم، می توانیم تغییر شکل های تصویری مختلفی را در مجموعه داده های تصویر خود انجام دهیم (به عنوان مثال، چرخش، تغییر مقیاس، شیفت).
4. Feature selection (data)
اگر فقط تعداد محدودی از نمونههای آموزشی داریم که هر کدام دارای تعداد زیادی ویژگی هستند، باید فقط مهمترین ویژگیها را برای آموزش انتخاب کنیم تا مدل ما نیازی به یادگیری برای این همه ویژگی نداشته باشد. ما میتوانیم به سادگی ویژگیهای مختلف را آزمایش کنیم، مدلهای فردی را برای این ویژگیها آموزش دهیم، و قابلیتهای تعمیم را ارزیابی کنیم، یا از یکی از روشهای مختلف انتخاب ویژگی استفاده کنیم.
5. L1 / L2 regularization (learning algorithm)
رگولاریزیشن تکنیکی برای محدود کردن شبکه ما از مدلی است که بسیار پیچیده است. در رگولاریزیشن L1 یا L2، میتوانیم یک عبارت جریمه را بر روی تابع هزینه اضافه کنیم تا ضرایب تخمینی را به سمت صفر برسانیم (و شدیدتر را نگیریم). رگولاریزیشن L2 به وزنها اجازه میدهد تا به صفر کاهش یابند، اما نه به صفر، در حالی که L1 به وزنها اجازه میدهد تا به صفر برسند.
6. Remove layers / number of units per layer (model)
همانطور که در رگولاریزیشن L1 یا L2 ذکر شد، یک مدل بیش از حد پیچیده ممکن است دچار بیشبرازش شود. بنابراین، ما می توانیم به طور مستقیم پیچیدگی مدل را با حذف لایه ها کاهش دهیم و اندازه مدل خود را کاهش دهیم. ما ممکن است پیچیدگی را با کاهش تعداد نورون ها در لایه های کاملاً متصل کاهش دهیم.
7. Dropout (model)
با اعمال dropout، که نوعی منظمسازی است، در لایههای خود، زیر مجموعهای از واحدهای شبکه خود را با احتمال مجموعه نادیده میگیریم. با استفاده از dropout، میتوانیم یادگیری وابسته به هم را در بین واحدها کاهش دهیم، که ممکن است به بیشبرازش منجر شده باشد. با این حال، با dropout، ما به آموزش بیشتری برای همگرایی مدل خود نیاز خواهیم داشت.
8. Early stopping (model)
توقف زودهنگام یک تکنیک منظمسازی (رگولاریزیشن) برای شبکههای عصبی عمیق است که هنگامی که بهروزرسانیهای پارامتر در مجموعه اعتبارسنجی دیگر شروع به بهبود نمیکنند، آموزش را متوقف میکند. در اصل، ما بهترین پارامترهای فعلی را در طول آموزش ذخیره و به روز می کنیم، و زمانی که به روز رسانی پارامترها دیگر بهبودی حاصل نمی شود (پس از یک تعداد تکرار مشخص)، آموزش را متوقف می کنیم و از آخرین بهترین پارامترها استفاده می کنیم. این روش با محدود کردن روند بهینهسازی به حجم کمتری از فضای پارامتر، به عنوان یک تنظیمکننده عمل میکند.
@Princeofaii
Forwarded from LianPing | لیان پینگ
🚀 پینگت رو کاهش بده و سرعت اینترنتت رو دوبرابر کن
با این سرویس میتوانید به راحتی از برنامه هایی مانند : تلگرام,اینستاگرام,یوتیوب و ... استفاده کنید😉
📜 ویژگی این سرویس های ما :
🔐 شبکه امن و سریع 🚀
⏱ کاهش پینگ و رفع تحریم ها 💯
💥 اتصال به سریع ترین سرور ها در سراسر دنیا
📊 نیم بها شدن مصرف اینترنت
📱 مناسب برای تماشا فیلم ، وبگردی ، بازی های انلاین و....
🔗 ایپی ثابت برای تریدر ها
📞 پشتیبانی سریع و 24/7
🌐 دارای سرور های مختلف از سراسر جهان
💎 همین الان ربات رو استارت کن و اشتراک رو به صورت رایگان دریافت کن👇
🆔 https://t.me/LianPingBot?start=86405179
با این سرویس میتوانید به راحتی از برنامه هایی مانند : تلگرام,اینستاگرام,یوتیوب و ... استفاده کنید😉
📜 ویژگی این سرویس های ما :
🔐 شبکه امن و سریع 🚀
⏱ کاهش پینگ و رفع تحریم ها 💯
💥 اتصال به سریع ترین سرور ها در سراسر دنیا
📊 نیم بها شدن مصرف اینترنت
📱 مناسب برای تماشا فیلم ، وبگردی ، بازی های انلاین و....
🔗 ایپی ثابت برای تریدر ها
📞 پشتیبانی سریع و 24/7
🌐 دارای سرور های مختلف از سراسر جهان
💎 همین الان ربات رو استارت کن و اشتراک رو به صورت رایگان دریافت کن👇
🆔 https://t.me/LianPingBot?start=86405179
Forwarded from Prince of AI
This media is not supported in your browser
VIEW IN TELEGRAM
خلاصه گوگل I/O 2023 🤣🤣😂
Forwarded from IT posts
📢 روز تولد مریم میرزاخانی به عنوان روز زن در ریاضیات نامگذاری شد
◀️ سالروز تولد مریم میرزا خانی۲۲ اردیبهشت مصادف با ۱۲ مه از سوی اتحادیه بینالمللی انجمنهای ریاضی جهان با پیشنهاد کمیته بانوان انجمن ریاضی به عنوان روز جهانی زن در ریاضیات نام گذاری شد.
◀️ میرزاخانی در سال ۲۰۱۴ برنده مدال فیلدز شد که بالاترین جایزه در ریاضیات است.
◀️ سالروز تولد مریم میرزا خانی۲۲ اردیبهشت مصادف با ۱۲ مه از سوی اتحادیه بینالمللی انجمنهای ریاضی جهان با پیشنهاد کمیته بانوان انجمن ریاضی به عنوان روز جهانی زن در ریاضیات نام گذاری شد.
◀️ میرزاخانی در سال ۲۰۱۴ برنده مدال فیلدز شد که بالاترین جایزه در ریاضیات است.
Forwarded from Prince of AI
This media is not supported in your browser
VIEW IN TELEGRAM
The Octo-Bouncer: Advanced Bouncing Patterns
Arduino project with 120 FPS custom image processing and smooth stepper motor moves. The machine calculates the ball's 3D position from the image processing data and uses this information to control the orange ping pong ball.
Arduino project with 120 FPS custom image processing and smooth stepper motor moves. The machine calculates the ball's 3D position from the image processing data and uses this information to control the orange ping pong ball.
Forwarded from Prince of AI
رشد دیپفیکهای هوش مصنوعی در جعل تأیید KYC (احراز هویت) ❕
25 May 2023
مدیر ارشد امنیتی Binance معتقده این فناوری به قدری پیشرفته می شود که ممکن است به زودی یک تأیید کننده جعلی غیرقابل تشخیص باشد و تعداد آنان در حال حاضر بسیار افزایش یافته.
مدیر ارشد امنیت بایننس هشدار داده است که فناوری Deepfake که توسط کلاهبرداران کریپتو برای دور زدن تأیید مشتری و احرازهویت (KYC) در صرافیهایی مانند Binance استفاده میشود، پیشرفت بیشتری میکند، دیپفیکها با استفاده از ابزارهای هوش مصنوعی ساخته میشوند که برای ایجاد صدا، تصاویر یا ویدیوهای متقاعدکنندهای با شباهت افراد استفاده میکنند.
«برخی از تأیید ها کاملا به کاربر نیاز دارد، برای مثال، چشم چپ خود را پلک بزند یا به چپ یا راست نگاه کند، به بالا یا پایین نگاه کند. دیپفیکها امروزه به اندازهای پیشرفته هستند که میتوانند آن دستورات را اجرا کنند.»
با این حال وی، معتقد است که ویدیوهای جعلی و دیپ فیک هنوز در سطحی نیستند که بتوانند یک اپراتور انسانی را فریب دهند اما ریسک آنان در آینده وجود خواهد داشت.
Source : cointelegraph
25 May 2023
مدیر ارشد امنیتی Binance معتقده این فناوری به قدری پیشرفته می شود که ممکن است به زودی یک تأیید کننده جعلی غیرقابل تشخیص باشد و تعداد آنان در حال حاضر بسیار افزایش یافته.
مدیر ارشد امنیت بایننس هشدار داده است که فناوری Deepfake که توسط کلاهبرداران کریپتو برای دور زدن تأیید مشتری و احرازهویت (KYC) در صرافیهایی مانند Binance استفاده میشود، پیشرفت بیشتری میکند، دیپفیکها با استفاده از ابزارهای هوش مصنوعی ساخته میشوند که برای ایجاد صدا، تصاویر یا ویدیوهای متقاعدکنندهای با شباهت افراد استفاده میکنند.
«برخی از تأیید ها کاملا به کاربر نیاز دارد، برای مثال، چشم چپ خود را پلک بزند یا به چپ یا راست نگاه کند، به بالا یا پایین نگاه کند. دیپفیکها امروزه به اندازهای پیشرفته هستند که میتوانند آن دستورات را اجرا کنند.»
با این حال وی، معتقد است که ویدیوهای جعلی و دیپ فیک هنوز در سطحی نیستند که بتوانند یک اپراتور انسانی را فریب دهند اما ریسک آنان در آینده وجود خواهد داشت.
Source : cointelegraph
Cointelegraph
AI deepfakes are getting better at spoofing KYC verification — Binance exec
Binance CSO Jimmy Su has noticed a rise in deepfake technology being used to try and bypass know-your-customer (KYC) verification processes, which will only become more advanced.
This media is not supported in your browser
VIEW IN TELEGRAM
🤯 اگر از هوش مصنوعی جدید فتوشاپ بخواهید نقاشی مشهور مونا لیزا را گسترش دهد و در سطح بزرگتری ارائه دهد، با چنین تصویری روبهرو میشوید!
Forwarded from IT (تکنولوژی اطلاعات)
digiato:
♨️در جدیدترین شاهکار هوش مصنوعی مولد، اینبار از میدجرنی برای بازسازی تصویر کودکی افراد مشهور مانند ایلان ماسک و جنیفر انیستون استفاده شده است.
🔹در میان این افراد، چهره کودکی اد شیرن، خواننده بریتانیایی و لیدی گاگا، خواننده آمریکایی هم به چشم میخورند.
#هوش_مصنوعی #هوشمصنوعی #میدجرنی #افراد_مشهور #ai #midjourney
💾 ربات دانلود از اینستا: @instasave_bot
♨️در جدیدترین شاهکار هوش مصنوعی مولد، اینبار از میدجرنی برای بازسازی تصویر کودکی افراد مشهور مانند ایلان ماسک و جنیفر انیستون استفاده شده است.
🔹در میان این افراد، چهره کودکی اد شیرن، خواننده بریتانیایی و لیدی گاگا، خواننده آمریکایی هم به چشم میخورند.
#هوش_مصنوعی #هوشمصنوعی #میدجرنی #افراد_مشهور #ai #midjourney
💾 ربات دانلود از اینستا: @instasave_bot