⚠️
#جعل_عمیق یا #دیپ_فیک اولین بار شش سال پیش توسط ایان گادفلو با معرفی
شبکه های مولد تهاجمی " Generative Adversial Network " ارایه شد.
امروزه دقت این شبکه های GAN به قدری افزایش یافته که تشخیص ویدیوهای دستکاری شده و جعلی حتی برای متخصص انسانی نیز بسیار دشوار شده است.
🗣️طبق گزارش های منتشر شده، درصد قابل توجه ایی از محتوای تولید شده با این تکنولوژی در کل دنیا متأسفانه مربوط به صنعت پورنوگرافی است. در سال 2017 ویدیوی منتشر شده توسط یک کاربر در پلتفرم "ردیت" که در آن صورت بازیگران مشهور هالیودی با محتوی یک فیلم پورن جعل شده بود، سر و صدایی زیادی به پا کرد.
نگرانی دیگر از این تکنولوژی مربوط به سواستفاده در حوزه های سیاسی و امنیتی است. ویدیوی دستکاری شده از باراک اوباما که در آن ترامپ را یک احمق تمام عیار خطاب می کند به سرعت توسط کاربران سراسر دنیا در فضای مجازی دست به دست شد (⬅️برای دیدن این ویدیو ورق بزنید).
از این رو بسیاری معتقدند که فعالیت های تحقیق و توسعه ایی در این خصوص با دموکراسی و حقوق شهروندی متناقض بوده و خواهان وضع قوانین حقوقی مربوط با اینگونه فعالیت ها هستند.
البته در بسیاری از حوزه ها نظیر انیمیشن و جلوه های ویژه، بازی های کامپیوتری و سرگرمی و همچنین صنعت مدلینگ این تکنولوژی مورد استقبال چشمگیر قرار گرفته است.
📌🖋️احتمالاً بسیاری از ما تا به امروز تجربه جعل کردن و حس جاعل #imposter بودن را داشتیم. زمانیکه در کودکی جای پدر یا مادر برگه رضایت نامه اردوی مدرسه را امضا کردیم یا پشت تلفن خود را جای برادر یا خواهر جا زدیم.
لذا اگرچه دیپ فیک پدیده ایی نسبتاً نوظهور قلمداد می شود اما جعل و دستکاری سابقه بس طولانی داشته و نمی توان پیشرفتهای اخیر #هوش_مصنوعی و #یادگیری_عمیق را باعث آن دانست، بلکه می توان آن را به مثابه یک چاقو تعبیر نمود.
به زعم #دکتر_محمد_صبری اینکه چاقو دست پزشک جراح می افتد یا قاتل سریالی منافاتی با دموکراسی و نقض حقوق شهروندی ندارد بلکه باید بابت پیشرفت #شبکه_عمیق و الگوریتم های یادگیری ماشین خشنود بود.
#هوش_مصنوعی
#جعل_عمیق
#تشخیص_چهره
#پردازش_تصویر
☑️در پست بعدی با سرمایه گذاری شرکت های فعال حوزه هوش مصنوعی نظیر گوگل و فیسبوک برای مواجه با
#جعل عمیق #دیپ فیک #تشخیص_جعل_چهره
#زنده_بودن_چهره
آشنا شوید.
https://www.instagram.com/p/CNVDULIh_wf/?igshid=xbcaz36tcaox
#جعل_عمیق یا #دیپ_فیک اولین بار شش سال پیش توسط ایان گادفلو با معرفی
شبکه های مولد تهاجمی " Generative Adversial Network " ارایه شد.
امروزه دقت این شبکه های GAN به قدری افزایش یافته که تشخیص ویدیوهای دستکاری شده و جعلی حتی برای متخصص انسانی نیز بسیار دشوار شده است.
🗣️طبق گزارش های منتشر شده، درصد قابل توجه ایی از محتوای تولید شده با این تکنولوژی در کل دنیا متأسفانه مربوط به صنعت پورنوگرافی است. در سال 2017 ویدیوی منتشر شده توسط یک کاربر در پلتفرم "ردیت" که در آن صورت بازیگران مشهور هالیودی با محتوی یک فیلم پورن جعل شده بود، سر و صدایی زیادی به پا کرد.
نگرانی دیگر از این تکنولوژی مربوط به سواستفاده در حوزه های سیاسی و امنیتی است. ویدیوی دستکاری شده از باراک اوباما که در آن ترامپ را یک احمق تمام عیار خطاب می کند به سرعت توسط کاربران سراسر دنیا در فضای مجازی دست به دست شد (⬅️برای دیدن این ویدیو ورق بزنید).
از این رو بسیاری معتقدند که فعالیت های تحقیق و توسعه ایی در این خصوص با دموکراسی و حقوق شهروندی متناقض بوده و خواهان وضع قوانین حقوقی مربوط با اینگونه فعالیت ها هستند.
البته در بسیاری از حوزه ها نظیر انیمیشن و جلوه های ویژه، بازی های کامپیوتری و سرگرمی و همچنین صنعت مدلینگ این تکنولوژی مورد استقبال چشمگیر قرار گرفته است.
📌🖋️احتمالاً بسیاری از ما تا به امروز تجربه جعل کردن و حس جاعل #imposter بودن را داشتیم. زمانیکه در کودکی جای پدر یا مادر برگه رضایت نامه اردوی مدرسه را امضا کردیم یا پشت تلفن خود را جای برادر یا خواهر جا زدیم.
لذا اگرچه دیپ فیک پدیده ایی نسبتاً نوظهور قلمداد می شود اما جعل و دستکاری سابقه بس طولانی داشته و نمی توان پیشرفتهای اخیر #هوش_مصنوعی و #یادگیری_عمیق را باعث آن دانست، بلکه می توان آن را به مثابه یک چاقو تعبیر نمود.
به زعم #دکتر_محمد_صبری اینکه چاقو دست پزشک جراح می افتد یا قاتل سریالی منافاتی با دموکراسی و نقض حقوق شهروندی ندارد بلکه باید بابت پیشرفت #شبکه_عمیق و الگوریتم های یادگیری ماشین خشنود بود.
#هوش_مصنوعی
#جعل_عمیق
#تشخیص_چهره
#پردازش_تصویر
☑️در پست بعدی با سرمایه گذاری شرکت های فعال حوزه هوش مصنوعی نظیر گوگل و فیسبوک برای مواجه با
#جعل عمیق #دیپ فیک #تشخیص_جعل_چهره
#زنده_بودن_چهره
آشنا شوید.
https://www.instagram.com/p/CNVDULIh_wf/?igshid=xbcaz36tcaox