This media is not supported in your browser
VIEW IN TELEGRAM
تکنولوژی جعل عمیق چیست؟
جعل عمیق چگونه صورت میگیرد؟ سیستم چگونه بدون نظارت انسانی و به صورت مستقل چنین تصاویری خلق میکند؟
برای تولید یک ویدیوی یک دقیقهای چقدر زمان لازم است؟ کاستیهای کار کجاست؟
به نظر شما پیامدهای مثبت این نوع تکنولوژی بیشتر از پیامدهای منفی آن است؟
ویدیو از دویچهوله فارسی
#تکنولوژی #جعل_عمیق #دیپ_فیک
@tavaanatech
جعل عمیق چگونه صورت میگیرد؟ سیستم چگونه بدون نظارت انسانی و به صورت مستقل چنین تصاویری خلق میکند؟
برای تولید یک ویدیوی یک دقیقهای چقدر زمان لازم است؟ کاستیهای کار کجاست؟
به نظر شما پیامدهای مثبت این نوع تکنولوژی بیشتر از پیامدهای منفی آن است؟
ویدیو از دویچهوله فارسی
#تکنولوژی #جعل_عمیق #دیپ_فیک
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
انقلابی در دوبله با کمک #دیپ_فیک
یک کمپانی با پردازش تصویر و هوش مصنوعی، فیلمها را دوبله میکند. در این شیوه، لحن و صدای بازیگرها تغییر نمیکند ولی زبان آنها عوض میشود. دیالوگها با حرکات دهان بازیگرها در فیلمها و مدت دیالوگشان هماهنگ میشود/دیجیاتو
@tavaanatech
یک کمپانی با پردازش تصویر و هوش مصنوعی، فیلمها را دوبله میکند. در این شیوه، لحن و صدای بازیگرها تغییر نمیکند ولی زبان آنها عوض میشود. دیالوگها با حرکات دهان بازیگرها در فیلمها و مدت دیالوگشان هماهنگ میشود/دیجیاتو
@tavaanatech
دفتر تحقیق فدرال اعلام کرد بین سال ۲۰۱۹ تا ۲۰۲۱ قربانیان دیپ فیک به شدت افزایش یافته است.
برای جلوگیری حتما این موارد را رعایت کنید:
۱- چک کنید با کسی که میتینگ مجازی گذاشته اید خود شخص هست از روش غیر مجازی.
۲-استفاده از MFA یا 2FA برای ورود به اکانت های zoom
۳- اطمینان حاصل کنید که URL موجود در ایمیلها با کسبوکار/شخصی که ادعا میکند از آن است مرتبط است.
۴- مراقب لینک هایی باشید که ممکن است حاوی غلط املایی نام دامنه واقعی باشند.(Typo Domain )
۵- در ایمیل یوزر و پسورد یا اطلاعات محرمانه را ارسال نکنید.
۶- آدرس ایمیلی که برای ارسال ایمیل استفاده میشود را تأیید کنید، مخصوصاً هنگام استفاده از تلفن همراه یا دستگاه دستی، با اطمینان از اینکه نشانی فرستنده مطابقت دارد. (فیشینگ)
۷- اطمینان حاصل کنید پلاگین های مشاهده جزییات ایمیل روی سیستم های کارمندان نصب شده باشد.
۸-حسابهای مالی شخصی خود را به طور منظم برای بینظمیها، مانند سپردههای گمشده، کنترل کنید.
منبع :
ic3.gov/Media/Y2022/PSA220216
همچنین استفاده از GPG می تواند کمک کند ایمیل شما را فقط شخصی که کلید خصوصی دارد بتواند بخواند.
و addons mitaka برای چک ایمیل اسپوف ( برای فایرفاکس وکروم)
( متن از حساب توییتر: "سهیل هاشمی" @soheilhashemi_)
#یاری_مدنی_توانا
#دیپ_فیک #فیشینگ
@tavaanatech
برای جلوگیری حتما این موارد را رعایت کنید:
۱- چک کنید با کسی که میتینگ مجازی گذاشته اید خود شخص هست از روش غیر مجازی.
۲-استفاده از MFA یا 2FA برای ورود به اکانت های zoom
۳- اطمینان حاصل کنید که URL موجود در ایمیلها با کسبوکار/شخصی که ادعا میکند از آن است مرتبط است.
۴- مراقب لینک هایی باشید که ممکن است حاوی غلط املایی نام دامنه واقعی باشند.(Typo Domain )
۵- در ایمیل یوزر و پسورد یا اطلاعات محرمانه را ارسال نکنید.
۶- آدرس ایمیلی که برای ارسال ایمیل استفاده میشود را تأیید کنید، مخصوصاً هنگام استفاده از تلفن همراه یا دستگاه دستی، با اطمینان از اینکه نشانی فرستنده مطابقت دارد. (فیشینگ)
۷- اطمینان حاصل کنید پلاگین های مشاهده جزییات ایمیل روی سیستم های کارمندان نصب شده باشد.
۸-حسابهای مالی شخصی خود را به طور منظم برای بینظمیها، مانند سپردههای گمشده، کنترل کنید.
منبع :
ic3.gov/Media/Y2022/PSA220216
همچنین استفاده از GPG می تواند کمک کند ایمیل شما را فقط شخصی که کلید خصوصی دارد بتواند بخواند.
و addons mitaka برای چک ایمیل اسپوف ( برای فایرفاکس وکروم)
( متن از حساب توییتر: "سهیل هاشمی" @soheilhashemi_)
#یاری_مدنی_توانا
#دیپ_فیک #فیشینگ
@tavaanatech
شخصی با استفاده از تکنولوژی دیپ فیک، صورت شهردار شهر کییف، پایتخت اوکراین را به جای صورتش گذاشته و با شهردارهای ۴ شهر اروپایی یعنی برلین، مادرید، وین و بوداپست مکالمه تصویری داشته و برای چندین دقیقه آنها را سرکار گذاشته است.
بعد از چند دقیقه و مشاهده رفتارهای مشکوک توسط این شخص، مانند نیاز به مترجم آلمانی (در صورتی که شهردار کییف به زبان آلمانی مسلط است)، متوجه این موضوع شده اند که سر کار بودهاند!
#دیپ_فیک
@tavaanatech
بعد از چند دقیقه و مشاهده رفتارهای مشکوک توسط این شخص، مانند نیاز به مترجم آلمانی (در صورتی که شهردار کییف به زبان آلمانی مسلط است)، متوجه این موضوع شده اند که سر کار بودهاند!
#دیپ_فیک
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
هوش مصنوعی جدید ElevenLabs که میتونه صدای هرکسی رو تقلید کنه!
(از توییتر سروش احمدی)
#هوش_مصنوعی #تکنولوژی #دیپ_فیک
@tavaanatech
(از توییتر سروش احمدی)
#هوش_مصنوعی #تکنولوژی #دیپ_فیک
@tavaanatech
شرکت امنیتی نورتون: ChatGPT میتواند کلاهبرداریها و حملات سایبری را خطرناکتر کند
نورتون میگوید کلاهبرداران به سه روش عمده شامل خلق محتوا با کمک دیپفیک، فیشینگ و تولید سریع بدافزارها میتوانند از ChatGPT سوءاستفاده کنند.
کارشناسان امنیت سایبری میگویند کلاهبرداران اینترنتی احتمالاً با کمک قابلیتهای چتبات هوش مصنوعی ChatGPT بسیار خطرناکتر خواهند شد و برای مقابله با این خطرات باید تمهیدات جدیدی را اندیشید تا امنیت کاربران حفظ شود.
نورتون همچنین میگوید توانایی تولید اطلاعات گمراهکننده و نادرست با کیفیت بالا و در مقیاس گسترده احتمالاً به مهاجمان اجازه میدهد تا بهطور مؤثرتر از قبل حملات خود را پیادهسازی کنند و راحتتر روایتها را در زبانهای مختلف شکل دهند.
چتبات ChatGPT حتی میتواند به تولید حجم بالایی از بررسیهای جعلی برای محصولات مختلف کمک کند و این بررسیها را با لحنهای گوناگون بنویسد. این هوش مصنوعی همچنین میتواند در حملات هدفمند برای آزار یا زورگویی به افراد در شبکههای اجتماعی استفاده شود و پیامدهای هولناکی بهدنبال داشته باشد.
ابن هوش مصنوعی شناسایی حملات سایبری را سختتر میکند
نورتون میگوید درحالحاضر بسیاری از کارزارهای فیشینگ توسط کسانی پیادهسازی میشود که به زبان انگلیسی مسلط نیستند و معمولاً اشتباهات آنها به کاربران نشان میدهد که با یک کلاهبرداری مواجه هستند. اما ChatGPT میتواند این مسئله را حل کند و متونی قانعکننده و تقریباً بدون اشکال بنویسد.
با تمام این تفاصیل، احتمالاً باید منتظر افزایشی در آمار و پیچیدگی حملات کلاهبرداری و بدافزارهای مرتبط با آن باشیم. علاوهبراین، توانایی ChatGPT در تبدیل کد برنامهها به زبانهای کمترشناختهشده میتواند شناسایی بدافزار توسط آنتیویروسها را دشوار کند.
محققان امنیتی نورتون میگویند کلاهبرداران همواره از ابزارهای جدید و پیشرفته به نفع خود سوءاستفاده کردهاند و ChatGPT هم از این قاعده مستثنی نیست. حالا وظیفه جامعه متخصصان و کاربران است که راهکارهایی را برای مقابله با این تهدیدات معرفی کنند و ایمنی افراد را ارتقا دهند.
(دیجیاتو)
گزارش شرکت نورتون:
https://us.norton.com/blog/emerging-threats/pulse-report-march-2023
#هوش_مصنوعی #کلاهبرداری #دیپ_فیک
#ChatGPT
@tavaanatech
نورتون میگوید کلاهبرداران به سه روش عمده شامل خلق محتوا با کمک دیپفیک، فیشینگ و تولید سریع بدافزارها میتوانند از ChatGPT سوءاستفاده کنند.
کارشناسان امنیت سایبری میگویند کلاهبرداران اینترنتی احتمالاً با کمک قابلیتهای چتبات هوش مصنوعی ChatGPT بسیار خطرناکتر خواهند شد و برای مقابله با این خطرات باید تمهیدات جدیدی را اندیشید تا امنیت کاربران حفظ شود.
نورتون همچنین میگوید توانایی تولید اطلاعات گمراهکننده و نادرست با کیفیت بالا و در مقیاس گسترده احتمالاً به مهاجمان اجازه میدهد تا بهطور مؤثرتر از قبل حملات خود را پیادهسازی کنند و راحتتر روایتها را در زبانهای مختلف شکل دهند.
چتبات ChatGPT حتی میتواند به تولید حجم بالایی از بررسیهای جعلی برای محصولات مختلف کمک کند و این بررسیها را با لحنهای گوناگون بنویسد. این هوش مصنوعی همچنین میتواند در حملات هدفمند برای آزار یا زورگویی به افراد در شبکههای اجتماعی استفاده شود و پیامدهای هولناکی بهدنبال داشته باشد.
ابن هوش مصنوعی شناسایی حملات سایبری را سختتر میکند
نورتون میگوید درحالحاضر بسیاری از کارزارهای فیشینگ توسط کسانی پیادهسازی میشود که به زبان انگلیسی مسلط نیستند و معمولاً اشتباهات آنها به کاربران نشان میدهد که با یک کلاهبرداری مواجه هستند. اما ChatGPT میتواند این مسئله را حل کند و متونی قانعکننده و تقریباً بدون اشکال بنویسد.
با تمام این تفاصیل، احتمالاً باید منتظر افزایشی در آمار و پیچیدگی حملات کلاهبرداری و بدافزارهای مرتبط با آن باشیم. علاوهبراین، توانایی ChatGPT در تبدیل کد برنامهها به زبانهای کمترشناختهشده میتواند شناسایی بدافزار توسط آنتیویروسها را دشوار کند.
محققان امنیتی نورتون میگویند کلاهبرداران همواره از ابزارهای جدید و پیشرفته به نفع خود سوءاستفاده کردهاند و ChatGPT هم از این قاعده مستثنی نیست. حالا وظیفه جامعه متخصصان و کاربران است که راهکارهایی را برای مقابله با این تهدیدات معرفی کنند و ایمنی افراد را ارتقا دهند.
(دیجیاتو)
گزارش شرکت نورتون:
https://us.norton.com/blog/emerging-threats/pulse-report-march-2023
#هوش_مصنوعی #کلاهبرداری #دیپ_فیک
#ChatGPT
@tavaanatech
تسلط هوش مصنوعی بر طراحی دست؛ تشخیص تصاویر دیپفیک دشوارتر شد!
یکی از مهمترین بخشهای عکس برای تشخیص جعلی یا حقیقی بودن تصویر، دستها بود.
باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پیبرد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگترین نشانههای پنهان برای تشخیص یک تصویر جعل عمیق (دیپفیک)، رفع شده باشد.
جدیدترین نسخه «میدجرنی»، که از متنهای مکتوب ساده تصویر تولید میکند، در مقایسه با نسخههای پیشین فناوری هوش مصنوعی مولد که معمولا دستهای انسان را به شکل عجیب و غریب یا با تعداد انگشتان اشتباه به تصویر میکشند، پیشرفت قابلتوجهی را نشان میدهد.
به گفته سازندگان، میدجرنی وی۵ کیفیت تصویر بسیار بالاتر، خروجیهای متنوعتر، دامنه سبکشناختی گستردهتر، پشتیبانی از بافتهای یکپارچه، نسبتهای تصویری گستردهتر و تصویری بهتر [و دامنه دینامیکی گستردهتر] ارائه میکند.
بسیاری از هنرمندان دست انسان را یکی از پیچیدهترین چیزها برای طراحی در نظر میگرفتند و نخستین تصویرسازهای هوش مصنوعی در میدجرنی، استیبل دیفیوژن و اوپنایآی دالئی، نشان دادند که هوش مصنوعی مولد نیز با مشکلاتی مواجه است.
دل واکر، هنرمند بازیهای ویدیویی، گفت: «فقط یک هشدارــ هوش مصنوعی میدجرنی اینک میتواند طراحی دستها را بهدرستی انجام دهد.»
محققان هوش مصنوعی پیشتر تلاش کردهاند توضیح دهند که چرا هوش مصنوعی مولد که با میلیاردها تصویر از اینترنت آموزش داده شده است، با جنبههای خاصی از فرم [بدن] انسان مشکل دارد.
سخنگوی استیبیلیتی ایآی اوایل سال جاری به بازفید نیوز گفت: «به طور کلی این موضوعی آشنا است که تصاویر انسان در مجموعه دادههای هوش مصنوعی دستها را مشخصا کمتر از صورتها نشان میدهند.»
«دستها معمولا در تصاویر منبع هم بسیار کوچکترند. چرا که در قالب بزرگ، نسبتا بهندرت قابل مشاهدهاند.»
(به نقل از ایندیپندنت فارسی)
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق
@tavaanatech
یکی از مهمترین بخشهای عکس برای تشخیص جعلی یا حقیقی بودن تصویر، دستها بود.
باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پیبرد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگترین نشانههای پنهان برای تشخیص یک تصویر جعل عمیق (دیپفیک)، رفع شده باشد.
جدیدترین نسخه «میدجرنی»، که از متنهای مکتوب ساده تصویر تولید میکند، در مقایسه با نسخههای پیشین فناوری هوش مصنوعی مولد که معمولا دستهای انسان را به شکل عجیب و غریب یا با تعداد انگشتان اشتباه به تصویر میکشند، پیشرفت قابلتوجهی را نشان میدهد.
به گفته سازندگان، میدجرنی وی۵ کیفیت تصویر بسیار بالاتر، خروجیهای متنوعتر، دامنه سبکشناختی گستردهتر، پشتیبانی از بافتهای یکپارچه، نسبتهای تصویری گستردهتر و تصویری بهتر [و دامنه دینامیکی گستردهتر] ارائه میکند.
بسیاری از هنرمندان دست انسان را یکی از پیچیدهترین چیزها برای طراحی در نظر میگرفتند و نخستین تصویرسازهای هوش مصنوعی در میدجرنی، استیبل دیفیوژن و اوپنایآی دالئی، نشان دادند که هوش مصنوعی مولد نیز با مشکلاتی مواجه است.
دل واکر، هنرمند بازیهای ویدیویی، گفت: «فقط یک هشدارــ هوش مصنوعی میدجرنی اینک میتواند طراحی دستها را بهدرستی انجام دهد.»
محققان هوش مصنوعی پیشتر تلاش کردهاند توضیح دهند که چرا هوش مصنوعی مولد که با میلیاردها تصویر از اینترنت آموزش داده شده است، با جنبههای خاصی از فرم [بدن] انسان مشکل دارد.
سخنگوی استیبیلیتی ایآی اوایل سال جاری به بازفید نیوز گفت: «به طور کلی این موضوعی آشنا است که تصاویر انسان در مجموعه دادههای هوش مصنوعی دستها را مشخصا کمتر از صورتها نشان میدهند.»
«دستها معمولا در تصاویر منبع هم بسیار کوچکترند. چرا که در قالب بزرگ، نسبتا بهندرت قابل مشاهدهاند.»
(به نقل از ایندیپندنت فارسی)
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق
@tavaanatech
تواناتک Tavaanatech
Photo
به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند
پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.
بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.»
هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند.
به گزارش رویترز، ویدیوی هیلاری کلینتون، یکی از هزاران دیپ فیک (جعل عمیق) است که در هفتههای اخیر برای تبلیغ نامزدهای جمهوریخواه انتخابات ریاستجمهوری در فضای مجازی از طریق فناوریهای هوش مصنوعی پیشرفته ساخته شدهاند. رویترز میگوید کارشناسان فناوریهای پیشرفته معتقدند که ساخت «دیپ فیکها ارزانتر از گذشته شده است، به همین دلیل افراد بیشتری به این فناوری دسترسی دارند.»
به این ترتیب، انتظار میرود در انتخابات سال ۲۰۲۴ بیش از همیشه اخبار و ویدیوهای جعلی منتشر شود. رویترز با دارل وست، کارشناس ارشد موسسه بروکینگز، دراینباره گفتوگو کرده است. او میگوید: «تشخیص خبر واقعی از جعلی برای رایدهندگان ازاینپس بسیار دشوار خواهد بود. تصور کنید که بهعنوان مثال حامیان دونالد ترامپ تا چه اندازه میتوانند از این فناوری بهره ببرند.»
آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی -سازمانی غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه میکند- نیز به خبرگزاری رویترز میگوید که «ابزارهایی مانند دیپ فیک میتواند بزرگترین سلاح برای تولیدات جعلی باشند.»
بهعنوان مثال، دونالد ترامپ ماه گذشته در پلتفرم خود، «تروث سوشیال»، ویدیوی جعل عمیق از مجری معروف شبکه «سیانان»، اندرسون کوپر، منتشر کرد. سیانان بلافاصله این ویدیو را جعلی خواند، اما سازماندهندگان کارزار انتخاباتی دونالد ترامپ حاضر نشدند دراینباره واکنشی نشان دهند.
پلتفرمهای بزرگ رسانههای اجتماعی مانند فیسبوک، توییتر و یوتیوب تلاشهایی برای ممنوع کردن و حذف ویدیوهای جعلی انجام دادهاند. بااینحال، این ویدیوهای جعلی و اخبار نادرست همچنان بیشترین تاثیر را بر انتخابات آمریکا دارد.
طبق گفته «دیپ مدیا»، شرکتی که بر روی ابزارهای منسوب به هوش مصنوعی و ویدیوهای جعلی کار میکند، در سال جدید میلادی تعداد دیپ فیکهای تصویری سه برابر و تعداد دیپ فیکهای صوتی هشت برابر مدتزمان مشابه در سال ۲۰۲۲ میلادی است. این رسانه تخمین میزند که درمجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار جعل عمیق تصویری و صوتی در رسانههای اجتماعی در سراسر جهان به اشتراک گذاشته شود.
یکی از دلایل آن، ارزان شدن ساخت و تولید چنین محتوایی است. در سال گذشته یک دیپ فیک (جعل عمیق) صوتی هزاران دلار هزینه داشت، در حالی که در سال جاری میلادی بهراحتی با چند دلار میتوان یک جعل عمیق صوتی ساخت.
در حالی که فناوریهای هوش مصنوعی بهسرعت در جهان در حال گسترش است، بسیاری از کارشناسان و دانشمندان نگران آینده بشر در کنار گسترش «هوش مصنوعی»اند. یکی از آنها پدرخوانده و بنیانگذار هوش مصنوعی، جفری هینتون، است. او در ماه مه گذشته در گفتوگو با روزنامه نیویورکتایمز اعلام کرد برخلاف گذشته نگران است که فناوریهای هوش مصنوعی از هوش بشری پیشی بگیرند.
او در این مصاحبه از دولتهای دموکراتیک جهان خواست محدودیتهای زیادی برای هوش مصنوعی در نظر بگیرند و نگذارند این فناوریها به دست رهبران کشورهای غیردموکراتیک جهان بیفتد.
(ایندیپندنت فارسی)
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق #آمریکا #انتخابات
@tavaanatech
پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.
بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.»
هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند.
به گزارش رویترز، ویدیوی هیلاری کلینتون، یکی از هزاران دیپ فیک (جعل عمیق) است که در هفتههای اخیر برای تبلیغ نامزدهای جمهوریخواه انتخابات ریاستجمهوری در فضای مجازی از طریق فناوریهای هوش مصنوعی پیشرفته ساخته شدهاند. رویترز میگوید کارشناسان فناوریهای پیشرفته معتقدند که ساخت «دیپ فیکها ارزانتر از گذشته شده است، به همین دلیل افراد بیشتری به این فناوری دسترسی دارند.»
به این ترتیب، انتظار میرود در انتخابات سال ۲۰۲۴ بیش از همیشه اخبار و ویدیوهای جعلی منتشر شود. رویترز با دارل وست، کارشناس ارشد موسسه بروکینگز، دراینباره گفتوگو کرده است. او میگوید: «تشخیص خبر واقعی از جعلی برای رایدهندگان ازاینپس بسیار دشوار خواهد بود. تصور کنید که بهعنوان مثال حامیان دونالد ترامپ تا چه اندازه میتوانند از این فناوری بهره ببرند.»
آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی -سازمانی غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه میکند- نیز به خبرگزاری رویترز میگوید که «ابزارهایی مانند دیپ فیک میتواند بزرگترین سلاح برای تولیدات جعلی باشند.»
بهعنوان مثال، دونالد ترامپ ماه گذشته در پلتفرم خود، «تروث سوشیال»، ویدیوی جعل عمیق از مجری معروف شبکه «سیانان»، اندرسون کوپر، منتشر کرد. سیانان بلافاصله این ویدیو را جعلی خواند، اما سازماندهندگان کارزار انتخاباتی دونالد ترامپ حاضر نشدند دراینباره واکنشی نشان دهند.
پلتفرمهای بزرگ رسانههای اجتماعی مانند فیسبوک، توییتر و یوتیوب تلاشهایی برای ممنوع کردن و حذف ویدیوهای جعلی انجام دادهاند. بااینحال، این ویدیوهای جعلی و اخبار نادرست همچنان بیشترین تاثیر را بر انتخابات آمریکا دارد.
طبق گفته «دیپ مدیا»، شرکتی که بر روی ابزارهای منسوب به هوش مصنوعی و ویدیوهای جعلی کار میکند، در سال جدید میلادی تعداد دیپ فیکهای تصویری سه برابر و تعداد دیپ فیکهای صوتی هشت برابر مدتزمان مشابه در سال ۲۰۲۲ میلادی است. این رسانه تخمین میزند که درمجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار جعل عمیق تصویری و صوتی در رسانههای اجتماعی در سراسر جهان به اشتراک گذاشته شود.
یکی از دلایل آن، ارزان شدن ساخت و تولید چنین محتوایی است. در سال گذشته یک دیپ فیک (جعل عمیق) صوتی هزاران دلار هزینه داشت، در حالی که در سال جاری میلادی بهراحتی با چند دلار میتوان یک جعل عمیق صوتی ساخت.
در حالی که فناوریهای هوش مصنوعی بهسرعت در جهان در حال گسترش است، بسیاری از کارشناسان و دانشمندان نگران آینده بشر در کنار گسترش «هوش مصنوعی»اند. یکی از آنها پدرخوانده و بنیانگذار هوش مصنوعی، جفری هینتون، است. او در ماه مه گذشته در گفتوگو با روزنامه نیویورکتایمز اعلام کرد برخلاف گذشته نگران است که فناوریهای هوش مصنوعی از هوش بشری پیشی بگیرند.
او در این مصاحبه از دولتهای دموکراتیک جهان خواست محدودیتهای زیادی برای هوش مصنوعی در نظر بگیرند و نگذارند این فناوریها به دست رهبران کشورهای غیردموکراتیک جهان بیفتد.
(ایندیپندنت فارسی)
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق #آمریکا #انتخابات
@tavaanatech
Telegram
تواناتک Tavaanatech
تواناتک Tavaanatech
Photo
هوش مصنوعی این روزها هیچ حدومرزی را پیش روی خود نمی بیند و به طور فزایندهای، در جای جای زندگی ما انسان ها مشاهده می شود. همین مسئله، نگرانی هایی را در خصوص تاثیر آن بر اشتغال، صنایع و همچنین تحولات سیاسی همچون انتخابات بوجود آورده است.
در همین رابطه، اخیرا کوین باراگونا بنیانگذار شرکت DeepAI که در زمینه هوش مصنوعی فعالیت دارد، در مصاحبهای با شبکه WION به موضوعات مرتبط با هوش مصنوعی و آینده جهان با حضور این فناوری پرداخت.
مجموعه DeepAI اولین ابزار تولید متن به تصویر را معرفی کرد و اخیرا نیز محصول جدید خود به نام AI Chat را در دسترس عموم قرار داد. استفاده از این ابزار نیازی به ثبتنام ندارد و می توان از برنامه های متنوع آن بهره برد.
دیپفیک ها و تهدید هوش مصنوعی برای رویدادهای سیاسی
از دید بنیانگذار DeepAI، همان اندازه که خلق تصاویر و ویدیوهایی نزدیک به واقعیت با کمک هوش مصنوعی جالب به نظر می رسد، به همین میزان، نگرانی درباره سوءاستفاده از این فناوری برای فریب افکار عمومی و یا ارائه اطلاعات غلط نسبت به افراد وجود دارد.
باراگونا می گوید: دیپفیک (جعل عمیق) در دنیای سیاست می تواند پیامدهای گستردهای داشته باشد به طوری که با این فناوری می توان چهره و هویت رهبران سیاسی جهان را که خبر جنگ جهانی بعدی را اعلام می کنند، جعل کرد.
وی به دیپفیک هایی که پیشتر و بدون مجوز قبلی ساخته شدهاند، اشاره کرد و گفت که این موارد باید به عنوان مصادیق غیرقانونی اعلام شوند. هیچکس نباید بتواند چهره و صدای شما را بدزدد.
مدیرعامل DeepAI در ادامه به مثال دیگری از یک تصویر جعلی از بمباران پنتاگون اشاره کرد و گفت که همگان مشاهده کردند که این تصویر چگونه باعث سقوط بازار سهام شد.
به اعتقاد بارگونا، از بدیهیترین اشکال این فناوری می توان به ساخت دیپفیک از رهبران سیاسی و افرادی که بیشتر در انظار عمومی هستند، اشاره کرد. می توان با هوش مصنوعی، این افراد را به گونهای در حال اظهارنظر به تصویر کشید که در واقعیت، در تضاد با دیدگاه هایشان است. این موارد می تواند به سرعت در فضای مجازی و شبکه های اجتماعی گسترش یاید و شاید هرگز نتوان آنها را اصلاح کرد.
رشد سریع فناوری هوش مصنوعی
این کارشناس حوزه فناوری در مورد سهولت استفاده از فناوری هوش مصنوعی گفت: قبل از ظهور هوش مصنوعی، طراحان و گرافیست ها می توانستند با استفاده از فتوشاپ، تصاویر دلخواه را ایجاد کنند اما با ظهور ابزارهای هوش مصنوعی مولد با قابلیت تبدیل متن به تصویر، این کار بسیار سریعتر صورت می گیرد و هر کسی می تواند بدون داشتن دانشی از طراحی و گرافیک، چنین کاری را انجام دهد.
کوین باراگونا، هوش مصنوعی را «سلاح هستهای حوزه نرمافزار» توصیف کرد و افزود: اگر این سلاح به صورت کنترل نشده و بدون نظارت در اختیار برخی افراد قرار گیرد، می تواند آسیب های جدی و زیادی به دیگران وارد کند.
اختلال در صنایع حمل و نقل و آموزش
این کارشناس گفت استفاده از هوش مصنوعی در صنایع حمل و نقل و آموزش می تواند منجر به بیکاری در مقیاسی وسیع در این دو حوزه خواهد شد. وی گفت این فناوری به حدی می تواند در این حوزه ها نفوذ کند که تمامی رانندگان را از کار بیکار کند.
باراگونا درباره تاثیر هوش مصنوعی در عرضه آموزش نیز گفت که این روزها شاهدیم که پلتفرم های آموزش و یادگیری آنلاین به شدت با افت بازدید و استفاده توسط دانشآموزان مواجه شدهاند چرا که اکنون کاربران می توانند از ابزارهای هوش مصنوعی برای دسترسی به آموزش های تخصصی در مورد موضوعات مختلف استفاده کنند.
تغییر در مشاغل
مدیرعامل DeepAI گفت که هوش مصنوعی منجر به ایجاد تغییرات شغلی خواهد شد به طوری که اگرچه شاید برخی ها بیکار شوند، اما مشاغل جدیدی ایجاد خواهند شد که افراد می توانند با کسب مهارت، در آنها مشغول به کار شوند.
وی در پاسخ به این سوال که آیا کارگران می توانند مهارت های جدید را بیاموزند؟ گفت: یکی از این مشاغل، مهندسی پرامپت (Prompt) است که تقریبا یک سال پیش، برای افراد خارج از حوزه هوش منصوعی، جالب و شاید شناختهشده نبود. اما اکنون ظرفیت های شغلی بسیاری دارد و می توان با مهارت آموزی در این حوزه، مشغول به کار شد.
وی افزود: انقلاب هوش مصنوعی می تواند شغل هایی ایجاد کند که به افراد دارای مهارت های کم، این امکان را می دهد تا کارهای بسیار باکیفیتی را ارائه دهند.
مقررات در حوزه هوش مصنوعی
کوین باراگونا خواستار وضع مقرراتی در مورد هوش مصنوعی شد و گفت که بخشی از این باید معطوف به ارائه حمایت قانونی و منابع مالی برای اجرای نحوه استفاده از این فناوری جدید باشد.
این کارشناس گفت: ما نیازمند یک پلیس سایبری هستیم که بتواند حملات سایبری و آن دسته از جرائمی را که توسط ابزارهای هوش مصنوعی صورت می گیرد، شناسایی و متوقف کند.
(آی تی ایران)
#هوش_مصنوعی #دیپ_فیک
@tavaanatech
در همین رابطه، اخیرا کوین باراگونا بنیانگذار شرکت DeepAI که در زمینه هوش مصنوعی فعالیت دارد، در مصاحبهای با شبکه WION به موضوعات مرتبط با هوش مصنوعی و آینده جهان با حضور این فناوری پرداخت.
مجموعه DeepAI اولین ابزار تولید متن به تصویر را معرفی کرد و اخیرا نیز محصول جدید خود به نام AI Chat را در دسترس عموم قرار داد. استفاده از این ابزار نیازی به ثبتنام ندارد و می توان از برنامه های متنوع آن بهره برد.
دیپفیک ها و تهدید هوش مصنوعی برای رویدادهای سیاسی
از دید بنیانگذار DeepAI، همان اندازه که خلق تصاویر و ویدیوهایی نزدیک به واقعیت با کمک هوش مصنوعی جالب به نظر می رسد، به همین میزان، نگرانی درباره سوءاستفاده از این فناوری برای فریب افکار عمومی و یا ارائه اطلاعات غلط نسبت به افراد وجود دارد.
باراگونا می گوید: دیپفیک (جعل عمیق) در دنیای سیاست می تواند پیامدهای گستردهای داشته باشد به طوری که با این فناوری می توان چهره و هویت رهبران سیاسی جهان را که خبر جنگ جهانی بعدی را اعلام می کنند، جعل کرد.
وی به دیپفیک هایی که پیشتر و بدون مجوز قبلی ساخته شدهاند، اشاره کرد و گفت که این موارد باید به عنوان مصادیق غیرقانونی اعلام شوند. هیچکس نباید بتواند چهره و صدای شما را بدزدد.
مدیرعامل DeepAI در ادامه به مثال دیگری از یک تصویر جعلی از بمباران پنتاگون اشاره کرد و گفت که همگان مشاهده کردند که این تصویر چگونه باعث سقوط بازار سهام شد.
به اعتقاد بارگونا، از بدیهیترین اشکال این فناوری می توان به ساخت دیپفیک از رهبران سیاسی و افرادی که بیشتر در انظار عمومی هستند، اشاره کرد. می توان با هوش مصنوعی، این افراد را به گونهای در حال اظهارنظر به تصویر کشید که در واقعیت، در تضاد با دیدگاه هایشان است. این موارد می تواند به سرعت در فضای مجازی و شبکه های اجتماعی گسترش یاید و شاید هرگز نتوان آنها را اصلاح کرد.
رشد سریع فناوری هوش مصنوعی
این کارشناس حوزه فناوری در مورد سهولت استفاده از فناوری هوش مصنوعی گفت: قبل از ظهور هوش مصنوعی، طراحان و گرافیست ها می توانستند با استفاده از فتوشاپ، تصاویر دلخواه را ایجاد کنند اما با ظهور ابزارهای هوش مصنوعی مولد با قابلیت تبدیل متن به تصویر، این کار بسیار سریعتر صورت می گیرد و هر کسی می تواند بدون داشتن دانشی از طراحی و گرافیک، چنین کاری را انجام دهد.
کوین باراگونا، هوش مصنوعی را «سلاح هستهای حوزه نرمافزار» توصیف کرد و افزود: اگر این سلاح به صورت کنترل نشده و بدون نظارت در اختیار برخی افراد قرار گیرد، می تواند آسیب های جدی و زیادی به دیگران وارد کند.
اختلال در صنایع حمل و نقل و آموزش
این کارشناس گفت استفاده از هوش مصنوعی در صنایع حمل و نقل و آموزش می تواند منجر به بیکاری در مقیاسی وسیع در این دو حوزه خواهد شد. وی گفت این فناوری به حدی می تواند در این حوزه ها نفوذ کند که تمامی رانندگان را از کار بیکار کند.
باراگونا درباره تاثیر هوش مصنوعی در عرضه آموزش نیز گفت که این روزها شاهدیم که پلتفرم های آموزش و یادگیری آنلاین به شدت با افت بازدید و استفاده توسط دانشآموزان مواجه شدهاند چرا که اکنون کاربران می توانند از ابزارهای هوش مصنوعی برای دسترسی به آموزش های تخصصی در مورد موضوعات مختلف استفاده کنند.
تغییر در مشاغل
مدیرعامل DeepAI گفت که هوش مصنوعی منجر به ایجاد تغییرات شغلی خواهد شد به طوری که اگرچه شاید برخی ها بیکار شوند، اما مشاغل جدیدی ایجاد خواهند شد که افراد می توانند با کسب مهارت، در آنها مشغول به کار شوند.
وی در پاسخ به این سوال که آیا کارگران می توانند مهارت های جدید را بیاموزند؟ گفت: یکی از این مشاغل، مهندسی پرامپت (Prompt) است که تقریبا یک سال پیش، برای افراد خارج از حوزه هوش منصوعی، جالب و شاید شناختهشده نبود. اما اکنون ظرفیت های شغلی بسیاری دارد و می توان با مهارت آموزی در این حوزه، مشغول به کار شد.
وی افزود: انقلاب هوش مصنوعی می تواند شغل هایی ایجاد کند که به افراد دارای مهارت های کم، این امکان را می دهد تا کارهای بسیار باکیفیتی را ارائه دهند.
مقررات در حوزه هوش مصنوعی
کوین باراگونا خواستار وضع مقرراتی در مورد هوش مصنوعی شد و گفت که بخشی از این باید معطوف به ارائه حمایت قانونی و منابع مالی برای اجرای نحوه استفاده از این فناوری جدید باشد.
این کارشناس گفت: ما نیازمند یک پلیس سایبری هستیم که بتواند حملات سایبری و آن دسته از جرائمی را که توسط ابزارهای هوش مصنوعی صورت می گیرد، شناسایی و متوقف کند.
(آی تی ایران)
#هوش_مصنوعی #دیپ_فیک
@tavaanatech
Telegram
تواناتک Tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت "Deutsche Telekom" با استفاده از هوش مصنوعی، ویدیویی دیپفیک از عکس یک کودک ساخته است تا به والدین در خصوص دیپفیک هشدار دهد.
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق
@tavaanatech
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق
@tavaanatech
توصیه مهم
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
توصیه مهم
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
توصیه مهم
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
کلاهبرداری بیست و پنج میلیون دلاری از طریق جعل عمیق یا دیپ فِیک
یک کارمند امور مالی ویدیو کالی دریافت میکنه که مدیران و کارمندان شرکتی که در اون کارمیکرده در کال حضور دارند و ازش میخوان تا پول رو به یک حساب مشخص انتقال بزنه غافل از اینکه چهره همه افرادیکه در کال حضور داشتند توسط #هوش_مصنوعی و #جعل_عمیق ساخته شده بوده و واقعی نبوده
https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
(از اینستاگرام داود سجادی)
#دیپ_فیک #کلاهبرداری #جعل_عمیق
@tavaanatech
یک کارمند امور مالی ویدیو کالی دریافت میکنه که مدیران و کارمندان شرکتی که در اون کارمیکرده در کال حضور دارند و ازش میخوان تا پول رو به یک حساب مشخص انتقال بزنه غافل از اینکه چهره همه افرادیکه در کال حضور داشتند توسط #هوش_مصنوعی و #جعل_عمیق ساخته شده بوده و واقعی نبوده
https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
(از اینستاگرام داود سجادی)
#دیپ_فیک #کلاهبرداری #جعل_عمیق
@tavaanatech
توصیه مهم
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
بر اساس گزارشهای منتشر شده، جورجیا ملونی، نخستوزیر ایتالیا در پی انتشار ویدیوی جعل عمیق (Deepfake) پورنوگرافی که با استفاده از تصویر صورت او ساخته شده بود، به دنبال دریافت غرامت ۱۰۰ هزار یورویی است.
یک مرد ۴۰ ساله به همراه پدر ۷۳ سالهاش متهماند که تصویر صورت نخستوزیر ایتالیا بر روی صورت ستارههای پورن قرار داده و این فیلمها را در سال ۲۰۲۰ بر روی یک سایت پورنوگرافی آمریکایی منتشر کردهاند.در شکایت کیفری این پرونده آمده است که ویدیوهای مزبور برای چند ماه بر روی سایت قرار داشت و میلیونها نفر آنها را مشاهده کردهاند.
جورجیا ملونی در روز دوم ژانویه برای شرکت در دادگاه مدنی این پرونده در "ساردینیا" فراخوانده شد. اما این مردان که تاکنون به صورت عمومی نامی از آنها برده نشده است، علاوه بر اتهامات مدنی، با اتهام کیفری «افترا» نیز روبرو هستند.
پلیس این دو مرد را از طریق تلفن همراهشان که از آن برای بارگذاری چند فیلم پورنوگرافی استفاده کرده بودند، شناسایی و ردیابی کرد.
ماریا جولیا مارونجو، وکیل جورجا ملونی در گفتگو با رسانهها گفته است که نخستوزیر ایتالیا هر غرامت مالی را که نهایتا از این دعوا کسب کند، به صندوق قربانیان خشونت خانگی وزارت کشور اهدا میکند.
او همچنین در گفتگو با رسانههای ایتالیایی گفت که جورجا ملونی امیدوار است تا به الگویی برای سایر قربانیان فیلمهای پورن با انگیزه انتقام جویانه و فیلمهای پورن جعل عمیق تبدیل شود و در برابر کسانی که با انتشار این فیلمها قصد بدنام کردن قربانیان را دارند، زبان بگشاید.
#دیپ_فیک #جعل_عمیق
@tavaanatech
یک مرد ۴۰ ساله به همراه پدر ۷۳ سالهاش متهماند که تصویر صورت نخستوزیر ایتالیا بر روی صورت ستارههای پورن قرار داده و این فیلمها را در سال ۲۰۲۰ بر روی یک سایت پورنوگرافی آمریکایی منتشر کردهاند.در شکایت کیفری این پرونده آمده است که ویدیوهای مزبور برای چند ماه بر روی سایت قرار داشت و میلیونها نفر آنها را مشاهده کردهاند.
جورجیا ملونی در روز دوم ژانویه برای شرکت در دادگاه مدنی این پرونده در "ساردینیا" فراخوانده شد. اما این مردان که تاکنون به صورت عمومی نامی از آنها برده نشده است، علاوه بر اتهامات مدنی، با اتهام کیفری «افترا» نیز روبرو هستند.
پلیس این دو مرد را از طریق تلفن همراهشان که از آن برای بارگذاری چند فیلم پورنوگرافی استفاده کرده بودند، شناسایی و ردیابی کرد.
ماریا جولیا مارونجو، وکیل جورجا ملونی در گفتگو با رسانهها گفته است که نخستوزیر ایتالیا هر غرامت مالی را که نهایتا از این دعوا کسب کند، به صندوق قربانیان خشونت خانگی وزارت کشور اهدا میکند.
او همچنین در گفتگو با رسانههای ایتالیایی گفت که جورجا ملونی امیدوار است تا به الگویی برای سایر قربانیان فیلمهای پورن با انگیزه انتقام جویانه و فیلمهای پورن جعل عمیق تبدیل شود و در برابر کسانی که با انتشار این فیلمها قصد بدنام کردن قربانیان را دارند، زبان بگشاید.
#دیپ_فیک #جعل_عمیق
@tavaanatech
توصیه مهم
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech
اگر فرد یا افراد خرابکار و مزاحم با سوءاستفاده از هوش مصنوعی و ویدئوهای دیپفیک، تصویری برهنه از شما یا اطرافیانتان ایجاد کردهاند و قصد اخاذی از شما دارند، با مراجعه به وبسایت stopncii.org و آپلود تصاویر جعلی و اصلی در آن، میتوانید درخواست کنید این تصاویر از تمامی پلتفرمهای آنلاین حذف شود.
www.stopncii.org
#هوش_مصنوعی #دیپ_فیک #اخاذی #ریپورت
@tavaanatech