This media is not supported in your browser
VIEW IN TELEGRAM
مارک زاکربرگ؛ دیپ فیک
این روزها شاهد تولید و انتشار ویدئوهای دیپ فیک از افراد مشهور هستیم. این بار نوبت به مارک زاکربرگ رسید.
روز گذشته دو هنرمند به نامهای «بیل پاسترز» و «دنیل هوی» و یک شرکت تبلیغاتی با استفاده از بیانیه زاکربرگ در سال 2017 که در مورد دخالت روسیه در انتخابات ریاست جمهوری آمریکا منتشر شده بود، دیپفیک زاکربرگ را ساختند.
این دو هنرمند با استفاده از تکنولوژی «جایگزینی ویدیو دیالوگ» (VDR) متعلق به CannyAI این ویدئو را ساختند
در این ویدئوی ساختگی زاکربرگ می گوید: «فقط یک لحظه فردی را تصور کنید که کنترل کامل بر اطلاعات بهسرقترفتهی میلیاردها انسان، اسرار، زندگی و آیندهی آنها دارد. من این را مدیون Spectre هستم. Spectre به من نشان داد کسی که اطلاعات را کنترل میکند، کنترل آینده را دراختیار دارد.»
.
در تکنولوژی جعل عمین چهرهی افراد را طوری دستکاری می کنند که گویی او مشغول گفتن جملاتی است که در واقعیت به زبان نیاورده است.
#زاکربرگ #فیسبوک #دیپ_فیک #Deepfake_Technology #جعل_عمیق
....
چگونه در فیسبوک، دسترسی برنامهها و سرویسها به اکانتمان را مسدود کنیم؟
https://bit.ly/2GaRgSH
@tavaanatech
این روزها شاهد تولید و انتشار ویدئوهای دیپ فیک از افراد مشهور هستیم. این بار نوبت به مارک زاکربرگ رسید.
روز گذشته دو هنرمند به نامهای «بیل پاسترز» و «دنیل هوی» و یک شرکت تبلیغاتی با استفاده از بیانیه زاکربرگ در سال 2017 که در مورد دخالت روسیه در انتخابات ریاست جمهوری آمریکا منتشر شده بود، دیپفیک زاکربرگ را ساختند.
این دو هنرمند با استفاده از تکنولوژی «جایگزینی ویدیو دیالوگ» (VDR) متعلق به CannyAI این ویدئو را ساختند
در این ویدئوی ساختگی زاکربرگ می گوید: «فقط یک لحظه فردی را تصور کنید که کنترل کامل بر اطلاعات بهسرقترفتهی میلیاردها انسان، اسرار، زندگی و آیندهی آنها دارد. من این را مدیون Spectre هستم. Spectre به من نشان داد کسی که اطلاعات را کنترل میکند، کنترل آینده را دراختیار دارد.»
.
در تکنولوژی جعل عمین چهرهی افراد را طوری دستکاری می کنند که گویی او مشغول گفتن جملاتی است که در واقعیت به زبان نیاورده است.
#زاکربرگ #فیسبوک #دیپ_فیک #Deepfake_Technology #جعل_عمیق
....
چگونه در فیسبوک، دسترسی برنامهها و سرویسها به اکانتمان را مسدود کنیم؟
https://bit.ly/2GaRgSH
@tavaanatech
مدرک جعلی مدیران سیاسی و نمایندگان؛ کشف بیش از ۳۰ هزار مدرک جعلی
دستیار ویژه وزیر علوم در امور حقوق شهروندی از کشف بیش از هزاران مدرک جعلی توسط وزارت علوم در سال ۹۸ در میدان انقلاب خبر داد و گفت: برخی مدیران سیاسی بدون حضور در کلاس ۱۴۰ واحد درس را در دو ترم پاس میکنند و مدرک دکتری و ارشد میگیرند.
.
فریدون جعفری در اینستاگرام خود نوشت: «شاید در میان این ۳۰ هزار مدرک بتوان نام برخی از منتخبین فعلی {مجلس} را در صورت بررسی دقیق، درست و بیطرفانه و به دور از نفوذ» پیدا کرد.
.
در حالیکه متخصصین و دانشآموختهها بیکار هستند و یا چارهای جز مهاجرت ندارند، افراد سودجو و بیکفایت با جعل مدرک به نمایندگی مجلس و مدیریت میرسند.
.
.
#علم #دانش #تکنولوژی #امنیت #جعل_مدرک #نماینده #سیاسی #مدیر
@tavaanatech
دستیار ویژه وزیر علوم در امور حقوق شهروندی از کشف بیش از هزاران مدرک جعلی توسط وزارت علوم در سال ۹۸ در میدان انقلاب خبر داد و گفت: برخی مدیران سیاسی بدون حضور در کلاس ۱۴۰ واحد درس را در دو ترم پاس میکنند و مدرک دکتری و ارشد میگیرند.
.
فریدون جعفری در اینستاگرام خود نوشت: «شاید در میان این ۳۰ هزار مدرک بتوان نام برخی از منتخبین فعلی {مجلس} را در صورت بررسی دقیق، درست و بیطرفانه و به دور از نفوذ» پیدا کرد.
.
در حالیکه متخصصین و دانشآموختهها بیکار هستند و یا چارهای جز مهاجرت ندارند، افراد سودجو و بیکفایت با جعل مدرک به نمایندگی مجلس و مدیریت میرسند.
.
.
#علم #دانش #تکنولوژی #امنیت #جعل_مدرک #نماینده #سیاسی #مدیر
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
تکنولوژی جعل عمیق چیست؟
جعل عمیق چگونه صورت میگیرد؟ سیستم چگونه بدون نظارت انسانی و به صورت مستقل چنین تصاویری خلق میکند؟
برای تولید یک ویدیوی یک دقیقهای چقدر زمان لازم است؟ کاستیهای کار کجاست؟
به نظر شما پیامدهای مثبت این نوع تکنولوژی بیشتر از پیامدهای منفی آن است؟
ویدیو از دویچهوله فارسی
#تکنولوژی #جعل_عمیق #دیپ_فیک
@tavaanatech
جعل عمیق چگونه صورت میگیرد؟ سیستم چگونه بدون نظارت انسانی و به صورت مستقل چنین تصاویری خلق میکند؟
برای تولید یک ویدیوی یک دقیقهای چقدر زمان لازم است؟ کاستیهای کار کجاست؟
به نظر شما پیامدهای مثبت این نوع تکنولوژی بیشتر از پیامدهای منفی آن است؟
ویدیو از دویچهوله فارسی
#تکنولوژی #جعل_عمیق #دیپ_فیک
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
چطور میتوان ویدیوهای جعلی را تشخیص داد؟
فضای مجازی پر از ویدیوهایی است که ظاهرا رخدادهایی مهم یا عجیب و غریب را نشان میدهند. شمار این ویدیوها در هنگام ناآرامیهای سیاسی و اجتماعی به مراتب افزایش مییابد. چگونه میتوان به اصالت ویدیوها پی برد؟
منبع: دویچه وله
#اینترنت #فضای_مجازی #جعل_عمیق #تکنولوژی
@tavaanatech
فضای مجازی پر از ویدیوهایی است که ظاهرا رخدادهایی مهم یا عجیب و غریب را نشان میدهند. شمار این ویدیوها در هنگام ناآرامیهای سیاسی و اجتماعی به مراتب افزایش مییابد. چگونه میتوان به اصالت ویدیوها پی برد؟
منبع: دویچه وله
#اینترنت #فضای_مجازی #جعل_عمیق #تکنولوژی
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی که صداوسیما مرزهای دروغ و وقاحت را در مینوردد.
در قسمتی از برنامه اخبار ۳۰:۳۰ شب گذشته به هشتگهای پر تکرار در شبکههای اجتماعی پرداخته شده است.
هشتگ #کدام_آبان این روزها علیه فراموشی کشتار وحشیانه مخالفان و معترضان در آبان ۹۸ به کار میرود. ولی آمنهسادات ذبیحپور، بازجو - خبرنگار، در این برنامه به دروغ آن را جعل کرده است.
جمهوری اسلامی و ارتش سایبری آن، از ترفندهای مختلف برای انحراف افکار عمومی استفاده میکنند.
آیا به نظر شما با اینهمه بودجه و هزینهای که میکنند، موفق میشوند؟
#وقاحت #دروغ #جعل #آبان۹۸ #از_آبان_بگو #آبان_خونین #آبان_ادامه_دارد #روایت_آبان_خونین
@tavaanatech
در قسمتی از برنامه اخبار ۳۰:۳۰ شب گذشته به هشتگهای پر تکرار در شبکههای اجتماعی پرداخته شده است.
هشتگ #کدام_آبان این روزها علیه فراموشی کشتار وحشیانه مخالفان و معترضان در آبان ۹۸ به کار میرود. ولی آمنهسادات ذبیحپور، بازجو - خبرنگار، در این برنامه به دروغ آن را جعل کرده است.
جمهوری اسلامی و ارتش سایبری آن، از ترفندهای مختلف برای انحراف افکار عمومی استفاده میکنند.
آیا به نظر شما با اینهمه بودجه و هزینهای که میکنند، موفق میشوند؟
#وقاحت #دروغ #جعل #آبان۹۸ #از_آبان_بگو #آبان_خونین #آبان_ادامه_دارد #روایت_آبان_خونین
@tavaanatech
منبع انتشار اخبار جعلی و سانسور شده با بیشترین کارکنان در سطح جهان!
تعداد کارمندان صدا و سیما را با سایر شبکه های بزرگ جهانی مقایسه کنید!
گزینش افرادی که عمدتا نه سواد رسانهای و کاری دارند و نه قواعد اخلاقی و حرفهای را در انتشار اخبار و تولیدات جعلی خود رعایت می کنند.
مجموعه ۴۸ هزار نفری که فتوشاپ، ابزار مورد علاقه و دوست داشتنی آنهاست!
#صداوسیما #فتوشاپ #جعل
@tavaanatech
تعداد کارمندان صدا و سیما را با سایر شبکه های بزرگ جهانی مقایسه کنید!
گزینش افرادی که عمدتا نه سواد رسانهای و کاری دارند و نه قواعد اخلاقی و حرفهای را در انتشار اخبار و تولیدات جعلی خود رعایت می کنند.
مجموعه ۴۸ هزار نفری که فتوشاپ، ابزار مورد علاقه و دوست داشتنی آنهاست!
#صداوسیما #فتوشاپ #جعل
@tavaanatech
دو اینفلوئنسر سفر در واقع با یک تلویزیون ساده، سفر جعل میکردند و هیچ خبری از عکس واقعی در محیط واقعی نبود!
دو عکاس به نام مانوئل بختر و و مانوئل رومز رام تصاویر خیره کنندهای خلق کردند که آنها را در حال پیادهروی در برف، کمپینگ در کوهها و پرواز با هواپیما به سوی مقصدی دور نشان میدهد. اما در واقع آنها از در هنگام ثبت همه این عکسها از اتاق نشمین خود تکان نخورده بودند.
یکی از محبوبترین عکسها، بختر را نشان میدهد که ظاهراً در چادر نشسته و در حال نوشیدن یک فنجان چای داغ در حالی که به چشمانداز کوهستانی پشت سر خود خیره شده است. اما، پسزمینه کوهستانی ایدهآل در واقع یک صفحه تلویزیون بود.
ویدیوهای پشت صحنه بختر و رومز از عکسهای سفرشان، میلیونها بازدید در تیک تاک داشته و کاربران رسانههای اجتماعی را از اینکه این عکسهای توانستهاند اینقدر متقاعدکننده باشند، مبهوت شدهاند.
این دو میگویند: «کل این کار در واقع به عنوان یک ایده خودجوش آغاز شد. ما در خانه مقابل یک صفحه تلویزیون بزرگ نشسته بودیم و به سرمان زد که از آن به عنوان پسزمینه ویدیوهای بعدی خود استفاده کنیم.»
هدف آنها این بود نباید همیشه آنچه را در اینترنت میبینید باور کنند. شاید سایر اینفلوئنسرها تصاویر خود را به روشی که ما انجام دادیم جعل نکنند، اما در پشت اکثر عکس های اینفلوئنسرها معمولا ترفندهای فتوشاپی زیادی برای جلب توجه و گرفتن لایک وجود دارد.
بختر و رومز میگویند که کار جعل خود را همیشه با انتخاب عکسی که به عنوان پسزمینه روی صفحه تلویزیون نمایش داده میشد، شروع میکردند.
سپس این دو لباس، وسایل و نورپردازی را متناسب با موضوع عکاسی، میکردند و حتی صحنه را هم تغییر میدادند و از برف مصنوعی برای تطبیق استفاده میکردند.
انتشار این تصاویر باعث ایجاد اختلاف در برخی از کاربران رسانه های اجتماعی شده است. آنها باور نمی کردند که عکس ها به این راحتی جعل شوند
بسیاری این ایده را جالب میدانستند، اما از اینکه این نوع عکسها میتوانند بهراحتی جعل میشود، شوکه شده بودند.
کسانی هم بودند که دو عکاس را سرزنش کردند که اصلاً چنین ایدهای را نمیبایست به مخاطبان خود نشان میدادند و ادعا کردند که به دلیل چنین ایدههایی است که رسانههای اجتماعی به جعلی شدن بیشتر و بیشتر ادامه میدهند.
(متن از علیرضا مجیدی)
#اینفلوئنسر #جعل #سفر #تیک_تاک
@tavaanatech
دو عکاس به نام مانوئل بختر و و مانوئل رومز رام تصاویر خیره کنندهای خلق کردند که آنها را در حال پیادهروی در برف، کمپینگ در کوهها و پرواز با هواپیما به سوی مقصدی دور نشان میدهد. اما در واقع آنها از در هنگام ثبت همه این عکسها از اتاق نشمین خود تکان نخورده بودند.
یکی از محبوبترین عکسها، بختر را نشان میدهد که ظاهراً در چادر نشسته و در حال نوشیدن یک فنجان چای داغ در حالی که به چشمانداز کوهستانی پشت سر خود خیره شده است. اما، پسزمینه کوهستانی ایدهآل در واقع یک صفحه تلویزیون بود.
ویدیوهای پشت صحنه بختر و رومز از عکسهای سفرشان، میلیونها بازدید در تیک تاک داشته و کاربران رسانههای اجتماعی را از اینکه این عکسهای توانستهاند اینقدر متقاعدکننده باشند، مبهوت شدهاند.
این دو میگویند: «کل این کار در واقع به عنوان یک ایده خودجوش آغاز شد. ما در خانه مقابل یک صفحه تلویزیون بزرگ نشسته بودیم و به سرمان زد که از آن به عنوان پسزمینه ویدیوهای بعدی خود استفاده کنیم.»
هدف آنها این بود نباید همیشه آنچه را در اینترنت میبینید باور کنند. شاید سایر اینفلوئنسرها تصاویر خود را به روشی که ما انجام دادیم جعل نکنند، اما در پشت اکثر عکس های اینفلوئنسرها معمولا ترفندهای فتوشاپی زیادی برای جلب توجه و گرفتن لایک وجود دارد.
بختر و رومز میگویند که کار جعل خود را همیشه با انتخاب عکسی که به عنوان پسزمینه روی صفحه تلویزیون نمایش داده میشد، شروع میکردند.
سپس این دو لباس، وسایل و نورپردازی را متناسب با موضوع عکاسی، میکردند و حتی صحنه را هم تغییر میدادند و از برف مصنوعی برای تطبیق استفاده میکردند.
انتشار این تصاویر باعث ایجاد اختلاف در برخی از کاربران رسانه های اجتماعی شده است. آنها باور نمی کردند که عکس ها به این راحتی جعل شوند
بسیاری این ایده را جالب میدانستند، اما از اینکه این نوع عکسها میتوانند بهراحتی جعل میشود، شوکه شده بودند.
کسانی هم بودند که دو عکاس را سرزنش کردند که اصلاً چنین ایدهای را نمیبایست به مخاطبان خود نشان میدادند و ادعا کردند که به دلیل چنین ایدههایی است که رسانههای اجتماعی به جعلی شدن بیشتر و بیشتر ادامه میدهند.
(متن از علیرضا مجیدی)
#اینفلوئنسر #جعل #سفر #تیک_تاک
@tavaanatech
تسلط هوش مصنوعی بر طراحی دست؛ تشخیص تصاویر دیپفیک دشوارتر شد!
یکی از مهمترین بخشهای عکس برای تشخیص جعلی یا حقیقی بودن تصویر، دستها بود.
باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پیبرد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگترین نشانههای پنهان برای تشخیص یک تصویر جعل عمیق (دیپفیک)، رفع شده باشد.
جدیدترین نسخه «میدجرنی»، که از متنهای مکتوب ساده تصویر تولید میکند، در مقایسه با نسخههای پیشین فناوری هوش مصنوعی مولد که معمولا دستهای انسان را به شکل عجیب و غریب یا با تعداد انگشتان اشتباه به تصویر میکشند، پیشرفت قابلتوجهی را نشان میدهد.
به گفته سازندگان، میدجرنی وی۵ کیفیت تصویر بسیار بالاتر، خروجیهای متنوعتر، دامنه سبکشناختی گستردهتر، پشتیبانی از بافتهای یکپارچه، نسبتهای تصویری گستردهتر و تصویری بهتر [و دامنه دینامیکی گستردهتر] ارائه میکند.
بسیاری از هنرمندان دست انسان را یکی از پیچیدهترین چیزها برای طراحی در نظر میگرفتند و نخستین تصویرسازهای هوش مصنوعی در میدجرنی، استیبل دیفیوژن و اوپنایآی دالئی، نشان دادند که هوش مصنوعی مولد نیز با مشکلاتی مواجه است.
دل واکر، هنرمند بازیهای ویدیویی، گفت: «فقط یک هشدارــ هوش مصنوعی میدجرنی اینک میتواند طراحی دستها را بهدرستی انجام دهد.»
محققان هوش مصنوعی پیشتر تلاش کردهاند توضیح دهند که چرا هوش مصنوعی مولد که با میلیاردها تصویر از اینترنت آموزش داده شده است، با جنبههای خاصی از فرم [بدن] انسان مشکل دارد.
سخنگوی استیبیلیتی ایآی اوایل سال جاری به بازفید نیوز گفت: «به طور کلی این موضوعی آشنا است که تصاویر انسان در مجموعه دادههای هوش مصنوعی دستها را مشخصا کمتر از صورتها نشان میدهند.»
«دستها معمولا در تصاویر منبع هم بسیار کوچکترند. چرا که در قالب بزرگ، نسبتا بهندرت قابل مشاهدهاند.»
(به نقل از ایندیپندنت فارسی)
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق
@tavaanatech
یکی از مهمترین بخشهای عکس برای تشخیص جعلی یا حقیقی بودن تصویر، دستها بود.
باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پیبرد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگترین نشانههای پنهان برای تشخیص یک تصویر جعل عمیق (دیپفیک)، رفع شده باشد.
جدیدترین نسخه «میدجرنی»، که از متنهای مکتوب ساده تصویر تولید میکند، در مقایسه با نسخههای پیشین فناوری هوش مصنوعی مولد که معمولا دستهای انسان را به شکل عجیب و غریب یا با تعداد انگشتان اشتباه به تصویر میکشند، پیشرفت قابلتوجهی را نشان میدهد.
به گفته سازندگان، میدجرنی وی۵ کیفیت تصویر بسیار بالاتر، خروجیهای متنوعتر، دامنه سبکشناختی گستردهتر، پشتیبانی از بافتهای یکپارچه، نسبتهای تصویری گستردهتر و تصویری بهتر [و دامنه دینامیکی گستردهتر] ارائه میکند.
بسیاری از هنرمندان دست انسان را یکی از پیچیدهترین چیزها برای طراحی در نظر میگرفتند و نخستین تصویرسازهای هوش مصنوعی در میدجرنی، استیبل دیفیوژن و اوپنایآی دالئی، نشان دادند که هوش مصنوعی مولد نیز با مشکلاتی مواجه است.
دل واکر، هنرمند بازیهای ویدیویی، گفت: «فقط یک هشدارــ هوش مصنوعی میدجرنی اینک میتواند طراحی دستها را بهدرستی انجام دهد.»
محققان هوش مصنوعی پیشتر تلاش کردهاند توضیح دهند که چرا هوش مصنوعی مولد که با میلیاردها تصویر از اینترنت آموزش داده شده است، با جنبههای خاصی از فرم [بدن] انسان مشکل دارد.
سخنگوی استیبیلیتی ایآی اوایل سال جاری به بازفید نیوز گفت: «به طور کلی این موضوعی آشنا است که تصاویر انسان در مجموعه دادههای هوش مصنوعی دستها را مشخصا کمتر از صورتها نشان میدهند.»
«دستها معمولا در تصاویر منبع هم بسیار کوچکترند. چرا که در قالب بزرگ، نسبتا بهندرت قابل مشاهدهاند.»
(به نقل از ایندیپندنت فارسی)
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق
@tavaanatech
تواناتک Tavaanatech
Photo
به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند
پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.
بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.»
هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند.
به گزارش رویترز، ویدیوی هیلاری کلینتون، یکی از هزاران دیپ فیک (جعل عمیق) است که در هفتههای اخیر برای تبلیغ نامزدهای جمهوریخواه انتخابات ریاستجمهوری در فضای مجازی از طریق فناوریهای هوش مصنوعی پیشرفته ساخته شدهاند. رویترز میگوید کارشناسان فناوریهای پیشرفته معتقدند که ساخت «دیپ فیکها ارزانتر از گذشته شده است، به همین دلیل افراد بیشتری به این فناوری دسترسی دارند.»
به این ترتیب، انتظار میرود در انتخابات سال ۲۰۲۴ بیش از همیشه اخبار و ویدیوهای جعلی منتشر شود. رویترز با دارل وست، کارشناس ارشد موسسه بروکینگز، دراینباره گفتوگو کرده است. او میگوید: «تشخیص خبر واقعی از جعلی برای رایدهندگان ازاینپس بسیار دشوار خواهد بود. تصور کنید که بهعنوان مثال حامیان دونالد ترامپ تا چه اندازه میتوانند از این فناوری بهره ببرند.»
آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی -سازمانی غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه میکند- نیز به خبرگزاری رویترز میگوید که «ابزارهایی مانند دیپ فیک میتواند بزرگترین سلاح برای تولیدات جعلی باشند.»
بهعنوان مثال، دونالد ترامپ ماه گذشته در پلتفرم خود، «تروث سوشیال»، ویدیوی جعل عمیق از مجری معروف شبکه «سیانان»، اندرسون کوپر، منتشر کرد. سیانان بلافاصله این ویدیو را جعلی خواند، اما سازماندهندگان کارزار انتخاباتی دونالد ترامپ حاضر نشدند دراینباره واکنشی نشان دهند.
پلتفرمهای بزرگ رسانههای اجتماعی مانند فیسبوک، توییتر و یوتیوب تلاشهایی برای ممنوع کردن و حذف ویدیوهای جعلی انجام دادهاند. بااینحال، این ویدیوهای جعلی و اخبار نادرست همچنان بیشترین تاثیر را بر انتخابات آمریکا دارد.
طبق گفته «دیپ مدیا»، شرکتی که بر روی ابزارهای منسوب به هوش مصنوعی و ویدیوهای جعلی کار میکند، در سال جدید میلادی تعداد دیپ فیکهای تصویری سه برابر و تعداد دیپ فیکهای صوتی هشت برابر مدتزمان مشابه در سال ۲۰۲۲ میلادی است. این رسانه تخمین میزند که درمجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار جعل عمیق تصویری و صوتی در رسانههای اجتماعی در سراسر جهان به اشتراک گذاشته شود.
یکی از دلایل آن، ارزان شدن ساخت و تولید چنین محتوایی است. در سال گذشته یک دیپ فیک (جعل عمیق) صوتی هزاران دلار هزینه داشت، در حالی که در سال جاری میلادی بهراحتی با چند دلار میتوان یک جعل عمیق صوتی ساخت.
در حالی که فناوریهای هوش مصنوعی بهسرعت در جهان در حال گسترش است، بسیاری از کارشناسان و دانشمندان نگران آینده بشر در کنار گسترش «هوش مصنوعی»اند. یکی از آنها پدرخوانده و بنیانگذار هوش مصنوعی، جفری هینتون، است. او در ماه مه گذشته در گفتوگو با روزنامه نیویورکتایمز اعلام کرد برخلاف گذشته نگران است که فناوریهای هوش مصنوعی از هوش بشری پیشی بگیرند.
او در این مصاحبه از دولتهای دموکراتیک جهان خواست محدودیتهای زیادی برای هوش مصنوعی در نظر بگیرند و نگذارند این فناوریها به دست رهبران کشورهای غیردموکراتیک جهان بیفتد.
(ایندیپندنت فارسی)
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق #آمریکا #انتخابات
@tavaanatech
پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانیها درباره توسعه فناوریهای هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.
بهتازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکراتها در انتخابات ریاست جمهوری آمریکا، در رسانههای اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوریخواهان، سخنرانی میکند و میگوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.»
هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوقالعاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاستجمهوری ایالات متحده به نظر میرسد فناوریهای هوش مصنوعی پیشرفته میتوانند نقش مهمی در صندوق آرا بازی کنند.
به گزارش رویترز، ویدیوی هیلاری کلینتون، یکی از هزاران دیپ فیک (جعل عمیق) است که در هفتههای اخیر برای تبلیغ نامزدهای جمهوریخواه انتخابات ریاستجمهوری در فضای مجازی از طریق فناوریهای هوش مصنوعی پیشرفته ساخته شدهاند. رویترز میگوید کارشناسان فناوریهای پیشرفته معتقدند که ساخت «دیپ فیکها ارزانتر از گذشته شده است، به همین دلیل افراد بیشتری به این فناوری دسترسی دارند.»
به این ترتیب، انتظار میرود در انتخابات سال ۲۰۲۴ بیش از همیشه اخبار و ویدیوهای جعلی منتشر شود. رویترز با دارل وست، کارشناس ارشد موسسه بروکینگز، دراینباره گفتوگو کرده است. او میگوید: «تشخیص خبر واقعی از جعلی برای رایدهندگان ازاینپس بسیار دشوار خواهد بود. تصور کنید که بهعنوان مثال حامیان دونالد ترامپ تا چه اندازه میتوانند از این فناوری بهره ببرند.»
آزا راسکین، یکی از بنیانگذاران مرکز فناوری انسانی -سازمانی غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه میکند- نیز به خبرگزاری رویترز میگوید که «ابزارهایی مانند دیپ فیک میتواند بزرگترین سلاح برای تولیدات جعلی باشند.»
بهعنوان مثال، دونالد ترامپ ماه گذشته در پلتفرم خود، «تروث سوشیال»، ویدیوی جعل عمیق از مجری معروف شبکه «سیانان»، اندرسون کوپر، منتشر کرد. سیانان بلافاصله این ویدیو را جعلی خواند، اما سازماندهندگان کارزار انتخاباتی دونالد ترامپ حاضر نشدند دراینباره واکنشی نشان دهند.
پلتفرمهای بزرگ رسانههای اجتماعی مانند فیسبوک، توییتر و یوتیوب تلاشهایی برای ممنوع کردن و حذف ویدیوهای جعلی انجام دادهاند. بااینحال، این ویدیوهای جعلی و اخبار نادرست همچنان بیشترین تاثیر را بر انتخابات آمریکا دارد.
طبق گفته «دیپ مدیا»، شرکتی که بر روی ابزارهای منسوب به هوش مصنوعی و ویدیوهای جعلی کار میکند، در سال جدید میلادی تعداد دیپ فیکهای تصویری سه برابر و تعداد دیپ فیکهای صوتی هشت برابر مدتزمان مشابه در سال ۲۰۲۲ میلادی است. این رسانه تخمین میزند که درمجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار جعل عمیق تصویری و صوتی در رسانههای اجتماعی در سراسر جهان به اشتراک گذاشته شود.
یکی از دلایل آن، ارزان شدن ساخت و تولید چنین محتوایی است. در سال گذشته یک دیپ فیک (جعل عمیق) صوتی هزاران دلار هزینه داشت، در حالی که در سال جاری میلادی بهراحتی با چند دلار میتوان یک جعل عمیق صوتی ساخت.
در حالی که فناوریهای هوش مصنوعی بهسرعت در جهان در حال گسترش است، بسیاری از کارشناسان و دانشمندان نگران آینده بشر در کنار گسترش «هوش مصنوعی»اند. یکی از آنها پدرخوانده و بنیانگذار هوش مصنوعی، جفری هینتون، است. او در ماه مه گذشته در گفتوگو با روزنامه نیویورکتایمز اعلام کرد برخلاف گذشته نگران است که فناوریهای هوش مصنوعی از هوش بشری پیشی بگیرند.
او در این مصاحبه از دولتهای دموکراتیک جهان خواست محدودیتهای زیادی برای هوش مصنوعی در نظر بگیرند و نگذارند این فناوریها به دست رهبران کشورهای غیردموکراتیک جهان بیفتد.
(ایندیپندنت فارسی)
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق #آمریکا #انتخابات
@tavaanatech
Telegram
تواناتک Tavaanatech
بسیاری از چهرههای مشهور بازار رمزارزها که در توییتر فعالیت دارند نسبت به جعل هویت آنها در تردز و سوءاستفاده از کاربران هشدار دادند.
درحالیکه زمان زیادی از راهاندازی شبکهی اجتماعی میکروبلاگینگ جدید متا موسوم به تردز نمیگذرد، کلاهبرداران زمان را از دست نداده و با جعل هویت شخصیتهای مشهور توییتر در حوزهی رمزارز، بسیاری از کاربران را فریب داده و دارایی آنها را بهسرقت میبرند.
تردز در تاریخ پنجم جولای ۲۰۲۳ راهاندازی شد و تعداد کاربرانش فقط در همین چند روز به ۱۰۰ میلیون نفر رسید و حتی رکورد سرعت ثبتنام کاربران در ChatGPT را شکست. بدینترتیب پلتفرم اجتماعی جدید متا با قدرت در مسیر رسیدن به تعداد کاربران بزرگترین رقیبش یعنی توییتر (با ۴۵۰ میلیون کاربر فعال) است.
طی روزهای گذشته، چندین چهرهی سرشناس حوزهی کریپتو، به برخی حسابهای جعلی در تردز اشاره کردهاند که از هویت آنها یا دیگران سوءاستفاده میکنند.
پلتفرم مالی غیرمتمرکز Wombex Finance تصویری از حساب کاربری تردز که هویت یکی از افراد مشهور حوزهی رمزارز در توییتر را جعل کرده بود به اشتراک گذاشت و هشدار داد شاید این اکانت، کلاهبرداری باشد.
لئونیداس، از چهرههای سرشناس در حوزهی توکنهای غیرقابل معاوضه (NFT) نیز هشداری را با ۹۳ هزار دنبالکنندهی خود در توییتر بهاشتراک گذاشت و اعلام کرد حساب کاربری او و چند شخص مطرح دیگر که در بازار NFT فعالیت دارند در شبکهی اجتماعی تردز، جعل شده است. لئونیداس میگوید برای مقابله با کلاهبرداران اکنون حساب کاری جدیدی در تردز ایجاد کرده است.
جفری هوانگ نیز در تاریخ ۶ جولای به پروفایلی در تردز اشاره کرد که هویت او را جعل کرده بود.
همانطور که کوینتلگراف اشاره میکند، توییتر طی سالهای گذشته یکی از محبوبترین کانالهای ارتباطی برای کلاهبرداران و بستری برای اجرای حملههای فیشینگ بوده است؛ جایی که کلاهبرداران با هک کردن حساب کاربری افراد سرشناس، لینکهای مخربی بهاشتراک میگذارند و بدینترتیب هزاران و حتی میلیونها کاربر را فریب میدهند.
در این نوع کلاهبرداریها، افراد به وبسایت رمزارز جعلی هدایت میشود و پس از اتصال کیف پول دیجیتال به این پلتفرمها، موجودی حساب رمزارزی آنها به جیب کلاهبرداران سرازیر میشود.
(زومیت)
#رمز_ارز #کلاهبرداری #تردز #جعل_هویت
@tavaanatech
درحالیکه زمان زیادی از راهاندازی شبکهی اجتماعی میکروبلاگینگ جدید متا موسوم به تردز نمیگذرد، کلاهبرداران زمان را از دست نداده و با جعل هویت شخصیتهای مشهور توییتر در حوزهی رمزارز، بسیاری از کاربران را فریب داده و دارایی آنها را بهسرقت میبرند.
تردز در تاریخ پنجم جولای ۲۰۲۳ راهاندازی شد و تعداد کاربرانش فقط در همین چند روز به ۱۰۰ میلیون نفر رسید و حتی رکورد سرعت ثبتنام کاربران در ChatGPT را شکست. بدینترتیب پلتفرم اجتماعی جدید متا با قدرت در مسیر رسیدن به تعداد کاربران بزرگترین رقیبش یعنی توییتر (با ۴۵۰ میلیون کاربر فعال) است.
طی روزهای گذشته، چندین چهرهی سرشناس حوزهی کریپتو، به برخی حسابهای جعلی در تردز اشاره کردهاند که از هویت آنها یا دیگران سوءاستفاده میکنند.
پلتفرم مالی غیرمتمرکز Wombex Finance تصویری از حساب کاربری تردز که هویت یکی از افراد مشهور حوزهی رمزارز در توییتر را جعل کرده بود به اشتراک گذاشت و هشدار داد شاید این اکانت، کلاهبرداری باشد.
لئونیداس، از چهرههای سرشناس در حوزهی توکنهای غیرقابل معاوضه (NFT) نیز هشداری را با ۹۳ هزار دنبالکنندهی خود در توییتر بهاشتراک گذاشت و اعلام کرد حساب کاربری او و چند شخص مطرح دیگر که در بازار NFT فعالیت دارند در شبکهی اجتماعی تردز، جعل شده است. لئونیداس میگوید برای مقابله با کلاهبرداران اکنون حساب کاری جدیدی در تردز ایجاد کرده است.
جفری هوانگ نیز در تاریخ ۶ جولای به پروفایلی در تردز اشاره کرد که هویت او را جعل کرده بود.
همانطور که کوینتلگراف اشاره میکند، توییتر طی سالهای گذشته یکی از محبوبترین کانالهای ارتباطی برای کلاهبرداران و بستری برای اجرای حملههای فیشینگ بوده است؛ جایی که کلاهبرداران با هک کردن حساب کاربری افراد سرشناس، لینکهای مخربی بهاشتراک میگذارند و بدینترتیب هزاران و حتی میلیونها کاربر را فریب میدهند.
در این نوع کلاهبرداریها، افراد به وبسایت رمزارز جعلی هدایت میشود و پس از اتصال کیف پول دیجیتال به این پلتفرمها، موجودی حساب رمزارزی آنها به جیب کلاهبرداران سرازیر میشود.
(زومیت)
#رمز_ارز #کلاهبرداری #تردز #جعل_هویت
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت "Deutsche Telekom" با استفاده از هوش مصنوعی، ویدیویی دیپفیک از عکس یک کودک ساخته است تا به والدین در خصوص دیپفیک هشدار دهد.
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق
@tavaanatech
#هوش_مصنوعی #دیپ_فیک #جعل_عمیق
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
کلاهبرداری بیست و پنج میلیون دلاری از طریق جعل عمیق یا دیپ فِیک
یک کارمند امور مالی ویدیو کالی دریافت میکنه که مدیران و کارمندان شرکتی که در اون کارمیکرده در کال حضور دارند و ازش میخوان تا پول رو به یک حساب مشخص انتقال بزنه غافل از اینکه چهره همه افرادیکه در کال حضور داشتند توسط #هوش_مصنوعی و #جعل_عمیق ساخته شده بوده و واقعی نبوده
https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
(از اینستاگرام داود سجادی)
#دیپ_فیک #کلاهبرداری #جعل_عمیق
@tavaanatech
یک کارمند امور مالی ویدیو کالی دریافت میکنه که مدیران و کارمندان شرکتی که در اون کارمیکرده در کال حضور دارند و ازش میخوان تا پول رو به یک حساب مشخص انتقال بزنه غافل از اینکه چهره همه افرادیکه در کال حضور داشتند توسط #هوش_مصنوعی و #جعل_عمیق ساخته شده بوده و واقعی نبوده
https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html
(از اینستاگرام داود سجادی)
#دیپ_فیک #کلاهبرداری #جعل_عمیق
@tavaanatech
بر اساس گزارشهای منتشر شده، جورجیا ملونی، نخستوزیر ایتالیا در پی انتشار ویدیوی جعل عمیق (Deepfake) پورنوگرافی که با استفاده از تصویر صورت او ساخته شده بود، به دنبال دریافت غرامت ۱۰۰ هزار یورویی است.
یک مرد ۴۰ ساله به همراه پدر ۷۳ سالهاش متهماند که تصویر صورت نخستوزیر ایتالیا بر روی صورت ستارههای پورن قرار داده و این فیلمها را در سال ۲۰۲۰ بر روی یک سایت پورنوگرافی آمریکایی منتشر کردهاند.در شکایت کیفری این پرونده آمده است که ویدیوهای مزبور برای چند ماه بر روی سایت قرار داشت و میلیونها نفر آنها را مشاهده کردهاند.
جورجیا ملونی در روز دوم ژانویه برای شرکت در دادگاه مدنی این پرونده در "ساردینیا" فراخوانده شد. اما این مردان که تاکنون به صورت عمومی نامی از آنها برده نشده است، علاوه بر اتهامات مدنی، با اتهام کیفری «افترا» نیز روبرو هستند.
پلیس این دو مرد را از طریق تلفن همراهشان که از آن برای بارگذاری چند فیلم پورنوگرافی استفاده کرده بودند، شناسایی و ردیابی کرد.
ماریا جولیا مارونجو، وکیل جورجا ملونی در گفتگو با رسانهها گفته است که نخستوزیر ایتالیا هر غرامت مالی را که نهایتا از این دعوا کسب کند، به صندوق قربانیان خشونت خانگی وزارت کشور اهدا میکند.
او همچنین در گفتگو با رسانههای ایتالیایی گفت که جورجا ملونی امیدوار است تا به الگویی برای سایر قربانیان فیلمهای پورن با انگیزه انتقام جویانه و فیلمهای پورن جعل عمیق تبدیل شود و در برابر کسانی که با انتشار این فیلمها قصد بدنام کردن قربانیان را دارند، زبان بگشاید.
#دیپ_فیک #جعل_عمیق
@tavaanatech
یک مرد ۴۰ ساله به همراه پدر ۷۳ سالهاش متهماند که تصویر صورت نخستوزیر ایتالیا بر روی صورت ستارههای پورن قرار داده و این فیلمها را در سال ۲۰۲۰ بر روی یک سایت پورنوگرافی آمریکایی منتشر کردهاند.در شکایت کیفری این پرونده آمده است که ویدیوهای مزبور برای چند ماه بر روی سایت قرار داشت و میلیونها نفر آنها را مشاهده کردهاند.
جورجیا ملونی در روز دوم ژانویه برای شرکت در دادگاه مدنی این پرونده در "ساردینیا" فراخوانده شد. اما این مردان که تاکنون به صورت عمومی نامی از آنها برده نشده است، علاوه بر اتهامات مدنی، با اتهام کیفری «افترا» نیز روبرو هستند.
پلیس این دو مرد را از طریق تلفن همراهشان که از آن برای بارگذاری چند فیلم پورنوگرافی استفاده کرده بودند، شناسایی و ردیابی کرد.
ماریا جولیا مارونجو، وکیل جورجا ملونی در گفتگو با رسانهها گفته است که نخستوزیر ایتالیا هر غرامت مالی را که نهایتا از این دعوا کسب کند، به صندوق قربانیان خشونت خانگی وزارت کشور اهدا میکند.
او همچنین در گفتگو با رسانههای ایتالیایی گفت که جورجا ملونی امیدوار است تا به الگویی برای سایر قربانیان فیلمهای پورن با انگیزه انتقام جویانه و فیلمهای پورن جعل عمیق تبدیل شود و در برابر کسانی که با انتشار این فیلمها قصد بدنام کردن قربانیان را دارند، زبان بگشاید.
#دیپ_فیک #جعل_عمیق
@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
داستانهای تخیلی و ساختگی در قرن بیست و یکم و عصر گردش آزاد اطلاعات
وقتی در عصر اینترنت، گردش آزاد اطلاعات و با وجود انواع شبکههای اجتماعی و وبسایتهای معتبر، اینگونه داستانهای دروغین و ساختگی را تعریف میکنند، بدون هیچگونه شک و تردیدی، سایر داستانها و روایت هایشان از هزاران سال پیش، آمیخته به تخیلات، توهم و خرافات است.
طیب حاج رضایی در ۱۶خرداد سال ۱۳۴۲ دستگیر و در ۱۱ آبان همان سال اعدام میشود. این داستان تخیلی که پناهیان با آب و تاب آن را تعریف میکند مربوط به سالگرد ۱۵ خرداد است که طیب حاج رضایی در این تاریخ زنده نبود.
- ارسالی از همراهان
#دروغ #جعل #تقلب
@tavaanatech
وقتی در عصر اینترنت، گردش آزاد اطلاعات و با وجود انواع شبکههای اجتماعی و وبسایتهای معتبر، اینگونه داستانهای دروغین و ساختگی را تعریف میکنند، بدون هیچگونه شک و تردیدی، سایر داستانها و روایت هایشان از هزاران سال پیش، آمیخته به تخیلات، توهم و خرافات است.
طیب حاج رضایی در ۱۶خرداد سال ۱۳۴۲ دستگیر و در ۱۱ آبان همان سال اعدام میشود. این داستان تخیلی که پناهیان با آب و تاب آن را تعریف میکند مربوط به سالگرد ۱۵ خرداد است که طیب حاج رضایی در این تاریخ زنده نبود.
- ارسالی از همراهان
#دروغ #جعل #تقلب
@tavaanatech