تواناتک Tavaanatech
86.7K subscribers
20.2K photos
9.45K videos
2.74K files
12.1K links
@tech_admin_b تماس با ادمین
فیسبوک
www.facebook.com/TavaanaTech

اینستاگرام
instagram.com/tavaanatech

توئیتر تواناتک
https://twitter.com/Tavaanatech

تماس ایمیلی
tech@tavaana.org

سایت
tech.tavaana.org
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
مارک زاکربرگ؛ دیپ فیک

این روزها شاهد تولید و انتشار ویدئوهای دیپ فیک از افراد مشهور هستیم. این بار نوبت به مارک زاکربرگ رسید.
روز گذشته دو هنرمند به نام‌های «بیل پاسترز» و «دنیل هوی» و یک شرکت تبلیغاتی با استفاده از بیانیه زاکربرگ در سال 2017 که در مورد دخالت روسیه در انتخابات ریاست جمهوری آمریکا منتشر شده بود، دیپ‌فیک زاکربرگ را ساختند.
این دو هنرمند با استفاده از تکنولوژی «جایگزینی ویدیو دیالوگ» (VDR) متعلق به CannyAI این ویدئو را ساختند
در این ویدئوی ساختگی زاکربرگ می گوید: «فقط یک لحظه فردی را تصور کنید که کنترل کامل بر اطلاعات به‌سرقت‌رفته‌ی میلیاردها انسان، اسرار، زندگی و آینده‌ی آن‌ها دارد. من این را مدیون Spectre هستم. Spectre به من نشان داد کسی که اطلاعات را کنترل می‌کند، کنترل آینده را دراختیار دارد.»
.
در تکنولوژی جعل عمین چهره‌ی افراد را طوری دست‌کاری می کنند که گویی او مشغول گفتن جملاتی است که در واقعیت به زبان نیاورده است.

#زاکربرگ #فیسبوک #دیپ_فیک #Deepfake_Technology #جعل_عمیق
....
چگونه در فیسبوک، دسترسی برنامه‌ها و سرویس‌ها به اکانت‌مان را مسدود کنیم؟
https://bit.ly/2GaRgSH

@tavaanatech
مدرک جعلی مدیران سیاسی و نمایندگان؛ کشف بیش از ۳۰ هزار مدرک جعلی

دستیار ویژه وزیر علوم در امور حقوق شهروندی از کشف بیش از هزاران مدرک جعلی توسط وزارت علوم در سال ۹۸ در میدان انقلاب خبر داد و گفت: برخی مدیران سیاسی بدون حضور در کلاس ۱۴۰ واحد درس را در دو ترم پاس می‌کنند و مدرک دکتری و ارشد می‌گیرند.
.
فریدون جعفری در اینستاگرام خود نوشت: «شاید در میان این ۳۰ هزار مدرک بتوان نام برخی از منتخبین فعلی {مجلس} را در صورت بررسی دقیق، درست و بی‌طرفانه و به دور از نفوذ» پیدا کرد.
.
در حالیکه متخصصین و دانش‌آموخته‌ها‌ بیکار هستند و یا چاره‌ای جز مهاجرت ندارند، افراد سودجو و بی‌کفایت با جعل مدرک به نمایندگی مجلس و مدیریت می‌رسند.
.
.
#علم #دانش #تکنولوژی #امنیت #جعل_مدرک #نماینده #سیاسی #مدیر

@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
تکنولوژی جعل عمیق چیست؟

جعل عمیق چگونه صورت می‌گیرد؟ سیستم چگونه بدون نظارت انسانی و به صورت مستقل چنین تصاویری خلق می‌کند؟
برای تولید یک ویدیوی یک دقیقه‌ای چقدر زمان لازم است؟ کاستی‌های کار کجاست؟

به نظر شما پیامدهای مثبت این نوع تکنولوژی بیشتر از پیامدهای منفی آن است؟

‌ویدیو از دویچه‌وله فارسی

#تکنولوژی #جعل_عمیق #دیپ_فیک

@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
چطور می‌توان ویدیوهای جعلی را تشخیص داد؟

فضای مجازی پر از ویدیوهایی است که ظاهرا رخدادهایی مهم یا عجیب و غریب را نشان می‌دهند. شمار این ویدیوها در هنگام ناآرامی‌های سیاسی و اجتماعی به مراتب افزایش می‌یابد. چگونه می‌توان به اصالت ویدیوها پی برد؟

منبع: دویچه وله


#اینترنت #فضای_مجازی #جعل_عمیق #تکنولوژی

@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
وقتی که صداوسیما مرزهای دروغ و وقاحت را در می‌نوردد.

در قسمتی از برنامه اخبار ۳۰:۳۰ شب گذشته به هشتگ‌های پر تکرار در شبکه‌های اجتماعی پرداخته شده است.
هشتگ #کدام_آبان این روزها علیه فراموشی کشتار وحشیانه مخالفان و معترضان در آبان ۹۸ به کار می‌رود. ولی آمنه‌سادات ذبیح‌پور، بازجو - خبرنگار، در این برنامه به دروغ آن را جعل کرده است.
جمهوری اسلامی و ارتش سایبری آن، از ترفندهای مختلف برای انحراف افکار عمومی استفاده می‌کنند.

آیا به نظر شما با این‌همه بودجه و هزینه‌ای که می‌کنند، موفق می‌شوند؟

#وقاحت #دروغ #جعل #آبان۹۸ #از_آبان_بگو #آبان_خونین #آبان_ادامه_دارد #روایت_آبان_خونین

@tavaanatech
منبع انتشار اخبار جعلی و سانسور شده با بیشترین کارکنان در سطح جهان!

تعداد کارمندان صدا و سیما را با سایر شبکه های بزرگ جهانی مقایسه کنید!
گزینش افرادی که عمدتا نه سواد رسانه‌ای و کاری دارند و نه قواعد اخلاقی و حرفه‌ای را در انتشار اخبار و تولیدات جعلی خود رعایت می کنند.

مجموعه ۴۸ هزار نفری که فتوشاپ، ابزار مورد علاقه و دوست داشتنی آنهاست!

#صداوسیما #فتوشاپ #جعل

@tavaanatech
دو اینفلوئنسر سفر در واقع با یک تلویزیون ساده، سفر جعل می‌کردند و هیچ خبری از عکس واقعی در محیط واقعی نبود!

دو عکاس به نام مانوئل بختر و و مانوئل رومز رام تصاویر خیره کننده‌ای خلق کردند که آنها را در حال پیاده‌روی در برف، کمپینگ در کوه‌ها و پرواز با هواپیما به سوی مقصدی دور نشان می‌دهد. اما در واقع آنها از در هنگام ثبت همه این عکس‌ها از اتاق نشمین خود تکان نخورده بودند.

یکی از محبوب‌ترین عکس‌ها، بختر را نشان می‌دهد که ظاهراً در چادر نشسته و در حال نوشیدن یک فنجان چای داغ در حالی که به چشم‌انداز کوهستانی پشت سر خود خیره شده است. اما، پس‌زمینه کوهستانی ایده‌آل در واقع یک صفحه تلویزیون بود.

ویدیوهای پشت صحنه بختر و رومز از عکس‌‌های سفرشان، میلیون‌ها بازدید در تیک تاک داشته و کاربران رسانه‌های اجتماعی را از اینکه این عکس‌های توانسته‌اند اینقدر متقاعدکننده باشند، مبهوت شده‌اند.

این دو می‌گویند: «کل این کار در واقع به عنوان یک ایده خودجوش آغاز شد. ما در خانه مقابل یک صفحه تلویزیون بزرگ نشسته بودیم و به سرمان زد که از آن به عنوان پس‌زمینه ویدیوهای بعدی خود استفاده کنیم.»

هدف آنها این بود نباید همیشه آنچه را در اینترنت می‌بینید باور کنند. شاید سایر اینفلوئنسرها تصاویر خود را به روشی که ما انجام دادیم جعل نکنند، اما در پشت اکثر عکس های اینفلوئنسرها معمولا ترفندهای فتوشاپی زیادی برای جلب توجه و گرفتن لایک وجود دارد.

بختر و رومز می‌گویند که کار جعل خود را همیشه با انتخاب عکسی که به عنوان پس‌زمینه روی صفحه تلویزیون نمایش داده می‌شد، شروع می‌کردند.
سپس این دو لباس، وسایل و نورپردازی را متناسب با موضوع عکاسی، می‌کردند و حتی صحنه را هم تغییر می‌دادند و از برف مصنوعی برای تطبیق استفاده می‌کردند.

انتشار این تصاویر باعث ایجاد اختلاف در برخی از کاربران رسانه های اجتماعی شده است. آنها باور نمی کردند که عکس ها به این راحتی جعل شوند
بسیاری این ایده را جالب می‌دانستند، اما از اینکه این نوع عکس‌ها می‌توانند به‌راحتی جعل می‌شود، شوکه شده بودند.

کسانی هم بودند که دو عکاس را سرزنش کردند که اصلاً چنین ایده‌ای را نمی‌بایست به مخاطبان خود نشان می‌دادند و ادعا کردند که به دلیل چنین ایده‌هایی است که رسانه‌های اجتماعی به جعلی شدن بیشتر و بیشتر ادامه می‌دهند.
(متن از علیرضا مجیدی)

#اینفلوئنسر #جعل #سفر #تیک_تاک

@tavaanatech
تسلط هوش مصنوعی بر طراحی دست؛ تشخیص تصاویر دیپ‌فیک دشوارتر شد!

یکی از مهمترین بخش‌های عکس برای تشخیص جعلی یا حقیقی بودن تصویر، دست‌ها بود.
باتوجه به اینکه یک تولیدکننده پیشگام تصویر هوش مصنوعی پی‌برد که چگونه تصاویری واقعی از دست ایجاد کند، ممکن است یکی از بزرگ‌ترین نشانه‌های پنهان برای تشخیص یک تصویر جعل عمیق (دیپ‌فیک)، رفع شده باشد.

جدیدترین نسخه «میدجرنی»، که از متن‌های مکتوب ساده تصویر تولید می‌کند، در مقایسه با نسخه‌های پیشین فناوری هوش مصنوعی مولد که معمولا دست‌های انسان را به شکل عجیب و غریب یا با تعداد انگشتان اشتباه به تصویر می‌کشند، پیشرفت قابل‌توجهی را نشان می‌دهد.

به گفته سازندگان، میدجرنی وی۵ کیفیت تصویر بسیار بالاتر، خروجی‌های متنوع‌تر، دامنه سبک‌‌شناختی گسترده‌تر، پشتیبانی از بافت‌های یکپارچه، نسبت‌های تصویری گسترده‌تر و تصویری بهتر [و دامنه دینامیکی گسترده‌تر] ارائه می‌کند.

بسیاری از هنرمندان دست‌ انسان را یکی از پیچیده‌ترین چیزها برای طراحی در نظر می‌گرفتند و نخستین تصویرساز‌های هوش مصنوعی در میدجرنی، استیبل دیفیوژن و اوپن‌ای‌آی دال‌ئی، نشان دادند که هوش مصنوعی مولد نیز با مشکلاتی مواجه است.

دل واکر، هنرمند بازی‌های ویدیویی، گفت: «فقط یک هشدارــ هوش مصنوعی میدجرنی اینک می‌تواند طراحی دست‌ها را به‌درستی انجام دهد.»

محققان هوش مصنوعی پیش‌تر تلاش کرده‌اند توضیح دهند که چرا هوش مصنوعی مولد که با میلیاردها تصویر از اینترنت آموزش داده شده است، با جنبه‌های خاصی از فرم [بدن] انسان مشکل دارد.

سخنگوی استیبیلیتی ای‌آی اوایل سال جاری به بازفید نیوز گفت: «به طور کلی این موضوعی آشنا است که تصاویر انسان در مجموعه داده‌های هوش مصنوعی دست‌ها را مشخصا کمتر از صورت‌ها نشان می‌دهند.»

«دست‌ها معمولا در تصاویر منبع هم بسیار کوچک‌ترند. چرا که در قالب بزرگ، نسبتا به‌ندرت قابل مشاهده‌اند.»
(به نقل از ایندیپندنت فارسی)

#هوش_مصنوعی #دیپ_فیک #جعل_عمیق

@tavaanatech
تواناتک Tavaanatech
Photo
به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند

پس از انتشار ویدیوهای جعلی از هیلاری کلینتون و جو بایدن، نگرانی‌ها درباره توسعه فناوری‌های هوش مصنوعی و استفاده از آن در کارزارهای انتخاباتی افزایش یافته است.

به‌تازگی ویدیویی غافلگیرکننده از هیلاری کلینتون، نامزد پیشین دموکرات‌ها در انتخابات ریاست جمهوری آمریکا، در رسانه‌های اجتماعی منتشر شده است. ویدیویی که در آن وزیر خارجه باراک اوباما و همسر بیل کلینتون، در حمایت از «ران دسنتیس»، نامزد جمهوری‌خواهان، سخنرانی می‌کند و می‌گوید که «دسنتیس همانی است که ایالات متحده به او نیاز دارد.»

هرچند ساعتی پس از انتشار این ویدیو مشخص شد که تنها یک «دیپ فیک فوق‌العاده تصویری است»، اما بیشتر از یک سال مانده به انتخابات ریاست‌جمهوری ایالات متحده به نظر می‌رسد فناوری‌های هوش مصنوعی پیشرفته می‌توانند نقش مهمی در صندوق آرا بازی کنند.

به گزارش رویترز، ویدیوی هیلاری کلینتون، یکی از هزاران دیپ فیک (جعل عمیق) است که در هفته‌های اخیر برای تبلیغ نامزدهای جمهوری‌خواه انتخابات ریاست‌جمهوری در فضای مجازی از طریق فناوری‌های هوش مصنوعی پیشرفته ساخته شده‌اند. رویترز می‌گوید کارشناسان فناوری‌های پیشرفته معتقدند که ساخت «دیپ فیک‌ها ارزان‌تر از گذشته شده است، به همین دلیل افراد بیشتری به این فناوری دسترسی دارند.»

به این ترتیب، انتظار می‌رود در انتخابات سال ۲۰۲۴ بیش از همیشه اخبار و ویدیوهای جعلی منتشر شود. رویترز با دارل وست، کارشناس ارشد موسسه بروکینگز، دراین‌باره گفت‌وگو کرده است. او می‌گوید: «تشخیص خبر واقعی از جعلی برای رای‌دهندگان ازاین‌پس بسیار دشوار خواهد بود. تصور کنید که به‌عنوان مثال حامیان دونالد ترامپ تا چه اندازه می‌توانند از این فناوری بهره ببرند.»

آزا راسکین، یکی از بنیان‌گذاران مرکز فناوری انسانی -سازمانی غیرانتفاعی که تاثیر فناوری بر جامعه را مطالعه می‌کند- نیز به خبرگزاری رویترز می‌گوید که «ابزارهایی مانند دیپ فیک می‌تواند بزرگ‌ترین سلاح برای تولیدات جعلی باشند.»

به‌عنوان مثال، دونالد ترامپ ماه گذشته در پلتفرم خود، «تروث سوشیال»،‌ ویدیوی جعل عمیق از مجری معروف شبکه «سی‌ان‌ان»، اندرسون کوپر، منتشر کرد. سی‌ان‌ان بلافاصله این ویدیو را جعلی خواند، اما سازمان‌دهندگان کارزار انتخاباتی دونالد ترامپ حاضر نشدند دراین‌باره واکنشی نشان دهند.

پلتفرم‌های بزرگ رسانه‌های اجتماعی مانند فیس‌بوک، توییتر و یوتیوب تلاش‌هایی برای ممنوع کردن و حذف ویدیوهای جعلی انجام داده‌اند. بااین‌حال، این ویدیوهای جعلی و اخبار نادرست همچنان بیشترین تاثیر را بر انتخابات آمریکا دارد.

طبق گفته «دیپ مدیا»، شرکتی که بر روی ابزارهای منسوب به هوش مصنوعی و ویدیوهای جعلی کار می‌کند، در سال جدید میلادی تعداد دیپ فیک‌های تصویری سه برابر و تعداد دیپ فیک‌های صوتی هشت برابر مدت‌زمان مشابه در سال ۲۰۲۲ میلادی است. این رسانه تخمین می‌زند که درمجموع، در سال ۲۰۲۳ حدود ۵۰۰ هزار جعل عمیق تصویری و صوتی در رسانه‌های اجتماعی در سراسر جهان به اشتراک گذاشته شود.

یکی از دلایل آن، ارزان شدن ساخت و تولید چنین محتوایی است. در سال گذشته یک دیپ فیک (جعل عمیق) صوتی هزاران دلار هزینه داشت، در حالی که در سال جاری میلادی به‌راحتی با چند دلار می‌توان یک جعل عمیق صوتی ساخت.

در حالی که فناوری‌های هوش مصنوعی به‌سرعت در جهان در حال گسترش است، بسیاری از کارشناسان و دانشمندان نگران آینده بشر در کنار گسترش «هوش مصنوعی»‌اند. یکی از آن‌ها پدرخوانده و بنیانگذار هوش مصنوعی، جفری هینتون، است. او در ماه مه گذشته در گفت‌وگو با روزنامه نیویورک‌تایمز اعلام کرد برخلاف گذشته نگران است که فناوری‌های هوش مصنوعی از هوش بشری پیشی بگیرند.

او در این مصاحبه از دولت‌های دموکراتیک جهان خواست محدودیت‌های زیادی برای هوش مصنوعی در نظر بگیرند و نگذارند این فناوری‌ها به دست رهبران کشورهای غیردموکراتیک جهان بیفتد.
(ایندیپندنت فارسی)

#هوش_مصنوعی #دیپ_فیک #جعل_عمیق #آمریکا #انتخابات

@tavaanatech
بسیاری از چهره‌های مشهور بازار رمزارزها که در توییتر فعالیت دارند نسبت‌ به جعل هویت آن‌ها در تردز و سوءاستفاده از کاربران هشدار دادند.

درحالی‌که زمان زیادی از راه‌اندازی شبکه‌ی اجتماعی میکروبلاگینگ جدید متا موسوم‌ به تردز نمی‌گذرد، کلاهبرداران زمان را از دست نداده و با جعل هویت شخصیت‌های مشهور توییتر در حوزه‌ی رمزارز، بسیاری از کاربران را فریب داده و دارایی آن‌ها را به‌سرقت می‌برند.

تردز در تاریخ پنجم جولای ۲۰۲۳ راه‌اندازی شد و تعداد کاربرانش فقط در همین چند روز به ۱۰۰ میلیون نفر رسید و حتی رکورد سرعت ثبت‌نام کاربران در ChatGPT را شکست. بدین‌ترتیب پلتفرم اجتماعی جدید متا با قدرت در مسیر رسیدن به تعداد کاربران بزرگ‌ترین رقیبش یعنی توییتر (با ۴۵۰ میلیون کاربر فعال) است.

طی روزهای گذشته، چندین چهره‌ی سرشناس حوزه‌ی کریپتو، به برخی حساب‌های جعلی در تردز اشاره کرده‌اند که از هویت آن‌ها یا دیگران سوءاستفاده می‌کنند.

پلتفرم مالی غیرمتمرکز Wombex Finance تصویری از حساب کاربری تردز که هویت یکی از افراد مشهور حوزه‌ی رمزارز در توییتر را جعل کرده بود به‌ اشتراک گذاشت و هشدار داد شاید این اکانت، کلاهبرداری باشد.

لئونیداس، از چهره‌های سرشناس در حوزه‌ی توکن‌های غیرقابل معاوضه (NFT) نیز هشداری را با ۹۳ هزار دنبال‌کننده‌ی خود در توییتر به‌اشتراک گذاشت و اعلام کرد حساب کاربری او و چند شخص مطرح دیگر که در بازار NFT فعالیت دارند در شبکه‌ی اجتماعی تردز، جعل شده است. لئونیداس می‌گوید برای مقابله با کلاهبرداران اکنون حساب کاری جدیدی در تردز ایجاد کرده است.

جفری هوانگ نیز در تاریخ ۶ جولای به پروفایلی در تردز اشاره کرد که هویت او را جعل کرده بود.

همان‌طور که کوین‌تلگراف اشاره می‌کند، توییتر طی سال‌های گذشته یکی از محبوب‌ترین کانال‌های ارتباطی برای کلاهبرداران و بستری برای اجرای حمله‌های فیشینگ بوده است؛ جایی‌ که کلاهبرداران با هک کردن حساب کاربری افراد سرشناس، لینک‌های مخربی به‌اشتراک می‌گذارند و بدین‌ترتیب هزاران و حتی میلیون‌ها کاربر را فریب می‌دهند.

در این نوع کلاهبرداری‌ها، افراد به وب‌سایت رمزارز جعلی هدایت می‌شود و پس‌ از اتصال کیف پول دیجیتال به این پلتفرم‌ها، موجودی حساب رمزارزی آن‌ها به جیب کلاهبرداران سرازیر می‌شود.
(زومیت)

#رمز_ارز #کلاهبرداری #تردز #جعل_هویت

@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
شرکت "Deutsche Telekom" با استفاده از هوش مصنوعی، ویدیویی دیپ‌فیک از عکس یک کودک ساخته است تا به والدین در خصوص دیپ‌فیک هشدار دهد.

#هوش_مصنوعی #دیپ_فیک #جعل_عمیق

@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
کلاهبرداری بیست و پنج میلیون دلاری از طریق جعل عمیق یا دیپ فِیک

یک کارمند امور مالی ویدیو کالی دریافت میکنه که مدیران و کارمندان شرکتی که در اون کارمیکرده در کال حضور دارند و ازش میخوان تا پول رو به یک حساب مشخص انتقال بزنه غافل از اینکه چهره همه افرادیکه در کال حضور داشتند توسط #هوش_مصنوعی و #جعل_عمیق ساخته شده بوده و واقعی نبوده

https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk/index.html

(از اینستاگرام داود سجادی)

#دیپ_فیک #کلاهبرداری #جعل_عمیق

@tavaanatech
بر اساس گزارش‌های منتشر شده، جورجیا ملونی، نخست‌وزیر ایتالیا در پی انتشار ویدیوی جعل عمیق (Deepfake) پورنوگرافی که با استفاده از تصویر صورت او ساخته شده بود، به دنبال دریافت غرامت ۱۰۰ هزار یورویی است.

یک مرد ۴۰ ساله به همراه پدر ۷۳ ساله‌اش متهم‌اند که تصویر صورت نخست‌وزیر ایتالیا بر روی صورت ستاره‌های پورن قرار داده و این فیلم‌ها را در سال ۲۰۲۰ بر روی یک سایت پورنوگرافی آمریکایی منتشر کرده‌اند.در شکایت کیفری این پرونده آمده است که ویدیوهای مزبور برای چند ماه بر روی سایت قرار داشت و میلیون‌ها نفر آن‌ها را مشاهده کرده‌اند.

جورجیا ملونی در روز دوم ژانویه برای شرکت در دادگاه مدنی این پرونده در "ساردینیا" فراخوانده شد. اما این مردان که تاکنون به صورت عمومی نامی از آن‌ها برده نشده است، علاوه بر اتهامات مدنی، با اتهام کیفری «افترا» نیز روبرو هستند.
پلیس این دو مرد را از طریق تلفن همراهشان که از آن برای بارگذاری چند فیلم پورنوگرافی استفاده کرده بودند، شناسایی و ردیابی کرد.

ماریا جولیا مارونجو، وکیل جورجا ملونی در گفتگو با رسانه‌ها گفته است که نخست‌وزیر ایتالیا هر غرامت مالی را که نهایتا از این دعوا کسب کند، به صندوق قربانیان خشونت خانگی وزارت کشور اهدا می‌کند.
او همچنین در گفتگو با رسانه‌های ایتالیایی گفت که جورجا ملونی امیدوار است تا به الگویی برای سایر قربانیان فیلم‌های پورن با انگیزه انتقام جویانه و فیلم‌های پورن جعل عمیق تبدیل شود و در برابر کسانی که با انتشار این فیلم‌ها قصد بدنام کردن قربانیان را دارند، زبان بگشاید.

#دیپ_فیک #جعل_عمیق

@tavaanatech
This media is not supported in your browser
VIEW IN TELEGRAM
داستان‌های تخیلی و ساختگی در قرن بیست و یکم و عصر گردش آزاد اطلاعات

وقتی در عصر اینترنت، گردش آزاد اطلاعات و با وجود انواع شبکه‌های اجتماعی و وب‌سایت‌های معتبر، اینگونه داستان‌های دروغین و ساختگی را تعریف می‌کنند، بدون هیچگونه شک و تردیدی، سایر داستان‌ها و روایت هایشان از هزاران سال پیش، آمیخته به تخیلات، توهم و خرافات است.
طیب حاج رضایی در ۱۶خرداد سال ۱۳۴۲ دستگیر و در ۱۱ آبان همان سال اعدام می‌شود. این داستان تخیلی که پناهیان با آب و تاب آن را تعریف می‌کند مربوط به سالگرد ۱۵ خرداد است که طیب حاج رضایی در این تاریخ زنده نبود.

- ارسالی از همراهان

#دروغ #جعل #تقلب

@tavaanatech