🟣 هوش مصنوعی برای طراحی سریع تراشه های کامپیوتری
گروهی از محققان شرکت گوگل مدل هوش مصنوعی جدیدی را ابداع کردهاند که طراحی تراشههای پیشرفته را در عرض چند ساعت ممکن میکند. تراشههای مدرن متشکل از میلیاردها مؤلفه مختلف هستند که ضخامت و ابعاد برخی از آنها از ناخن انگشت هم کوچکتر است. این روند اگر توسط انسانها انجام شود چندین ماه وقت میگیرد.
برای ساخت این مدل هوش مصنوعی، دادههای مربوط به طراحی ده هزار تراشه جمعآوری شده و مورد استفاده قرار گرفته است.
لینک مقاله
@silicon_brain
گروهی از محققان شرکت گوگل مدل هوش مصنوعی جدیدی را ابداع کردهاند که طراحی تراشههای پیشرفته را در عرض چند ساعت ممکن میکند. تراشههای مدرن متشکل از میلیاردها مؤلفه مختلف هستند که ضخامت و ابعاد برخی از آنها از ناخن انگشت هم کوچکتر است. این روند اگر توسط انسانها انجام شود چندین ماه وقت میگیرد.
برای ساخت این مدل هوش مصنوعی، دادههای مربوط به طراحی ده هزار تراشه جمعآوری شده و مورد استفاده قرار گرفته است.
لینک مقاله
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
🟣خطری که در سال 2038 تمامی کامپیوتر های 32 بیتی را تهدید میکند
به گیف شکل بالا دقت کنید، اگر از بیت و بایت سر در بیاورید، می توانید با یک محاسبه ساده بفهمید که حداکثر ارزش یک عدد ۴ بایتی رقم ۲٫۱۴۷٫۴۸۳٫۶۴۷ است. اگر این عدد را به زمان قابل فهم ترجمه کنید خواهید فهمید که در ۱۹ ژانویه ۲۰۳۸ به پایان میرسد.
مشکل سال ۲۰۳۸ همینجاست. در آن زمان با به پایان رسیدن این عدد، کلیه برنامه ها و سیستم عامل های مبنتی بر زبان C برای درک زمان دچار مشکل شده و ممکن است باگ های بسیاری برای سیستم های کامپیوتری سراسر جهان پیش آید.
@silicon_brain
به گیف شکل بالا دقت کنید، اگر از بیت و بایت سر در بیاورید، می توانید با یک محاسبه ساده بفهمید که حداکثر ارزش یک عدد ۴ بایتی رقم ۲٫۱۴۷٫۴۸۳٫۶۴۷ است. اگر این عدد را به زمان قابل فهم ترجمه کنید خواهید فهمید که در ۱۹ ژانویه ۲۰۳۸ به پایان میرسد.
مشکل سال ۲۰۳۸ همینجاست. در آن زمان با به پایان رسیدن این عدد، کلیه برنامه ها و سیستم عامل های مبنتی بر زبان C برای درک زمان دچار مشکل شده و ممکن است باگ های بسیاری برای سیستم های کامپیوتری سراسر جهان پیش آید.
@silicon_brain
🟣تحلیل داده ها چگونه فوتبال را متحول می کند
در طول دهه 90، منچستر یونایتد به یکی از تیم های پیشگام برای تجزیه و تحلیل تصمیم گیری خود تبدیل شد. تا سال 2010، تحلیل ها به طور گسترده ای توسط تیم های معتبر بین المللی پذیرفته شدند.
در سال های اخیر #فوتبال، با سیستم هایی که قادر به ضبط و تجزیه و تحلیل داده ها از تمرین و مسابقه هستند، مانند اینترنت اشیا (IoT) پیشرفت زیادی را تجربه کرده است. اکنون مربیان برای تصمیم گیری در تیم های خود، به داده ها اعتماد می کنند.
اطلاعات بصورت عمده از طریق پخش گزارش ها، ویدئو و ردیابی GPS جمع می شوند. برای مثال، داده های نقشه گرما نشان داده است که تیم هایی که توپ را در اختیار دارند و تعداد افراد بالایی در ناحیه خاصی دارند به احتمال زیاد گل می زنند.
داده های تیمی همچنین می تواند به عنوان یک شبکه بررسی شود که در آن گره های شبکه بازیکنان را نشان می دهند و خطوط بین گره ها نشان دهنده فعل و انفعالات، مانند پاس های بین تیم است. مربیان می توانند انواع مختلف تعاملات را شناسایی کرده و انواع مختلف رویدادها را رمزگذاری کنند.
@silicon_brain
در طول دهه 90، منچستر یونایتد به یکی از تیم های پیشگام برای تجزیه و تحلیل تصمیم گیری خود تبدیل شد. تا سال 2010، تحلیل ها به طور گسترده ای توسط تیم های معتبر بین المللی پذیرفته شدند.
در سال های اخیر #فوتبال، با سیستم هایی که قادر به ضبط و تجزیه و تحلیل داده ها از تمرین و مسابقه هستند، مانند اینترنت اشیا (IoT) پیشرفت زیادی را تجربه کرده است. اکنون مربیان برای تصمیم گیری در تیم های خود، به داده ها اعتماد می کنند.
اطلاعات بصورت عمده از طریق پخش گزارش ها، ویدئو و ردیابی GPS جمع می شوند. برای مثال، داده های نقشه گرما نشان داده است که تیم هایی که توپ را در اختیار دارند و تعداد افراد بالایی در ناحیه خاصی دارند به احتمال زیاد گل می زنند.
داده های تیمی همچنین می تواند به عنوان یک شبکه بررسی شود که در آن گره های شبکه بازیکنان را نشان می دهند و خطوط بین گره ها نشان دهنده فعل و انفعالات، مانند پاس های بین تیم است. مربیان می توانند انواع مختلف تعاملات را شناسایی کرده و انواع مختلف رویدادها را رمزگذاری کنند.
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
🟢ابزار جدید GitHub ساخته شده با هوش مصنوعی برای برنامه نویسان و توسعه دهندگان.
این ابزار GitHub Copilot نام دارد که از سیستم هوش مصنوعی ساخته شده توسط شرکت OpenAI استفاده میکند.
این سیستم میتواند با استفاده از درک متن کدی که برنامه نویس نوشته است خطوط و توابع کاملی را برای برنامه نویس پیشنهاد دهد.
این ابزار از طیف گسترده ای از زبان ها پشتیبانی میکند اما در حال حاضر با پایتون و جاوا نتایج بهتر کار میکند.
برای اطلاعات بیشتر و شروع کار با Copilot در اینجا بیشتر بخوانید.
@silicon_brain
این ابزار GitHub Copilot نام دارد که از سیستم هوش مصنوعی ساخته شده توسط شرکت OpenAI استفاده میکند.
این سیستم میتواند با استفاده از درک متن کدی که برنامه نویس نوشته است خطوط و توابع کاملی را برای برنامه نویس پیشنهاد دهد.
این ابزار از طیف گسترده ای از زبان ها پشتیبانی میکند اما در حال حاضر با پایتون و جاوا نتایج بهتر کار میکند.
برای اطلاعات بیشتر و شروع کار با Copilot در اینجا بیشتر بخوانید.
@silicon_brain
Data Science Cheatsheet 2021 @silicon_brain.pdf
1.7 MB
🟣 تقلب نامه جامع 2021 از الگوریتم ها و روش های مختلف یادگیری ماشین #cheatsheet
🔸#Linear_Regression
🔹#Logistic_Regression
🔸#Decision_Trees
🔹#Random_Forest
🔸#SVM
🔹#K_Nearest_Neighbors
🔸#Clustering
🔹#Boosting
🔸#Dimension_Reduction
🔹#NLP
🔸#Neural_Networks
🔹#Recommender_Systems
🔸#Reinforcement_Learning
🔹#Anomaly_Detection
🔸#Time_Series
🔹#A_B_Testing
🔸#Statistics
🔹#Probability
@silicon_brain
🔸#Linear_Regression
🔹#Logistic_Regression
🔸#Decision_Trees
🔹#Random_Forest
🔸#SVM
🔹#K_Nearest_Neighbors
🔸#Clustering
🔹#Boosting
🔸#Dimension_Reduction
🔹#NLP
🔸#Neural_Networks
🔹#Recommender_Systems
🔸#Reinforcement_Learning
🔹#Anomaly_Detection
🔸#Time_Series
🔹#A_B_Testing
🔸#Statistics
🔹#Probability
@silicon_brain
🟢هفت قدم جهت Data scientist شدن:
۱-یادگیری یک زبان برنامه نویسی:
اولین قدم برای شروع Data science انتخاب و آشنایی با یک زبان برنامه نویسی است. از بین زبان های R و پایتون زبان پایتون دارای محبوبیت بیشتری است. چون یادگیری آن ساده تر است و از کتابخانه هایی مثل numpy - pandas - seaborn matplotlib - scipy و ... ساپورت میکند.
۲-آمار و احتمالات:
داشتن دانش آمار و احتمالات کمک بسیاری برای Data scientist ها برای تحلیل و آنالیز دیتاست های بزرگ میکند.
۳-دانش SQL :
از SQL برای استخراج اطلاعات از دیتابیس های بزرگ و ارتباط با آنها استفاده میشود. از مباحث پر استفاده SQL میتوان به نرمال سازی؛ نوشتن کوئری های تو در تو و همچنین عملیاتی مانند groupby و join و ... اشاره کرد.
۴-پاکسازی داده:
در هر پروژه دیتاساینتز بیشتر زمان پروژه صرف پاکسازی داده میشود. از این قبیل میتوان به تصمیم گیری در مورد missing value ها ؛ داده های بی اهمیت ؛ داده های تکراری ؛ outlier ها ؛ همچنین داده های اشتباه و ... اشاره کرد. برای این عملیات میتوان از کتابخانه های numpy و pandas استفاده کرد.
5-اکتشاف اطلاعات:
یک Data scientist تسک های زیادی باید انجام دهد. مثل پیدا کردن الگو ها در داده ها ؛ آنالیز داده ها و کشف اطلاعات از داده ها. وی باید بتواند این اطلاعات را با ابزار های گرافیکی و شبیه سازی ارائه دهد
6-آموختن یادگیری ماشین:
یادگیری ماشین روشی برای تجزیه و تحلیل داده ها است که مدل تحلیلی را اتوماتیک میسازد. با استفاده از یادگیری ماشین سیستم ها می توانند با حداقل مداخلات انسانی از داده ها بیاموزند ، الگوها را شناسایی کرده و تصمیم بگیرند.
دیتا ساینتز با کمک ماشین لرنینگ و مدل های تحلیلی میتواند پاسخ بهینه را برای مسایل مختلف ارائه کند.
7- انجام تمرین:
پس از گذراندن مقدمات وقت عمل است. شما باید با انجام تمرین در سایت هایی مثل kaggle مهارت خود را افزایش دهید. برای اینکار میتوانید دیتاست را دانلود کرده و سپس عملیات آنالیز را بر روی آن انجام دهید و بعد با مراجعه به عملکرد سایر شرکت کنندگان و نحوه پاسخ آنها به تمرین مورد نظر و انجام مقایسه ایرادات خود را کشف کرده و مهارت خود را افزایش دهید. پس از انجام تمرین میتوانید با شرکت در مسابقات خود را محک بزنید.
@silicon_brain
۱-یادگیری یک زبان برنامه نویسی:
اولین قدم برای شروع Data science انتخاب و آشنایی با یک زبان برنامه نویسی است. از بین زبان های R و پایتون زبان پایتون دارای محبوبیت بیشتری است. چون یادگیری آن ساده تر است و از کتابخانه هایی مثل numpy - pandas - seaborn matplotlib - scipy و ... ساپورت میکند.
۲-آمار و احتمالات:
داشتن دانش آمار و احتمالات کمک بسیاری برای Data scientist ها برای تحلیل و آنالیز دیتاست های بزرگ میکند.
۳-دانش SQL :
از SQL برای استخراج اطلاعات از دیتابیس های بزرگ و ارتباط با آنها استفاده میشود. از مباحث پر استفاده SQL میتوان به نرمال سازی؛ نوشتن کوئری های تو در تو و همچنین عملیاتی مانند groupby و join و ... اشاره کرد.
۴-پاکسازی داده:
در هر پروژه دیتاساینتز بیشتر زمان پروژه صرف پاکسازی داده میشود. از این قبیل میتوان به تصمیم گیری در مورد missing value ها ؛ داده های بی اهمیت ؛ داده های تکراری ؛ outlier ها ؛ همچنین داده های اشتباه و ... اشاره کرد. برای این عملیات میتوان از کتابخانه های numpy و pandas استفاده کرد.
5-اکتشاف اطلاعات:
یک Data scientist تسک های زیادی باید انجام دهد. مثل پیدا کردن الگو ها در داده ها ؛ آنالیز داده ها و کشف اطلاعات از داده ها. وی باید بتواند این اطلاعات را با ابزار های گرافیکی و شبیه سازی ارائه دهد
6-آموختن یادگیری ماشین:
یادگیری ماشین روشی برای تجزیه و تحلیل داده ها است که مدل تحلیلی را اتوماتیک میسازد. با استفاده از یادگیری ماشین سیستم ها می توانند با حداقل مداخلات انسانی از داده ها بیاموزند ، الگوها را شناسایی کرده و تصمیم بگیرند.
دیتا ساینتز با کمک ماشین لرنینگ و مدل های تحلیلی میتواند پاسخ بهینه را برای مسایل مختلف ارائه کند.
7- انجام تمرین:
پس از گذراندن مقدمات وقت عمل است. شما باید با انجام تمرین در سایت هایی مثل kaggle مهارت خود را افزایش دهید. برای اینکار میتوانید دیتاست را دانلود کرده و سپس عملیات آنالیز را بر روی آن انجام دهید و بعد با مراجعه به عملکرد سایر شرکت کنندگان و نحوه پاسخ آنها به تمرین مورد نظر و انجام مقایسه ایرادات خود را کشف کرده و مهارت خود را افزایش دهید. پس از انجام تمرین میتوانید با شرکت در مسابقات خود را محک بزنید.
@silicon_brain
👍1
🟢پیچیدگی محاسباتی الگوریتم های یادگیری ماشین:
نماد n: تعداد نمونه های training
نماد p: تعداد feature ها
نماد (n(trees: تعداد درخت ها
نماد (n(sv: تعداد support vector ها
نماد (n(li: تعداد نورون های موجود در لایه i ام شبکه عصبی
@silicon_brain
نماد n: تعداد نمونه های training
نماد p: تعداد feature ها
نماد (n(trees: تعداد درخت ها
نماد (n(sv: تعداد support vector ها
نماد (n(li: تعداد نورون های موجود در لایه i ام شبکه عصبی
@silicon_brain
🔵آموزش یادگیری ماشین با پایتون از صفر
در این دوره کلاسیفایرهای مختلف رو میتونید یاد بگیرید و کدشو بزنید !
https://www.youtube.com/playlist?list=PLqnslRFeH2Upcrywf-u2etjdxxkL8nl7E
@silicon_brain
در این دوره کلاسیفایرهای مختلف رو میتونید یاد بگیرید و کدشو بزنید !
https://www.youtube.com/playlist?list=PLqnslRFeH2Upcrywf-u2etjdxxkL8nl7E
@silicon_brain
🔵لیست جامع و کامل از بهترین آموزشهای ML
Stanford CS229: Machine Learning (لینک)
Applied Machine Learning (لینک)
Machine Learning with Graphs (Stanford) (لینک)
Probabilistic Machine Learning (لینک)
Introduction to Deep Learning (MIT) (لینک)
Deep Learning: CS 182 (لینک)
Deep Unsupervised Learning (لینک)
NYU Deep Learning SP21 (لینک)
CMU Neural Networks for NLP (لینک)
Multilingual NLP (لینک)
Advanced NLP (لینک)
Deep Learning for Computer Vision (لینک)
Deep Reinforcement Learning (لینک)
Full Stack Deep Learning (لینک)
@Silicon_Brain
Stanford CS229: Machine Learning (لینک)
Applied Machine Learning (لینک)
Machine Learning with Graphs (Stanford) (لینک)
Probabilistic Machine Learning (لینک)
Introduction to Deep Learning (MIT) (لینک)
Deep Learning: CS 182 (لینک)
Deep Unsupervised Learning (لینک)
NYU Deep Learning SP21 (لینک)
CMU Neural Networks for NLP (لینک)
Multilingual NLP (لینک)
Advanced NLP (لینک)
Deep Learning for Computer Vision (لینک)
Deep Reinforcement Learning (لینک)
Full Stack Deep Learning (لینک)
@Silicon_Brain
🟣 ابزار تبدیل تصاویر ورودی شبکه عصبی به ابعاد ثابت
در بعضی از دیتاست ها اندازه تصاویر دیتاست با هم متفاوت است و این برای مدل های مبتنی بر شبکه عصبی مشکل ایجاد میکند. دلیل این مشکل این است که تعداد پیکسلهای تصاویر در این حالت متفاوت است و در نتیجه ابعاد ورودی ها نیز متفاوت خواهد بود اما برای استفاده از شبکههای عصبی نیاز است که ابعاد ورودی با هم برابر باشند.
برای حل این مشکل از کتابخانه opencv و تابع ()resize آن به همراه قابلیت List Comprehension پایتون استفاده میکنیم تا همه تصاویر موجود در دیتاست را به یک اندازه یکسان تبدیل کنیم.
به مثال موجود در تصویر توجه کنید که توسط این کتابخانه ابعاد تصاویر را به ابعاد ثابت 5 در 5 تبدیل کرده است.
#opencv #image #image_processing
@silicon_brain
در بعضی از دیتاست ها اندازه تصاویر دیتاست با هم متفاوت است و این برای مدل های مبتنی بر شبکه عصبی مشکل ایجاد میکند. دلیل این مشکل این است که تعداد پیکسلهای تصاویر در این حالت متفاوت است و در نتیجه ابعاد ورودی ها نیز متفاوت خواهد بود اما برای استفاده از شبکههای عصبی نیاز است که ابعاد ورودی با هم برابر باشند.
برای حل این مشکل از کتابخانه opencv و تابع ()resize آن به همراه قابلیت List Comprehension پایتون استفاده میکنیم تا همه تصاویر موجود در دیتاست را به یک اندازه یکسان تبدیل کنیم.
به مثال موجود در تصویر توجه کنید که توسط این کتابخانه ابعاد تصاویر را به ابعاد ثابت 5 در 5 تبدیل کرده است.
#opencv #image #image_processing
@silicon_brain
🟣کورس۳ ساعته یوتیوب برای فریمورک scikit-learn
مباحثی مانند #پیش_پردازش #یادگیری_ماشین #متریک و... در این کورس مطرح شده است.
لینک ➡️
#scikit_learn
@silicon_brain
مباحثی مانند #پیش_پردازش #یادگیری_ماشین #متریک و... در این کورس مطرح شده است.
لینک ➡️
#scikit_learn
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
🟣 مکالمه بین دو عامل هوشمند که با مدل زبانی GPT-3 ساخته شده اند. این دو هوش مصنوعی بهتر از هر عاملی انگلیسی را درک کردند.
#chatbot #gpt3
@silicon_brain
#chatbot #gpt3
@silicon_brain
🟣 پایگاه نوتبوکهای متنوع حوزه ی NLP
در این پایگاه بیش از ۲۰۰ نوتبوک گردآوری شدهاند که مسائل مختلفی در حوزه #nlp را در بر میگیرد (مانند تنظیم پارامتر های bert و gpt و استفاده از doc2vec و fasttext و...)
حتما وارد این پایگاه بشید تا با تنظیم و دستکاری کردن پارامتر های مختلف یک تمرینی انجام داده باشید.
لینک
@silicon_brain
در این پایگاه بیش از ۲۰۰ نوتبوک گردآوری شدهاند که مسائل مختلفی در حوزه #nlp را در بر میگیرد (مانند تنظیم پارامتر های bert و gpt و استفاده از doc2vec و fasttext و...)
حتما وارد این پایگاه بشید تا با تنظیم و دستکاری کردن پارامتر های مختلف یک تمرینی انجام داده باشید.
لینک
@silicon_brain
🔵مقایسه بصری الگوریتمهای معروف کلاسترینگ روی دادههای چالشی با توزیعات مختلف
https://scikit-learn.org/stable/auto_examples/cluster/plot_cluster_comparison.html
@silicon_brain
https://scikit-learn.org/stable/auto_examples/cluster/plot_cluster_comparison.html
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
🟣 اگر متخصص یا علاقه مند به هوش مصنوعی هستید، احتمالا ساعت ها پشت کامپیوتر هستید و همه میدونیم بعد از چند ساعت نشستن و ثابت بودن اولین جایی که شروع به درد و اذیت میکنه گردن هست.
با این ترفند ساده از شر گردن درد خلاص بشید و ساخت مدل یادگیری خود را ادامه بدین... 😉
@silicon_brain
با این ترفند ساده از شر گردن درد خلاص بشید و ساخت مدل یادگیری خود را ادامه بدین... 😉
@silicon_brain
👍1
🟢چگونه با missing value های موجود در دیتاست برخورد کنیم؟
برای تصمیم گیری درباره missing value ها بسته به نوع داده ها و شرایط مد نظر میتوان از یکی از موارد زیر استفاده کرد:
-پاک کردن سطرهای شامل missing value.
-محاسبه خانه خالی برای داده های عددی و غیر عددی.
-جایگذاری خانه خالی با مقدار میانگین یا میانه یا حتی یک مقدار ثابت یا رندم برای داده های عددی.
-استفاده از الگوریتم هایی که missing value را ساپورت میکنند.
-پیشبینی مقدار missing value ها.
@silicon_brain
برای تصمیم گیری درباره missing value ها بسته به نوع داده ها و شرایط مد نظر میتوان از یکی از موارد زیر استفاده کرد:
-پاک کردن سطرهای شامل missing value.
-محاسبه خانه خالی برای داده های عددی و غیر عددی.
-جایگذاری خانه خالی با مقدار میانگین یا میانه یا حتی یک مقدار ثابت یا رندم برای داده های عددی.
-استفاده از الگوریتم هایی که missing value را ساپورت میکنند.
-پیشبینی مقدار missing value ها.
@silicon_brain
🟢یه سوال ساده!
خوب همونطور که تو شکل میبینید Estimation و prediction از انواع یادگیری نظارت شده هستند. کسی میتونه تفاوت های این دو حالت Estimation و prediction رو بگه؟
@silicon_brain
خوب همونطور که تو شکل میبینید Estimation و prediction از انواع یادگیری نظارت شده هستند. کسی میتونه تفاوت های این دو حالت Estimation و prediction رو بگه؟
@silicon_brain
Silicon Brain | جامعه هوش مصنوعی
🟢یه سوال ساده! خوب همونطور که تو شکل میبینید Estimation و prediction از انواع یادگیری نظارت شده هستند. کسی میتونه تفاوت های این دو حالت Estimation و prediction رو بگه؟ @silicon_brain
⬇️
🟢جواب:
-تخمین یا همون Estimation معادل رگراسیون هست و متغیرهای خروجی از نوع عددی هستند. ولی در prediction متغیرهای خروجی هم میتونن عددی باشند هم میتونن دسته ای یا همون categorical باشند.
-در Estimation خروجیها وضعیت فعلی حال حاضر رو بیان میکنن و با آینده کاری ندارن مثل تخمین قیمت خانه. ولی در prediction خروجی ها وضعیت در آینده رو بیان میکنن مثل پیشبینی تغییرات آب و هوا.
@silicon_brain
🟢جواب:
-تخمین یا همون Estimation معادل رگراسیون هست و متغیرهای خروجی از نوع عددی هستند. ولی در prediction متغیرهای خروجی هم میتونن عددی باشند هم میتونن دسته ای یا همون categorical باشند.
-در Estimation خروجیها وضعیت فعلی حال حاضر رو بیان میکنن و با آینده کاری ندارن مثل تخمین قیمت خانه. ولی در prediction خروجی ها وضعیت در آینده رو بیان میکنن مثل پیشبینی تغییرات آب و هوا.
@silicon_brain
This media is not supported in your browser
VIEW IN TELEGRAM
🟣 امتیاز دهی اعتبار اجتماعی در چین!
چین با استفاده از سیستم مبتنی بر هوش مصنوعی میتواند شهروندان را بابت توئیت هایی که منتشر کرده اند یا در مورد اینکه در انتخابات این کشور شرکت کرده اند یا نه، شهروندان را جریمه یا تشویق کند.
این سیستم با میلیون ها دوربین و فناوری هایی مانند تشخیص چهره و ... میتواند تمامی رفتار های شهروندان را در اجتماع و فضای مجازی تحت نظر قرار دهد.
@siliocn_brain
چین با استفاده از سیستم مبتنی بر هوش مصنوعی میتواند شهروندان را بابت توئیت هایی که منتشر کرده اند یا در مورد اینکه در انتخابات این کشور شرکت کرده اند یا نه، شهروندان را جریمه یا تشویق کند.
این سیستم با میلیون ها دوربین و فناوری هایی مانند تشخیص چهره و ... میتواند تمامی رفتار های شهروندان را در اجتماع و فضای مجازی تحت نظر قرار دهد.
@siliocn_brain
تکرار دوباره دیتای آموزشی برای مدل زبانی نتیجه بهتری برای ما میدهد
نظر شما در مورد این جمله؟
نظر شما در مورد این جمله؟
Anonymous Poll
31%
درست
38%
غلط
31%
نظر یا اطلاعات کافی ندارم