Pythonic AI
493 subscribers
317 photos
84 videos
67 files
538 links
منابع، دوره ها، همایشها ، مقالات و میم کامپیوتر
Download Telegram
Forwarded from فلسفه علم
این افراد هرگز وجود نداشته اند؛ آنان توسط هوش مصنوعی تولید شده اند!

ژوئن گذشته، یک تولید کننده تصویر، که می توانست حتی ناپخته ترین تصاویر از چهره را به تصویری تبدیل کند که واقع گرایانه تر به نظر برسد، آنلاین در دسترس قرار گرفت. سیستم مذکور از الگوریتم جدیدی برای خلق چهره ها بهره می برد که شبکه مولد رقیب (generative adversarial network یا GAN) خوانده می شود.

اکنون، شرکت تولید کننده تراشه NVIDIA، سیستمی را توسعه داده است که GAN را برای آفرینش واقع گرایانه ترین تصاویر چهره، به کار می گیرد. شبکه های عصبی مصنوعی سیستم هایی اند که فعالیت نورون های مغزی انسان را تقلید می کنند. در یک GAN، دو شبکه عصبی علیه یکدیگر فعالیت می کنند. یکی از شبکه ها به عنوان یک الگوریتم رقابتی فعالیت می کند، و دیگری نتایج فعالیت اولی را به چالش می کشد و نقش رقیب را ایفا می کند.

بخشی از استفاده گسترده NVIDIA از هوش مصنوعی، ساختن نوعی GAN است که از دیتابیس تصاویر CelebA-HQ، متعلق به افراد مشهور، برای تولید چهره هایی استفاده می کند که در حقیقت هرگز وجود نداشته اند. ایده آن ها این بود که اگر دو شبکه برای تولید تصاویر علیه هم کار کنند، چهره های تولید شده توسط هوش مصنوعی واقعی تر به نظر می رسند.

در آغاز، شبکه مولد یک تصویر با رزولوشن پایین می سازد. سپس شبکه تفکیک کننده (discriminator)، کار را ارزیابی می کند. همچنان که سیستم پردازش می کند، برنامه نویسان لایه های جدیدی را اضافه می کنند که در ارتباط با جزئیات و رزولوشن بالاتر است. این کار تا زمانی که نهایتا GAN تصاویر را تولید کند، ادامه دارد. تصاویری که به قول مقاله تیم NVIDIA از "کیفیتی بی سابقه" برخوردارند.

شرکت NVIDIA ویدیویی از عملکرد GAN خود و چهره ساخته شده با هوش مصنوعی را منتشر کرده است که هر دو یقینا جالب توجه و شدیدا خوفناک هستند. اگر فردی معمولی نداند که ماشین تصاویر را تولید کرده به راحتی باور می کند که متعلق به اشخاصی واقعی اند.

قطعا مرز مبهم بین تولیدات انسان و ماشین، در حوزه هوش موضوعی است بسیار قابل بحث؛ GAN طراحی شده توسط NVIDIA نخستین سیستم مصنوعی نیست که به طرز متقاعد کننده ای از انسان چیزی را تقلید می کند.

تعدادی از سیستم های هوش مصنوعی از تکنیک های یادگیری عمیق برای تولید صدا های مشابه انسان بهره می برند. DeepMind گوگل از شبکه WaveNet بهره می گیرد که در حال حاضر می تواند گفتار انسان را به گونه ای بی نقص تقلید کند. الگوریتم آن قادر است ترکیب صدای انسان را تنها با استفاده از یک دقیقه صدا، تولید کند.

امری آزاردهنده تر یا جذاب تر - بسته به نگرش شما درباره بحث مربوط به هوش مصنوعی - ربات هایی است که می توانند درک کنند و عواطف انسانی را اظهار کنند؛ همچون ربات Sophia طراحی شده توسط Hanson Robotics و Pepper ساخته شده توسط SoftBank.

روشن است دوران ماشین های هوشمندانه تر فرا رسیده است و هر چه قدر توان هوش مصنوعی در اجرای وظایفی که سابقا تنها انسان می توانست انجام دهد، افزایش می یابد، مرز انسان و ماشین کمرنگ تر می شود.

🔵 منبع:

https://futurism.com/these-people-never-existed-they-were-made-by-an-ai/

کانال دنیای علم
امروز همه راز قتل اسکوئل بازی می کنن شما چطور؟ تو این بازی با کامندهای اسکوئل توی دیتابیس می چرخین تا بتونین بالاخره کشف کنین در شهر اسکوئل، قاتل چه کسی بوده (:
https://mystery.knightlab.com/ #لینک
تنها راهی که میشود يك زندگی بهتر داشت این است که رشد کنیم
تنها راهی که میشود رشد کرد این است که تغییر کنیم
تنها راهی که میشود تغییر کرد این است
که چیزهای جدید یاد بگیریم

#quote

@pythonicAI
Getting to Know Deep Java Library (DJL)

Amazon’s DJL is a deep learning toolkit used to develop machine learning (ML) and deep learning (DL) models natively in Java while simplifying the use of deep learning frameworks.

Link

#deeplearning #machinelearning #artificialintelligence #java #amazon

@pythonicAI
۱۰ روز دیگه پایتون ۲ به تاریخ میپیونده و ازون به بعد فقط شاهد آپدیتهای پایتون ۳ خواهیم بود...

دلمون براش تنگ میشه... 😊

#python

@pythonicAI
نیکلاس کیج در خندوانه و شب یلدا 😁

🔥 ویدیوی جدید هوش‌مصنوعی #DeepO 🔥

🎥 ویدیوی باکیفیت در آپارات 👇
https://www.aparat.com/v/m8dTe

🍉 با آرزوی شبی خوش و آرام 🍉

Nicolas Cage in Khandevane !
Happy YALDA night 🍉
by #DeepO artificial intelligence

🔶 مطالب بیشتر در
@ali110co_ir
@opencv_olc
@ai_python
‏لیست محبوب ترین زبان های برنامه نویسی سال 2019

توسط IEEE Spectrum

@pythonicAI
لیست محبوب ترین زبان های برنامه نویسی سال 2019

توسط TIOBE

@pythonicAI
Workera Report.pdf
1.3 MB
کمپانی ها در سراسر دنیا درحال جمع آوری تیمهای هوش مصنوعی هستند اما هنوز برای مهندسان یادگیری ماشینی، دیتا ساینتیستها و مهندسان نرم افزار جای سوال است که وقتی برای این تیم ها اپلای میکنند روی چه چیزی باید تمرکز کنند.

این گزارش، انواع شرکتها، نقش های درون آنها و تسکهایی که باید روی آنها کار کنید و skill هایی که بدنبال آن هستند را توضیح میدهد.

#artificialintelligence #machinelearning

@pythonicAI
A tensor processing unit (TPU) is an AI accelerator application-specific integrated circuit (ASIC) developed by Google specifically for neural network machine learning.

بلاگ پست گوگل درباره نحوه کار و معماری TPU:
Link

#artificialintelligence #deeplearning

@pythonicAI
This media is not supported in your browser
VIEW IN TELEGRAM
Forwarded from DLeX: AI Python (Deleted Account)
Forwarded from Tensorflow(@CVision) (Vahid Reza Khazaie)
سری سخنرانی های یادگیری عمیق دانشگاه MIT از 6 ژانویه(16 دی) شروع میشه که می‌تونید لیست کامل سخنرانان رو در این لینک ببینید.(لیست در روزهای آینده به روز رسانی میشه). همینطور ویدیو هر سخنرانی چند روز بعد از هر سخنرانی در لینک فوق قرار داده می‌شود.
یکی از سخنرانان مشخص شده، فرانسوا شوله نویسنده کتابخانه کراس می‌باشد.
Forwarded from Tensorflow(@CVision) (Vahid Reza Khazaie)
#یادگیری_عمیق دقیقا چیه؟

طی چند روز گذشته، بعضی از محقق‌های بزرگ هوش مصنوعی مانند #یان_لکان و #فرانسوا_شوله تعریف خودشون رو از دیپ لرنینگ توی سال 2019 اعلام کردند.

یان لکان:

"Some folks still seem confused about what deep learning is. Here is a definition:

DL is constructing networks of parameterized functional modules & training them from examples using gradient-based optimization. That's it.

This definition is orthogonal to the learning paradigm: reinforcement, supervised, or self-supervised.

Don't say "DL can't do X" when what you really mean is "supervised learning needs too much data to do X"

Extensions (dynamic networks, differentiable programming, graph NN, etc) allow the network architecture to change dynamically in a data-dependent way."
https://www.facebook.com/722677142/posts/10156463919392143/

فرانسوا شوله:

"What's deep learning?

The "common usage" definition as of 2019 would be "chains of differentiable parametric layers trained end-to-end with backprop".

But this definition seems overly restrictive to me. It describes *how we do DL today*, not *what it is*."
https://twitter.com/fchollet/status/1210031900695449600

اندری بورکوف:

"Looks like in late 2019, people still need a definition of deep learning, so here's mine: deep learning is finding parameters of a nested parametrized non-linear function by minimizing an example-based differentiable cost function using gradient descent."
https://www.linkedin.com/posts/andriyburkov_looks-like-in-late-2019-people-still-need-activity-6615377527147941888-ce68/

#deep_learning