DLeX: AI Python
22.6K subscribers
4.99K photos
1.22K videos
764 files
4.35K links
هوش‌مصنوعی و برنامه‌نویسی

توییتر :

https://twitter.com/NaviDDariya

هماهنگی و تعرفه تبلیغات : @navidviola
Download Telegram
لینک ویدیوی سخنرانی پروفسور Yoshua Bengio برنده جایزه تورینگ سال ۲۰۱۸ در دانشگاه تهران
(زمان سخنرانی: چهارم شهریورماه ۱۳۹۸)

https://www.aparat.com/v/RYF94

لینک اسلایدهای سخنرانی:
https://drive.google.com/file/d/1YPRysiXQj8nYNTuDmYxPp4EPi8qseAvs/view?usp=sharing
Forwarded from AI, Python, Cognitive Neuroscience (Farzad)
2_5203986206391534542.pdf
1.5 MB
Sarbazi, M., Sadeghzadeh, M., & Mir Abedini, S. J. (2019). Improving resource allocation in software-defined networks using clustering. Cluster Computing.
doi:10.1007/s10586-019-02985-3

❇️ @AI_Python_EN
معروف ترین کتابخانه های پایتون برای هوش مصنوعی


کتابخانه ها جان تازه‌ ای به زبان برنامه نویسی پایتون داده‌اند و یکی از دلایل اصلی محبوبیت این زبان هستند. کتابخانه‌ها کدهای از قبل نوشته شده هستند که توسط سایر توسعه دهندگان ایجاد شده اند. استفاده از آن ها در زمان شخص برنامه نویس صرفه جویی کرده و از دوباره کاری جلوگیری می‌کنند. دانش هوش مصنوعی نیاز به تجزیه و تحلیل داده دارد. در ادامه بهترین کتابخانه های پایتون که در تحلیل و بررسی داده به شما کمک خواهند کرد را بررسی می کنیم.
1 - Scikit-learn
یکی از بهترین کتابخانه های یادگیری ماشین در پایتون است. این کتابخانه الگوریتم های اصلی و پایه این حوزه را به خوبی پردازش می‌کند. مواردی مثل رگرسیون خطی و لاجستیک، خوشه بندی، طبقه بندی و غیره توسط Scikit-learn به خوبی شناسایی می‌شوند.
2 - Pandas
یک کتابخانه متن باز است که تحت پروانه BSD منتشر می‌شود. این کتابخانه در کنار کارایی آسان خود، بازدهی بالایی نیز دارد. از Pandas برای تحلیل داده استفاده می‌شود. Pandas در واقع سعی داشت یک شکاف را در پایتون برطرف کند. این شکاف مشکلی بود که پایتون در مدل سازی و آنالیز داده ها داشت. پانداس در کنار سایر کتابخانه های یادگیری عمیق و یادگیری ماشین قدرت بیشتری می‌گیرد.
3 - Keras
از Keras برای یادگیری عمیق (Deep Learning) استفاده می‌شود. این کتابخانه محاسبات و ساخت نمونه را با سرعت بسیار بالا انجام می‌دهد. به خاطر اینکه به جزء پردازشگر دستگاه (CPU) از گرافیک (GPU) هم برای تقسیم بار محاسباتی استفاده می‌کند. Keras از پایتون 2.7 تا 3.6 را پشتیبانی می‌کند و یکی از بهترین کتابخانه های یادگیری عمیق در پایتون است.
4 - TensorFlow
شرکت گوگل در سال 2010 یک تیم تحقیقاتی در حوزه هوش مصنوعی و یادگیری عمیق تشکیل داد. کتابخانه TensorFlow یکی از دستاوردهای این گروه است که در سال 2015 منتشر شد. گوگل هم در تحقیقات و هم در محصولات خود از این کتابخانه استفاده می‌کند. TensorFlow خودش را با انواع سیستم عامل ها (لینوکس، ویندوز، مکینتاش و غیره) وقف داده است.
5 - Matplotlib
یک کتابخانه بسیار مفید برای ایجاد نمودارها است. به کمک آن می‌توانید انواع اشکال دوبعدی، هیستوگرام، نمودار و غیره طراحی کنید. بعد از اینکه اطلاعات متنوع خود را تحلیل کردید، برای خوانایی و فهم بیشتر، می‌توانید از نمودارها استفاده کنید. Matplotlib به ما کمک می‌کند یک خروجی کاربردی و ملموس از دیتای خود داشته باشیم.
6 - NLTK
یک ابزار عالی برای ساخت برنامه‌های پایتونی مبتنی بر زبان انسان است. مثلا اگر برنامه ای ساخته‌اید که نیاز به تحلیل صحبت های انسان  دارد، می‌توانید از کتابخانه NLTK استفاده کنید. متاسفانه این کتابخانه فقط برای زبان انگلیسی کار می‌کند و امکان اضافه کردن آن به پروژه های  فارسی زبان وجود ندارد. NLTK مخفف Natural Language Toolkit بوده و بهترین گزینه در پردازش زبان است.
7 - Scikit-image

پردازش تصویر مبحثی است که رابطه نزدیکی با بینایی ماشین دارد. پردازش تصویر در زمینه های متنوعی مثل موارد نظامی، امنیتی، صنعتی کاربرد دارد. بعضی از کاربردهای بینایی ماشین در زندگی روزمره عبارتند از تشخیص بارکد محصول، تشخیص پلاک یا سرعت خودرو و غیره. Scikit-image الگوریتم‌های مختلفی دارد که شامل تغییرات هندسی، آنالیز رنگ‌ها، تشخیص ویژگی‌های تصویر و غیره می‌شود.
8 - PyBrain
یکی از بهترین کتابخانه های یادگیری ماشین بوده که با زبان پایتون نوشته شده است. این کتابخانه شامل الگوریتم‌هایی مربوط به شبکه‌های عصبی و یادگیری تقویتی است. Pybrain یک کتابخانه رایگان، آزاد و متن باز به حساب می‌آید که هر کسی می‌تواند از آن استفاده کند. ترکیب Pybrain با سایر کتابخانه‌های هوش مصنوعی به نتایج بسیار مفیدی منجر می‌شود.
9 - Caffe
یک فریم ورک یادگیری عمیق (Deep Learning) است که با تمرکز بر روی سریع بودن و ماژولار بودن طراحی شده است. این کتابخانه پروژه آقای Yangqing Jia در دانشگاه Berkeley بوده و در حال حاضر تحت لایسنس BSD در اختیار عموم قرار گرفته است. برای اینکه قدرت Caffe را درک کنید باید بگوییم که این کتابخانه می‌تواند با جا‌به‌جا شدن بین CPU و کارت گرافیک، روزانه بیشتر از 60 میلیون تصویر را پردازش کند.
10 - StatsModels
این کتابخانه در علوم داده، تجزیه و تحلیل اطلاعات و گزارش‌گیری ها کاربرد دارد و به خوبی در کنار سایر کتابخانه هایی که معرفی کردیم قرار می‌گیرد و با آن‌ها تعامل دارد. مثلا می تواند به راحتی برای کنترل داده‌ها با کتابخانه Pandas ادغام شود. همچنین این کتابخانه برای کار با سایر کتابخانه های گرافیکی از Matplotlib استفاده می‌کند.

#هوش_مصنوعی #پایتون
🆔 @Ai_Tv
👍1
حرف کدوم یکی رو در مورد محیط زیست بیشتر قبول می‌کنید؟
Anonymous Poll
12%
یک بچه که در سازمان ملل
71%
یک دانشمند فعال این زمینه
17%
ترامپ
Forwarded from Tensorflow(@CVision) (Vahid)
وقتی نویسنده‌های مقاله مدلی ارایه می‌دهند که می‌تواند متون را خلاصه کند و برای نوشتن چکیده مقاله همان مدل از آن استفاده می‌کنند!

لینک مقاله:
https://arxiv.org/abs/1909.03186
یادگیری تقویتی چند عاملی،
Multi-agent reinforcement learning
کار بسیار جالبی از
OpenAi
هست، عامل‌های قرمز نباید عامل آبی رو ببینند؛ علاوه بر اینکه عامل‌ها یاد می‌گیرند از اشیا موجود داخل محیط به درستی استفاده کنند
بعد از کلی تکرار عامل قرمز کاری می‌کنه که تیم متوجه وجود باگ در محیط می‌شه، چیزی که حتی برنامه‌نویس‌ها هم بهش فکر نکرده بودند

که این موضوع رو خیلی خیلی جالب و جذاب می‌کنه

https://openai.com/blog/emergent-tool-use/
Forwarded from Data Science
Spatial Regression.pdf
1.6 MB
📒 کتاب آموزشی و یکی از رفرنس های اصلی رگرسیون های فضایی
#Spatial_Regression

https://t.me/Data_ScienceR
🌐@Data_ScienceR
📌 تنسورفلو و یادگیری عمیق بدون PhD

بهترین مزیت این کورس این هست که مدلی که با اون آموزش می دهد همزمان کد‌های تنسورفلو‌ اش هم براتون میزنه و همین مساله خیلی به فهم موضوع کمک خواهد کرد. کل ویدئو‌های آقای Martin Gorner رو میتونید از زیر لینک مشاهد کنید

📍https://cloud.google.com/blog/products/gcp/learn-tensorflow-and-deep-learning-without-a-phd

📍https://github.com/GoogleCloudPlatform/tensorflow-without-a-phd

#یادگیری_عمیق #منابع #آموزش #تنسورفلو
@ai_python
DLeX: AI Python
📌 تنسورفلو و یادگیری عمیق بدون PhD بهترین مزیت این کورس این هست که مدلی که با اون آموزش می دهد همزمان کد‌های تنسورفلو‌ اش هم براتون میزنه و همین مساله خیلی به فهم موضوع کمک خواهد کرد. کل ویدئو‌های آقای Martin Gorner رو میتونید از زیر لینک مشاهد کنید 📍ht…
در Codelabs گوگل می توانید به صورت تعاملی آموزش و ساخت گام به گام مدل های یادگیری ماشین و عمیق را یاد بگیرید. حتما از این قابلیت استفاده کنید

در لینک زیر می توانید آموزش و ساخت یک مدل شبکه عصبی برای تشخیص اعداد دست نویس را مشاهده کنید.

https://codelabs.developers.google.com/codelabs/cloud-tensorflow-mnist/index.html?index=..%2F..index#0

#یادگیری_عمیق #آموزش #یادگیری_ماشین

@ai_python
۱۰۰ هزار دیتا تصویر چهره

You can get it here: https://lnkd.in/duma7Tw

#دیتاست #دیتا #منابع

@ai_python
Forwarded from DLeX: AI Python (Milad Farzalizadeh)
خبر جدید: آخرین نسخه تنسورفلو ۲ ساعاتی پیش ارائه شد

TensorFlow 2.0 focuses on simplicity and ease of use, featuring updates like:
Easy model building with Keras and eager execution.
Robust model deployment in production on any platform.
Powerful experimentation for research.
API simplification by reducing duplication and removing deprecated endpoints.

#تنسورفلو
@ai_python
Forwarded from AI, Python, Cognitive Neuroscience (Farzad)
Github has just launched a new NLP/information retrieval challenge: CodeSearchNet challenge. The goal of code search is to retrieve relevant code given natural language. Along with this, they released a huge dataset with: - 6m functions across 6 programming languages (Go, Java, Python etc) - 2m of those 6m functions have associated documentation (docstrings, JavaDoc etc) - And some metadata (line number and more). They also included some baseline models (e.g. BERT-like self-attention model) to help people get started with the challenge. Check it out! #deeplearning #machinelearning


📝 Article: https://lnkd.in/dezzhs9
🔤 Code: https://lnkd.in/dXhRqpE
Forwarded from Saeed Rahmani
سلام دوستان،

ما (تیمی از دو دانشجو و دو استاد از دانشگاه Università della Svizzera Italiana سوئیس) برای انجام پروژه‌ای برای یک مرکز مطالعاتی در سوئیس نیاز به جمع آوری اطلاعات رفتار کاربر در هنگام جستجو در یک کتابخانه دیجیتال را داریم. به همین منظور نیاز به همکاری شما در تهیه این اطلاعات و تحلیل رفتار کاربران را داریم. برای اینکار کافی است به وبسایتی که آدرس آن در ادامه وجود دارد مراجعه کنید و مراحل زیر را انجام دهید (همچنین این مراحل در فرم اولیه با تصاویر مشخص شده است).

- وب سایت: https://rerodoc.herokuapp.com
- لطفا از مرورگر Google Chroom استفاده نمایید.
- حداکثر زمان جمع آوری اطلاعات تا تاریخ 15 مهر خواهد بود.
- متن انگلیسی درخواست پس از متن فارسی قرار دارد.
- تعداد سوالات در هر فرم بسیار کم است و تمام این مراحل حداکثر 15 دقیقه از شما زمان خواهد گرفت.

مراحل:

0. در اولین مراجع به وب سایت فرمی (Info Form) نمایش داده می‌شود که از شما اطلاعاتی در مورد فرد جستجو کننده (شما) مثل سن و جنسیت دریافت خواهد کرد.
1. پس از آن فرم شروع سناریو اول باید تکمیل شود (Scenario1_Pre).
2. پس از این دو مرحله، شما باید با استفاده از قسمت جستجو در وبسایت جستجو کنید.
3. برای تکیمل سناریو اول باید فرم پایان سناریو اول را تکمیل کنید (Scenario1_Post).
4. مراحل 1 تا 3 را برای سناریو دوم تکرار کنید.

با نهایت تشکر،
سعید

Dear colleagues,

We are conducting a study into how people search for information in a digital library. Your contribution will greatly help us better understand searches’ behavior and their needs. We do need your help by participating in this pilot study by putting aside enough time to run a couple of searches in two different scenarios as explained in the experimental website and photo attached.

You need to use Google Chrome and go to https://rerodoc.herokuapp.com/ to start helping us.

Try and do your searches by at the latest the 7th of October.

Your participation is extremely valuable for us!

Thank you in advance