#dataset:
Announced Sept 2016:
Google Open Images (~9M images)
https://github.com/openimages/dataset
Youtube-8M (8M videos)
https://research.google.com/youtube8m/
Announced Sept 2016:
Google Open Images (~9M images)
https://github.com/openimages/dataset
Youtube-8M (8M videos)
https://research.google.com/youtube8m/
GitHub
GitHub - openimages/dataset: The Open Images dataset
The Open Images dataset. Contribute to openimages/dataset development by creating an account on GitHub.
#مجموعه_دادهی چالشی برای تشخیص چهره در تغییرات مختلف
WIDER FACE: A Face Detection Benchmark
http://mmlab.ie.cuhk.edu.hk/projects/WIDERFace/
#dataset #face #face_detection #Benchmark
WIDER FACE: A Face Detection Benchmark
http://mmlab.ie.cuhk.edu.hk/projects/WIDERFace/
#dataset #face #face_detection #Benchmark
#مقاله ٫ #سورس_کد کد #دیتاست
https://t.me/cvision/668
Code for reproducing results in "Glow: Generative Flow with Invertible 1x1 Convolutions"
🔗abstract:
https://arxiv.org/abs/1807.03039
🔗Paper:
https://arxiv.org/pdf/1807.03039
🔗source code:
https://github.com/openai/glow
🔗Project Page + Online #Demo:
https://blog.openai.com/glow/
#Tensorflow #Horovod #dataset #gan #GLOW #generative
https://t.me/cvision/668
Code for reproducing results in "Glow: Generative Flow with Invertible 1x1 Convolutions"
🔗abstract:
https://arxiv.org/abs/1807.03039
🔗Paper:
https://arxiv.org/pdf/1807.03039
🔗source code:
https://github.com/openai/glow
🔗Project Page + Online #Demo:
https://blog.openai.com/glow/
#Tensorflow #Horovod #dataset #gan #GLOW #generative
Telegram
Tensorflow
#دمو #مقاله #سورس_کد
دموی آنلاین تبدیل چهره با شبکه های مولد
https://blog.openai.com/glow/
#GAN #GLOW #generative
دموی آنلاین تبدیل چهره با شبکه های مولد
https://blog.openai.com/glow/
#GAN #GLOW #generative
#خبر
استفاده راحت تر از دیتاست های عمومی با قابلیت جدید تنسرفلو datasets !
A collection of datasets ready to use with TensorFlow
TensorFlow Datasets provides many public datasets as tf.data.Datasets.
https://github.com/tensorflow/datasets
نمونه نوت بوک کولب:
https://colab.research.google.com/github/tensorflow/datasets/blob/master/docs/overview.ipynb
#tensorflow #dataset
استفاده راحت تر از دیتاست های عمومی با قابلیت جدید تنسرفلو datasets !
A collection of datasets ready to use with TensorFlow
TensorFlow Datasets provides many public datasets as tf.data.Datasets.
https://github.com/tensorflow/datasets
نمونه نوت بوک کولب:
https://colab.research.google.com/github/tensorflow/datasets/blob/master/docs/overview.ipynb
#tensorflow #dataset
GitHub
GitHub - tensorflow/datasets: TFDS is a collection of datasets ready to use with TensorFlow, Jax, ...
TFDS is a collection of datasets ready to use with TensorFlow, Jax, ... - tensorflow/datasets
#خبر #مجموعه_داده
مجموعه داده جدید منتشر شده توسط استنفورد. هوش مصنوعی رادیولوژیست ...
Announcing CheXpert! Large dataset of chest X-rays co-released with MIT's MIMIC-CXR dataset. Join our competition to test your chest X-ray interpretation model: https://stanfordmlgroup.github.io/competitions/chexpert/
این دیتاست یک مجموعه گسترده ای از تصاویر X-Ray قفسه سینه است و رقابت برای تفسیر خودکار اشعه ایکس است.
#dataset
مجموعه داده جدید منتشر شده توسط استنفورد. هوش مصنوعی رادیولوژیست ...
Announcing CheXpert! Large dataset of chest X-rays co-released with MIT's MIMIC-CXR dataset. Join our competition to test your chest X-ray interpretation model: https://stanfordmlgroup.github.io/competitions/chexpert/
این دیتاست یک مجموعه گسترده ای از تصاویر X-Ray قفسه سینه است و رقابت برای تفسیر خودکار اشعه ایکس است.
#dataset
stanfordmlgroup.github.io
CheXpert: A Large Dataset of Chest X-Rays and Competition for Automated Chest X-Ray Interpretation.
CheXpert is a large dataset of chest x-rays and competition for automated chest x-ray interpretation, which features uncertainty labels and radiologist-labeled reference standard evaluation sets.
#مجموعه_داده
Hotels-50K: A Global Hotel Recognition Dataset
یک دیتاست خاص!
یک میلیون تصویر از ۵۰۰۰۰ هتل در سراسر جهان.
نکته جالب: اینکه طرف میخواد ازش برای شناسایی هتلهایی که توش انسان قاچاق شده استفاده کنه.
نکتهٔ بامزه: توییت بعدی طرف گفته «با وجود عکسهای اتاق خواب، این مقاله GAN نیست» :))
مقاله:
https://arxiv.org/abs/1901.11397
گیت هاب و داده:
https://github.com/GWUvision/Hotels-50K
لینک به توئیت مرتبط:
https://twitter.com/dennybritz/status/1091312057973014528
🙏Thanks to: @samehraboon
#dataset
Hotels-50K: A Global Hotel Recognition Dataset
یک دیتاست خاص!
یک میلیون تصویر از ۵۰۰۰۰ هتل در سراسر جهان.
نکته جالب: اینکه طرف میخواد ازش برای شناسایی هتلهایی که توش انسان قاچاق شده استفاده کنه.
نکتهٔ بامزه: توییت بعدی طرف گفته «با وجود عکسهای اتاق خواب، این مقاله GAN نیست» :))
مقاله:
https://arxiv.org/abs/1901.11397
گیت هاب و داده:
https://github.com/GWUvision/Hotels-50K
لینک به توئیت مرتبط:
https://twitter.com/dennybritz/status/1091312057973014528
🙏Thanks to: @samehraboon
#dataset
#dataset #مجموعه_داده
Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.
https://github.com/NVlabs/ffhq-dataset
#face #gan
Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.
https://github.com/NVlabs/ffhq-dataset
#face #gan
GitHub
GitHub - NVlabs/ffhq-dataset: Flickr-Faces-HQ Dataset (FFHQ)
Flickr-Faces-HQ Dataset (FFHQ). Contribute to NVlabs/ffhq-dataset development by creating an account on GitHub.
#dataset #مجموعه_داده
Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.
https://github.com/NVlabs/ffhq-dataset
#face #gan
Flickr-Faces-HQ (FFHQ) is out now. "... 70,000 high-quality PNG images at 1024×1024 resolution and contains considerable variation in terms of age, ethnicity and image background." The dataset used for the Style-GAN paper.
https://github.com/NVlabs/ffhq-dataset
#face #gan
#مجموعه_داده
مجموعه داده عظیم دادگان صوتی و گفتار که #ناسا منتشر کرده است.
حدود 19.000 ساعت گفتار ضبط شده از آپالو 11!
Massive Speech Dataset !!! 19,000 hours of Apollo-11 recordings
TASK#1: Speech Activity Detection: SAD
TASK#2: Speaker Diarization: SD
TASK#3: Speaker Identification: SID
TASK#4: Automatic Speech Recognition: ASR
TASK#5: Sentiment Detection: SENTIMENT
http://fearlesssteps.exploreapollo.org/
#NASA #speech #sentiment #dataset
مجموعه داده عظیم دادگان صوتی و گفتار که #ناسا منتشر کرده است.
حدود 19.000 ساعت گفتار ضبط شده از آپالو 11!
Massive Speech Dataset !!! 19,000 hours of Apollo-11 recordings
TASK#1: Speech Activity Detection: SAD
TASK#2: Speaker Diarization: SD
TASK#3: Speaker Identification: SID
TASK#4: Automatic Speech Recognition: ASR
TASK#5: Sentiment Detection: SENTIMENT
http://fearlesssteps.exploreapollo.org/
#NASA #speech #sentiment #dataset
استفاده هر چه آسانتر از دیتاست های مابلیک با قابلیت جدید تنسرفلو
The brand new TensorFlow Datasets, make it super easy to load a variety of public datasets into #TensorFlow programs in both tf.data and NumPy format!
https://medium.com/tensorflow/introducing-tensorflow-datasets-c7f01f7e19f3
اخبار مرتبط:
https://t.me/cvision/939
#tensorflow #dataset
The brand new TensorFlow Datasets, make it super easy to load a variety of public datasets into #TensorFlow programs in both tf.data and NumPy format!
https://medium.com/tensorflow/introducing-tensorflow-datasets-c7f01f7e19f3
اخبار مرتبط:
https://t.me/cvision/939
#tensorflow #dataset
Forwarded from Programming Resources via @like
An open source, multi-language dataset of voices that anyone can use to train speech-enabled applications
یک مجموعه داده منبعباز و چند زبانه از صداهایی هستیم که هر کسی میتواند برای آموزش برنامههای با قابلیت گفتاری استفاده کند.
علاوه بر این میتونید توی قسمت زبان فارسی شرکت کنید و از طریق لینک روبرو در درست کردن دیتاست صدای زبان فارسی کمک کنید -> https://voice.mozilla.org/fa
#dataset #voice
@pythony
voice.mozilla.org/en/datasets
یک مجموعه داده منبعباز و چند زبانه از صداهایی هستیم که هر کسی میتواند برای آموزش برنامههای با قابلیت گفتاری استفاده کند.
علاوه بر این میتونید توی قسمت زبان فارسی شرکت کنید و از طریق لینک روبرو در درست کردن دیتاست صدای زبان فارسی کمک کنید -> https://voice.mozilla.org/fa
#dataset #voice
@pythony
voice.mozilla.org/en/datasets
ساخت و تولید دیتاست مصنوعی متن فارسی و انگلیسی با لیبل به صورت کاملا اتوماتیک و آسان.
یک تولید کننده دیتاست متن فارسی و انگلیسی با قابلیت انتخاب انواع فونت ها و استایل ها و متون رندوم یا انتخابی از دیکشنری و منبع دیتاست دلخواهتان با تعداد دیتای تولید شده دلخواه
با کمک این ابزار میتوانید دیتاست مورد نیاز برای آموزش شبکه های عمیق پردازش متن را به سرعت و آسان تولید کنید
A synthetic data generator for text recognition with latin, arabic and persian text support
https://github.com/amirmgh1375/TextRecognitionDataGenerator
#آموزش #سورس_کد #دیتاست
#synthetic_data #text_recognition #ctc
#ocr
#dataset_generator
یک تولید کننده دیتاست متن فارسی و انگلیسی با قابلیت انتخاب انواع فونت ها و استایل ها و متون رندوم یا انتخابی از دیکشنری و منبع دیتاست دلخواهتان با تعداد دیتای تولید شده دلخواه
با کمک این ابزار میتوانید دیتاست مورد نیاز برای آموزش شبکه های عمیق پردازش متن را به سرعت و آسان تولید کنید
A synthetic data generator for text recognition with latin, arabic and persian text support
https://github.com/amirmgh1375/TextRecognitionDataGenerator
#آموزش #سورس_کد #دیتاست
#synthetic_data #text_recognition #ctc
#ocr
#dataset_generator
مجموعه داده arXiv که شامل بیش از 1.7 میلیون مقاله هست در سایت کگل منتشر شد:
https://www.kaggle.com/Cornell-University/arxiv/tasks
آموزش مدلهای زبانی معروف اخیر روی این مجموعه داده میتواند جالب باشد. یکی از تسک های تعریف شده روی این مجموعه داده، پیشبینی عنوان مقاله از روی چکیده آن میباشد.
بلاگ پست: https://blogs.cornell.edu/arxiv/2020/08/05/leveraging-machine-learning-to-fuel-new-discoveries-with-the-arxiv-dataset/
#dataset
https://www.kaggle.com/Cornell-University/arxiv/tasks
آموزش مدلهای زبانی معروف اخیر روی این مجموعه داده میتواند جالب باشد. یکی از تسک های تعریف شده روی این مجموعه داده، پیشبینی عنوان مقاله از روی چکیده آن میباشد.
بلاگ پست: https://blogs.cornell.edu/arxiv/2020/08/05/leveraging-machine-learning-to-fuel-new-discoveries-with-the-arxiv-dataset/
#dataset
Kaggle
arXiv Dataset
arXiv dataset and metadata of 1.7M+ scholarly papers across STEM
سرویسی برای جستجو بین نزدیک ۲۰۰۰ دیتاست عمومی و رایگان بر اساس دستهبندی و موضوع و همینطور مشاهده نمونه، اطلاعات تکمیلی و اطلاعات در مورد دستهبندی دیتا:
https://datasets.bifrost.ai
#dataset
https://datasets.bifrost.ai
#dataset
Forwarded from Shenasa-ai.ir
#خبر #آموزش #معرفی_دیتاست
معرفی دیتاست objectron گوگل برای درک سه بعدی اشیاء (تصویر این پست)
3D Object Understanding
https://github.com/google-research-datasets/Objectron/
برخلاف دیتاست های قبلی تشخیص اشیاء که همگی محدوده ی تصاویر دو بعدی را مشخص کرده بودند، این دیتاست که توسط گوگل منتشر شده بر روی فریم های متوالی محدوده های سه بعدی اشیاء را مشخص کرده است.
این مجموعه داده شامل 15000 ویدیو و 4 میلیون تصویر در کلاسهای زیر است.
bikes, books, bottles, cameras, cereal boxes, chairs, cups, laptops, shoes
آموزش دانلود و استفاده از این مجموعه داده را میتوانید از اینجا ببینید.
همچنین مدلهای پایه ای روی این دیتاست توسعه داده شده، مدل قبلی این تیم که به صورت single-shot بود را در اینجا ببینید. اما مدل جدید منتشر شده دو مرحله ای است که در مرحله ی اول فقط محدوده ی دو بعدی شی در آن فریم را محاسبه کرده و سپس مرحله ی دوم که از بریده شده ی مرحله ی قبل تغذیه میگردد، به عنوان خروجی محدوده ی سه بعدی آن فریم را به همراه پیشنهاد محدوده ی فریم بعدی را به ما خواهد داد.
این روش جدید حدود 3 برابر از روش تک مرحله ای قبل سریعتر است و آموزش لیبل گذاری ویدیو برای این کار را از اینجا میتوانید مشاهده کنید.
مطالعه بیشتر:
https://medium.com/swlh/introducing-objectron-the-next-phase-in-3d-object-understanding-8432bf285345
https://github.com/google-research-datasets/objectron
#دیتاست #دیتا #dataset $dta #object_detection #Objectron
———————————
مجموعه دانش بنیان شناسا ( داده پویان آلما)
http://shenasa.ai
http://shenasa-ai.ir
ما را دنبال کنید:
آپارات:
https://www.aparat.com/shenasa.ai
لینکدین:
https://www.linkedin.com/company/shenasa-ai/
اینستاگرام:
https://www.instagram.com/shenasa.ai
کانال تلگرام:
https://t.me/shenasa_ai
اخبار و آموزش های تخصصی هوش مصنوعی در تلگرام: @cvision
معرفی دیتاست objectron گوگل برای درک سه بعدی اشیاء (تصویر این پست)
3D Object Understanding
https://github.com/google-research-datasets/Objectron/
برخلاف دیتاست های قبلی تشخیص اشیاء که همگی محدوده ی تصاویر دو بعدی را مشخص کرده بودند، این دیتاست که توسط گوگل منتشر شده بر روی فریم های متوالی محدوده های سه بعدی اشیاء را مشخص کرده است.
این مجموعه داده شامل 15000 ویدیو و 4 میلیون تصویر در کلاسهای زیر است.
bikes, books, bottles, cameras, cereal boxes, chairs, cups, laptops, shoes
آموزش دانلود و استفاده از این مجموعه داده را میتوانید از اینجا ببینید.
همچنین مدلهای پایه ای روی این دیتاست توسعه داده شده، مدل قبلی این تیم که به صورت single-shot بود را در اینجا ببینید. اما مدل جدید منتشر شده دو مرحله ای است که در مرحله ی اول فقط محدوده ی دو بعدی شی در آن فریم را محاسبه کرده و سپس مرحله ی دوم که از بریده شده ی مرحله ی قبل تغذیه میگردد، به عنوان خروجی محدوده ی سه بعدی آن فریم را به همراه پیشنهاد محدوده ی فریم بعدی را به ما خواهد داد.
این روش جدید حدود 3 برابر از روش تک مرحله ای قبل سریعتر است و آموزش لیبل گذاری ویدیو برای این کار را از اینجا میتوانید مشاهده کنید.
مطالعه بیشتر:
https://medium.com/swlh/introducing-objectron-the-next-phase-in-3d-object-understanding-8432bf285345
https://github.com/google-research-datasets/objectron
#دیتاست #دیتا #dataset $dta #object_detection #Objectron
———————————
مجموعه دانش بنیان شناسا ( داده پویان آلما)
http://shenasa.ai
http://shenasa-ai.ir
ما را دنبال کنید:
آپارات:
https://www.aparat.com/shenasa.ai
لینکدین:
https://www.linkedin.com/company/shenasa-ai/
اینستاگرام:
https://www.instagram.com/shenasa.ai
کانال تلگرام:
https://t.me/shenasa_ai
اخبار و آموزش های تخصصی هوش مصنوعی در تلگرام: @cvision
Telegram
Shenasa-ai.ir
3D Object Understanding
اطلاعات بیشتر:
https://t.me/shenasa_ai/38
اطلاعات بیشتر:
https://t.me/shenasa_ai/38