شرکت Luma Labs سرویس تولید ویدئوی Dream Machine را معرفی کرد. از اینجا میتوانید به صورت رایگان و محدود از این سرویس استفاده کنید.
#luma_labs
@dumannewsletter
#luma_labs
@dumannewsletter
توسعه مربی سلامتی توسط Thrive AI Health
استارتاپ Thrive AI Health با جذب سرمایه از VCهای OpenAI Startup Fund و Thrive Global اعلام کرد در حال توسعه مربی شخصی سلامتی بر پایه AI است. این مربی به صورت چند وجهی (Multimodal) عمل خواهد کرد. منظور از چند وجهی بودن ایجنت هوشمصنوعی امکان دریافت دیتا به شکلهای مختلف متن، ویدئو و صوت است. این مربی با استفاده از دادههای علمی، بیومتریک و علایق کاربر بهترین توصیههای شخصی در حوزههایی نظیر خواب، تغذیه، ورزش، مدیریت استرس و ارتباطات اجتماعی را برای کاربر فراهم خواهد کرد. به بهانه این سرمایهگذاری سم آلتمن و آریانا هافینگتون مدیران VCهای نامبرده در مقالهای به تشریح پتانسیل AI در توسعه حوزه سلامت پرداختند. توسعه ایجنتهای بر پایه هوشمصنوعی در حوزه سلامت قبلا توسط شرکتهای گوگل، IBM و بابیلون انجام شده و دستاورد چشمگیری به همراه نداشته است. به عنوان نمونه استارتاپ بابیلون که زمانی به ارزش بیش از ۴ میلیارد دلار رسیده بود در نهایت در سال ۲۰۲۳ ورشکست شد. حفظ حریم شخصی کاربر یکی از مهمترین چالشهای توسعه چنین سرویسهایی است (منبع).
#thrive_ai_health
@dumannewsletter
استارتاپ Thrive AI Health با جذب سرمایه از VCهای OpenAI Startup Fund و Thrive Global اعلام کرد در حال توسعه مربی شخصی سلامتی بر پایه AI است. این مربی به صورت چند وجهی (Multimodal) عمل خواهد کرد. منظور از چند وجهی بودن ایجنت هوشمصنوعی امکان دریافت دیتا به شکلهای مختلف متن، ویدئو و صوت است. این مربی با استفاده از دادههای علمی، بیومتریک و علایق کاربر بهترین توصیههای شخصی در حوزههایی نظیر خواب، تغذیه، ورزش، مدیریت استرس و ارتباطات اجتماعی را برای کاربر فراهم خواهد کرد. به بهانه این سرمایهگذاری سم آلتمن و آریانا هافینگتون مدیران VCهای نامبرده در مقالهای به تشریح پتانسیل AI در توسعه حوزه سلامت پرداختند. توسعه ایجنتهای بر پایه هوشمصنوعی در حوزه سلامت قبلا توسط شرکتهای گوگل، IBM و بابیلون انجام شده و دستاورد چشمگیری به همراه نداشته است. به عنوان نمونه استارتاپ بابیلون که زمانی به ارزش بیش از ۴ میلیارد دلار رسیده بود در نهایت در سال ۲۰۲۳ ورشکست شد. حفظ حریم شخصی کاربر یکی از مهمترین چالشهای توسعه چنین سرویسهایی است (منبع).
#thrive_ai_health
@dumannewsletter
کمپانی سرمایهگذاری a16z تعداد GPUهای خود را به بیش از ۲۰ هزار عدد افزایش خواهد داد. این زیرساخت امکان اجاره منابع پردازشی به استارتاپهای تحت حمایت a16z در ازای سهام را میسر خواهد کرد. دسترسی به منابع پردازشی یکی از پیشنیازهای اساسی در رقابت حوزه هوشمصنوعی مولد است. در حال حاضر a16z یکی از بزرگترین شرکتهای VC در حوزه هوشمصنوعی مولد است و فراهم چنین زیرساختی این موقعیت را بیشتر از گذشته تقویت خواهد کرد (منبع).
#a16z
#هوش_مصنوعی
@dumannewsletter
#a16z
#هوش_مصنوعی
@dumannewsletter
This media is not supported in your browser
VIEW IN TELEGRAM
تولید ویدئو با استفاده از Luma Dream Machine
با استفاده از سرویس Luma Dream Machine میتوانید ویدئوی کوتاه خود را با نوشتن متن و آپلود عکس تولید کنید. همچنین این سرویس امکان extend کردن ویدئو با نوشتن prompt جدید را برای کاربر فراهم میسازد. برای دسترسی محدود و رایگان به این سرویس اینجا را مشاهده کنید.
پرامپت استفاده شده در این ویدئو:
#آموزشی
#هوش_مصنوعی
#luma
@dumannewsletter
با استفاده از سرویس Luma Dream Machine میتوانید ویدئوی کوتاه خود را با نوشتن متن و آپلود عکس تولید کنید. همچنین این سرویس امکان extend کردن ویدئو با نوشتن prompt جدید را برای کاربر فراهم میسازد. برای دسترسی محدود و رایگان به این سرویس اینجا را مشاهده کنید.
پرامپت استفاده شده در این ویدئو:
A tree with monkey on it
#آموزشی
#هوش_مصنوعی
#luma
@dumannewsletter
ساخت کلاستر GPU توسط ایلان ماسک
ایلان ماسک مدیرعامل xAI در پلتفرم x اعلام کرد، این کمپانی در حال ساخت کلاستر پردازشی با بیش از ۱۰۰ هزار پردازنده NVIDIA H100 است! پردازندههای NVIDIA H100 از بهترین پردازندههای گرافیکی (GPU) موجود در بازار بوده که در توسعه مدلهای بزرگ زبانی مورد استفاده قرار میگیرد. ارزش تخمینی هر NVIDIA H100 در بازار حدود ۴۰ هزار دلار قیمتگذاری میشود. در حال حاضر xAI مدل زبانی Grok2 را با استفاده از ۲۴ هزار پردازنده NVIDIA H100 که از اوراکل اجاره کرده توسعه داده است. طبق دیدگاه ایلان ماسک برای رقابتپذیری در این عرصه توسعه چنین زیرساختی موردنیاز بوده و نمیتوان برای آن به شرکتهای دیگر وابسته بود.
#xai
#elon_musk
#هوش_مصنوعی
@dumannewsletter
ایلان ماسک مدیرعامل xAI در پلتفرم x اعلام کرد، این کمپانی در حال ساخت کلاستر پردازشی با بیش از ۱۰۰ هزار پردازنده NVIDIA H100 است! پردازندههای NVIDIA H100 از بهترین پردازندههای گرافیکی (GPU) موجود در بازار بوده که در توسعه مدلهای بزرگ زبانی مورد استفاده قرار میگیرد. ارزش تخمینی هر NVIDIA H100 در بازار حدود ۴۰ هزار دلار قیمتگذاری میشود. در حال حاضر xAI مدل زبانی Grok2 را با استفاده از ۲۴ هزار پردازنده NVIDIA H100 که از اوراکل اجاره کرده توسعه داده است. طبق دیدگاه ایلان ماسک برای رقابتپذیری در این عرصه توسعه چنین زیرساختی موردنیاز بوده و نمیتوان برای آن به شرکتهای دیگر وابسته بود.
#xai
#elon_musk
#هوش_مصنوعی
@dumannewsletter
نگرانیهای برنده جایزه تورینگ نسبت به آینده هوشمصنوعی
یوشوا بنجیو (Yoshua Bengio) برنده جایزه تورینگ و از پیشکسوتان علم کامپیوتر در بلاگ خود نسبت به آینده هوشمصنوعی و توسعه AGI ابراز نگرانی کرد. AGI سطحی از هوشمصنوعی است که مشابه انسان محدود به یک حوزه و یا تسک خاص نبوده و اصطلاحاً Generality دارد. در حال حاضر کمپانیهای بزرگی نظیر گوگل و مایکروسافت در حال توسعه چنین سیستمی هستند. AGI برخلاف سیستمهای هوشمصنوعی حال حاضر توانایی به چالش کشیدن انسان و حتی برتری از آن را نیز خواهد داشت. تعدادی از نکات مهم این بلاگ پست به طور خلاصه:
- در حال حاضر هیچ سازوکاری برای اطمینان از رعایت اصول اخلاقی توسط AGI وجود ندارد!
- بشر باید مطمئن شود که هیچ کسی نمیتواند از AGI سواستفاده کند.
- آیا انتشار عمومی هر چیزی (به عنوان مثال DNA یک ویروس خطرناک) به صلاح بشریت است؟ در مورد اطلاعات فنی AGI چطور؟
نموداری که در تصویر مشاهده میکنید، نزدیک شدن بهرهوری مدلهای هوشمصنوعی به سطح انسان در بنچمارکهای مختلف را نشان میدهد.
#agi
#yoshua_bengio
#هوش_مصنوعی
@dumannewsletter
یوشوا بنجیو (Yoshua Bengio) برنده جایزه تورینگ و از پیشکسوتان علم کامپیوتر در بلاگ خود نسبت به آینده هوشمصنوعی و توسعه AGI ابراز نگرانی کرد. AGI سطحی از هوشمصنوعی است که مشابه انسان محدود به یک حوزه و یا تسک خاص نبوده و اصطلاحاً Generality دارد. در حال حاضر کمپانیهای بزرگی نظیر گوگل و مایکروسافت در حال توسعه چنین سیستمی هستند. AGI برخلاف سیستمهای هوشمصنوعی حال حاضر توانایی به چالش کشیدن انسان و حتی برتری از آن را نیز خواهد داشت. تعدادی از نکات مهم این بلاگ پست به طور خلاصه:
- در حال حاضر هیچ سازوکاری برای اطمینان از رعایت اصول اخلاقی توسط AGI وجود ندارد!
- بشر باید مطمئن شود که هیچ کسی نمیتواند از AGI سواستفاده کند.
- آیا انتشار عمومی هر چیزی (به عنوان مثال DNA یک ویروس خطرناک) به صلاح بشریت است؟ در مورد اطلاعات فنی AGI چطور؟
نموداری که در تصویر مشاهده میکنید، نزدیک شدن بهرهوری مدلهای هوشمصنوعی به سطح انسان در بنچمارکهای مختلف را نشان میدهد.
#agi
#yoshua_bengio
#هوش_مصنوعی
@dumannewsletter
ساخت Presentation با استفاده از سرویس هوشمصنوعی Gemma
سرویس Gemma امکان ساخت Presentation با استفاده از قابلیتهای هوشمصنوعی مولد و نوشتن Prompt را فراهم میسازد. این سرویس خروجی Presentation را با فرمتهای PDF و Power Point در اختیار کاربر قرار میدهد. جهت تست و استفاده محدود از این سرویس اینجا را مشاهده کنید.
#آموزشی
@dumannewsletter
سرویس Gemma امکان ساخت Presentation با استفاده از قابلیتهای هوشمصنوعی مولد و نوشتن Prompt را فراهم میسازد. این سرویس خروجی Presentation را با فرمتهای PDF و Power Point در اختیار کاربر قرار میدهد. جهت تست و استفاده محدود از این سرویس اینجا را مشاهده کنید.
#آموزشی
@dumannewsletter
Robust_and_interpretable_AI_guided_marker_for_early_dementia_prediction.pdf
920.6 KB
محققان دانشگاه کمریج روش جدیدی مبتنی بر هوشمصنوعی برای پیشبینی آلزایمر ارائه کردند. این ابزار جدید نیازی به روشهای هزینهبر و تهاجمی نظیر PET Scan نداشته و با ۸۰ درصد دقت تشخیص انجام میدهد.
#alzheimer
@dumannewsletter
#alzheimer
@dumannewsletter
شرکت فرانسوی Mistral دو مدل جدید زبانی را معرفی کرد.
مدل Codestral Mamba با ۷ میلیارد پارامتر مخصوص کد نویسی است. این مدل از نمونههای اپنسورس مشابه نظیر CodeGemma و CodeLlama عملکرد بهتری دارد. سایز Context آن نیز ۲۵۶ کیلوبایت است.
مدل Mathstral نیز دارای ۷ میلیارد پارامتر بوده و مخصوص حل مسائل استنتاجی و ریاضی است. این مدل در بنچمارک MATH عملکرد ۵۶.۶ درصدی و در بنچمارک MMLU عملکرد ۶۳.۴۷ درصدی داشته است. هر دو مدل به صورت اپنسورس تحت لایسنس Apache 2.0 منتشر شدهاند.
#mistral
@dumannewsletter
مدل Codestral Mamba با ۷ میلیارد پارامتر مخصوص کد نویسی است. این مدل از نمونههای اپنسورس مشابه نظیر CodeGemma و CodeLlama عملکرد بهتری دارد. سایز Context آن نیز ۲۵۶ کیلوبایت است.
مدل Mathstral نیز دارای ۷ میلیارد پارامتر بوده و مخصوص حل مسائل استنتاجی و ریاضی است. این مدل در بنچمارک MATH عملکرد ۵۶.۶ درصدی و در بنچمارک MMLU عملکرد ۶۳.۴۷ درصدی داشته است. هر دو مدل به صورت اپنسورس تحت لایسنس Apache 2.0 منتشر شدهاند.
#mistral
@dumannewsletter
معرفی اپلیکیشن دیزاینر مایکروسافت برای ساخت و ویرایش تصاویر با استفاده از AI
با استفاده از اپلیکیشن دیزاینر مایکروسافت میتوانید تصویر، آواتار و یا ایموجی مورد نیاز خود را تنها با نوشتن Prompt تولید کنید. علاوه بر آن این اپلیکیشن امکان ویرایش تصاویر کاربر با استفاده از هوشمصنوعی را فراهم میسازد. شما میتوانید از این اپلیکیشن به صورت رایگان با محدودیت روزانه استفاده کرده و یا با خرید اشتراک به صورت نامحدود از قابلیتهای آن استفاده کنید. برای استفاده از آن باید اکانت مایکروسافت بسازید.
👈 نسخه مبتنی بر وب
👈 نسخه اندروید
👈 نسخه iOS
#designer
#microsoft
#آموزشی
#هوش_مصنوعی
@dumannewsletter
با استفاده از اپلیکیشن دیزاینر مایکروسافت میتوانید تصویر، آواتار و یا ایموجی مورد نیاز خود را تنها با نوشتن Prompt تولید کنید. علاوه بر آن این اپلیکیشن امکان ویرایش تصاویر کاربر با استفاده از هوشمصنوعی را فراهم میسازد. شما میتوانید از این اپلیکیشن به صورت رایگان با محدودیت روزانه استفاده کرده و یا با خرید اشتراک به صورت نامحدود از قابلیتهای آن استفاده کنید. برای استفاده از آن باید اکانت مایکروسافت بسازید.
👈 نسخه مبتنی بر وب
👈 نسخه اندروید
👈 نسخه iOS
#designer
#microsoft
#آموزشی
#هوش_مصنوعی
@dumannewsletter
انتشار نسخه ارزان GPT-4o mini
شرکت OpenAI ارزانترین مدل کارآمد خود را با نام GPT-4o mini منتشر کرد. قیمت دسترسی به APIهای این مدل ۱۵ سنت به ازای یک میلیون توکن ورودی و ۶۰ سنت به ازای یک میلیون توکن خروجی است (سایز ورودی و خروجی ریکوئست در محاسبه هزینه مدلهای زبانی لحاظ میشود). تا قبل از معرفی این نسخه ارزانترین مدل OpenAI نسخه GPT-3.5 Turbo بود. به این ترتیب با معرفی GPT-4o mini ارزانترین مدل OpenAI حدود ۶۰ درصد ارزانتر شده است! ضمن کاهش قابل توجه هزینه، بهرهوری نسخه GPT-4o mini در بنچمارکهای مختلف از نسخه GPT-3.5 Turbo بهتر است. قرار است در آینده نزدیک فرمهای مختلف دیتا نیز توسط GPT-4o mini ساپورت شود. سایز Context Window آن ۱۲۸ کیلوبایت بوده و دیتای استفاده شده برای آموزش آن تا اکتبر ۲۰۲۳ به روز بوده است. این کاهش هزینه امکان استفاده از مدلهای زبانی را در اپلیکیشنهای بیشتری میسر میسازد (جزئیات بیشتر).
#openai
#gpt4o
#gpt4o_mini
#هوش_مصنوعی
@dumannewsletter
شرکت OpenAI ارزانترین مدل کارآمد خود را با نام GPT-4o mini منتشر کرد. قیمت دسترسی به APIهای این مدل ۱۵ سنت به ازای یک میلیون توکن ورودی و ۶۰ سنت به ازای یک میلیون توکن خروجی است (سایز ورودی و خروجی ریکوئست در محاسبه هزینه مدلهای زبانی لحاظ میشود). تا قبل از معرفی این نسخه ارزانترین مدل OpenAI نسخه GPT-3.5 Turbo بود. به این ترتیب با معرفی GPT-4o mini ارزانترین مدل OpenAI حدود ۶۰ درصد ارزانتر شده است! ضمن کاهش قابل توجه هزینه، بهرهوری نسخه GPT-4o mini در بنچمارکهای مختلف از نسخه GPT-3.5 Turbo بهتر است. قرار است در آینده نزدیک فرمهای مختلف دیتا نیز توسط GPT-4o mini ساپورت شود. سایز Context Window آن ۱۲۸ کیلوبایت بوده و دیتای استفاده شده برای آموزش آن تا اکتبر ۲۰۲۳ به روز بوده است. این کاهش هزینه امکان استفاده از مدلهای زبانی را در اپلیکیشنهای بیشتری میسر میسازد (جزئیات بیشتر).
#openai
#gpt4o
#gpt4o_mini
#هوش_مصنوعی
@dumannewsletter
معرفی مدلهای کوچک زبانی SmolLM توسط HF
شرکت HuggingFace مجموعهای از مدلهای زبانی کوچک را با نام SmolLM به صورت اپنسورس منتشر کرد. در حال حاضر این مجموعه شامل سه مدل زبانی با سایزهای ۱۳۵ میلیون، ۳۶۰ میلیون و ۱.۷ میلیارد پارامتر است. معرفی چنین مدلهایی امکان استفاده از قابلیتهای هوشمصنوعی مولد را به صورت لوکال و آفلاین فراهم میسازد. در این تصویر این مدلها با نمونههای مشابه در بنچمارکهای مختلف مقایسه شده است. برای مطالعه جزئیات فنی درباره این مدلها اینجا را بخوانید.
#hugging_face
#smollm
#هوش_مصنوعی
@dumannewsletter
شرکت HuggingFace مجموعهای از مدلهای زبانی کوچک را با نام SmolLM به صورت اپنسورس منتشر کرد. در حال حاضر این مجموعه شامل سه مدل زبانی با سایزهای ۱۳۵ میلیون، ۳۶۰ میلیون و ۱.۷ میلیارد پارامتر است. معرفی چنین مدلهایی امکان استفاده از قابلیتهای هوشمصنوعی مولد را به صورت لوکال و آفلاین فراهم میسازد. در این تصویر این مدلها با نمونههای مشابه در بنچمارکهای مختلف مقایسه شده است. برای مطالعه جزئیات فنی درباره این مدلها اینجا را بخوانید.
#hugging_face
#smollm
#هوش_مصنوعی
@dumannewsletter
معرفی مدل Mistral NeMo
مدل زبانی Mistral NeMo با همکاری مشترک Mistral و NVIDIA به صورت اپنسورس تحت لایسنس Apache 2.0 منتشر شد. این مدل ۱۲ میلیارد پارامتر داشته و سایز Context Window آن ۱۲۸ کیلوبایت است. در این تصویر مقایسه آن با نمونههای مشابه را در بنچمارکهای مختلف مشاهده میکنید (مطالعه جزئیات بیشتر).
#mistral
#nvidia
@dumannewsletter
مدل زبانی Mistral NeMo با همکاری مشترک Mistral و NVIDIA به صورت اپنسورس تحت لایسنس Apache 2.0 منتشر شد. این مدل ۱۲ میلیارد پارامتر داشته و سایز Context Window آن ۱۲۸ کیلوبایت است. در این تصویر مقایسه آن با نمونههای مشابه را در بنچمارکهای مختلف مشاهده میکنید (مطالعه جزئیات بیشتر).
#mistral
#nvidia
@dumannewsletter
مدل ۷ میلیارد پارامتری DCLM-Baseline-7B توسط اپل به صورت اوپنسورس منتشر شد. این مدل عملکرد بهتری نسبت به Mistral 7B در بنچمارکهای مختلف داشته است. سایز Context Window آن ۲۰۴۸ توکن است (دسترسی به مدل و جزئیات فنی بیشتر).
#apple
@dumannewsletter
#apple
@dumannewsletter
خبرنامه هوش مصنوعی دومان
ساخت کلاستر GPU توسط ایلان ماسک ایلان ماسک مدیرعامل xAI در پلتفرم x اعلام کرد، این کمپانی در حال ساخت کلاستر پردازشی با بیش از ۱۰۰ هزار پردازنده NVIDIA H100 است! پردازندههای NVIDIA H100 از بهترین پردازندههای گرافیکی (GPU) موجود در بازار بوده که در توسعه…
Please open Telegram to view this post
VIEW IN TELEGRAM
خبرنامه هوش مصنوعی دومان
نسخه ۳ مدل زبانی Llama منتشر شد متا نسخه ۳ مدل اپنسورس Llama را در سایزهای ۸ و ۷۰ میلیارد پارامتر منتشر کرد. طول Context Window در این نسخه ۸ هزار توکن است. قرار است به زودی این نسخه در پلتفرمهای مختلف کلاد در دسترس قرار بگیرد. نسخه ۳ با ۱۵ تریلیون توکن…
بالاخره نسخه ۴۰۵ میلیارد پارامتری Llama 3 منتشر شد! این LLM یکی از بزرگترین مدلهای زبانی حال حاضر است که به صورت اپنسورس منتشر شده و مدلهای انحصاری موجود را به چالش میکشد.
👈 دسترسی به مدل در HF
👈 مطالعه جزئیات فنی
#llama
@dumannewsletter
👈 دسترسی به مدل در HF
👈 مطالعه جزئیات فنی
#llama
@dumannewsletter
در هفته گذشته شرکت Anthropic نسخه اندروید چتبات Cluade را نیز منتشر کرد.
👈 نصب نسخه اندروید
👈 نصب نسخه iOS
#claude
#anthropic
@dumannewsletter
👈 نصب نسخه اندروید
👈 نصب نسخه iOS
#claude
#anthropic
@dumannewsletter
ساخت ویدئو با استفاده از سرویس Haiper AI
با استفاده از سرویس Haiper AI میتوانید یک ویدئو کوتاه تا ۸ ثانیه تولید کنید. برای ساخت ویدئو خود باید Prompt نوشته و یا به همراه آن یک عکس یا ویدئو دیگری را نیز آپلود کنید. برای تست این سرویس اینجا را مشاهده کنید.
👈 مشاهده ویدئو نمونه
#haiper
#آموزشی
#ابزار
@dumannewsletter
با استفاده از سرویس Haiper AI میتوانید یک ویدئو کوتاه تا ۸ ثانیه تولید کنید. برای ساخت ویدئو خود باید Prompt نوشته و یا به همراه آن یک عکس یا ویدئو دیگری را نیز آپلود کنید. برای تست این سرویس اینجا را مشاهده کنید.
👈 مشاهده ویدئو نمونه
#haiper
#آموزشی
#ابزار
@dumannewsletter